KR102342866B1 - A method streaming and displaying custom content - Google Patents

A method streaming and displaying custom content Download PDF

Info

Publication number
KR102342866B1
KR102342866B1 KR1020210130508A KR20210130508A KR102342866B1 KR 102342866 B1 KR102342866 B1 KR 102342866B1 KR 1020210130508 A KR1020210130508 A KR 1020210130508A KR 20210130508 A KR20210130508 A KR 20210130508A KR 102342866 B1 KR102342866 B1 KR 102342866B1
Authority
KR
South Korea
Prior art keywords
information
customized
user
content
area
Prior art date
Application number
KR1020210130508A
Other languages
Korean (ko)
Inventor
박진형
Original Assignee
주식회사 빛글림
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 빛글림 filed Critical 주식회사 빛글림
Priority to KR1020210130508A priority Critical patent/KR102342866B1/en
Application granted granted Critical
Publication of KR102342866B1 publication Critical patent/KR102342866B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to a method for streaming and displaying content customized to a user by acquiring surrounding environment information and preference information of the user. According to one embodiment of the present invention, a customized control providing method executed by a first user terminal including a display, a camera, and a control unit comprises the following steps: acquiring first object information from an external server; acquiring surrounding image information; acquiring a plurality of pieces of user preference information from a second user terminal; determining customized content on the basis of the surrounding image information and the first object information or the preference information; and displaying the customized content on the display. The surrounding image information includes front image information of the first user terminal acquired through the camera or photographed image information of an area, in which the first user terminal is to be disposed, acquired from the second user terminal.

Description

사용자 맞춤형 컨텐츠 스트리밍 및 디스플레이 방법{A method streaming and displaying custom content}{A method streaming and displaying custom content}

본 발명은 고객 주변의 환경 및 선호도에 맞추어서 고객에게 맞춤형 컨텐츠를 제공하고, 맞춤형 컨텐츠를 디스플레이에 표시하는 방법에 관한 발명이다.The present invention relates to a method of providing customized content to a customer according to the environment and preference around the customer, and displaying the customized content on a display.

최근 사용자가 참여했던 이벤트 속성을 기반으로 사용자 최신 성향을 생성하기도 하고, 과거에 이벤트들의 속성을 비교하여 새로운 이벤트의 속성을 예측하기도 한다. 이와 같은 새로운 이벤트의 속성, 사용자 선호도, 사용자의 상황을 고려하여 맞춤형 이벤트를 제공하는 연구가 활발하게 진행되고 있으며, 이를 디스플레이에 표시하는 방법 또한 연구가 활발하게 진행되고 있다.The user's latest tendency is generated based on the properties of events that the user recently participated in, and the properties of new events are predicted by comparing the properties of past events. Research on providing a customized event in consideration of the properties of the new event, user preference, and user's situation is being actively conducted, and a method of displaying it on a display is also being actively researched.

현재 보편적으로 사용되고 있는 동영상 추천 시스템은 두 개 데이터 분류 시스템으로 구성되어 있으며 콘텐츠 기반 필터링과 협업 필터링으로 나누어질 수 있다. 코로나 펜데믹으로 온라인 플랫폼 주도의 콘텐츠 제작이 활성화 되면서 인공지능을 활용한 가상 인플루언서 분야가 부각되고 있다. 가상 인플루언서는 GAN 인공지능으로 제작되는데 성격이 다른 두 시스템이 서로 경쟁하는 방식으로 학습이 반복되는 비교사 학습 알고리즘을 이용되고 있으며, 이와 더불어 다양한 방법으로 동영상을 추천해주는 UI와 관련된 연구가 활발하게 진행되고 있다.
서울특별시 서울산업진흥원 (2021년도 제4회 서울혁신챌린지 결선) (IC210014) '머신러닝 이미지 분석 기술을 활용한 비주얼 콘텐츠 AI 감성 분류체계 및 큐레이션 기술개발'을 통해 개발된 기술이다.
The video recommendation system that is currently commonly used consists of two data classification systems and can be divided into content-based filtering and collaborative filtering. As online platform-led content production is revitalized due to the coronavirus pandemic, the field of virtual influencers using artificial intelligence is emerging. The virtual influencer is produced with GAN artificial intelligence, and a comparative learning algorithm that repeats learning in a way that two systems with different personalities compete with each other is used. is proceeding.
Seoul Industry Promotion Agency (Finalist of the 4th Seoul Innovation Challenge in 2021) (IC210014) This is a technology developed through 'Visual content AI emotion classification system and curation technology development using machine learning image analysis technology'.

본 발명은 사용자의 주변 환경 정보 및 선호도 정보를 획득하여 사용자에게 맞는 맞춤형 컨텐츠를 제공할 수 있다.According to the present invention, it is possible to provide customized content suitable for the user by acquiring the user's surrounding environment information and preference information.

일 실시예에 따른 디스플레이, 카메라 및 제어부를 포함하는 제1 사용자 단말에 의해 수행되는 맞춤형 컨텐츠 제공 방법에 있어서, 외부 서버로부터 제1 객체 정보를 획득하는 단계; 주변 이미지 정보를 획득하는 단계; 제2 사용자 단말로부터 복수의 사용자 선호도 정보를 획득하는 단계; 상기 주변 이미지 정보 및 상기 제1 객체 정보 또는 상기 선호도 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계; 및 상기 맞춤형 컨텐츠를 상기 디스플레이에 표시하는 단계를 포함하고, 상기 주변 이미지 정보는 상기 카메라를 통해 획득한 제1 사용자 단말 의 전방 이미지 정보 또는 상기 제2 사용자 단말로부터 획득한 상기 제1 사용자 단말이 배치될 영역의 촬영 이미지 정보를 포함할 수 있다.In accordance with an embodiment, a method for providing customized content performed by a first user terminal including a display, a camera, and a control unit, the method comprising: obtaining first object information from an external server; acquiring surrounding image information; obtaining a plurality of user preference information from a second user terminal; determining customized content based on the surrounding image information and the first object information or the preference information; and displaying the customized content on the display, wherein the surrounding image information is arranged by the first user terminal obtained from the front image information of the first user terminal acquired through the camera or the second user terminal It may include information about the photographed image of the to-be-prepared area.

상기 맞춤형 컨텐츠는 사용자 맞춤형 동영상 정보 및 상기 맞춤형 컨텐츠에 대한 테마 정보를 포함하고, 상기 맞춤형 컨텐츠를 상기 디스플레이에 표시하는 단계는, 상기 맞춤형 동영상 정보에 대응되는 영상인 맞춤 영상을 상기 디스플레이 화면의 좌측 영역인 제1 영역에 표시하고, 상기 테마 정보에 기초하여 상기 맞춤 영상에 대응되는 테마에 대한 내용인 테마 내용을 상기 제1 영역의 우측 영역인 제2 영역에 표시하는 단계;를 포함할 수 있다.The customized content includes user-customized video information and theme information for the customized content, and the displaying of the customized content on the display includes displaying a customized image, which is an image corresponding to the customized video information, on a left area of the display screen. and displaying, on the basis of the theme information, the theme content, which is the content of the theme corresponding to the customized image, in the second area, which is the right area of the first area.

상기 주변 이미지 정보 및 상기 제1 객체 정보 또는 상기 선호도 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계는, 복수의 감성 카테고리 중 주변 이미지 정보, 상기 제1 객체 정보 및 상기 선호도 정보에 기초하여 제1 감성 카테고리를 결정하는 단계;를 포함하고, 상기 맞춤형 컨텐츠를 상기 디스플레이에 표시하는 단계는, 상기 제1 감성 카테고리에 기초하여, 상기 제1 감성 카테고리에 대응하는 내용인 맞춤형 컨텐츠에 대한 부가 내용을 상기 제2 영역에 함께 표시하는 단계;를 포함할 수 있다.The determining of the customized content based on the surrounding image information and the first object information or the preference information may include: a first sentiment category based on surrounding image information, the first object information, and the preference information among a plurality of emotion categories. Including; and, the displaying of the customized content on the display includes adding additional content to the customized content corresponding to the first emotional category based on the first emotional category to the second may include; displaying them together in the area.

제1 외부 서버로부터 제1 사용자 단말이 위치한 위치 정보를 획득하는 단계; 상기 주변 이미지 정보 및 상기 제1 객체 정보 또는 상기 선호도 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계는, 상기 위치 정보와 상기 주변 이미지 정보, 상기 제1 객체 정보 및 상기 선호도 정보 중 적어도 한 가지에 기초하여 상기 제1 사용자 단말이 배치될 공간인 추천 장소를 결정하는 단계; 상기 추천 장소에 기초하여 상기 제1 감성 카테고리를 결정하는 단계;를 포함할 수 있다.obtaining location information where the first user terminal is located from a first external server; The determining of the customized content based on the surrounding image information and the first object information or the preference information may include: Based on at least one of the location information, the surrounding image information, the first object information, and the preference information determining a recommended place where the first user terminal is to be placed; It may include; determining the first emotion category based on the recommended place.

상기 부가 내용은, 상기 맞춤형 컨텐츠에 대응하는 분위기 내용, 상기 맞춤형 컨텐츠를 재생하는 시간 내용 및 상기 맞춤형 컨텐츠가 어울리는 추천 장소에 대한 설명 내용을 포함하고, 상기 제1 감성 카테고리에 기초하여, 상기 제1 감성 카테고리에 대응하는 내용인 맞춤형 컨텐츠 컨텐츠에 대한 부가 내용을 상기 제2 영역에 함께 표시하는 단계는, 상기 추천 장소에 대한 설명 내용을 상기 제2 영역 내부 중 상기 맞춤 영상에 대응하는 영역의 상단인 제3영역에 표시하는 단계; 상기 테마 내용을 상기 제 2영역 내부 중 상기 제3 영역의 하단인 제4 영역에 표시하는 단계; 상기 맞춤형 컨텐츠를 온 할 시간 내용을 상기 제2 영역 내부 중 상기 제4 영역의 하단인 제5 영역에 표시하는 단계;를 포함할 수 있다.The additional contents include atmosphere contents corresponding to the customized contents, time contents for reproducing the customized contents, and description contents of recommended places suitable for the customized contents, and based on the first emotion category, the first The step of displaying additional content for the customized content content corresponding to the emotional category together in the second area includes displaying the description of the recommended place at the top of the area corresponding to the customized image in the second area. displaying on the third area; displaying the theme content in a fourth area that is a lower end of the third area among the inside of the second area; and displaying the content of the time to turn on the customized content on a fifth area that is a lower end of the fourth area among the inside of the second area.

본 발명은 사용자 선호도를 반영하여 맞춤형 컨텐츠를 제공 함으로서 고객에게 만족감을 제공할 수 있다.The present invention can provide satisfaction to customers by providing customized content by reflecting user preferences.

본 발명은 사용자의 연령대, 사용자가 위치한 지역 정보에 기반하여 컨텐츠를 제공 함으로서 사용자의 만족감을 향상시킬 수 있다.According to the present invention, the user's satisfaction can be improved by providing content based on the user's age group and the user's location information.

다양한 실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 일 실시예에 의한 프로세서의 동작을 예시한 도면이다.
도 2는 일 실시예에 의한 맞춤형 컨텐츠를 디스플레이에 표시한 동작을 예시한 도면이다.
도 3은 일 실시예에 맞춤형 컨텐츠를 획득하는 동작을 예시한 도면이다.
도 4는 일 실시예에 의한 동영상을 포함하는 맞춤형 컨텐츠를 디스플레이에 표시하는 동작을 예시한 도면이다.
도 5는 일 실시예에 의한 맞춤형 컨텐츠의 재생 설정을 표시하는 동작을 예시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the various embodiments, provide various embodiments and, together with the detailed description, explain technical features of the various embodiments.
1 is a diagram illustrating an operation of a processor according to an embodiment.
2 is a diagram illustrating an operation of displaying customized content on a display according to an embodiment.
3 is a diagram illustrating an operation of acquiring customized content according to an embodiment.
4 is a diagram illustrating an operation of displaying customized content including a moving picture on a display according to an exemplary embodiment.
5 is a diagram illustrating an operation of displaying a reproduction setting of a customized content according to an exemplary embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. “및/또는”이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term “and/or” includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In explaining the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 일 실시예에 의한 제어부에 속한 프로세서의 동작을 예시한 도면이다. 도 1을 구체적으로 살펴보면 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.1 is a diagram illustrating an operation of a processor belonging to a control unit according to an embodiment. Referring specifically to FIG. 1 , the at least one processor 110 may be a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated unit in which methods according to embodiments of the present invention are performed. of the processor. Each of the memory 120 and the storage device 160 may be configured of at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 is a flash-memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, micro SD card).

또한, 제어부(100)는, 제어부에 포함될 수 있으며, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 제어부(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 제어부(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the control unit 100 may be included in the control unit, and may include a transceiver 130 for performing communication through a wireless network. Also, the controller 100 may further include an input interface device 140 , an output interface device 150 , a storage device 160 , and the like. Each of the components included in the control unit 100 may be connected by a bus 170 to communicate with each other.

도 2는 일 실시예에 의한 맞춤형 컨텐츠를 디스플레이에 표시한 동작을 예시한 도면이다. 도 3은 일 실시예에 맞춤형 컨텐츠를 획득하는 동작을 예시한 도면이다.2 is a diagram illustrating an operation of displaying customized content on a display according to an embodiment. 3 is a diagram illustrating an operation of acquiring customized content according to an embodiment.

도 2 및 도 3을 구체적으로 살펴보면, 제1 사용자 단말(1)은 디스플레이 및 카메라를 포함하고, 제어부는 외부 서버로부터 적어도 하나의 제1 객체 정보를 획득할 수 있고, 카메라를 통해 상기 제1 사용자 단말(1)의 주변 이미지 정보를 획득할 수 있다. 제1 객체 정보는 사물에 대한 정보를 의미할 수 있다. 이는 나무, 꽃, 구름, 바람, 사람, 자동차 뿐만 아니라 현재 존재하는 물품들에 대한 정보를 포함할 수 있다. 외부 서버는 제1 객체 정보를 포함하고 있는 제어부를 의미할 수 있다.2 and 3 , the first user terminal 1 includes a display and a camera, the control unit may obtain at least one piece of first object information from an external server, and the first user through the camera It is possible to obtain peripheral image information of the terminal 1 . The first object information may mean information about a thing. This can include information about trees, flowers, clouds, wind, people, cars, as well as items that currently exist. The external server may mean a control unit including the first object information.

이때 주변 이미지 정보는 제1 사용자 단말(1)의 전방 이미지 정보를 포함할 수 있으며, 이외에도 측면 후면 이미지 정보를 포함할 수 있다. 즉 카메라는 한 개가 아닌 복수개가 내장 또는 설치되어 있을 수 있다.In this case, the surrounding image information may include front image information of the first user terminal 1 and, in addition, side and rear image information. That is, a plurality of cameras may be built-in or installed instead of one.

제어부는 주변 이미지 정보 및 상기 적어도 하나의 제1 객체 정보에 기초하여 맞춤형 컨텐츠 정보를 획득할 수 있다. 이때 맞춤형 컨텐츠 정보를 획득하는 동작은 후에 서술하도록 한다. The controller may acquire customized content information based on surrounding image information and the at least one first object information. In this case, the operation of acquiring the customized content information will be described later.

제1 사용자 단말은 콘텐츠, 키워드, QR 코드 스캔, 사용자의 패턴 변화, 사용자의 감정 변화 정보를 획득할 수 있고, 사용자의 경험 데이터를 획득할 수 있다. 이후 행동 패턴, 키워드와 사용자의 입력, 색상 분석, 객체 분석, 연관성 분석 등을 통해 사용자에게 개인화 추천 서비스를 제공할 수 있다.The first user terminal may obtain content, keyword, QR code scan, user pattern change, user emotion change information, and may obtain user experience data. Thereafter, a personalized recommendation service can be provided to users through behavioral patterns, keywords and user input, color analysis, object analysis, correlation analysis, and the like.

영상의 감성을 결정하는 것은, 콘텐츠 내용에 포함된 구도 정보, 콘텐츠 내용에 포함된 객체의 크기 정보, 콘텐츠 내용의 객체들의 배치 정보, 콘텐츠 내용에 포함된 객체의 행동 정보 및 콘텐츠에 포함된 객체들의 질감 정보에 기초하여 감성을 결정할 수 있다. 콘텐츠의 감성을 결정한 후, 이를 상황 및 감성에 따라 맞춤형 컨텐츠로 제공할 수 있다. 객체의 크기에 따라서 객체가 영상 속 공간을 얼마나 차지하는 비율에 따라 중요도를 높게 측정할 수 있으며, 배치 방식에 따라서 주요 감성을 결정할 수도 있고, 특정 객체가 움직이는 경우 움직임이 크거나 빠를수록 활발하거나 긴급한 느낌이 들 수 있다. 또한 질감에 따라 감성이 달라질 수 있다.Determining the emotion of the image includes composition information included in the content content, size information of objects included in the content content, arrangement information of objects in the content content, behavioral information of objects included in the content content, and objects included in the content content. The emotion may be determined based on the texture information. After determining the emotion of the content, it can be provided as customized content according to the situation and emotion. Depending on the size of the object, the importance can be measured high according to how much space the object occupies in the video, and the main emotion can be determined according to the arrangement method. this can be heard Also, the sensibility may vary depending on the texture.

제어부는 맞춤형 컨텐츠 정보를 상기 디스플레이에 표시할 수 있다.The controller may display customized content information on the display.

제어부는 카메라를 통해 주변 이미지를 획득할 수 있고, 주변 이미지에 포함된 꽃, 나무, 하늘 등을 인식할 수 있다. 이후, 인식한 꽃 나무, 하늘 등을 제1 객체 정보와 일치하는 작업을 통해 제2 객체를 도출할 수 있다. 제2 객체는 제1 객체 중 주변 이미지 정보에 포함된 객체에 대응되는 객체를 의미할 수 있다. 제2 객체를 인식한 후, 제2 객체의 색깔을 도출하고, 색깔을 통해 감성을 결정한 후 이에 맞는 사용자 맞춤형 컨텐츠를 제공할 수 있다.The controller may acquire a surrounding image through the camera, and may recognize flowers, trees, sky, etc. included in the surrounding image. Thereafter, the second object may be derived by matching the recognized flower tree, sky, etc. with the first object information. The second object may mean an object corresponding to an object included in the surrounding image information among the first objects. After recognizing the second object, the color of the second object is derived, the emotion is determined through the color, and user-customized content suitable for the color can be provided.

이때 맞춤형 컨텐츠는 사용자 맞춤형 동영상 정보 외에도, 사용자 맞춤형 음악 정보, 사용자 맞춤형 사진 정보를 포함할 수 있으며, 이외에도 보편적으로 사용자가 즐겨 이용하는 정보가 포함될 수 있다. 이 경우 각각의 사용자 맞춤형 음악 정보라면 제1 영역에 맞춤형 음악 정보에 대응되는 음악인 맞춤 음악이 표시될 수 있고, 사용자 맞춤형 사진 정보라면 맞춤 사진이 표시될 수 있으며, 테마 정보도 각각의 음악 사진에 대응되는 내용이 표시될 수 있다.In this case, the customized content may include user-customized music information and user-customized photo information, in addition to user-customized video information, and in addition to information that is commonly used by users, may be included. In this case, for each user-customized music information, customized music that is music corresponding to the customized music information may be displayed in the first area, and for user-customized photo information, a customized photo may be displayed, and the theme information also corresponds to each music photograph content may be displayed.

또한 제2 객체와 어울리는 음악이나 영상 등의 컨텐츠를 제공할 수도 있다. 일 실시예로 제2 객체가 자연과 관련된 객체가 많다고 하는 경우, In addition, content such as music or video matching the second object may be provided. In an embodiment, if the second object has many objects related to nature,

일 실시예로 제2 객체 중 자연과 관련된 객체가 많이 포함되어 있다면, 자연이라는 카테고리로 결정한 후, 자연과 관련된 영상이나 음악을 결정할 수 있다. 이때 자연과 관련된 영상이나 음악은 후술하듯 수학식 1과 같이 결정하거나, 음악의 음역대, 인기 순위 등을 종합적으로 고려하여 결정할 수 있다. 이때 자연과 관련된 객체가 많다는 것은 사용자의 설정에 의해서 임계치 이상인 경우를 의미할 수 있다. As an embodiment, if many objects related to nature are included among the second objects, after determining the category of nature, an image or music related to nature may be determined. In this case, images or music related to nature may be determined as in Equation 1, as described later, or may be determined by comprehensively considering the music range, popularity ranking, and the like. In this case, the abundance of nature-related objects may mean a case in which the threshold value is higher than the threshold value set by the user.

일 실시예로 나무가 많은 자연적인 환경의 경우, 평화로운 음악으로 설정을 해 놓았다면 평화로운 음악이나 평화로운 영상이 추천되도록 설정할 수 있다. In an embodiment, in the case of a natural environment in which there are many trees, if peaceful music is set, it may be set to recommend peaceful music or peaceful images.

이때 제2 객체를 인식한 후에 제2 객체에 대응하는 음악이나 영상 등의 컨텐츠를 결정할 수도 있다. 이때 제어부는 주변 이미지 정보를 입력 값으로 하여 미리 학습된 기계 학습 방식을 통해 상기 제1 객체 정보에 대응되는 제2 객체에 대한 정보인 제2 객체 정보를 출력 값으로 획득할 수 있다. 제2 객체는 상술한 바와 같이 제1 사용자 단말(1)로 획득한 주변 정보 이미지에 포함된 객체들을 의미할 수 있다. 미리 학습된 기계 학습 방식은 딥 러닝 모델 등을 이용할 수 있다.In this case, after recognizing the second object, content such as music or video corresponding to the second object may be determined. In this case, the controller may obtain, as an output value, second object information, which is information about a second object corresponding to the first object information, through a machine learning method learned in advance by using the surrounding image information as an input value. The second object may mean objects included in the surrounding information image acquired by the first user terminal 1 as described above. The pre-trained machine learning method may use a deep learning model or the like.

제어부는 제2 사용자 단말로부터 복수의 사용자 선호도 정보를 획득할 수 있다. 제1 사용자 단말(1)은 맞춤형 컨텐츠를 제공하는 기기를 의미할 수 있으며, 제2 사용자 단말은 사용자의 스마트 폰과 같이 사용자의 선호도 정보를 포함하고 있는 기기를 의미할 수 있다. 사용자 선호도 정보는 후술하듯, 상기 사용자의 연령 정보, 상기 사용자의 성별 정보 및 상기 사용자의 성격 정보를 포함할 수 있으며, 이외에도 사용자가 평소 시청하는 컨텐츠 정보, 사용자가 평소 듣는 음악 정보, 사용자의 제2 사용자 단말 사용 정보, 사용자의 선호 음식 정보, 사용자의 선호 계절 정보, 사용자의 선호 날씨 정보, 사용자가 자주 사용하는 어플리케이션 정보 등을 포함할 수 있다. 제어부는 상기 제2 사용자 단말로부터 미리 설정된 복수의 선호 카테고리를 획득할 수 있다. The control unit may obtain a plurality of user preference information from the second user terminal. The first user terminal 1 may mean a device that provides customized content, and the second user terminal may mean a device including the user's preference information, such as a user's smart phone. As will be described later, the user preference information may include the user's age information, the user's gender information, and the user's personality information. In addition, the user's usual content information, the user's usual music information, and the user's second It may include user terminal usage information, user's preferred food information, user's preferred season information, user's preferred weather information, and frequently used application information by the user. The controller may acquire a plurality of preset preference categories from the second user terminal.

미리 설정된 복수의 선호 카테고리를 사용자가 설정해 놓은 선호도에 대한 카테고리를 의미할 수 있으며, 일 실시예로 활발한 카테고리, 즐거운 카테고리, 감성적인 카테고리 등으로 카테고리를 미리 설정해 놓을 수 있으며, 또한 운동 카테고리, 여행 카테고리, 음식 카테고리 등으로 분류할 수도 있다. A plurality of preset preference categories may mean a category for a preference set by a user, and according to an embodiment, the category may be preset as an active category, a pleasant category, an emotional category, etc., and also an exercise category, a travel category , food categories, etc.

제어부는 상기 복수의 선호 카테고리 중 사용자의 입력 또는 상기 복수의 사용자 선호도 정보에 기초하여 제1 선호 카테고리를 결정할 수 있다. 사용자의 입력은 미리 설정된 복수의 선호 카테고리 중 사용자가 미리 설정해 놓은 카테고리를 의미할 수 있다. 즉, 사용자가 미리 특정한 선호 카테고리를 미리 결정해 놓았다면 제어부는 해당 카테고리를 제1 선호 카테고리로 결정할 수 있다. 사용자가 입력한 카테고리가 없다면, 제어부는 미리 설정된 복수의 선호 카테고리 중에서 복수의 사용자 선호도 정보에 기초하여 제1 선호 카테고리를 결정할 수 있으며, 이는 후에 자세하게 서술하도록 한다. The controller may determine a first preference category from among the plurality of preference categories based on a user input or the plurality of user preference information. The user's input may mean a category preset by the user from among a plurality of preset preference categories. That is, if the user has previously determined a specific preference category, the controller may determine the corresponding category as the first preference category. If there is no category input by the user, the controller may determine the first preference category based on a plurality of user preference information from among a plurality of preset preference categories, which will be described in detail later.

제어부는 상기 제1 선호 카테고리에 기초하여 맞춤형 컨텐츠를 결정할 수 있다. 맞춤형 컨텐츠는 동영상 컨텐츠나 음악 컨텐츠 또는 화면 컨텐츠를 포함할 수 있다.The controller may determine the customized content based on the first preference category. The customized content may include video content, music content, or screen content.

일 실시예로 제1 선호 카테고리가 운동 카테고리로 결정되었다면, 운동에 관련된 영상이나 음악, 사진 등을 결정할 수 있다.As an embodiment, if the first preference category is determined as the exercise category, an image, music, photo, etc. related to exercise may be determined.

일 실시예로 제1 선호 카테고리가 활발한 카테고리로 결정되었다면, 활발한 영상이나 음악, 사진 등이 결정될 수 있다. 이때 활발한 영상이나 음악, 사진 등은 일 실시예로 사진이라고 한다면, 사진이 포함하고 있는 색채의 밝기나 색감으로 활발한 기준의 사진을 결정할 수 있을 수 있으며, 음악의 경우 음역대나 박자 등으로 활발한 음악을 결정할 수 있으며, 영상의 경우 음역대와 영상의 프레임 속도나 영상 속 전반적인 분위기를 고려할 수 있다. 이때 해당 음악이나 사진, 영상을 결정하는 것은 보편적인 기술에 의할 수 있다.In an embodiment, if the first preference category is determined to be an active category, an active video, music, photo, etc. may be determined. At this time, if an active image, music, or photo is a photo as an embodiment, a photo of an active standard can be determined based on the brightness or color of the color included in the photo. It can be determined, and in the case of an image, the sound range, the frame rate of the image, or the overall atmosphere in the image can be considered. In this case, determining the corresponding music, photo, or video can be done by universal technology.

제어부는 맞춤형 컨텐츠를 상기 제1 사용자 단말에 포함된 디스플레이에 표시하는 신호를 출력할 수 있다.The controller may output a signal for displaying the customized content on a display included in the first user terminal.

복수의 사용자 선호도 정보는 상기 사용자의 연령 정보, 상기 사용자의 성별 정보 및 상기 사용자의 성격 정보를 포함할 수 있다. 사용자의 연령 정보는 사용자가 21세라고 한다면 20대로 분류될 수 있고, 20대 초반으로 분류될 수도 있으며 이는 사용자의 설정에 의할 수 있다. 사용자의 성별 정보는 사용자가 남자인지 여자인지를 구별할 수 있는 정보를 의미할 수 있으며, 사용자의 성격 정보는 제6 외부 서버로부터 획득한 MBTI 정보를 의미할 수 있으며, 사용자가 미리 설정해 놓을 수 도 있다. MBTI 이외에도 보편적으로 사용되는 성격 유형 정보를 활용할 수도 있다.The plurality of user preference information may include age information of the user, gender information of the user, and personality information of the user. The user's age information may be classified into 20's if the user is 21 years old, or may be classified as early 20's, which may be determined by the user's setting. The user's gender information may refer to information that can distinguish whether the user is a man or a woman, and the user's personality information may refer to MBTI information obtained from the sixth external server, and may be preset by the user. have. In addition to the MBTI, commonly used personality type information can be utilized.

제어부는 상기 복수의 선호 카테고리 중 상기 사용자의 연령 정보, 상기 사용자의 성별 정보 및 상기 사용자의 성격 정보에 기초하여 상기 제1 선호 카테고리를 결정할 수 있다.The controller may determine the first preference category based on the user's age information, the user's gender information, and the user's personality information among the plurality of preference categories.

복수의 선호 카테고리 중 사용자의 입력 또는 상기 복수의 사용자 선호도 정보에 기초하여 제1 선호 카테고리를 결정하는 단계는, 사용자가 미리 정해진 횟수 이전에 결정된 제1 선호 카테고리를 상기 제1 선호 카테고리로 결정하는 것을 포함할 수 있다.The determining of the first preference category based on the user's input or the plurality of user preference information among the plurality of preference categories may include determining that the user determines the first preference category determined before a predetermined number of times as the first preference category. may include

미리 정해진 횟수 이전에 결정된 제1 선호 카테고리는 이전에 결정된 제1 선호 카테고리가 이후에도 제1 선호 카테고리로 결정되도록 사용자가 설정해 놓은 것을 의미할 수 있다.The first preference category determined before the predetermined number of times may mean that the user has set the previously determined first preference category to be determined as the first preference category afterward.

일 실시예로 바로 직전에 제1 선호 카테고리로 운동 카테고리가 결정되었다면 다음 제1 선호 카테고리를 결정할 때에도 운동 카테고리가 결정될 수 있다. 미리 정해진 횟수는 현재 시점에서 제1 선호 카테고리 이전에 사용자가 미리 설정한 제1 선호 카테고리 결정 횟수를 의미할 수 있다. 미리 정해진 횟수는 현재 사용하기 직전에 결정한 제1 선호 카테고리 결정 1회를 의미할 수도 있고, 사용자의 설정에 의해서 격으로 이용될 수도 있으며, 주기적으로 설정될 수도 있다. 일 실시예로 월요일에는 운동 카테고리가 결정되었고, 화요일에는 음식 카테고리가 결정될 수도 있으며, 제2 사용자 단말에서 획득한 일정 정보에 기초하여 기념일 마다 카테고리가 다르게 지정될 수도 있다.In an embodiment, if the exercise category is determined as the first preference category immediately before, the exercise category may be determined even when the next first preference category is determined. The predetermined number of times may mean the number of times the first preference category is determined in advance by the user before the first preference category at the current time point. The predetermined number of times may mean one determination of the first preference category determined just before the current use, may be used every other time according to a user's setting, or may be set periodically. In an embodiment, an exercise category may be determined on Monday, a food category may be determined on Tuesday, and a different category may be designated for each anniversary based on schedule information obtained from the second user terminal.

일 실시예로 미리 정해진 횟수가 1회로 되었고, 2021년 7월 21일 제1 선호 카테고리가 운동 카테고리가 결정되었고 그 다음으로 20201년 7월 22일 제1 선호 카테고리를 결정하는 순간이라면 이전에 제1 선호 카테고리로 결정되었던 운동 카테고리가 제1 선호 카테고리로 다시 결정될 수 있다.In one embodiment, the predetermined number of times is once, and if the first preference category is determined on July 21, 2021, the exercise category is determined, and then the moment when the first preference category is determined on July 22, 2020, before the first The exercise category determined as the preference category may be determined again as the first preference category.

맞춤형 컨텐츠 제공 방법에서 제어부는 제1 외부 서버로부터 상기 제1 사용자 단말이 위치한 지역 정보 상기 제1 사용자 단말이 위치한 지역의 날짜 정보를 획득할 수 있다. 제1 외부 서버는 GPS 정보를 포함하고 있는 제어부를 의미할 수 있다. 사용자 단말이 위치한 지역 정보는 GPS 정보에 기초하여 획득할 수 있으며, 기존에 저장되어 있을 수 있다. 제1 외부 서버 또한 날씨 정보를 포함하고 있는 서버로서 기상청을 의미할 수도 있다.In the method for providing customized content, the control unit may obtain, from a first external server, information on the area in which the first user terminal is located, and date information of the area in which the first user terminal is located. The first external server may mean a control unit including GPS information. Region information in which the user terminal is located may be acquired based on GPS information and may be previously stored. The first external server is also a server including weather information and may mean the Korea Meteorological Administration.

제어부가 제1 선호 카테고리에 기초하여 맞춤형 컨텐츠를 결정하는 단계는, 지역 정보 및 상기 날짜 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계를 더 포함할 수 있다.The step of the controller determining the customized content based on the first preference category may further include determining the customized content based on the region information and the date information.

일 실시예로 제1 선호 카테고리가 음식 카테고리라고 하고, 제1 사용자 단말이 위치한 곳이 바닷가 주변이고, 날씨가 습하고 더운 곳이라면, 음식 카테고리 중에서 바닷가와 덥고 습한 날씨를 고려하여 생선 요리나, 해산물 요리 등과 관련된 컨텐츠를 제공할 수 있다.In an embodiment, if the first preference category is a food category, the place where the first user terminal is located is near the beach, and the weather is humid and hot, fish dishes or seafood dishes in consideration of the beach and hot and humid weather among the food categories It is possible to provide content related to, etc.

제어부는 제3 외부 서버로부터 상기 사용자의 연령 정보에 대응되는 연령대의 선호도에 대한 정보인 연령대 선호도 정보를 획득할 수 있다. 제3 외부 정보는 연령대별로 선호하는 다양한 정보를 포함하고 있는 제어부를 의미할 수 있다. The control unit may obtain age preference information, which is information about preference of an age group corresponding to the user's age information, from the third external server. The third external information may refer to a control unit including various information preferred by age group.

제어부는 연령대 선호도 정보에 기초하여 상기 맞춤형 컨텐츠를 결정하는 할 수 있다. 제1 사용자 단말에는 연령대 선호도 정보에 기초한 맞춤형 컨텐츠와 관련한 정보들을 화면에 표시할 수 있다. The controller may determine the customized content based on age preference information. The first user terminal may display information related to customized content based on age group preference information on the screen.

일 실시예로 20대 연령대의 선호도로서 차분한, 블루, 신비한, 감성적인, 바닷가 등의 정보가 표시 될 수 있으며, 이외에도 다양한 키워드 들이 도출될 수 있다. 이는 맞춤형 컨텐츠를 결정하는데 기초가 되는 연령대 선호도 정보에 대한 정보를 표시한 것을 의미할 수 있다.In one embodiment, information such as calm, blue, mysterious, emotional, beach, etc. may be displayed as the preference of the age group in their twenties, and various keywords may be derived. This may mean displaying information on age preference information, which is a basis for determining customized content.

일 실시예로 차분한 블루, 신비한, 감성적인 등의 키워드에 기초하여 맞춤형 컨텐츠를 결정할 수 있다.In an embodiment, customized content may be determined based on keywords such as calm blue, mysterious, emotional, and the like.

일 실시예로 연령대 선호도 정보에 포함된 내용들은 사용자가 미리 설정한 연령대 선호 카테고리로 분류될 수 있다.As an embodiment, contents included in the age preference information may be classified into age preference categories preset by the user.

일 실시예로 연령대 별로 각각에 색깔 카테고리, 음식 카테고리, 날씨 카테고리, 감성 카테고리, 장소 카테고리 등으로 나뉘어질 수 있으며, 각각의 카테고리에서 각각에 포함된 내용들 별로 수치가 다르게 테이블링 되어 있을 수 있다.As an embodiment, each age group may be divided into a color category, a food category, a weather category, an emotion category, a place category, and the like, and numerical values may be differently tabulated for content included in each category.

즉, 연령대 선호도 정보에 포함된 내용들을 수치화 하여 카테고리 별 선호 수치를 결정하고, 카테고리 별 선호 수치에 대응하는 맞춤형 컨텐츠를 결정할 수 있다. 선호 수치를 결정하는 방법은 아래와 같은 수학식 1에 의할 수 있다. That is, it is possible to quantify the contents included in the age group preference information to determine a preference value for each category, and to determine customized content corresponding to the preference value for each category. A method of determining the preferred numerical value may be based on Equation 1 below.

[수학식 1][Equation 1]

Figure 112021112939596-pat00001
Figure 112021112939596-pat00001

S는 카테고리 별 선호 수치를 의미할 수 있다. b는 카테고리에 포함된 선호도 변수의 개수를 의미할 수 있다. 일 실시예로 운동 카테고리 안에 헬스 골프 테니스가 있을 수 있다. Ha는 a번째 변수에 해당하는 변수가 도출되는 개수를 의미할 수 있다. 일 실시예로 도 5를 살펴보면 세련된 이라는 단어가 복수개로 표시된 것을 볼 수 있으며, 이는 20대 연령대에서 세련된 것을 많이 선호한다는 것으로 인식할 수 있다. 이때 표시된 개수가 도출되는 개수를 의미할 수 있다. 이때 표시되는 개수는 특정 외부 서버 또는 미리 지정한 제어부로부터 연령대 별로 언급되는 단어의 빈도수에 의할 수 있으며, 이외에도 보편적인 방법에 의해 도출되는 비중에 의할 수 있다. Fa는 a번째 변수에 해당하는 가중치를 의미할 수 있다.S may mean a preference value for each category. b may mean the number of preference variables included in the category. As an embodiment, there may be health golf tennis in the exercise category. Ha may mean the number of derived variables corresponding to the a-th variable. As an example, looking at FIG. 5 , it can be seen that the word “stylish” is displayed in plural, and it can be recognized that stylish things are highly preferred by the age group in their twenties. In this case, the displayed number may mean a derived number. In this case, the displayed number may depend on the frequency of words mentioned for each age group from a specific external server or a pre-designated control unit, and may also depend on the weight derived by a universal method. Fa may mean a weight corresponding to the a-th variable.

해당 수학식 1을 통해 카테고리 별 선호 수치를 구하여 가장 높은 값에 해당하는 수치 값에 해당하는 카테고리를 결정할 수 있다. 일 실시예로 운동 카테고리의 선호 수치가 12, 음식 카테고리의 선호 수치가 20, 감성 카테고리의 선호 수치가 15이라고 한다면, 음식 카테고리가 가장 높은 선호 수치로서 결정될 수 있으며, 음식 카테고리에 대한 맞춤형 컨텐츠를 제공할 수 있다. 이때 음식 카테고리에 대한 맞춤형 컨텐츠를 결정하는 것은 위에서 서술한 바에 의할 수 있다. A category corresponding to a numerical value corresponding to the highest value may be determined by obtaining a preferred numerical value for each category through the corresponding Equation (1). In an embodiment, if the preference value of the exercise category is 12, the preference value of the food category is 20, and the preference value of the emotion category is 15, the food category may be determined as the highest preference value, and customized content for the food category is provided can do. In this case, the determination of the customized content for the food category may be as described above.

이때 기계 학습일 이용 시 딥 러닝 모델을 이용할 수 있으며 머신 러닝 모델을 이용하여 수행할 수 있다. 이때 학습 데이터 셋은 외부의 다양한 제어부에서 획득한 다양한 음성 정보 및 단어 정보를 학습 데이터 셋으로 포함할 수 있으며, 지도 학습 방식이 이용될 수 있다. 이때, 딥 러닝 모델 모듈은 DNN(deep neural network) 알고리즘을 이용할 수 있다. 기재된 바에 국한되지 않고, 합성곱 신경망(CNN, Convoultional Neural Network), 순환 신경망(RNN, Recurrent Neural Network), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, Deep Belief Network) 알고리즘들이 이용될 수 있으며, 각각의 알고리즘들은 주지의 기술이므로 설명은 생략한다. In this case, a deep learning model can be used when using a machine learning day, and it can be performed using a machine learning model. In this case, the learning data set may include various voice information and word information obtained from various external control units as the learning data set, and a supervised learning method may be used. In this case, the deep learning model module may use a deep neural network (DNN) algorithm. Without being limited to the description, convolutional neural network (CNN), recurrent neural network (RNN), Restricted Boltzmann Machine (RBM),   Deep Belief Network (DBN) algorithms are may be used, and since each algorithm is a well-known technique, a description thereof will be omitted.

제어부는 주변 이미지 정보에 포함된 상기 제2 객체를 인식할 수 있다. 이때 제2 객체를 인식하는 것은 상술한 바와 같다. 제어부는 인식한 제2 객체의 색깔 정보를 획득할 수 있다. 이때 제2 객체의 색깔 정보는 기계 학습을 이용할 수 있다. 이에 대한 방법은 상술한 바와 같다. 색깔 정보에 기초하여 상기 맞춤형 컨텐츠 정보를 획득할 수 있다. The controller may recognize the second object included in the surrounding image information. In this case, recognizing the second object is the same as described above. The controller may acquire color information of the recognized second object. In this case, the color information of the second object may use machine learning. A method for this is the same as described above. The customized content information may be acquired based on the color information.

이때 색깔 정보에 기초하여 맞춤형 컨텐츠 정보를 제공하는 것은 일 실시예로 색깔 정보에 따라서 주변 이미지 정보에 푸른색과 녹색이 7:3 비율로 섞여 있다고 하면, 푸른색과 녹색이 7:3비율과 미리 정해진 차이안으로 비율이 유사한 영상을 추천할 수도 있으며, 사진을 추천할 수도 있다.In this case, providing customized content information based on color information is an embodiment. Assuming that blue and green are mixed in a 7:3 ratio in surrounding image information according to color information, blue and green are mixed in a 7:3 ratio and in advance. Videos with similar proportions within a set difference may be recommended, or photos may be recommended.

제어부는 색깔 정보에 기초하여 상기 맞춤형 컨텐츠 정보를 획득할 수 있고, 상기 색깔 정보에 기초하여 복수의 색깔 카테고리 중 미리 정해진 방법으로 제1 색깔을 결정할 수 있다. 복수의 감성 카테고리 중 상기 제1 색깔을 기반으로 도출되는 제1 감성 카테고리를 결정할 수 있다. 상기 제1 감성 카테고리에 기초하여 상기 맞춤형 컨텐츠 정보를 획득할 수 있다. 결정한 상기 색깔 값에 기초하여 상기 제1 감성 카테고리를 결정할 수 있다.The controller may acquire the customized content information based on color information, and may determine a first color from among a plurality of color categories based on the color information by a predetermined method. A first emotion category derived based on the first color among a plurality of emotion categories may be determined. The customized content information may be acquired based on the first emotion category. The first emotion category may be determined based on the determined color value.

이때 미리 정해진 방법으로 분류하는 것은 각 색깔별로 미리 테이블링 된 색깔 별 데이터 값이 정해져 있을 수 있다. 이때 테이블링 하는 기준은 사용자가 설정하거나 제2 외부 서버로부터 획득할 수 있다. 즉 분류한 색깔들의 색깔 값을 결정할 수 있으며, 이외에도 객체의 색깔 값을 결정할 수도 있다. In this case, for classifying by a predetermined method, data values for each color previously tabulated for each color may be determined. In this case, the table standard may be set by the user or may be obtained from the second external server. That is, it is possible to determine the color value of the classified colors, and in addition, the color value of the object may be determined.

일 실시예로 한 객체에 포함된 색채가 녹색, 진한 녹색, 갈색이라고 한다면 각각의 값에 미리 테이블링 된 x, y, z 값이 설정될 수 있고, 이에 대한 평균값이 색깔 값으로 정해질 수 있다. 이후 색깔 값이 정해지면 해당 색깔 값에 해당하는 색깔을 색깔 정보에 대응되는 제1 색깔로 결정할 수 있다. 이때 객체의 색깔 값에 대응하는 제1 색깔이 객체에 대응하는 색깔로 결정될 수 있다. In an embodiment, if the colors included in an object are green, dark green, and brown, pre-tabled x, y, and z values may be set for each value, and an average value thereof may be determined as a color value. . Thereafter, when a color value is determined, a color corresponding to the corresponding color value may be determined as the first color corresponding to the color information. In this case, the first color corresponding to the color value of the object may be determined as the color corresponding to the object.

이때 한 객체의 영역 넓이에 대비해서 포함된 색채들의 각각의 값 중 객체의 영역 넓이에 대비해서 사용자가 설정한 일정 비율 이상으로 비중이 되어 있는 색깔이 없다면, 결정되는 제1 색깔과 어울리는 미리 설정된 색깔이 제2 색깔로 결정될 수 있고, 제2 색깔을 기반으로 제1 감성 카테고리를 결정할 수 있다. 제1 감성 카테고리가 결정되면 제1 감성 카테고리에 대응되는 맞춤형 컨텐츠가 고려될 수 있다. 이때 색깔에 대응하는 제1 감성 카테고리는 미리 테이블링 되어 있을 수 있다.At this time, if there is no color whose weight is greater than a certain ratio set by the user in relation to the area area of the object among the values of the colors included in relation to the area area of an object, a preset color matching the determined first color The second color may be determined, and the first emotion category may be determined based on the second color. When the first emotion category is determined, customized content corresponding to the first emotion category may be considered. In this case, the first emotion category corresponding to the color may be tabulated in advance.

이때 객체가 복수개라면 제1 감성 카테고리가 복수개일 수 있다. 이때 복수개의 제1 감성 카테고리를 기반으로 하여 맞춤형 컨텐츠가 결정될 수 있다. 또한 한 객체의 영역 넓이에 대비해서 포함된 색채들의 각각의 값 중 객체의 영역 넓이에 대비해서 사용자가 설정한 일정 비율 이상으로 비중이 되어 있는 색깔이 없다면, 주변 이미지에 포함된 전체의 이미지 중에서 대표 색깔 값을 결정한 후, 대표 색깔 값과 어울리는 제1 감성 카테고리를 결정할 수 있다. In this case, if there are a plurality of objects, there may be a plurality of first emotion categories. In this case, customized content may be determined based on the plurality of first emotion categories. In addition, if there is no color whose weight is greater than a certain ratio set by the user in relation to the area width of the object, among the values of the colors included in relation to the area width of an object, it is representative among all images included in the surrounding image. After determining the color value, a first emotion category matching the representative color value may be determined.

이때 주변 이미지에 포함된 전체의 이미지 중에서 대표 색깔 값을 결정한 후, 대표 색깔 값과 어울리는 제1 감성 카테고리를 결정하는 것은 객체가 복수개인 경우 한 객체의 영역 넓이에 대비해서 포함된 색채들의 각각의 값 중 객체의 영역 넓이에 대비해서 사용자가 설정한 일정 비율 이상으로 비중이 되어 있는 색깔이 있는 객체의 경우 해당 객체의 제1 색깔 값에 대응되는 제1 감성 카테고리가 결정되고, 한 객체의 영역 넓이에 대비해서 포함된 색채들의 각각의 값 중 객체의 영역 넓이에 대비해서 사용자가 설정한 일정 비율 이상으로 비중이 되어 있는 색깔이 없는 개체 들로만 이루어진 경우에는 대표 색깔 값에 의해서 제1 감성 카테고리가 결정될 수 있다. At this time, after determining the representative color value among all images included in the surrounding image, determining the first emotional category matching the representative color value is each value of the included colors in relation to the area width of one object when there are a plurality of objects. In the case of an object having a color whose weight is greater than a certain ratio set by the user in relation to the area width of the object, the first emotion category corresponding to the first color value of the object is determined, and the For each value of the included colors for comparison, in the case where only objects without a color whose weight exceeds a certain ratio set by the user in relation to the area width of the object, the first emotional category may be determined by the representative color value. .

일 실시예로 하나의 주변 이미지 정보에서 인식된 객체가 3개라고 한다면 2개는 제1 감성 카테고리가 결정될 수 있으나, 하나의 객체는 제1 감성 카테고리가 결정되지 않을 수 있다. 즉, 이 경우 2개의 객체에 대응되는 제1 감성 카테고리가 결정되고, 하나의 대표 색깔 값이 결정되어 대표 색깔 값에 대응되는 제1 감성 카테고리가 결정될 수 있다. 즉 전체적으로 3개의 제1 감성 카테고리가 도출될 수 있다.As an embodiment, if there are three objects recognized from one surrounding image information, the first emotion category may be determined for two, but the first emotion category may not be determined for one object. That is, in this case, the first emotion category corresponding to the two objects may be determined, and one representative color value may be determined to determine the first emotion category corresponding to the representative color value. That is, three first emotion categories may be derived as a whole.

이때 제1 색깔을 결정하는 것은 주변 이미지 정보에 포함된 각각의 픽셀들의 값에 기초하여 색깔 값을 결정될 수도 있다. 이대 RGB에 따라서 픽셀들의 값이 결정될 수 있으며, 이외에도 보편적인 방법에 의할 수 있다.In this case, determining the first color may also determine a color value based on values of respective pixels included in the surrounding image information. The values of the pixels may be determined according to the RGB difference, and in addition, a general method may be used.

즉, 색깔을 인식하는 것은 보편적으로 사용되는 방법에 의할 수 있다.That is, color recognition may be performed by a commonly used method.

제1 색깔이 결정되고 나서 해당 색깔에 대응되는 제1 감성 카테고리를 결정할 수 있다. 이때 제1 감성 카테고리를 결정하는 것은 사용자가 설정할 수 있다.After the first color is determined, the first emotion category corresponding to the color may be determined. In this case, determining the first emotion category may be set by the user.

상기 분류한 색깔에 대응되는 제1 감성 카테고리를 결정할 수 있고, 결정한 상기 제1 감성 카테고리에 기초하여 상기 맞춤형 컨텐츠 정보를 획득할 수 있다. A first emotion category corresponding to the classified color may be determined, and the customized content information may be acquired based on the determined first emotion category.

색깔 정보에 및 제1 감성 카테고리에 기초하여 전반적인 색깔 값과 전반적인 감성이 결정될 수 있다. 이때 결정된 감성이 따듯한, 평화로운, 밝은 등으로 결정된다면 해당 내용을 디스플레이에 표시할 수 있으며, 해당하는 따뜻하거나, 평화롭거나, 밝은 느낌의 음악이 추천음악으로 결정될 수 있다. 이때 해당 감성에 해당하는 음악은 사용자가 설정할 수도 있으며, 제4 외부 서버로부터 획득할 수도 있다. 이외에도 디스플레이에는 당일의 날짜, 시간, 장소가 표시될 수 있으며, 날짜, 시간, 장소 등에 대한 정보는 기존에 저장되어 있거나 제1 외부 서버로부터 획득할 수 있다. 장소 정보와 같은 경우는 GPS 정보를 이용할 수도 있다.An overall color value and an overall emotion may be determined based on the color information and the first emotion category. At this time, if the determined emotion is determined to be warm, peaceful, bright, etc., the corresponding content may be displayed on the display, and the corresponding warm, peaceful, or bright music may be determined as the recommended music. In this case, the music corresponding to the emotion may be set by the user or may be obtained from the fourth external server. In addition, the date, time, and place of the day may be displayed on the display, and information on the date, time, and place may be previously stored or obtained from the first external server. In the case of place information, GPS information may be used.

이때 따뜻하거나, 평화롭거나 밝은 느낌의 음악을 추천 음악으로 받는 것은 사용자가 미리 설정할 수도 있으며, 제4 외부 서버에서 미리 설정되어 분류된 음악으로 결정할 수도 있고, 음악의 음원 차트 순위, 음악의 특정 사이트의 인기 순위, 음악의 하이라이트 부분의 음역대에 대응하는 미리 테이블링 된 감성, 미리 테이블링 된 음악의 평균 음역대에 대응하는 감성을 고려하여 결정될 수 있다. At this time, receiving warm, peaceful, or bright music as recommended music may be preset by the user, or may be determined as preset and classified music in the fourth external server, music chart ranking of music, specific site of music may be determined in consideration of the popularity ranking of , pre-tabled emotions corresponding to the range of the highlighted part of the music, and emotions corresponding to the average range of the pre-tabled music.

이때 음악의 음역대에 대응하는 감성은 사용자가 미리 설정할 수 있으며, 다른 외부 서버로부터 획득할 수도 있다.At this time, the sensibility corresponding to the music range may be preset by the user or may be acquired from another external server.

색깔 정보에 기초하여 가장 대표적인 복수개의 색깔 3가지와 해당하는 색깔에 대응되는 감성이 도출될 수 있다. Based on the color information, three most representative plurality of colors and emotions corresponding to the corresponding colors may be derived.

일 실시예로 주변 이미지 정보에 기초해서 녹색, 노란색, 하늘색이 가장 대표적인 색깔들인 제1 색깔로 도출되었고, 각각에 해당하는 감성이 평화로운, 밝은, 활발한 감성으로 결정될 수 있다. 이후 영상은 해당 평화로운, 밝은, 활발한 감성에 기초하여 결정될 수 있다. 이때 해당하는 영상을 획득하는 것은 사용자가 미리 설정하거나 제5 외부 서버로부터 획득될 수 있다. 또한 이때, 사용자가 자주 시청하는 선호도 정보가 포함될 수 있다.In an embodiment, green, yellow, and sky blue are derived as the first colors, which are the most representative colors, based on the surrounding image information, and emotions corresponding to each may be determined as peaceful, bright, and active emotions. Thereafter, the image may be determined based on the peaceful, bright, and lively emotion. In this case, obtaining the corresponding image may be preset by the user or may be obtained from the fifth external server. Also, at this time, preference information frequently viewed by the user may be included.

일 실시예로 평화롭거나, 밝거나, 활발하거나 또는 모두 가지고 있는 영상 중에서 사용자가 자주 시청하는 영상 정보를 제5 외부 서버로부터 획득하고, 해당 제5 외부 서버에 포함된 영상 중 활발하거나, 밝거나, 평화로운 영상을 획득할 수 있다. 이때 제5 외부 서버에서 미리 설정한 각각에 감성에 대응하는 영상을 획득할 수도 있으며, 사용자의 설정에 의해 감성에 대응하는 영상을 획득할 수도 있다.In one embodiment, image information frequently viewed by a user among images that are peaceful, bright, active, or all possessed is obtained from a fifth external server, and among images included in the fifth external server, active, bright, or , and peaceful images can be obtained. In this case, an image corresponding to each emotion preset in the fifth external server may be acquired, and an image corresponding to the emotion may be acquired by a user's setting.

또한 일 실시예로 감성에 대응하는 영상 정보를 획득하는 것은 다음과 같은 수학식 2에 의할 수도 있다.In addition, according to an embodiment, obtaining image information corresponding to emotion may be based on Equation 2 below.

[수학식 2][Equation 2]

Figure 112021112939596-pat00002
Figure 112021112939596-pat00002

V는 감성 및 영상에 대한 부수적인 정보에 기초하여 획득한 영상 값을 의미할 수 있다. b는 영상 값을 획득하기 위해 필요한 변수 개수를 의미할 수 있다. Sa는 a번째 변수에 대응하는 가중치를 의미할 수 있다. Ta는 해당 변수에 대응하는 각각의 수치 값을 의미할 수 있다.V may mean an image value obtained based on emotion and incidental information on the image. b may mean the number of variables required to obtain an image value. S a may mean a weight corresponding to the a-th variable. T a may mean each numerical value corresponding to the corresponding variable.

일 실시예로 영상 값을 획득하기 위해 필요한 변수로 감성에 대응하는 영상의 조회수, 영상의 좋아요 수, 영상의 싫어요 수, 영상의 댓글 수, 영상의 댓글에 포함된 단어 중 제1 감성 카테고리에 대응하는 감성의 단어 개수, 영상의 해시태그에 포함된 단어 중 제1 감성 카테고리에 대응하는 감성의 단어 개수를 포함할 수 있으며, 이외에도 해당 영상이 제5 외부 서버에서 분류되는 감성 카테고리가 수치 값으로 포함될 수도 있다.In an embodiment, the number of views of the video corresponding to the emotion, the number of likes of the video, the number of dislikes of the video, the number of comments of the video, the number of words included in the comment of the video, corresponding to the first emotion category as a variable necessary to obtain the image value It may include the number of words of emotion, the number of words of emotion corresponding to the first emotion category among the words included in the hashtag of the image, and in addition, the emotion category in which the video is classified in the fifth external server will be included as a numerical value. may be

일 실시예로 도 2의 도면은 맞춤형 컨텐츠가 고려되어 폭포에서 떨어진 물고기가 헤엄치는 영상과 관련된 감성 있는 영상이 디스플레이에 표시될 수 있다.As an embodiment, in the drawing of FIG. 2 , in consideration of customized content, an emotional image related to an image of a fish falling from a waterfall swimming may be displayed on the display.

이때 제1 사용자 단말은 습도 센서, 온도 센서 및 소리 센서를 포함할 수 있으며, 습도 센서, 온도 센서 및 소리 센서에 기초하여 맞춤형 컨텐츠를 추천할 수 있다.In this case, the first user terminal may include a humidity sensor, a temperature sensor, and a sound sensor, and may recommend customized content based on the humidity sensor, the temperature sensor, and the sound sensor.

일 실시예로 온도 센서에 기초하여 온도가 미리 정해진 온도 이상이면 안전 문구와 함께 비상구를 나타내는 화살표 표시를 디스플레이를 통해 표시할 수 있다.In an embodiment, if the temperature is higher than or equal to a predetermined temperature based on the temperature sensor, an arrow indicating an emergency exit may be displayed along with a safety phrase through the display.

일 실시예로 소리 센서에 기초하여 일정 데시벨 이상의 소음이 발생하면, 조용히 해달라는 문구를 디스플레이에 표시하도록 제어할 수 있다.In an embodiment, when a noise of more than a certain decibel is generated based on the sound sensor, it is possible to control to display a text asking to be quiet on the display.

일 실시예로 소리 센서에 기초하여 사용자의 목소리나 떨림에 따라 사용자의 기분을 유추하여 긍정적인 효과를 줄 수 있는 콘텐츠를 제공할 수 있다.According to an embodiment, based on the sound sensor, the user's mood may be inferred according to the user's voice or trembling, and content capable of giving a positive effect may be provided.

일 실시예로 온도 센서 또는 카메라에 기초하여 제1 사용자 단말 주변에 사람이 없는 것으로 판단되면 디스플레이를 OFF 하도록 제어할 수 있으며, 사람이 감지되면 다시 ON 하도록 변경할 수 있다.In an embodiment, when it is determined that there is no person around the first user terminal based on a temperature sensor or a camera, the display may be controlled to be turned off, and if a person is detected, the display may be changed to be turned on again.

제어부는 외부 서버로부터 제1 객체 정보를 획득(301)할 수 있고, 주변 이미지 정보 및 복수의 사용자 선호도 정보를 획득(302)할 수 있으며, 맞춤형 컨텐츠 정보를 결정(303)할 수 있고, 맞춤형 컨텐츠 정보를 디스플레이에 표시(304)할 수 있다.The control unit may obtain 301 first object information from an external server, obtain 302 surrounding image information and a plurality of user preference information, determine 303 customized content information, and customize content The information may be displayed 304 on a display.

도 4는 일 실시예에 의한 동영상을 포함하는 맞춤형 컨텐츠를 디스플레이에 표시하는 동작을 예시한 도면이다.4 is a diagram illustrating an operation of displaying customized content including a moving picture on a display according to an exemplary embodiment.

도 4를 구체적으로 살펴보면, 제1 사용자 단말(1)에 있어서 맞춤형 컨텐츠는 사용자 맞춤형 동영상 정보 및 상기 맞춤형 컨텐츠에 대한 테마 정보를 포함할 수 있다. 테마 정보는 맞춤 영상에 대한 전반적인 소개 정보를 의미할 수 있다. 일 실시예로 맞춤 영상에 대응되는 분위기인 몽환적인 분위기 연출이 테마 정보에 속할 수 있다. Referring specifically to FIG. 4 , the customized content in the first user terminal 1 may include user-customized video information and theme information for the customized content. The theme information may mean general introduction information about the customized image. According to an embodiment, the production of a dreamlike atmosphere, which is an atmosphere corresponding to the customized image, may belong to the theme information.

제어부는 맞춤형 동영상 정보에 대응되는 영상인 맞춤 영상을 상기 디스플레이 화면의 좌측 영역인 제1 영역(10)에 표시할 수 있다. 이때 제1 영역은 좌측 영역에서 구체적으로 좌하측 영역에 배치될 수 있다. 구체적으로 현재 제1 사용자 단말이 위치한 곳을 표시하는 내용이 상단에 표시되고, 그 하단의 좌측 영역인 제1 영역(10)에 표시될 수 있다. 전술하였듯, 제1 영역(10)에는 맞춤 음악이나 맞춤 사진이 표시될 수도 있다. 제어부는 테마 정보에 기초하여 상기 맞춤 영상에 대응되는 테마에 대한 내용인 테마 내용을 상기 제1 영역(10)의 우측 영역인 제2 영역(11)에 표시할 수 있다. 제어부는 복수의 감성 카테고리 중 주변 이미지 정보, 상기 제1 객체 정보 및 상기 선호도 정보에 기초하여 제1 감성 카테고리를 결정할 수 있고, 제1 감성 카테고리에 대응하는 내용인 맞춤형 컨텐츠에 대한 부가 내용을 제2 영역(11)에 함께 표시할 수 있다. The controller may display a custom image, which is an image corresponding to the customized video information, on the first area 10 that is a left area of the display screen. In this case, the first region may be specifically disposed in the lower left region in the left region. Specifically, the content indicating the current location of the first user terminal may be displayed on the upper portion, and may be displayed on the first area 10 that is the lower left area. As described above, customized music or customized photos may be displayed in the first region 10 . Based on the theme information, the controller may display theme content, which is content for a theme corresponding to the customized image, in the second area 11 , which is a right area of the first area 10 . The control unit may determine a first emotion category based on the surrounding image information, the first object information, and the preference information among the plurality of emotion categories, and add additional content to the customized content corresponding to the first emotion category to the second It can be displayed together in the area 11 .

제어부는 외부 서버로부터 제1 사용자 단말이 위치한 위치 정보를 획득할 수 있으며, 위치 정보와 상기 주변 이미지 정보, 상기 제1 객체 정보 및 상기 선호도 정보 중 적어도 한 가지에 기초하여 상기 제1 사용자 단말이 배치될 공간인 추천 장소를 결정할 수 있고, 추천 장소에 기초하여 상기 제1 감성 카테고리를 결정할 수 있다. The control unit may acquire location information where the first user terminal is located from an external server, and the first user terminal is disposed based on at least one of location information, the surrounding image information, the first object information, and the preference information A recommended place, which is a space to be used, may be determined, and the first emotion category may be determined based on the recommended place.

부가 내용은 맞춤형 컨텐츠에 대응하는 부가적인 내용을 의미할 수 잇으며. 분위기 내용, 상기 맞춤형 컨텐츠를 온 할 시간 내용 및 상기 맞춤형 컨텐츠가 어울리는 추천 장소에 대한 설명 내용을 포함할 수 있다. 제어부는 추천 장소에 대한 설명 내용을 상기 제2 영역(11) 내부 중 상기 맞춤 영상에 대응하는 영역의 상단인 제3영역에 표시할 수 있고, 상기 맞춤형 컨텐츠에 대응하는 분위기 내용을 상기 제 2영역 내부 중 상기 제3 영역(12)의 하단인 제4 영역(13)에 표시할 수 있으며, 상기 맞춤형 컨텐츠를 온 할 시간 내용을 상기 제2 영역(11) 내부 중 상기 제4 영역(13)의 하단인 제5 영역(14)에 표시할 수 있다. 이때 표시하는 것은 표시하는 신호를 출력하는 것일 수 있다. 이때 사용자의 설정에 따라 제1 영역(10), 제2 영역(11), 제3 영역(12), 제4 영역(13) 및 제5 영역(14)에 표시되는 내용들이 서로 바뀌어 표시될 수도 있다. The additional content may mean additional content corresponding to the customized content. The content of the atmosphere, the content of the time when the customized content is to be turned on, and the description of a recommended place suitable for the customized content may be included. The control unit may display the description of the recommended place in a third area that is an upper end of the area corresponding to the customized image among the inside of the second area 11 , and display the atmosphere content corresponding to the customized content in the second area It can be displayed in the fourth area 13 that is the lower end of the third area 12 of the inside, and the content of the time to turn on the customized content is displayed in the fourth area 13 of the inside of the second area 11. It may be displayed in the fifth area 14, which is the lower part. In this case, the display may be outputting a displayed signal. In this case, the contents displayed in the first area 10 , the second area 11 , the third area 12 , the fourth area 13 , and the fifth area 14 may be displayed interchangeably according to the user's setting. have.

이때 맞춤 영상, 맞춤 사진 또는 맞춤 음악은 복수개가 추천되어 도 4와 같이 제시될 수 있으며, 이때 해당하는 맞춤 영상, 맞춤 사진 또는 맞춤 음악은 제1 영역(10)에서 사용자가 가장 선호하는 맞춤형 컨텐츠를 가장 위에서부터 아래로 진열되어 보이도록 설정할 수 있다. 이때 사용자가 가장 선호하는 맞춤형 컨텐츠는 상술한 [수학식 1]의 수치에 따라서 결정하거나, 사용자의 설정에 의할 수 있다. 또한 사용자의 설정에 따라서 제1 영역(10)에서 위에서 아래로 일렬로 동시에 보이는 것이 아닌 미리 설정된 표시 시간에 따라서 가장 선호하는 맞춤형 컨텐츠부터 순차적으로 표시되도록 설정할 수 있으며, 맞춤형 컨텐츠에 대응하는 영상이나 음악, 사진이 3개가 아닌 한 개나 2개 또는 사용자의 설정에 따라 더 많은 개수로 표시되도록 설정할 수도 있다.At this time, a plurality of customized images, customized photos, or customized music may be recommended and presented as shown in FIG. 4 , and in this case, the corresponding customized image, customized photo, or customized music is the customized content most preferred by the user in the first area 10 . You can set it to be displayed from the top to the bottom. In this case, the customized content preferred by the user may be determined according to the numerical value of [Equation 1] described above, or may be set by the user. In addition, according to the user's setting, it can be set to be displayed sequentially from the most preferred customized content according to a preset display time, rather than being simultaneously viewed in a line from top to bottom in the first area 10, and images or music corresponding to the customized content , You can also set it to display one or two pictures instead of three, or more depending on the user's settings.

도 5는 일 실시예에 의한 맞춤형 컨텐츠의 재생 설정을 표시하는 동작을 예시한 도면이다.5 is a diagram illustrating an operation of displaying a reproduction setting of a customized content according to an exemplary embodiment.

도 5를 구체적으로 살펴보면, 제1 사용자 단말(1)에 맞춤형 컨텐츠를 재생하는 재생 설정을 사용자가 설정할 수 있다. 맞춤형 컨텐츠를 재생할 날짜와 플레이 시작 시간 및 플레이 종료 시간을 설정할 수 있으며, 매일 반복 여부나, 휴일 제외 여부, 셔플 재생 여부나 반복 재생 여부를 설정할 수 있으며, 설정이 마쳤다면 재생이 시작 되도록 사용자의 입력을 받는 표시가 표시될 수 있다.Referring specifically to FIG. 5 , the user may set a playback setting for playing the customized content in the first user terminal 1 . You can set the date to play the customized content, the start time and the end time of the play, and you can set whether to repeat every day, whether to exclude holidays, whether to play shuffle or whether to repeat play. An indication of receiving may be displayed.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or apparatus may be implemented by combining all or part of its configuration or function, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

1: 제1 사용자 단말1: first user terminal

Claims (5)

제어부를 포함하는 제1 사용자 단말에 의해 수행되는 맞춤형 컨텐츠 제공 방법에 있어서,
주변 이미지 정보를 획득하는 단계;
외부 서버로부터 제1 객체 정보를 획득하는 단계;
제2 사용자 단말로부터 복수의 사용자 선호도 정보를 획득하는 단계;
상기 주변 이미지 정보 및 상기 제1 객체 정보에 기초하여 또는 상기 선호도 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계; 및
상기 맞춤형 컨텐츠를 상기 제1 사용자 단말의 디스플레이에 표시하는 단계를 포함하고,
상기 주변 이미지 정보는 상기 제1 사용자 단말에 포함된 카메라를 통해 획득한 제1 사용자 단말 의 전방 이미지 정보 또는 상기 제2 사용자 단말로부터 획득한 상기 제1 사용자 단말이 배치될 영역의 촬영 이미지 정보를 포함하고,
상기 복수의 사용자 선호도 정보는 상기 사용자의 연령 정보, 상기 사용자의 성별 정보 및 상기 사용자의 성격 정보를 포함하고,
상기 맞춤형 컨텐츠는 사용자 맞춤형 동영상 정보 및 상기 맞춤형 컨텐츠에 대한 테마 정보를 포함하고,
상기 맞춤형 컨텐츠를 상기 디스플레이에 표시하는 단계는,
상기 맞춤형 동영상 정보에 대응되는 영상인 맞춤 영상을 상기 디스플레이 화면의 좌측 영역인 제1 영역에 표시하고, 상기 테마 정보에 기초하여 상기 맞춤 영상에 대응되는 테마에 대한 내용인 테마 내용을 상기 제1 영역의 우측 영역인 제2 영역에 표시하는 단계;를 포함하고,
상기 주변 이미지 정보 및 상기 제1 객체 정보에 기초하여 또는 상기 선호도 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계는,
복수의 감성 카테고리 중 주변 이미지 정보, 상기 제1 객체 정보 및 상기 선호도 정보에 기초하여 제1 감성 카테고리를 결정하는 단계;를 포함하고,
상기 맞춤형 컨텐츠를 상기 디스플레이에 표시하는 단계는,
상기 제1 감성 카테고리에 기초하여, 상기 제1 감성 카테고리에 대응하는 상기 맞춤형 컨텐츠에 대한 부가 내용을 상기 제2 영역에 함께 표시하는 단계;를 포함하고,
제1 외부 서버로부터 제1 사용자 단말이 위치한 위치 정보를 획득하는 단계;를 더 포함하고,
상기 주변 이미지 정보 및 상기 제1 객체 정보에 기초하여 또는 상기 선호도 정보에 기초하여 맞춤형 컨텐츠를 결정하는 단계는,
상기 위치 정보와 상기 주변 이미지 정보, 상기 제1 객체 정보 및 상기 선호도 정보 중 적어도 한 가지에 기초하여 상기 제1 사용자 단말이 배치될 공간인 추천 장소를 결정하는 단계; 및
상기 추천 장소에 기초하여 상기 제1 감성 카테고리를 결정하는 단계;를 포함하는 맞춤형 컨텐츠 제공 방법.
A method for providing customized content performed by a first user terminal including a control unit, the method comprising:
acquiring surrounding image information;
obtaining first object information from an external server;
obtaining a plurality of user preference information from a second user terminal;
determining customized content based on the surrounding image information and the first object information or based on the preference information; and
Displaying the customized content on a display of the first user terminal,
The surrounding image information includes front image information of the first user terminal obtained through a camera included in the first user terminal or photographed image information of an area in which the first user terminal is to be arranged obtained from the second user terminal do,
The plurality of user preference information includes the user's age information, the user's gender information, and the user's personality information,
The customized content includes user-customized video information and theme information for the customized content,
Displaying the customized content on the display comprises:
A customized image that is an image corresponding to the customized video information is displayed in a first region that is a left region of the display screen, and a theme content that is a theme corresponding to the customized image is displayed in the first region based on the theme information. Including; displaying on the second area that is the right area of
The step of determining the customized content based on the surrounding image information and the first object information or based on the preference information,
Determining a first emotion category based on surrounding image information, the first object information, and the preference information among a plurality of emotion categories;
The step of displaying the customized content on the display comprises:
Based on the first emotion category, displaying additional content for the customized content corresponding to the first emotion category together in the second area;
Further comprising; obtaining location information on which the first user terminal is located from the first external server;
The step of determining the customized content based on the surrounding image information and the first object information or based on the preference information,
determining a recommended place, which is a space in which the first user terminal is to be disposed, based on at least one of the location information, the surrounding image information, the first object information, and the preference information; and
and determining the first emotional category based on the recommended place.
제1항에 있어서,
상기 부가 내용은,
상기 맞춤형 컨텐츠를 재생하는 시간 내용 및 상기 맞춤형 컨텐츠가 어울리는 추천 장소에 대한 설명 내용을 포함하고,
상기 제1 감성 카테고리에 기초하여, 상기 제1 감성 카테고리에 대응하는 상기 맞춤형 컨텐츠에 대한 부가 내용을 상기 제2 영역에 함께 표시하는 단계는,
상기 추천 장소에 대한 설명 내용을 상기 제2 영역의 내부 중 상기 맞춤 영상에 대응하는 영역의 상단인 제3 영역에 표시하는 단계;
상기 테마 내용을 상기 제2 영역 내부 중 상기 제3 영역의 하단인 제4 영역에 표시하는 단계; 및
상기 맞춤형 컨텐츠를 온 할 시간 내용을 상기 제2 영역 내부 중 상기 제4 영역의 하단인 제5 영역에 표시하는 단계;를 포함하는 맞춤형 컨텐츠 제공 방법.
According to claim 1,
The additional content is
It includes a description of a time to play the customized content and a recommended place for the customized content to match,
Based on the first emotion category, displaying additional content for the customized content corresponding to the first emotion category together in the second area includes:
displaying the description of the recommended place in a third area that is an upper end of an area corresponding to the customized image among the inside of the second area;
displaying the theme content in a fourth area that is a lower end of the third area among the inside of the second area; and
and displaying the content of the time when the customized content is to be turned on in a fifth area that is a lower end of the fourth area among the inside of the second area.
삭제delete 삭제delete 삭제delete
KR1020210130508A 2021-10-01 2021-10-01 A method streaming and displaying custom content KR102342866B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210130508A KR102342866B1 (en) 2021-10-01 2021-10-01 A method streaming and displaying custom content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210130508A KR102342866B1 (en) 2021-10-01 2021-10-01 A method streaming and displaying custom content

Publications (1)

Publication Number Publication Date
KR102342866B1 true KR102342866B1 (en) 2021-12-24

Family

ID=79176271

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210130508A KR102342866B1 (en) 2021-10-01 2021-10-01 A method streaming and displaying custom content

Country Status (1)

Country Link
KR (1) KR102342866B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498367B1 (en) * 2022-10-06 2023-02-10 이하나 Method of creating video making platform for users
KR102588759B1 (en) * 2023-03-03 2023-10-13 (주)빛글림 System and method for providing content using transparent display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130008978A (en) * 2011-07-14 2013-01-23 에스케이플래닛 주식회사 Method for providing broadcasting contents, system, terminal and broadcasting service apparatus thereof
KR20150119785A (en) * 2014-04-15 2015-10-26 삼성전자주식회사 System for providing life log service and service method thereof
KR102304475B1 (en) * 2020-06-27 2021-09-17 광운대학교 산학협력단 Personalized Content Recommendation System and Method Based on Viewer’s Person of Interest

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130008978A (en) * 2011-07-14 2013-01-23 에스케이플래닛 주식회사 Method for providing broadcasting contents, system, terminal and broadcasting service apparatus thereof
KR20150119785A (en) * 2014-04-15 2015-10-26 삼성전자주식회사 System for providing life log service and service method thereof
KR102304475B1 (en) * 2020-06-27 2021-09-17 광운대학교 산학협력단 Personalized Content Recommendation System and Method Based on Viewer’s Person of Interest

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498367B1 (en) * 2022-10-06 2023-02-10 이하나 Method of creating video making platform for users
KR102588759B1 (en) * 2023-03-03 2023-10-13 (주)빛글림 System and method for providing content using transparent display

Similar Documents

Publication Publication Date Title
US11393209B2 (en) Generating a video segment of an action from a video
US20230105041A1 (en) Multi-media presentation system
US11321385B2 (en) Visualization of image themes based on image content
US20180330152A1 (en) Method for identifying, ordering, and presenting images according to expressions
KR102342866B1 (en) A method streaming and displaying custom content
US20170316256A1 (en) Automatic animation triggering from video
JP5586436B2 (en) Lifestyle collection device, user interface device, and lifestyle collection method
US10541000B1 (en) User input-based video summarization
US11016787B2 (en) Vehicle controlling system and controlling method thereof
KR102342863B1 (en) A method of serving content through emotional classification of streaming video
KR102009844B1 (en) Facial expression recognition device and management service server for dementia patient using the same
US11430561B2 (en) Remote computing analysis for cognitive state data metrics
KR101988334B1 (en) a mobile handset and a method of analysis efficiency for multimedia content displayed on the mobile handset
CN111326235A (en) Emotion adjusting method, device and system
US11934792B1 (en) Identifying prompts used for training of inference models
KR102531572B1 (en) Method of creating video making platform for users
US20200226012A1 (en) File system manipulation using machine learning
KR102342843B1 (en) A method of serving customized content considering circumstance
US20150281784A1 (en) E-reading system with interest-based recommendations and methods for use therewith
WO2022002865A1 (en) A system and a method for personalized content presentation
KR102498367B1 (en) Method of creating video making platform for users
US12073605B1 (en) Attributing aspects of generated visual contents to training examples
WO2024166091A1 (en) Generation, usage and attribution of content
Carah Algorithmic brands: a decade of brand experiments with

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant