KR20230073153A - Method of creating video making platform for users - Google Patents

Method of creating video making platform for users Download PDF

Info

Publication number
KR20230073153A
KR20230073153A KR1020230059128A KR20230059128A KR20230073153A KR 20230073153 A KR20230073153 A KR 20230073153A KR 1020230059128 A KR1020230059128 A KR 1020230059128A KR 20230059128 A KR20230059128 A KR 20230059128A KR 20230073153 A KR20230073153 A KR 20230073153A
Authority
KR
South Korea
Prior art keywords
color tone
person
determining
image information
persons
Prior art date
Application number
KR1020230059128A
Other languages
Korean (ko)
Inventor
김재훈
Original Assignee
김재훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김재훈 filed Critical 김재훈
Publication of KR20230073153A publication Critical patent/KR20230073153A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06T5/009
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

The present invention may provide a method for determining a suitable concept based on an image of a user. According to one embodiment, an image producing method for the user performed by a server includes the steps of: obtaining preferred concept information and image information from a user terminal; extracting a person included in the image information; determining a color tone corresponding to the person; determining a category corresponding to the color tone; and determining a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information.

Description

사용자를 위한 영상 메이킹 플랫폼 생성 방법{METHOD OF CREATING VIDEO MAKING PLATFORM FOR USERS}How to create a video making platform for users {METHOD OF CREATING VIDEO MAKING PLATFORM FOR USERS}

본 발명은 사용자에게 적합한 영상 생성 방법을 제공하는 방법에 관한 발명이다.The present invention relates to a method for providing an image generating method suitable for a user.

정보기술의 비약적 발전에 힘입어, 영상 정보에 포함된 다양한 정보에 기초하여 특이점을 도출하고, 현재 일상생활에서 다양한 사물들에 IT 기술이 접목되고 있다. 특히 사람의 얼굴을 인식하여 서비스를 제공하는 제품도 많이 존재하는데, 대표적인 제품으로 스마트 미러가 있으며, 스마트 미러는 높은 접근성을 이용하여 사용자에게 일기예보, 뉴 스피드, 캘린더, 개인맞춤 정보 등 일상생활에 밀접한 다양한 정보를 제공할 수 있다.Thanks to the rapid development of information technology, singularities are drawn based on various information included in image information, and IT technology is being grafted to various objects in daily life. In particular, there are many products that provide services by recognizing a person's face, and a representative product is the smart mirror. The smart mirror uses high accessibility to provide users with daily life information such as weather forecast, news, calendar, and personalized information. It can provide a variety of closely related information.

사용자가 원하는 영상에 대한 컨셉이 있다면, 영상에 대한 정보를 획득한 후 해당 영상에 대한 정보에 기초하여 사용자에게 적합한 영상을 편집하고, 맞춤 컨셉을 결정한 후 이와 관련된 상품을 제공하는 연구 또한 필요한 실정이다. 이와 관련하여, 영상 속 사용자를 인식하고, 인식한 사용자에게 적합한 색깔 톤을 결정한 후, 해당 색깔 톤에 대응하는 적합 내용을 결정하고, 이를 통해 파생되는 다양한 상품을 제공하기 위한 연구도 활발하게 진행되고 있다.If there is a concept for a video that a user wants, research is also needed to obtain information about the video, edit the video suitable for the user based on the information about the video, determine a customized concept, and provide related products. . In this regard, after recognizing the user in the video, determining a color tone suitable for the recognized user, determining suitable content corresponding to the color tone, and research to provide various products derived from this, active research is being conducted. there is.

본 발명은 사용자의 영상에 기초하여 적합한 컨셉을 결정하는 방법을 제공할 수 있다.The present invention may provide a method for determining a suitable concept based on a user's image.

일 실시예에 따른 서버에 의해 수행되는 사용자를 위한 영상 제작 방법에 있어서, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계; 상기 영상 정보에 포함된 인물을 추출하는 단계; 상기 인물에 대응하는 색감 톤을 결정하는 단계; 상기 색감 톤에 대응하는 카테고리를 결정하는 단계; 및 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계;를 포함할 수 있다.A video production method for a user, performed by a server according to an embodiment, comprising: acquiring preferred concept information and video information from a user terminal; extracting a person included in the image information; determining a color tone corresponding to the person; determining a category corresponding to the color tone; and determining a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information.

일 실시예에 따른 서버에 의해 수행되는 사용자를 위한 영상 제작 방법에 있어서, 일 실시예에 따른 상기 영상 정보에 포함된 인물을 추출하는 단계는, 상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출하는 단계;를 포함하고, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In the video production method for a user performed by a server according to an embodiment, the step of extracting a person included in the image information according to an embodiment includes, if there are a plurality of people included in the image information, a plurality of persons included in the image information. and extracting the number of persons, and determining the color tone corresponding to the person may include determining an intermediate color tone corresponding to the plurality of persons as the color tone corresponding to the person. there is.

일 실시예에 따른 서버에 의해 수행되는 사용자를 위한 영상 제작 방법에 있어서, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 인물에 대응하는 윤곽선을 추출하는 단계; 상기 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 단계; 제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출하는 단계; 및 상기 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정하는 단계;를 포함할 수 있다.In the video production method for a user performed by a server according to an embodiment, the step of determining a color tone corresponding to the person may include extracting an outline corresponding to the person; removing pixel values having a value less than or equal to a first predetermined value and a value greater than or equal to a second predetermined value among pixels included in the outline; deriving an average pixel value within the contour excluding the removed pixel value; and determining a color tone corresponding to the person based on an average pixel value inside the outline.

일 실시예에 따른 서버에 의해 수행되는 사용자를 위한 영상 제작 방법에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원이 홀수라면, 가운데 사람에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하고, 상기 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람에 대응하는 색감 톤을 추출하는 단계; 및 상기 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In the video production method for users performed by a server according to an embodiment, the step of determining an intermediate color tone corresponding to the plurality of persons as the color tone corresponding to the person, if the number of persons is odd. determining a color tone corresponding to the person in the middle as the color tone corresponding to the person, and extracting color tones corresponding to the two middlemost persons if the number of the plurality of persons is an even number; and determining an average color tone of color tones corresponding to the two persons as a color tone corresponding to the person.

일 실시예에 따른 서버에 의해 수행되는 사용자를 위한 영상 제작 방법에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원 각각에 대응하는 색감 톤을 추출하는 단계; 및 상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In the video production method for a user performed by a server according to an embodiment, the step of determining an intermediate color tone corresponding to the plurality of persons as a color tone corresponding to the person, corresponding to each of the plurality of persons. Extracting the color tones to be; and determining an average tone of color tones corresponding to each of the plurality of persons as a color tone corresponding to the person.

다른 실시예에 따른 사용자를 위한 영상 제작 방법을 수행하는 서버는 프로세서 및 상기 프로세서에 의해 실행되는 적어도 하나의 명령을 저장하는 메모리를 포함하고, 상기 적어도 하나의 명령은, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하도록 실행되고, 상기 영상 정보에 포함된 인물을 추출하도록 실행되고, 상기 인물에 대응하는 색감 톤을 결정하도록 실행되고, 상기 색감 톤에 대응하는 카테고리를 결정하도록 실행되고, 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하도록 실행될 수 있다.A server performing a video production method for a user according to another embodiment includes a processor and a memory storing at least one command executed by the processor, wherein the at least one command includes preferred concept information and preferred concept information from a user terminal. Acquire image information, extract a person included in the image information, determine a color tone corresponding to the person, determine a category corresponding to the color tone, and execute the color tone. It may be executed to determine a suitable concept corresponding to the image information based on the category corresponding to and the preferred concept information.

또 다른 실시예는 서버에서 수행되는 사용자를 위한 영상 제작 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서, 상기 사용자를 위한 영상 제작 방법은, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계, 상기 영상 정보에 포함된 인물을 추출하는 단계, 상기 인물에 대응하는 색감 톤을 결정하는 단계, 상기 색감 톤에 대응하는 카테고리를 결정하는 단계 및 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계를 포함할 수 있다.Another embodiment is a computer-readable recording medium recording a program for executing a video production method for a user performed in a server, wherein the video production method for the user obtains preferred concept information and image information from a user terminal. Extracting a person included in the image information, determining a color tone corresponding to the person, determining a category corresponding to the color tone, and a category corresponding to the color tone and the preferred concept information It may include determining a suitable concept corresponding to the image information based on.

또 다른 실시예에 있어서, 일 실시예에 따른 상기 영상 정보에 포함된 인물을 추출하는 단계는, 상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출하는 단계;를 포함하고, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of extracting a person included in the image information according to an embodiment includes extracting a plurality of persons when the number of persons included in the image information is plural, and the person The step of determining the color tone corresponding to may include determining an intermediate color tone corresponding to the plurality of persons as the color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 인물에 대응하는 윤곽선을 추출하는 단계; 상기 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 단계; 제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출하는 단계; 및 상기 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the color tone corresponding to the person may include extracting an outline corresponding to the person; removing pixel values having a value less than or equal to a first predetermined value and a value greater than or equal to a second predetermined value among pixels included in the outline; deriving an average pixel value within the contour excluding the removed pixel value; and determining a color tone corresponding to the person based on an average pixel value inside the outline.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원이 홀수라면, 가운데 사람에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하고, 상기 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람에 대응하는 색감 톤을 추출하는 단계; 및 상기 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of determining the middle color tone corresponding to the plurality of people as the color tone corresponding to the person may include, if the number of people in the plurality is odd, the color tone corresponding to the middle person is selected for the person. determining the corresponding color tones, and extracting color tones corresponding to two middlemost persons if the number of the plurality of persons is even; and determining an average color tone of color tones corresponding to the two persons as a color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원 각각에 대응하는 색감 톤을 추출하는 단계; 및 상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the middle color tone corresponding to the plurality of persons as the color tone corresponding to the person may include: extracting a color tone corresponding to each of the plurality of persons; and determining an average tone of color tones corresponding to each of the plurality of persons as a color tone corresponding to the person.

또 다른 실시예는 서버에서 사용자를 위한 영상 제작 방법을 수행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램으로서, 상기 사용자를 위한 영상 제작 방법은, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계, 상기 영상 정보에 포함된 인물을 추출하는 단계, 상기 인물에 대응하는 색감 톤을 결정하는 단계, 상기 색감 톤에 대응하는 카테고리를 결정하는 단계 및 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계를 포함할 수 있다.Another embodiment is a program stored in a computer-readable recording medium to perform a video production method for a user in a server, wherein the video production method for the user includes: obtaining preferred concept information and image information from a user terminal; Extracting a person included in the image information, determining a color tone corresponding to the person, determining a category corresponding to the color tone, and based on the category corresponding to the color tone and the preferred concept information. and determining a suitable concept corresponding to the image information.

또 다른 실시예에 있어서, 일 실시예에 따른 상기 영상 정보에 포함된 인물을 추출하는 단계는, 상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출하는 단계;를 포함하고, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of extracting a person included in the image information according to an embodiment includes extracting a plurality of persons when the number of persons included in the image information is plural, and the person The step of determining the color tone corresponding to may include determining an intermediate color tone corresponding to the plurality of persons as the color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 인물에 대응하는 윤곽선을 추출하는 단계; 상기 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 단계; 제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출하는 단계; 및 상기 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the color tone corresponding to the person may include extracting an outline corresponding to the person; removing pixel values having a value less than or equal to a first predetermined value and a value greater than or equal to a second predetermined value among pixels included in the outline; deriving an average pixel value within the contour excluding the removed pixel value; and determining a color tone corresponding to the person based on an average pixel value inside the outline.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원이 홀수라면, 가운데 사람에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하고, 상기 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람에 대응하는 색감 톤을 추출하는 단계; 및 상기 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of determining the middle color tone corresponding to the plurality of people as the color tone corresponding to the person may include, if the number of people in the plurality is odd, the color tone corresponding to the middle person is selected for the person. determining the corresponding color tones, and extracting color tones corresponding to two middlemost persons if the number of the plurality of persons is even; and determining an average color tone of color tones corresponding to the two persons as a color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원 각각에 대응하는 색감 톤을 추출하는 단계; 및 상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the middle color tone corresponding to the plurality of persons as the color tone corresponding to the person may include: extracting a color tone corresponding to each of the plurality of persons; and determining an average tone of color tones corresponding to each of the plurality of persons as a color tone corresponding to the person.

본 발명은 사용자의 영상에 대응하는 적합 컨셉을 결정 함으로서 사용자의 만족감을 향상시킬 수 있다.The present invention can improve the user's satisfaction by determining a suitable concept corresponding to the user's image.

다양한 실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 일 실시예에 의한 프로세서의 동작을 예시한 도면이다.
도 2는 일 실시예에 의한 서버의 동작을 예시한 도면이다.
도 3은 일 실시예에 의한 적합 컨셉을 결정하는 동작을 예시한 도면이다.
도 4는 일 실시예에 의한 인물의 색감 톤을 결정하는 동작을 예시한 도면이다.
도 5는 일 실시예에 의한 인물의 색감 톤을 가운데 사람의 색깔 톤으로 결정하는 동작을 예시한 도면이다.
도 6은 일 실시예에 의한 인물의 색감 톤을 가운데 두 사람의 색깔 톤으로 결정하는 동작을 예시한 도면이다.
도 7은 일 실시예에 의한 컨셉에 적합한 액자를 추천하는 동작을 예시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid understanding of the various embodiments, provide various embodiments and, together with the detailed description, describe technical features of the various embodiments.
1 is a diagram illustrating an operation of a processor according to an embodiment.
2 is a diagram illustrating an operation of a server according to an embodiment.
3 is a diagram illustrating an operation of determining a suitable concept according to an embodiment.
4 is a diagram illustrating an operation of determining a color tone of a person according to an exemplary embodiment.
5 is a diagram illustrating an operation of determining a color tone of a person as a color tone of a middle person according to an embodiment.
6 is a diagram illustrating an operation of determining a color tone of a person as the color tones of two people in the middle according to an embodiment.
7 is a diagram illustrating an operation of recommending a picture frame suitable for a concept according to an embodiment.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. “및/또는”이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related recited items or any one of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. In order to facilitate overall understanding in the description of the present invention, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

도 1은 일 실시예에 의한 서버(1)에 속한 프로세서의 동작을 예시한 도면이다. 도 1을 구체적으로 살펴보면 적어도 하나의 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120) 및 저장 장치(160) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중 하나일 수 있고, 저장 장치(160)는, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD), 솔리드 스테이트 드라이브(SSD), 또는 각종 메모리 카드(예를 들어, micro SD 카드) 등일 수 있다.1 is a diagram illustrating an operation of a processor belonging to a server 1 according to an embodiment. Referring to FIG. 1 in detail, at least one processor 110 is a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated method for performing methods according to embodiments of the present invention. may refer to a processor of Each of the memory 120 and the storage device 160 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory 120 may be one of a read only memory (ROM) and a random access memory (RAM), and the storage device 160 may be a flash-memory. , a hard disk drive (HDD), a solid state drive (SSD), or various memory cards (eg, a micro SD card).

또한, 서버(1)는, 서버에 포함될 수 있으며, 무선 네트워크를 통해 통신을 수행하는 송수신 장치(transceiver)(130)를 포함할 수 있다. 또한, 서버(1)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 서버(1)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.In addition, the server 1 may include a transceiver 130 that may be included in the server and perform communication through a wireless network. In addition, the server 1 may further include an input interface device 140 , an output interface device 150 , a storage device 160 , and the like. Each component included in the server 1 is connected by a bus 170 to communicate with each other.

도 2는 일 실시예에 의한 서버의 동작을 예시한 도면이다. 도 3은 일 실시예에 의한 적합 컨셉을 결정하는 동작을 예시한 도면이다.2 is a diagram illustrating an operation of a server according to an embodiment. 3 is a diagram illustrating an operation of determining a suitable concept according to an embodiment.

도 2 및 도 3을 구체적으로 살펴보면, 서버는 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득할 수 있다. 선호 컨셉 정보는 사용자가 희망하는 영상의 컨셉에 대한 정보를 나타낼 수 있다. 이때, 사용자가 희망하는 영상의 컨셉으로, 밝은 느낌의 컨셉, 브이로그 느낌의 컨셉, 강의 형식의 컨셉 등의 다양한 컨셉에 대한 정보를 포함할 수 있다. 영상 정보는 사용자가 전송하는 영상에 관한 정보를 나타낼 수 있다. 이때 영상 정보는 말그대로 영상을 포함할 수 있으며, AVI 파일 등의 형태로 획득될 수도 있다. 서버는 영상 정보에 포함된 인물을 추출할 수 있다. 이때 영상 정보에 포함된 인물을 추출하는 것은 보편적으로 알려진 방법에 의할 수 있다. 즉 통상적인 방법에 의할 수 있으며, 서버는 인물을 추출한 후, 인물에 대응하는 색감 톤을 결정할 수 있다. 이때 색깔 톤은 인물에 대응하는 픽셀 값들에 의해 도출될 수 있으며, 이는 후술하도록 한다. Referring to FIGS. 2 and 3 in detail, the server may obtain preferred concept information and image information from the user terminal. The preferred concept information may represent information about a concept of an image desired by the user. At this time, as the concept of the image desired by the user, information on various concepts such as a bright concept, a vlog concept, and a lecture format concept may be included. The image information may represent information about an image transmitted by a user. At this time, the image information may literally include an image, and may be obtained in the form of an AVI file or the like. The server may extract a person included in the image information. At this time, extraction of the person included in the image information may be performed by a commonly known method. That is, a conventional method may be used, and the server may extract a person and then determine a color tone corresponding to the person. In this case, the color tones may be derived from pixel values corresponding to the person, which will be described later.

서버(1)는 제1 외부 서버(2) 및 제2 외부 서버(3)와 신호를 송신 및 수신 할 수 있으며,The server 1 can transmit and receive signals with the first external server 2 and the second external server 3,

서버는 선호 컨셉 정보 및 영상 정보를 획득(301)할 수 있고, 인물 추출 및 색감 톤을 결정(302)할 수 있으며, 색감 톤에 대응하는 카테고리를 결정(303)할 수 있고, 색감 톤에 대응하는 카테고리 및 선호 컨셉 정보에 기초하여 영상 정보에 대응하는 적합 컨셉을 결정(304)할 수 있다.The server may acquire preferred concept information and image information (301), extract a person and determine a color tone (302), determine a category corresponding to the color tone (303), and respond to the color tone. Based on the desired category and preferred concept information, a suitable concept corresponding to the image information may be determined (304).

도 4는 일 실시예에 의한 인물의 색감 톤을 결정하는 동작을 예시한 도면이다. 도 4를 구체적으로 살펴보면, 4 is a diagram illustrating an operation of determining a color tone of a person according to an exemplary embodiment. Looking specifically at Figure 4,

서버는 색감 톤에 대응하는 카테고리를 결정할 수 있고, 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정할 수 있다. 또한 서버는 적합 컨셉을 결정한 후, 적합 컨셉에 대응하는 주요 장면을 도출한 후, 주요 장면에 대응하는 액자를 추천할 수도 있다. 영상 정보는 사진 정보를 포함할 수 있으며, 동영상에 대한 정보를 포함할 수 있다. 이때 인물을 결정하는 것은 동영상의 경우 동영상 중 사용자가 지정한 일부 장면에 의할 수 있거나, 또는 서버에서 미리 지정된 동영상의 중간 부분 또는 가장 중요한 부분이 설정될 수 있다. 일 실시예로 서버가 색감 톤을 쿨 톤으로 결정했다면, 이에 대응하는 카테고리를 푸르고 밝은 컵셉으로 결정할 수도 있다.The server may determine a category corresponding to the color tone, and may determine a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information. Also, the server may determine a suitable concept, derive a main scene corresponding to the suitable concept, and then recommend a frame corresponding to the main scene. The image information may include photo information and may include video information. In this case, the person may be determined according to some scenes designated by the user in the case of a video, or a middle part or the most important part of a previously designated video may be set in the server. In one embodiment, if the server determines the color tone as cool tone, a category corresponding to this may be determined as a blue and bright concept.

서버는 상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출할 수 있고, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정할 수 있다. 이때 서버는 인물에 대응하는 윤곽선을 추출할 수 있다. 인물에 대응하는 윤곽선을 추출하는 것은 통상적인 방법에 의해서 인물을 특정한 후, 인물과 다른 배경을 구분하는 방법에 의해서 윤곽선을 구별할 수 있다.When the number of persons included in the image information is plural, the server may extract the plurality of persons, and determine intermediate color tones corresponding to the plurality of persons as color tones corresponding to the persons. At this time, the server may extract an outline corresponding to the person. To extract the outline corresponding to the person, after specifying the person by a conventional method, the outline can be distinguished by a method of distinguishing the person and other backgrounds.

이때 서버는 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거할 수 있다. 이때 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 것은 불필요한 노이즈 데이터를 제거하기 위함일 수 있다. 이때 서버는 제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출할 수 있고, 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정할 수 있다.In this case, the server may remove pixel values having a value less than or equal to a predetermined first specific value and a value greater than or equal to a predetermined second specific value among pixels included in the outline. In this case, removing pixel values having a value equal to or less than a first specific value and a value greater than or equal to a second predetermined value may be to remove unnecessary noise data. In this case, the server may derive an average pixel value inside the contour line excluding the removed pixel value, and determine a color tone corresponding to the person based on the average pixel value inside the contour line.

이때 서버는 제1 외부 서버로부터 사용자 단말에서 전송한 영상 정보에 대응하는 채광 정보를 획득할 수 있다. 채광 정보는 조리개가 노출된 값 등의 통상적으로 사용되는 방법에 의해 도출될 수 있다. 서버는 채광 정보에 기초하여 색감 톤을 결정할 수 있다. 즉, 윤곽선 내부의 픽셀 값에 채광 정보에 의해 투시된 빛 양에 의한 값을 조정하여 픽셀 값을 조정한 후, 조정된 픽셀 값에 기초하여 색감 톤을 결정할 수 있다.At this time, the server may obtain mining information corresponding to image information transmitted from the user terminal from the first external server. The lighting information may be derived by a commonly used method, such as an aperture value. The server may determine the color tone based on lighting information. That is, after adjusting the pixel value by adjusting the value of the amount of light transmitted through the lighting information to the pixel value inside the contour, the color tone may be determined based on the adjusted pixel value.

이때 서버는 두가지의 방식에 따라서 색감 톤을 결정할 수도 있다. 이에 대해서는 후술하도록 한다.At this time, the server may determine the color tone according to two methods. This will be described later.

서버는 사용자 단말(10)에 영상 정보 속 인물의 색감 톤에 대한 정보 및 적합 컨셉에 대한 정보를 전송할 수 있다. 적합 컨셉은 색깔 컨셉에 대한 정보를 포함할 수 있다.The server may transmit information on the color tone of the person in the image information and information on the suitable concept to the user terminal 10 . A suitable concept may include information about a color concept.

도 5는 일 실시예에 의한 인물의 색감 톤을 가운데 사람의 색깔 톤으로 결정하는 동작을 예시한 도면이다. 도 6은 일 실시예에 의한 인물의 색감 톤을 가운데 두 사람의 색깔 톤으로 결정하는 동작을 예시한 도면이다.5 is a diagram illustrating an operation of determining a color tone of a person as a color tone of a middle person according to an embodiment. 6 is a diagram illustrating an operation of determining a color tone of a person as the color tones of two people in the middle according to an embodiment.

도 5 및 도 6을 구체적으로 살펴보면, 서버는 일 실시예로 서버는 복수의 인원이 홀수라면, 가운데 사람(20)에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정할 수 있고, 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람(21)에 대응하는 색감 톤을 추출할 수 있으며, 이후 서버는 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정할 수 있다. 서버는 사용자 단말(10)에 해당 내용을 표시하도록 할 수 있으며, 이때 이를 적합 컨셉에 대한 내용을 함께 표시할 수 있다.5 and 6 in detail, in one embodiment, if the number of people is odd, the server may determine the color tone corresponding to the middle person 20 as the color tone corresponding to the person. If the number of persons is even, color tones corresponding to the two middlemost persons 21 may be extracted, and then the server converts the average color tones of the color tones corresponding to the two persons to the color tones corresponding to the persons. can decide The server may cause the user terminal 10 to display the corresponding content, and at this time, it may display the content of the suitable concept together.

다른 일 실시예로 서버는 복수의 인원 각각에 대응하는 색감 톤을 추출할 수 있고, 상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정할 수 있다. 즉 복수의 인원 각각에 대응하는 경계선 내부의 평균 값을 계산한 후, 각각에 대응하는 내부의 평균 값에 다시 평균 값을 하여 전체적인 평균 값으로 색감 톤을 추출할 수도 있다. In another embodiment, the server may extract color tones corresponding to each of a plurality of persons, and determine an average tone of the color tones corresponding to each of the plurality of persons as the color tone corresponding to the person. That is, after calculating the average value inside the boundary line corresponding to each of the plurality of persons, the color tone may be extracted with the overall average value by averaging the average value inside the boundary line corresponding to each person.

도 7은 일 실시예에 의한 컨셉에 적합한 액자를 추천하는 동작을 예시한 도면이다.7 is a diagram illustrating an operation of recommending a picture frame suitable for a concept according to an embodiment.

도 7을 구체적으로 살펴보면, 서버는 색감 톤을 추출한 후, 색감 톤에 기초하여 적합한 액자를 추천할 수 있다. 이후 서버는 사용자 단말(10)에 해당 내용을 전송할 수 있다. 이때 액자는 사진이라면 사진에 대응하는 액자를, 동영상이라면 위에서 서술하였듯, 동영상에서 사용자가 특정한 지점의 장면 또는 서버에 의해 결정된 장면에 대응하는 액자를 나타낼 수 있다.Referring to FIG. 7 in detail, the server may recommend a suitable picture frame based on the color tone after extracting the color tone. Thereafter, the server may transmit the corresponding content to the user terminal 10 . At this time, the frame may indicate a frame corresponding to a photograph in the case of a photograph, and as described above in the case of a video, a frame corresponding to a scene at a specific point of the user or a scene determined by the server in the video.

서버는 제2 외부 서버로부터 액자에 대한 정보를 획득할 수 있고, 액자가 어울리는 컨셉에 대한 정보를 함께 획득할 수 있다. 일 실시예로 유리로 된 액자는 푸르고 차가운 카테고리에 대응하고, 대리석 재질의 액자는 하얗고 밝은 느낌, 나무로 된 액자는 붉고 따뜻한 컨셉에 대응되는 등의 정보를 획득할 수 있다. 이후 결정된 색감 카테고리 및 선호 컨셉 정보에 기초하여 결정한 적합 컨셉에 기초하여 액자를 결정할 수 있다.The server may obtain information about the picture frame from the second external server, and may also obtain information about a concept that the picture frame matches. In one embodiment, information such as a picture frame made of glass corresponds to a blue and cool category, a picture frame made of marble material corresponds to a white and bright feeling, and a picture frame made of wood corresponds to a red and warm concept may be acquired. Afterwards, a picture frame may be determined based on a suitable concept determined based on the determined color category and preferred concept information.

이때 적합 컨셉을 결정하기 위해 색감 카테고리 및 선호 컨셉 정보에 기초하여 미리 지정된 액자 카테고리 각각에 대해서 적합 수치를 도출할 수 있다.At this time, in order to determine a suitable concept, a suitable value may be derived for each of the previously designated picture frame categories based on the color category and preferred concept information.

이때 적합 수치는 다음과 같은 수학식에 의해 도출될 수 있다.At this time, the suitable value can be derived by the following equation.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

AD는 D번째 액자 카테고리에 대응하는 적합 수치를 나타내고, d는 색감 카테고리 및 선호 컨셉 정보에 포함된 선호 컨셉 두가지를 포함하는 적합 수치 요소의 개수를 나타내는 것으로 d는 2의 값일 수 있고, 선호 컨셉은 사용자가 희망하는 색감 카테고리를 나타내고, Tb는 b번째 적합 수치 요소와 상기 D번째 액자 카테고리의 일치율을 나타내고, 이때 적합 수치 요소와 액자 카테고리의 일치율은 서버의 데이터베이스에 미리 저장되어 있고, Tb는 상기 b번째 적합 수치 요소에 대응하는 가중치를 나타내고, g는 액자 카테고리에 대응하는 특정 가격 값을 나타내고, 이때 액자 카테고리에 대응하는 특정 가격 값은 서버에 의해 미리 지정되어 있을 수 있다.A D represents a suitable numerical value corresponding to the D-th frame category, d represents the number of suitable numerical elements including both the color category and the preferred concept included in the preferred concept information, and d may be a value of 2, and the preferred concept denotes a color category desired by the user, Tb denotes the matching rate between the b-th suitable numerical element and the D-th frame category, wherein the matching rate between the suitable numerical element and the frame category is stored in advance in the database of the server, and T b is Denotes a weight corresponding to the b-th suitable numerical element, g denotes a specific price value corresponding to a frame category, and in this case, a specific price value corresponding to a frame category may be previously designated by a server.

위의 실시예로 액자 카테고리는 나무 액자 카테고리, 대리석 액자 카테고리, 유리 액자 카테고리 등을 포함할 수 있고, 색감 카테고리가 도출된 것이 푸르고 차가운 컨셉이라 하고, 선호 컨셉에 기초하여 사용자가 하얗고 밝은 느낌을 원한다고 하는 경우, 서버는 각각의 액자 카테고리와 푸르고 차가운 컨셉, 하얗고 밝은 느낌의 컨셉 간의 일치율을 도출하고, 각각의 일치율에 대응하는 가중치를 곱한 후 이를 액자 카테고리에 대응하는 특정 가격 값까지 고려하여 최종적으로 액자 카테고리에 대응하는 적합 수치를 도출할 수 있다. 이후 적합 수치가 높은 액자 카테고리를 최종 카테고리로 도출한 후, 최종 액자 카테고리에 포함된 액자들을 사용자에게 추천할 수 있다.In the above embodiment, the frame category may include a wooden frame category, a marble frame category, a glass frame category, and the like. In this case, the server derives the match rate between each picture frame category and the blue and cool concept and the white and bright concept, multiplies each match rate by the corresponding weight, and considers this to the specific price value corresponding to the frame category to finally frame the frame. A suitable value corresponding to the category can be derived. Thereafter, after deriving a picture frame category having a high suitability value as a final category, the picture frames included in the final picture frame category may be recommended to the user.

사용자 단말은 통신 가능한 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(laptop computer), 노트북(notebook), 스마트폰(smart phone), 태블릿 PC(tablet PC), 모바일폰(mobile phone), 스마트 워치(smart watch), 스마트 글래스(smart glass), e-book 리더기, PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 디지털 카메라(digital camera), DMB(digital multimedia broadcasting) 재생기, 디지털 음성 녹음기(digital audio recorder), 디지털 음성 재생기(digital audio player), 디지털 동영상 녹화기(digital video recorder), 디지털 동영상 재생기(digital video player), 및 PDA(Personal Digital Assistant) 등 일 수 있다.The user terminal includes a communicable desktop computer, a laptop computer, a notebook, a smart phone, a tablet PC, a mobile phone, and a smart watch. ), smart glass, e-book reader, portable multimedia player (PMP), portable game machine, navigation device, digital camera, digital multimedia broadcasting (DMB) player, digital voice recorder audio recorder), a digital audio player, a digital video recorder, a digital video player, and a personal digital assistant (PDA).

기계 학습일 이용 시 딥 러닝 모델을 이용할 수 있으며 머신 러닝 모델을 이용하여 수행할 수 있다. 이때 학습 데이터 셋은 외부의 다양한 서버에서 획득한 다양한 정보를 학습 데이터 셋으로 포함할 수 있으며, 지도 학습 방식이 이용될 수 있다. 이때, 딥 러닝 모델 모듈은 DNN(deep neural network) 알고리즘을 이용할 수 있다. 기재된 바에 국한되지 않고, 합성곱 신경망(CNN, Convoultional Neural Network), 순환 신경망(RNN, Recurrent Neural Network), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, Deep Belief Network) 알고리즘들이 이용될 수 있으며, 각각의 알고리즘들은 주지의 기술이므로 설명은 생략한다. When using machine learning days, deep learning models can be used and can be performed using machine learning models. In this case, the learning data set may include various information obtained from various external servers as a learning data set, and a supervised learning method may be used. In this case, the deep learning model module may use a deep neural network (DNN) algorithm. Without being limited to those described, Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN) algorithms Since each algorithm is a well-known technique, a description thereof will be omitted.

다른 실시예에 따른 사용자를 위한 영상 제작 방법을 수행하는 서버는 프로세서 및 상기 프로세서에 의해 실행되는 적어도 하나의 명령을 저장하는 메모리를 포함하고, 상기 적어도 하나의 명령은, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하도록 실행되고, 상기 영상 정보에 포함된 인물을 추출하도록 실행되고, 상기 인물에 대응하는 색감 톤을 결정하도록 실행되고, 상기 색감 톤에 대응하는 카테고리를 결정하도록 실행되고, 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하도록 실행될 수 있다.A server performing a video production method for a user according to another embodiment includes a processor and a memory storing at least one command executed by the processor, wherein the at least one command includes preferred concept information and preferred concept information from a user terminal. Acquire image information, extract a person included in the image information, determine a color tone corresponding to the person, determine a category corresponding to the color tone, and execute the color tone. It may be executed to determine a suitable concept corresponding to the image information based on the category corresponding to and the preferred concept information.

또 다른 실시예는 서버에서 수행되는 사용자를 위한 영상 제작 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서, 상기 사용자를 위한 영상 제작 방법은, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계, 상기 영상 정보에 포함된 인물을 추출하는 단계, 상기 인물에 대응하는 색감 톤을 결정하는 단계, 상기 색감 톤에 대응하는 카테고리를 결정하는 단계 및 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계를 포함할 수 있다.Another embodiment is a computer-readable recording medium recording a program for executing a video production method for a user performed in a server, wherein the video production method for the user obtains preferred concept information and image information from a user terminal. Extracting a person included in the image information, determining a color tone corresponding to the person, determining a category corresponding to the color tone, and a category corresponding to the color tone and the preferred concept information It may include determining a suitable concept corresponding to the image information based on.

또 다른 실시예에 있어서, 일 실시예에 따른 상기 영상 정보에 포함된 인물을 추출하는 단계는, 상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출하는 단계;를 포함하고, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of extracting a person included in the image information according to an embodiment includes extracting a plurality of persons when the number of persons included in the image information is plural, and the person The step of determining the color tone corresponding to may include determining an intermediate color tone corresponding to the plurality of persons as the color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 인물에 대응하는 윤곽선을 추출하는 단계; 상기 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 단계; 제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출하는 단계; 및 상기 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the color tone corresponding to the person may include extracting an outline corresponding to the person; removing pixel values having a value less than or equal to a first predetermined value and a value greater than or equal to a second predetermined value among pixels included in the outline; deriving an average pixel value within the contour excluding the removed pixel value; and determining a color tone corresponding to the person based on an average pixel value inside the outline.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원이 홀수라면, 가운데 사람에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하고, 상기 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람에 대응하는 색감 톤을 추출하는 단계; 및 상기 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of determining the middle color tone corresponding to the plurality of people as the color tone corresponding to the person may include, if the number of people in the plurality is odd, the color tone corresponding to the middle person is selected for the person. determining the corresponding color tones, and extracting color tones corresponding to two middlemost persons if the number of the plurality of persons is even; and determining an average color tone of color tones corresponding to the two persons as a color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원 각각에 대응하는 색감 톤을 추출하는 단계; 및 상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the middle color tone corresponding to the plurality of persons as the color tone corresponding to the person may include: extracting a color tone corresponding to each of the plurality of persons; and determining an average tone of color tones corresponding to each of the plurality of persons as a color tone corresponding to the person.

또 다른 실시예는 서버에서 사용자를 위한 영상 제작 방법을 수행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램으로서, 상기 사용자를 위한 영상 제작 방법은, 사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계, 상기 영상 정보에 포함된 인물을 추출하는 단계, 상기 인물에 대응하는 색감 톤을 결정하는 단계, 상기 색감 톤에 대응하는 카테고리를 결정하는 단계 및 상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계를 포함할 수 있다.Another embodiment is a program stored in a computer-readable recording medium to perform a video production method for a user in a server, wherein the video production method for the user includes: obtaining preferred concept information and image information from a user terminal; Extracting a person included in the image information, determining a color tone corresponding to the person, determining a category corresponding to the color tone, and based on the category corresponding to the color tone and the preferred concept information. and determining a suitable concept corresponding to the image information.

또 다른 실시예에 있어서, 일 실시예에 따른 상기 영상 정보에 포함된 인물을 추출하는 단계는, 상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출하는 단계;를 포함하고, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of extracting a person included in the image information according to an embodiment includes extracting a plurality of persons when the number of persons included in the image information is plural, and the person The step of determining the color tone corresponding to may include determining an intermediate color tone corresponding to the plurality of persons as the color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 인물에 대응하는 색감 톤을 결정하는 단계는, 상기 인물에 대응하는 윤곽선을 추출하는 단계; 상기 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 단계; 제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출하는 단계; 및 상기 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the color tone corresponding to the person may include extracting an outline corresponding to the person; removing pixel values having a value less than or equal to a first predetermined value and a value greater than or equal to a second predetermined value among pixels included in the outline; deriving an average pixel value within the contour excluding the removed pixel value; and determining a color tone corresponding to the person based on an average pixel value inside the outline.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원이 홀수라면, 가운데 사람에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하고, 상기 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람에 대응하는 색감 톤을 추출하는 단계; 및 상기 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the step of determining the middle color tone corresponding to the plurality of people as the color tone corresponding to the person may include, if the number of people in the plurality is odd, the color tone corresponding to the middle person is selected for the person. determining the corresponding color tones, and extracting color tones corresponding to two middlemost persons if the number of the plurality of persons is even; and determining an average color tone of color tones corresponding to the two persons as a color tone corresponding to the person.

또 다른 실시예에 있어서, 상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는, 상기 복수의 인원 각각에 대응하는 색감 톤을 추출하는 단계; 및 상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함할 수 있다.In another embodiment, the determining of the middle color tone corresponding to the plurality of persons as the color tone corresponding to the person may include: extracting a color tone corresponding to each of the plurality of persons; and determining an average tone of color tones corresponding to each of the plurality of persons as a color tone corresponding to the person.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on a computer readable medium may be specially designed and configured for the present invention or may be known and usable to those skilled in computer software.

컴퓨터 판독 가능 매체의 예에는 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer readable media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter and the like. The hardware device described above may be configured to operate with at least one software module to perform the operations of the present invention, and vice versa.

또한, 상술한 방법 또는 장치는 그 구성이나 기능의 전부 또는 일부가 결합되어 구현되거나, 분리되어 구현될 수 있다. In addition, the above-described method or device may be implemented by combining all or some of its components or functions, or may be implemented separately.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

Claims (8)

서버에 의해 수행되는 사용자를 위한 영상 제작 방법에 있어서,
사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계;
상기 영상 정보에 포함된 인물을 추출하는 단계;
상기 인물에 대응하는 색감 톤을 결정하는 단계;
상기 색감 톤에 대응하는 카테고리를 결정하는 단계; 및
상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계;를 포함하는 사용자를 위한 영상 제작 방법.
In the video production method for the user performed by the server,
obtaining preferred concept information and image information from a user terminal;
extracting a person included in the image information;
determining a color tone corresponding to the person;
determining a category corresponding to the color tone; and
and determining a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information.
제1항에 있어서,
상기 영상 정보에 포함된 인물을 추출하는 단계는,
상기 영상 정보에 포함된 인물이 복수이면, 복수의 인원을 추출하는 단계;를 포함하고,
상기 인물에 대응하는 색감 톤을 결정하는 단계는,
상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함하는 사용자를 위한 영상 제작 방법.
According to claim 1,
The step of extracting a person included in the image information,
If the number of persons included in the image information is plural, extracting a plurality of persons; includes,
Determining the color tone corresponding to the person,
A video production method for a user comprising: determining an intermediate color tone corresponding to the plurality of persons as a color tone corresponding to the person.
제2항에 있어서,
상기 인물에 대응하는 색감 톤을 결정하는 단계는,
상기 인물에 대응하는 윤곽선을 추출하는 단계;
상기 윤곽선 내부에 포함된 픽셀 중 미리 정해진 제1 특정 값 이하의 값 및 미리 정해진 제2 특정 값 이상의 값의 픽셀 값을 제거하는 단계;
제거한 상기 픽셀 값을 제외한 윤곽선 내부의 평균 픽셀 값을 도출하는 단계; 및
상기 윤곽선 내부의 평균 픽셀 값에 기초하여 상기 인물에 대응하는 색감 톤을 결정하는 단계;를 포함하는 사용자를 위한 영상 제작 방법.
According to claim 2,
Determining the color tone corresponding to the person,
extracting an outline corresponding to the person;
removing pixel values having a value less than or equal to a first predetermined value and a value greater than or equal to a second predetermined value among pixels included in the outline;
deriving an average pixel value within the contour excluding the removed pixel value; and
A video production method for a user comprising: determining a color tone corresponding to the person based on an average pixel value within the outline.
제3항에 있어서,
상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는,
상기 복수의 인원이 홀수라면, 가운데 사람에 대응하는 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하고, 상기 복수의 인원이 짝수라면, 가장 중간에 위치한 두 명의 사람에 대응하는 색감 톤을 추출하는 단계; 및
상기 두 명의 사람에 대응하는 색감 톤의 평균 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함하는 사용자를 위한 영상 제작 방법.
According to claim 3,
The step of determining an intermediate color tone corresponding to the plurality of persons as a color tone corresponding to the person,
If the plurality of people is an odd number, determining the color tone corresponding to the middle person as the color tone corresponding to the person, and if the plurality of people is an even number, extracting color tones corresponding to the two middlemost people step; and
and determining an average color tone of color tones corresponding to the two persons as a color tone corresponding to the person.
제3항에 있어서,
상기 복수의 인원에 대응하는 중간 색감 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계는,
상기 복수의 인원 각각에 대응하는 색감 톤을 추출하는 단계; 및
상기 복수의 인원 각각에 대응하는 색감 톤의 평균 톤을 상기 인물에 대응하는 색감 톤으로 결정하는 단계;를 포함하는 사용자를 위한 영상 제작 방법.
According to claim 3,
The step of determining an intermediate color tone corresponding to the plurality of persons as a color tone corresponding to the person,
extracting a color tone corresponding to each of the plurality of persons; and
and determining an average tone of color tones corresponding to each of the plurality of persons as a color tone corresponding to the person.
사용자를 위한 영상 제작 방법을 수행하는 서버로서,
프로세서; 및
상기 프로세서에 의해 실행되는 적어도 하나의 명령을 저장하는 메모리를 포함하고,
상기 적어도 하나의 명령은,
사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하도록 실행되고,
상기 영상 정보에 포함된 인물을 추출하도록 실행되고,
상기 인물에 대응하는 색감 톤을 결정하도록 실행되고,
상기 색감 톤에 대응하는 카테고리를 결정하도록 실행되고,
상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하도록 실행되는, 서버.
As a server that performs a video production method for a user,
processor; and
a memory storing at least one instruction executed by the processor;
The at least one command,
It is executed to obtain preferred concept information and image information from a user terminal,
Executed to extract a person included in the image information,
is executed to determine a color tone corresponding to the person;
is executed to determine a category corresponding to the color tone;
A server configured to determine a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information.
서버에서 수행되는 사용자를 위한 영상 제작 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체로서,
상기 사용자를 위한 영상 제작 방법은,
사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계;
상기 영상 정보에 포함된 인물을 추출하는 단계;
상기 인물에 대응하는 색감 톤을 결정하는 단계;
상기 색감 톤에 대응하는 카테고리를 결정하는 단계; 및
상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계;를 포함하는, 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium recording a program for executing a video production method for a user performed in a server,
The video production method for the user,
obtaining preferred concept information and image information from a user terminal;
extracting a person included in the image information;
determining a color tone corresponding to the person;
determining a category corresponding to the color tone; and
and determining a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information.
서버에서 사용자를 위한 영상 제작 방법을 수행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램으로서,
상기 사용자를 위한 영상 제작 방법은,
사용자 단말로부터 선호 컨셉 정보 및 영상 정보를 획득하는 단계;
상기 영상 정보에 포함된 인물을 추출하는 단계;
상기 인물에 대응하는 색감 톤을 결정하는 단계;
상기 색감 톤에 대응하는 카테고리를 결정하는 단계; 및
상기 색감 톤에 대응하는 카테고리 및 상기 선호 컨셉 정보에 기초하여 상기 영상 정보에 대응하는 적합 컨셉을 결정하는 단계;를 포함하는, 프로그램.
A program stored in a computer-readable recording medium to perform a video production method for a user in a server,
The video production method for the user,
obtaining preferred concept information and image information from a user terminal;
extracting a person included in the image information;
determining a color tone corresponding to the person;
determining a category corresponding to the color tone; and
and determining a suitable concept corresponding to the image information based on the category corresponding to the color tone and the preferred concept information.
KR1020230059128A 2023-02-10 2023-05-08 Method of creating video making platform for users KR20230073153A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020230018099 2023-02-10
KR20230018099 2023-02-10
KR20230018575 2023-02-13
KR1020230018575 2023-02-13
KR1020230019153A KR102531572B1 (en) 2023-02-10 2023-02-14 Method of creating video making platform for users

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020230019153A Division KR102531572B1 (en) 2023-02-10 2023-02-14 Method of creating video making platform for users

Publications (1)

Publication Number Publication Date
KR20230073153A true KR20230073153A (en) 2023-05-25

Family

ID=86394893

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020230019153A KR102531572B1 (en) 2023-02-10 2023-02-14 Method of creating video making platform for users
KR1020230059126A KR20230073152A (en) 2023-02-10 2023-05-08 Method of creating video making platform for users
KR1020230059128A KR20230073153A (en) 2023-02-10 2023-05-08 Method of creating video making platform for users

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020230019153A KR102531572B1 (en) 2023-02-10 2023-02-14 Method of creating video making platform for users
KR1020230059126A KR20230073152A (en) 2023-02-10 2023-05-08 Method of creating video making platform for users

Country Status (1)

Country Link
KR (3) KR102531572B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249457A1 (en) 2022-06-23 2023-12-28 주식회사 엘지에너지솔루션 Sulfur-carbon composite for lithium-sulfur battery and lithium-sulfur battery including same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5100565B2 (en) * 2008-08-05 2012-12-19 キヤノン株式会社 Image processing apparatus and image processing method
KR102260573B1 (en) * 2020-02-11 2021-06-04 한국과학기술원 Method and Apparatus for Color correction for multi-illuminant portraits on one scene
KR102397201B1 (en) * 2020-09-16 2022-05-12 엘지전자 주식회사 A display device and method of the same
KR102340963B1 (en) * 2021-02-05 2021-12-20 주식회사 파인드커넥트 Method and Apparatus for Producing Video Based on Artificial Intelligence

Also Published As

Publication number Publication date
KR20230073152A (en) 2023-05-25
KR102531572B1 (en) 2023-05-15

Similar Documents

Publication Publication Date Title
US10657652B2 (en) Image matting using deep learning
US10867416B2 (en) Harmonizing composite images using deep learning
US10593023B2 (en) Deep-learning-based automatic skin retouching
WO2019201187A1 (en) Object identification method, system and device, and storage medium
JP2022525272A (en) Image display with selective motion drawing
EP4086786A1 (en) Video processing method, video searching method, terminal device, and computer-readable storage medium
KR102531572B1 (en) Method of creating video making platform for users
CN113870133B (en) Multimedia display and matching method, device, equipment and medium
US20150130816A1 (en) Computer-implemented methods and systems for creating multimedia animation presentations
CN112102157A (en) Video face changing method, electronic device and computer readable storage medium
WO2024046189A1 (en) Text generation method and apparatus
WO2023045635A1 (en) Multimedia file subtitle processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
WO2021217167A1 (en) Messaging system with trend analysis of content
JP2021033961A (en) Video generation program, video generation device, and video generation method
KR102342866B1 (en) A method streaming and displaying custom content
KR102623148B1 (en) Electronic apparatus and controlling method thereof
US20230066331A1 (en) Method and system for automatically capturing and processing an image of a user
CN116977774A (en) Image generation method, device, equipment and medium
US20220375223A1 (en) Information generation method and apparatus
US20210224310A1 (en) Electronic device and story generation method thereof
CN112235516B (en) Video generation method, device, server and storage medium
CN113010728A (en) Song recommendation method, system, intelligent device and storage medium
KR102498367B1 (en) Method of creating video making platform for users
KR102342843B1 (en) A method of serving customized content considering circumstance
KR102507130B1 (en) Method and apparatus for providing custom frame production service

Legal Events

Date Code Title Description
A107 Divisional application of patent