KR102521594B1 - A system that analyzes picture colors and analyzes users based on artificial intelligence - Google Patents

A system that analyzes picture colors and analyzes users based on artificial intelligence Download PDF

Info

Publication number
KR102521594B1
KR102521594B1 KR1020230019737A KR20230019737A KR102521594B1 KR 102521594 B1 KR102521594 B1 KR 102521594B1 KR 1020230019737 A KR1020230019737 A KR 1020230019737A KR 20230019737 A KR20230019737 A KR 20230019737A KR 102521594 B1 KR102521594 B1 KR 102521594B1
Authority
KR
South Korea
Prior art keywords
color
data
artificial intelligence
picture data
picture
Prior art date
Application number
KR1020230019737A
Other languages
Korean (ko)
Inventor
강재구
안문주
Original Assignee
주식회사 아이스크림아트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이스크림아트 filed Critical 주식회사 아이스크림아트
Priority to KR1020230019737A priority Critical patent/KR102521594B1/en
Application granted granted Critical
Publication of KR102521594B1 publication Critical patent/KR102521594B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/06Children, e.g. for attention deficit diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

According to the present invention, administrators and parents are allowed to objectively determine the personality of the child who is the user who created picture data based on a word cloud, and to objectively determine information about the colors mainly used to create the picture data in creating the picture data by the child through the degree of use of color, and to objectively determine the characteristics of the drawing data created by the user, the child, through the color characteristic distribution map.

Description

인공지능을 기반으로 그림 색채를 분석하고, 사용자를 분석하는 시스템 {A system that analyzes picture colors and analyzes users based on artificial intelligence}A system that analyzes picture colors and analyzes users based on artificial intelligence {A system that analyzes picture colors and analyzes users based on artificial intelligence}

본 발명은 그림 색채 분석 방법 및 시스템에 관한 것으로, 보다 상세하게는 온/오프라인상에서 입력되는 사용자인 아동이 그린 그림 데이터의 객체에 적용된 색채를 분석할 수 있는 그림 색채 분석 방법 및 시스템에 관한 것이다.The present invention relates to a picture color analysis method and system, and more particularly, to a picture color analysis method and system capable of analyzing colors applied to objects of picture data drawn by a user, a child, input on/offline.

색은 그림의 가장 기본적인 요소로서 그림 속 대상과 분위기를 표현하는 효과적인 방법 중 하나이다. 또한, 그 단위의 특성상 이산적(discrete)이지 않고 연속적(continuous)이기 때문에, 정밀하고 연속적이며 다채로운 표현을 가능하게 한다.Color is the most basic element of painting and is one of the effective ways to express the subject and atmosphere in the painting. In addition, since the unit is not discrete but continuous, it enables precise, continuous and colorful expressions.

종래에는 색채를 자동으로 추출하는 방법이 대한민국 등록특허공보 제10-1353758호(발명의 명칭: 표준컬러체커를 이용한 디지털 색채보정 및 색채추출 프로그램이 저장된 저장매체 및 그를 이용한 색채 보정 및 색채추출 방법)와 대한민국 등록특허공보 제10-1580034호(발명의 명칭: 모바일 단말기를 이용한 색채추출 및 저장방법)이 개시된 바 있다.Conventionally, a method for automatically extracting colors was disclosed in Korean Patent Registration No. 10-1353758 (Title of Invention: A storage medium storing a digital color correction and color extraction program using a standard color checker and a color correction and color extraction method using the same) and Republic of Korea Patent Registration No. 10-1580034 (title of invention: color extraction and storage method using a mobile terminal) has been disclosed.

그러나 선행문헌들은 기준 색상을 미리 정의해두고, 이미지(그림 또는 사진)에 적용된 색채(컬러)를 기준 색상으로 보정한 후 해당 색에 가까운 색들의 비율을 구하는 방법으로 색채를 추출하고 있다. 이러한 선행문헌들의 방법도 색채의 분석에 유리할 수 있으나, 이미지에 드러난 색의 다양성을 놓치게 됨과 동시에 색의 표현을 획일화 해버리는 문제점이 있다.However, prior literatures define the standard color in advance, correct the color (color) applied to the image (picture or photo) with the standard color, and then extract the color by calculating the ratio of colors close to the corresponding color. The methods of these preceding literatures may also be advantageous for color analysis, but there is a problem in that the diversity of colors revealed in the image is missed and at the same time the expression of colors is unified.

대한민국 등록특허공보 제10-1353758호Republic of Korea Patent Registration No. 10-1353758 대한민국 등록특허공보 제10-1580034호Republic of Korea Patent Registration No. 10-1580034

본 발명은 종래의 색채추출 방법의 문제점을 개선하기 위해 안출된 것으로서, 본 발명의 목적은 온/오프라인상에서 입력되는 사용자인 아동이 그린 그림 데이터의 객체에 적용된 색채를 학습된 인공지능 알고리즘이 탑재된 인공지능 서버에서 분석하며, 그림 데이터의 색채 분석에 따른 결과 데이터로서 색채 사용 정도, 색채 특성 분포도 및 워드클라우드를 생성할 수 있는 그림 색채 분석 방법 및 시스템을 제공함에 있다.The present invention has been devised to improve the problems of the conventional color extraction method, and an object of the present invention is equipped with an artificial intelligence algorithm that learns colors applied to objects of picture data drawn by a user, a user input on/offline. It is analyzed in an artificial intelligence server and provides a picture color analysis method and system capable of generating color usage degree, color characteristic distribution map, and word cloud as result data according to color analysis of picture data.

또한, 본 발명은 관리자 및 학부모가 시각 피드백의 형태로 출력되는 결과 데이터에 기반하여 아동의 성격, 그림 데이터를 생성하는데 있어 주로 사용한 색에 대한 정보 및 그림 데이터의 특성을 객관적으로 판단할 수 있는 그림 색채 분석 방법 및 시스템을 제공함에 있다.In addition, the present invention is a picture that can objectively determine the characteristics of the picture data and information on the color mainly used in generating the picture data and the personality of the child based on the result data output in the form of visual feedback by the manager and the parent. It is to provide a color analysis method and system.

다만, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problem to be achieved in the present invention is not limited to the above-mentioned technical problems, and other technical problems not mentioned will become clear to those skilled in the art from the description below. You will be able to understand.

상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 그림 색채 분석 방법은, a) 아동인 사용자가 입력 모듈을 이용하여 그림 데이터를 입력하는 단계; b) 분석 모듈의 데이터 서버가 상기 입력 모듈에 입력된 그림 데이터를 인공지능 서버로 전송하며, 상기 인공지능 서버가 상기 그림 데이터 내 배경 이미지를 제거하는 단계; c) 상기 인공지능 서버가 그림 데이터의 분석을 통해 상기 그림 데이터로부터 색채를 추출하여 결과 데이터를 생성하는 단계; d) 피드백 생성 모듈이 상기 인공지능 서버에서 생성된 결과 데이터를 피드백 대시보드에 출력하여 관리자에게 상기 결과 데이터를 제공하는 단계; 및 e) 상기 피드백 생성 모듈이 상기 피드백 대시보드에 출력된 결과 데이터를 상기 사용자의 학부모가 구비한 단말로 전송하며, 상기 단말이 상기 결과 데이터를 시각 피드백의 형태로 출력하여 상기 학부모에게 제공하는 단계;를 포함할 수 있다.A picture color analysis method according to an embodiment of the present invention for achieving the above object includes: a) a child user inputting picture data using an input module; b) the data server of the analysis module transmits the picture data input to the input module to the artificial intelligence server, and the artificial intelligence server removes the background image from the picture data; c) generating result data by extracting colors from the picture data through analysis of the picture data by the artificial intelligence server; d) a feedback generating module outputting result data generated by the artificial intelligence server to a feedback dashboard and providing the result data to a manager; and e) transmitting, by the feedback generation module, result data output on the feedback dashboard to a terminal equipped with by a parent of the user, and outputting the result data in the form of visual feedback and providing the result data to the parent by the terminal. ; can be included.

또한, 본 발명의 일 실시예에 따른 그림 색채 분석 방법을 수행하기 위한 그림 색채 분석 시스템은, 아동인 사용자가 그림 데이터를 입력하기 위한 입력 모듈; 상기 입력 모듈에 입력된 그림 데이터를 전송받는 데이터 서버와, 상기 데이터 서버로부터 전송받은 그림 데이터 내 배경 이미지를 제거한 후에 상기 그림 데이터의 분석을 통해 상기 그림 데이터로부터 색채를 추출하여 결과 데이터를 생성하는 인공지능 서버로 구성된 분석 모듈; 상기 인공지능 서버에서 생성된 결과 데이터를 피드백 대시보드에 출력하여 관리자에게 상기 결과 데이터를 제공하며, 상기 피드백 대시보드에 출력된 결과 데이터를 상기 사용자의 학부모가 구비한 단말로 전송하는 피드백 생성 모듈; 및 상기 결과 데이터를 시각 피드백의 형태로 출력하여 상기 학부모에게 제공하는 상기 단말;을 포함할 수 있다.In addition, the picture color analysis system for performing the picture color analysis method according to an embodiment of the present invention includes an input module for a child user to input picture data; A data server receiving the picture data input to the input module, and an artificial person generating result data by extracting colors from the picture data through analysis of the picture data after removing a background image in the picture data received from the data server. Analysis module composed of intelligent server; a feedback generation module outputting the result data generated by the artificial intelligence server to a feedback dashboard, providing the result data to an administrator, and transmitting the result data output on the feedback dashboard to a terminal equipped by a parent of the user; and the terminal outputting the resulting data in the form of visual feedback and providing the resulting data to the parents.

그리고 본 발명의 일 실시예에 따른 그림 색채 분석 방법 및 시스템에서 결과 데이터는, 상기 인공지능 서버가 학습된 인공지능 알고리즘을 통해 생성하는 색채 사용 정도, 색채 특성 분포도 및 워드클라우드일 수 있다.Further, in the picture color analysis method and system according to an embodiment of the present invention, result data may be a color usage degree, a color characteristic distribution map, and a word cloud generated by the artificial intelligence server through a learned artificial intelligence algorithm.

본 발명은 관리자 및 학부모가 워드클라우드에 기반하여 그림 데이터를 생성한 사용자인 아동의 성격을 객관적으로 판단할 수 있다.According to the present invention, administrators and parents can objectively determine the personality of a child who is a user who creates picture data based on a word cloud.

또한, 본 발명은 관리자 및 학부모가 색채 사용 정도를 통해 사용자인 아동이 그림 데이터를 생성하는데 있어, 그림 데이터를 생성하는데 주로 사용한 색에 대한 정보를 객관적으로 판단할 수 있다.In addition, according to the present invention, when a child, a user, creates picture data through the degree of use of colors by administrators and parents, it is possible to objectively determine information on colors mainly used to create picture data.

그리고 본 발명은 관리자 및 학부모가 색채 특성 분포도를 통해 사용자인 아동이 생성한 그림 데이터의 특성을 객관적으로 판단할 수 있다.In addition, according to the present invention, administrators and parents can objectively determine the characteristics of picture data generated by a user, a child, through a color characteristic distribution map.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

도 1은 본 발명의 일 실시예에 따른 그림 색채 분석 시스템을 나타내는 도면이다.
도 2는 도 1에 도시된 입력 모듈을 설명하기 위한 도면이다.
도 3은 도 2에 도시된 온라인 입력장치 및 오프라인 입력장치를 통해 데이터 서버로 전송되는 그림 데이터의 일례를 나타내는 도면이다.
도 4는 도 1에 도시된 인공지능 서버에 구성된 인공지능 알고리즘의 일례를 나타내는 도면이다.
도 5는 도 1에 도시된 피드백 생성 모듈을 통해 출력되는 색채 사용 정도의 일례를 나타내는 도면이다.
도 6은 도 1에 도시된 피드백 생성 모듈을 통해 출력되는 색채 특성 분포도의 일례를 나타내는 도면이다.
도 7은 도 1에 도시된 피드백 생성 모듈을 통해 출력되는 워드클라우드의 일례를 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 그림 색채 분석 방법의 과정을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 인공지능 서버의 그림 데이터 분석 및 생성 단계의 세부 과정을 나타내는 도면이다.
도 10은 도 9에 도시된 색채 사용 정도 분석 및 생성 단계의 세부 과정을 나타내는 도면이다.
도 11은 도 9에 도시된 색채 특성 분포도 분석 및 생성 단계의 세부 과정을 나타내는 도면이다.
도 12는 도 9에 도시된 워드클라우드 생성 단계의 세부 과정을 나타내는 도면이다.
1 is a diagram showing a picture color analysis system according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining the input module shown in FIG. 1 .
FIG. 3 is a diagram illustrating an example of picture data transmitted to a data server through the online input device and the offline input device shown in FIG. 2 .
4 is a diagram showing an example of an artificial intelligence algorithm configured in the artificial intelligence server shown in FIG. 1 .
FIG. 5 is a diagram illustrating an example of color usage levels output through the feedback generating module shown in FIG. 1 .
FIG. 6 is a diagram illustrating an example of a color characteristic distribution map output through the feedback generating module shown in FIG. 1 .
FIG. 7 is a diagram illustrating an example of a word cloud output through the feedback generating module shown in FIG. 1 .
8 is a diagram illustrating a process of a picture color analysis method according to an embodiment of the present invention.
9 is a diagram showing a detailed process of analyzing and generating picture data of an artificial intelligence server according to an embodiment of the present invention.
FIG. 10 is a diagram illustrating a detailed process of the step of analyzing and generating the degree of color use shown in FIG. 9 .
FIG. 11 is a diagram illustrating a detailed process of analyzing and generating a color characteristic distribution map shown in FIG. 9 .
FIG. 12 is a diagram illustrating detailed processes of the word cloud generation step shown in FIG. 9 .

이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element. It should be understood that when an element is referred to as “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being “directly connected” to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to a described feature, number, step, operation, component, part, or It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present invention.

그림 색채 분석 시스템Picture color analysis system

이하에서는, 본 발명의 일 실시예에 따른 그림 색채 분석 시스템(10)에 대해 자세히 설명하도록 하겠다.Hereinafter, the picture color analysis system 10 according to an embodiment of the present invention will be described in detail.

도 1은 본 발명의 일 실시예에 따른 그림 색채 분석 시스템을 나타내는 도면이다.1 is a diagram showing a picture color analysis system according to an embodiment of the present invention.

도 1을 참조하면, 그림 색채 분석 시스템(10)은 그림 데이터(105)의 색채를 분석하기 위한 시스템으로서, 입력 모듈(100), 분석 모듈(200), 피드백 생성 모듈(300) 및 단말(400)을 포함한다.1, a picture color analysis system 10 is a system for analyzing the color of picture data 105, and includes an input module 100, an analysis module 200, a feedback generation module 300, and a terminal 400. ).

입력 모듈(100)은 사용자인 아동이 그린 그림 데이터(105)를 분석 모듈(200)의 데이터 서버(200)로 전송하기 위해 그림 색채 분석 시스템(10)에 구비된다.The input module 100 is provided in the picture color analysis system 10 to transmit the picture data 105 drawn by the user, the child, to the data server 200 of the analysis module 200.

일 실시예에서, 사용자는 학부모의 관리가 필요한 만 4세~13세의 연령대에 속하는 아동으로 한정하여 설명하겠으나, 바람직하게는 연령대와 상관없이 입력 모듈(100)을 구비한 객체일 수 있다.In one embodiment, the user will be limited to children belonging to the age range of 4 to 13 years of age who need parental management, but preferably, the user may be an object equipped with the input module 100 regardless of age.

일 실시예에서, 입력 모듈(100)은 그림 데이터(105)를 온/오프라인상에서 입력하기 위한 입력장치가 도 2에 도시된 바와 같이 구비될 수 있다.In one embodiment, the input module 100 may include an input device for inputting picture data 105 on/offline as shown in FIG. 2 .

도 2는 도 1에 도시된 입력 모듈을 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining the input module shown in FIG. 1 .

도 2를 참조하면, 입력 모듈(100)은 온라인 입력장치(110) 및 오프라인 입력장치(120)가 구비된다.Referring to FIG. 2 , the input module 100 includes an online input device 110 and an offline input device 120 .

온라인 입력장치(110)는 사용자가 온라인(on-line)상에서 그린 그림 데이터(105)를 데이터 서버(210)로 전송한다.The online input device 110 transmits picture data 105 drawn by a user online to the data server 210 .

일 실시예에서, 온라인 입력장치(110)는 드로잉 툴(drawing tool)을 이용하여 그림 데이터(105)를 그릴 수 있는 앱(app)이 기저장(또는 탑재)되며, 사용자가 앱의 드로잉 툴을 이용하여 그림 데이터(105)를 그린 후 그림 데이터(105)를 데이터베이스(미도시)에 저장하면, 앱은 그림 데이터(105)를 데이터 서버(210)로 실시간으로 전송할 수 있다.In one embodiment, in the online input device 110, an app capable of drawing picture data 105 using a drawing tool is pre-stored (or loaded), and the user selects the drawing tool of the app. After drawing the picture data 105 using the drawing data 105 and storing the picture data 105 in a database (not shown), the app can transmit the picture data 105 to the data server 210 in real time.

일 실시예에서, 온라인 입력장치(110)는 데이터베이스 저장된 그림 데이터(105)를 데이터 서버(210)로 전송하기 위해 데이터 서버(210)와 네트워크를 통해 연결될 수 있다.In one embodiment, the online input device 110 may be connected to the data server 210 through a network to transmit the picture data 105 stored in the database to the data server 210 .

일 실시예에서, 온라인 입력장치(110)는 앱의 기저장이 가능한 수단이면 한정하지 아니하며, 이러한 수단은 일례로 스마트폰, 컴퓨터, 태블릿 중 적어도 하나일 수 있다.In one embodiment, the online input device 110 is not limited as long as it is a means capable of pre-storing apps, and such means may be, for example, at least one of a smartphone, a computer, and a tablet.

오프라인 입력장치(120)는 사용자가 직접 즉, 오프라인(off-line)상에서 도구(예: 붓, 펜 등)을 이용하여 직접 그린 그림 데이터(105)를 데이터 서버(210)로 전송한다.The offline input device 120 transmits picture data 105 directly drawn by the user, that is, offline using a tool (eg, a brush, pen, etc.) to the data server 210 .

일 실시예에서, 오프라인 입력장치(120)는 오프라인상에서 그려진 그림 데이터(105)를 데이터 서버(210)로 전송하는 것이 가능한 수단이면 한정하지 아니하며, 이러한 수단은 일례로 스캐너일 수 있다.In one embodiment, the offline input device 120 is not limited to any means capable of transmitting the picture data 105 drawn offline to the data server 210, and such means may be, for example, a scanner.

그림 데이터(105)는 온라인 입력장치(110) 및 오프라인 입력장치(120) 중 적어도 하나를 통해 분석 모듈(200)의 데이터 서버(210)로 전송되는데, 도 3에 도시된 바와 같이 객체(1050)를 적어도 포함하는 것이 바람직하다.The picture data 105 is transmitted to the data server 210 of the analysis module 200 through at least one of the online input device 110 and the offline input device 120. As shown in FIG. 3, the object 1050 It is preferable to include at least.

도 3은 도 2에 도시된 온라인 입력장치 및 오프라인 입력장치를 통해 데이터 서버로 전송되는 그림 데이터의 일례를 나타내는 도면이다.FIG. 3 is a diagram illustrating an example of picture data transmitted to a data server through the online input device and the offline input device shown in FIG. 2 .

도 3의 (a) 내지 (c)를 참조하면, 그림 데이터(105)는 동일한 수업 과정에서도 각 사용자가 서로 다른 제1 그림 데이터(105a), 제2 그림 데이터(105b), 제3 그림 데이터(105c)를 그릴 수 있으며, 각 그림 데이터(105a, 105b, 105c)는 객체(1050) 및 배경 이미지로 구성된다.Referring to (a) to (c) of FIG. 3 , picture data 105 includes first picture data 105a, second picture data 105b, and third picture data ( 105c) can be drawn, and each drawing data 105a, 105b, and 105c is composed of an object 1050 and a background image.

일 실시예에서, 객체(1050)는 종류를 한정하지 아니하나, 사용자의 심리상태를 분석하는 HTP 검사를 기준으로 집, 나무 및 사람 중 적어도 하나일 수 있으며, 객체(1050)를 제외한 나머지는 배경 이미지일 수 있다.In one embodiment, the object 1050 is not limited in type, but may be at least one of a house, a tree, and a person based on an HTP test that analyzes the user's psychological state, and the rest except for the object 1050 is the background. It can be an image.

다시 도 1을 참조하면, 분석 모듈(200)은 입력 모듈(100)에서 전송된 그림 데이터(105)의 색채를 분석하며, 색채 분석 결과인 결과 데이터를 생성하기 위해 그림 색채 분석 시스템(10)에 구비된다.Referring back to FIG. 1, the analysis module 200 analyzes the color of the picture data 105 transmitted from the input module 100, and sends the picture color analysis system 10 to generate result data that is the color analysis result. are provided

일 실시예에서, 분석 모듈(200)은 데이터 서버(210) 및 인공지능 서버(220)를 포함한다.In one embodiment, the analysis module 200 includes a data server 210 and an artificial intelligence server 220 .

데이터 서버(210)는 그림 데이터(105)를 저장하기 위한 데이터베이스 서버의 역할을 수행하기 위해, 온라인 입력장치(110) 및 오프라인 입력장치(120) 중 적어도 하나로부터 그림 데이터(105)를 전송받게 되면, 전송받은 그림 데이터(105)를 저장한다.When the data server 210 receives picture data 105 from at least one of the online input device 110 and the offline input device 120 in order to serve as a database server for storing the picture data 105 , and stores the received picture data 105.

일 실시예에서, 데이터 서버(210)는 온라인 입력장치(110) 및 오프라인 입력장치(120)와 네트워크를 통해 연결되어 그림 데이터(105)를 전송받을 수 있다.In one embodiment, the data server 210 may be connected to the online input device 110 and the offline input device 120 through a network to receive picture data 105 .

인공지능 서버(220)는 데이터 서버(210)로부터 그림 데이터(105)를 전송받기 위해 데이터 서버(210)와 네트워크를 통해 연결될 수 있으며, 데이터 서버(210)로부터 그림 데이터(105)를 전송받게 될 때, 그림 데이터(105)의 색채를 분석하여 결과 데이터를 생성하는데, 결과 데이터의 생성을 위해 도 4에 도시된 바와 같이 학습된 인공지능 알고리즘(225)이 탑재(또는 구성)된다.The artificial intelligence server 220 may be connected to the data server 210 through a network to receive the picture data 105 from the data server 210, and will receive the picture data 105 from the data server 210. At this time, the result data is generated by analyzing the color of the picture data 105, and the learned artificial intelligence algorithm 225 is installed (or configured) as shown in FIG. 4 to generate the result data.

도 4는 도 1에 도시된 인공지능 서버에 구성된 인공지능 알고리즘의 일례를 나타내는 도면이다.4 is a diagram showing an example of an artificial intelligence algorithm configured in the artificial intelligence server shown in FIG. 1 .

도 4 (a)를 참조하면, 인공지능 알고리즘(225)은 그림 데이터(105)의 색채 분석이 가능한 하나의 AI 모델로 구성될 수 있으나 이를 한정하는 것은 아니며, 일 실시예에서는 도 4의 (b)에 도시된 바와 같이 그림 데이터(105)의 색채 분석이 가능한 복수개의 AI 모델로 구성될 수 있다.Referring to FIG. 4 (a), the artificial intelligence algorithm 225 may be composed of one AI model capable of color analysis of picture data 105, but is not limited thereto. In one embodiment, in FIG. 4 (b) As shown in ), it may be composed of a plurality of AI models capable of color analysis of the picture data 105.

도 4의 (b)를 참조하면, 인공지능 알고리즘(225)은 일 실시예에서 이미지 추출 알고리즘(225a), K-means 알고리즘(225b), K-medoids 알고리즘(225c) 및 샘플링 알고리즘(225d)를 포함하는 복수개의 AI 모델로 구성될 수 있으며, 이외에도 다른 AI 모델이 추가 구성될 수도 있다.Referring to (b) of FIG. 4, the artificial intelligence algorithm 225 includes an image extraction algorithm 225a, a K-means algorithm 225b, a K-medoids algorithm 225c, and a sampling algorithm 225d in one embodiment. It may consist of a plurality of AI models including, and other AI models may be additionally configured.

이미지 추출 알고리즘(225a)은 픽셀별(pixel-by-pixel) 채널기반 차이 추출 기술을 기반으로 이미지에서 배경이 아닌 전경에 해당하는 이미지를 추출해 내는 방법이다.The image extraction algorithm 225a is a method of extracting an image corresponding to a foreground, not a background, from an image based on a pixel-by-pixel channel-based difference extraction technique.

인공지능 서버(220)는 학습된 이미지 추출 알고리즘(225a)을 통해 데이터 서버(210)로부터 전송받은 그림 데이터(105) 내 배경 이미지가 아닌 그림 데이터의 객체(1050)를 추출함으로써, 그림 데이터(105)로부터 배경 이미지를 제거한다.The artificial intelligence server 220 extracts the object 1050 of the picture data, not the background image, from the picture data 105 received from the data server 210 through the learned image extraction algorithm 225a, so that the picture data 105 ) to remove the background image.

K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c)은 머신러닝 비지도학습에 속하며, 군집 수를 사전에 설정한 후에 데이터를 K개의 군집(Cluster)으로 묶는(Clusting) 알고리즘이다.The K-means algorithm 225b and the K-medoids algorithm 225c belong to machine learning unsupervised learning, and are algorithms for clustering data into K clusters after setting the number of clusters in advance.

일 실시예에서, 인공지능 알고리즘(225)에는 데이터의 군집이 가능한 K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c)가 각각 구성될 수 있다. 다만, 그림 색채 분석 시스템(10)의 비용 축소 및 규모 최소화를 위해, K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c) 중 적어도 하나의 AI 모델만 구성될 수도 있다.In one embodiment, the artificial intelligence algorithm 225 may include a K-means algorithm 225b and a K-medoids algorithm 225c capable of clustering data, respectively. However, in order to reduce the cost and minimize the size of the picture color analysis system 10, only at least one AI model of the K-means algorithm 225b and the K-medoids algorithm 225c may be configured.

인공지능 서버(220)는 학습된 K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c) 중 적어도 하나를 통해 기설정된 개수로 군집 수를 설정한 후, 배경 이미지가 제거된 그림 데이터(105)의 객체(105)에 적용된 색채를 유사한 색채별로 클러스터링시켜 기설정된 개수의 군집을 형성한다.The artificial intelligence server 220 sets the number of clusters to a predetermined number through at least one of the learned K-means algorithm 225b and the K-medoids algorithm 225c, and then generates the image data 105 from which the background image is removed. A predetermined number of clusters are formed by clustering the colors applied to the object 105 of each similar color.

또한, 인공지능 서버(220)는 색채별로 클러스터링된 기설정된 개수의 군집이 형성되는 경우, 학습된 K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c) 중 적어도 하나를 통해 각 군집의 크기를 분석하며, 군집의 크기가 큰 순으로 기설정된 개수의 군집을 정렬한다.In addition, when a predetermined number of clusters clustered by color are formed, the artificial intelligence server 220 determines the size of each cluster through at least one of the learned K-means algorithm 225b and the K-medoids algorithm 225c. After analysis, a predetermined number of clusters are sorted in the order of the largest cluster size.

일 실시예에서, 군집의 기설정된 개수는 피드백 생성 모듈(300)의 피드백 대시보드에서 출력될 색채 사용 정도(310)를 구성하기 위한 브러쉬(311~315)의 개수와 동일할 수 있다.In one embodiment, the preset number of clusters may be the same as the number of brushes 311 to 315 for configuring the color usage degree 310 to be output on the feedback dashboard of the feedback generation module 300 .

구체적인 일례로, 군집의 기설정된 개수는 서로 다른 색채의 브러쉬(311~315)가 색채 사용 정도(310)상에서 5개로 출력될 경우 5개로 설정될 수 있으며, 이와 달리 서로 다른 색채의 브러쉬(311~315)가 색채 사용 정도(310)상에서 6개로 출력될 경우 6개로 설정될 수 있다.As a specific example, the predetermined number of clusters may be set to 5 when the brushes 311 to 315 of different colors are output as 5 on the degree of color use 310, and unlike this, the brushes 311 to 315 of different colors 315) may be set to 6 when 6 are output on the color usage degree 310.

그리고 인공지능 서버(220)는 군집의 정렬 후, 정렬된 군집을 이용하여 피드백 생성 모듈(300)에서 출력될 색채 사용 정도(310) 및 색채 특성 분포도(320)를 생성한다.After the clusters are sorted, the artificial intelligence server 220 generates a color usage degree 310 and a color characteristic distribution map 320 to be output from the feedback generating module 300 using the sorted clusters.

샘플링 알고리즘(225d)은 색채이미지 형용사를 추출하기 위한 가중 랜덤 샘플링(weighted random sampling) 기반의 AI 모델일 수 있다.The sampling algorithm 225d may be an AI model based on weighted random sampling for extracting color image adjectives.

여기서, 색채이미지 형용사는 색채이미지 스케일 내 색채 영역(321~325)의 위치에 따라 색채 영역(321~325)의 색으로부터 유추되는 성향에 대해 형용사의 형태로 추출되는 텍스트(text)를 의미한다.Here, the color image adjective means a text extracted in the form of an adjective about a tendency inferred from the color of the color areas 321 to 325 according to the positions of the color areas 321 to 325 in the color image scale.

인공지능 서버(220)는 색채 특성 분포도(320)가 생성되는 경우, 학습된 샘플링 알고리즘(225d)을 통해 색채 특성 분포도(320)를 구성하는 색채 영역(321~325)의 색과 관련된 색채이미지 형용사를 하나 이상 추출한다.When the color characteristic distribution map 320 is generated, the artificial intelligence server 220 selects color image adjectives related to the colors of the color regions 321 to 325 constituting the color characteristic distribution map 320 through the learned sampling algorithm 225d. extract one or more

또한, 인공지능 서버(220)는 색채이미지 형용사가 하나 이상 추출되면, 색채이미지 형용사에 대한 텍스트 말뭉치(text corpus)를 형성하며, 텍스트 말뭉치 내 각 색채이미지 형용사의 크기를 색채 영역(321~325)의 크기에 따라 조절함으로써, 피드백 생성 모듈(300)에서 출력될 워드클라우드(330)를 생성한다.In addition, when one or more color image adjectives are extracted, the artificial intelligence server 220 forms a text corpus for the color image adjectives, and sets the size of each color image adjective in the text corpus to color regions 321 to 325. By adjusting according to the size of , the word cloud 330 to be output from the feedback generation module 300 is generated.

여기서, 텍스트 말뭉치는 자연언어 연구를 위해 특정한 목적을 가지고 언어의 표본을 추출한 집합을 의미한다.Here, the text corpus means a set from which language samples are extracted for a specific purpose for natural language research.

즉, 인공지능 서버(220)는 일 실시예에서 그림 데이터(105)의 분석을 통해 색채 사용 정도(310), 색채 특성 분포도(320) 및 워드클라우드(330)를 결과 데이터로 생성하게 된다.That is, the artificial intelligence server 220 generates a color usage degree 310, a color characteristic distribution map 320, and a word cloud 330 as result data through analysis of the picture data 105 in one embodiment.

일 실시예에서, 인공지능 서버(220)는 데이터 서버(210)로 전송된 그림 데이터(105)와 결과 데이터인 색채 사용 정도(310), 색채 특성 분포도(320) 및 워드클라우드(330)를 페어링시켜 페어링 데이터를 생성할 수 있다.In one embodiment, the artificial intelligence server 220 pairs the picture data 105 transmitted to the data server 210 with the resultant data, the degree of color usage 310, the color characteristic distribution map 320, and the word cloud 330. to generate pairing data.

일 실시예에서, 인공지능 서버(220)는 페어링 데이터를 피드백 생성 모듈(300)로 페어링 데이터를 전송할 수 있으나 이를 한정하는 것은 아니며, 피드백 생성 모듈(300)에 결과 데이터만을 전송할 수도 있다.In one embodiment, the artificial intelligence server 220 may transmit pairing data to the feedback generation module 300, but is not limited thereto, and may transmit only resultant data to the feedback generation module 300.

다시 도 1을 참조하면, 피드백 생성 모듈(300)은 인공지능 서버(220)와 네트워크를 통해 연결되며, 인공지능 서버(220)로부터 전송받은 결과 데이터 또는 페어링 데이터를 피드백 대시보드(미도시)에 출력함으로써, 관리자에게 결과 데이터 또는 페어링 데이터를 제공한다.Referring back to FIG. 1, the feedback generation module 300 is connected to the artificial intelligence server 220 through a network, and the result data or pairing data received from the artificial intelligence server 220 is displayed on a feedback dashboard (not shown). By outputting, result data or pairing data is provided to the administrator.

일 실시예에서, 관리자는 사용자에게 그림 데이터(105)의 생성을 위한 수업을 진행하는 교사이거나, 그림 분석 시스템(10)을 관리 및 운영하는 운영자일 수 있으며, 교사이면서 운영자일 수도 있다.In one embodiment, the manager may be a teacher who gives a user a class for generating the picture data 105, an operator who manages and operates the picture analysis system 10, or may be both a teacher and an operator.

일 실시예에서, 피드백 생성 모듈(300)은 결과 데이터인 색채 사용 정도(310), 색채 특성 분포도(320) 및 워드클라우드(330)를 도 5 내지 도 7에 도시된 바와 같이 피드백 대시보드에 출력하여 관리자에게 제공할 수 있다.In one embodiment, the feedback generating module 300 outputs the color usage degree 310, the color characteristic distribution map 320, and the word cloud 330, which are result data, to a feedback dashboard as shown in FIGS. 5 to 7 and provide it to the manager.

도 5는 도 1에 도시된 피드백 생성 모듈을 통해 출력되는 색채 사용 정도의 일례를 나타내는 도면이며, 도 6은 도 1에 도시된 피드백 생성 모듈을 통해 출력되는 색채 특성 분포도의 일례를 나타내는 도면이고, 도 7은 도 1에 도시된 피드백 생성 모듈을 통해 출력되는 워드클라우드의 일례를 나타내는 도면이다.5 is a diagram showing an example of a color usage degree output through the feedback generation module shown in FIG. 1, and FIG. 6 is a diagram showing an example of a color characteristic distribution map output through the feedback generation module shown in FIG. 1, FIG. 7 is a diagram illustrating an example of a word cloud output through the feedback generating module shown in FIG. 1 .

도 5를 참조하면, 색채 사용 정도(310)는 일 실시예에서 인공지능 서버(220)가 크기순으로 정렬한 각각의 군집을 구성하는 색채와 동일한 색채로 구성된 브러쉬를 하나 이상 포함한다.Referring to FIG. 5 , the degree of color use 310 includes one or more brushes composed of the same color as the color constituting each cluster arranged in order of size by the artificial intelligence server 220 in one embodiment.

일 실시예에서, 색채 사용 정도(310)의 브러쉬를 구성하기 위한 군집은 '에메랄드색'의 군집, '초록색'의 군집, '회색'의 군집, '노랑색'의 군집, '빨강색'의 군집으로 구성될 수 있다.In one embodiment, the clusters for constructing the brush of the degree of color usage 310 are the 'emerald' cluster, the 'green' cluster, the 'gray' cluster, the 'yellow' cluster, and the 'red' cluster. may consist of

이에 따라, 색채 사용 정도(310)의 브러쉬는 일 실시예에서 '에메랄드색'의 제1 브러쉬(311), '초록색'의 제2 브러쉬(312), '회색'의 제3 브러쉬(313), '노랑색'의 제4 브러쉬(314) 및 '빨강색'의 제5 브러쉬(315)로 구성될 수 있다.Accordingly, the brushes of the color usage degree 310 include, in one embodiment, the first brush 311 of 'emerald color', the second brush 312 of 'green', the third brush 313 of 'gray', It may be composed of a 'yellow' fourth brush 314 and a 'red' fifth brush 315 .

일 실시예에서, 색채 사용 정도(310)는 제1 내지 제5 브러쉬(311~315)와 연결된 형태의 붓터치를 하나 이상 포함한다.In one embodiment, the degree of color use 310 includes one or more brush touches connected to the first to fifth brushes 311 to 315 .

일 실시예에서, 색채 사용 정도(310)의 붓터치는 제1 브러쉬(311)와 연결된 형태의 제1 붓터치(311a), 제2 브러쉬(312)와 연결된 제2 붓터치(312a), 제3 브러쉬(313)와 연결된 제3 붓터치(313a), 제4 브러쉬(314)와 연결된 제4 붓터치(314a) 및 제5 브러쉬(315)와 연결된 제5 붓터치(315a)로 구성될 수 있다.In one embodiment, the brush touches of the degree of color usage 310 include a first brush touch 311a connected to the first brush 311, a second brush touch 312a connected to the second brush 312, It may be composed of a third brush touch 313a connected to three brushes 313, a fourth brush touch 314a connected to a fourth brush 314, and a fifth brush touch 315a connected to a fifth brush 315. there is.

일 실시예에서, 제1 내지 제5 붓터치(311a~315a)는 인공지능 서버(220)로부터 정렬된 각 군집의 크기에 따라 길이에 차이가 발생되는데, 제1 붓터치(311a)로부터 제5 붓터치(315a)로 갈수록 길이가 짧아질 수 있다.In one embodiment, a difference occurs in the length of the first to fifth brush touches 311a to 315a according to the size of each cluster sorted by the artificial intelligence server 220. The length may be shortened toward the brush touch 315a.

즉, 일 실시예에서 군집은 제1 붓터치(311a)의 색채와 동일한 군집인 '에메랄드색'의 군집의 크기가 가장 클 수 있으며, 제5 붓터치(315a)의 색채와 동일한 군집인 '빨강색'의 군집의 크기가 가장 작을 수 있다.That is, in an embodiment, the cluster size of 'emerald color', which is the same color as the first brush touch 311a, may be the largest, and 'red', which is the same color as the fifth brush touch 315a. The cluster size of 'color' may be the smallest.

도 6을 참조하면, 색채 특성 분포도(320)는 인공지능 서버(220)가 생성한 일 실시예에서 색채이미지 스케일과, 각각의 군집을 구성하는 색채와 동일한 색채로 구성되며 각 군집의 크기 비율에 따라 크기가 조절된 색채 영역을 하나 이상 포함한다.Referring to FIG. 6, the color characteristic distribution map 320 is composed of the color image scale and the same color as the color constituting each cluster in an embodiment generated by the artificial intelligence server 220, and is based on the size ratio of each cluster. It includes one or more color regions scaled according to

일 실시예에서, 색채 이미지 스케일은 X축이 '따뜻함(warm)'과 '차가움(cool)', Y축이 '부드러운(soft)'과 '딱딱한(hard)'으로 특성 요인이 구성될 수 있다.In one embodiment, the color image scale may consist of 'warm' and 'cool' on the X axis and 'soft' and 'hard' on the Y axis. .

일 실시예에서, 색채 특성 분포도(320)의 색채 영역은 각각의 군집을 구성하는 색채와 동일한 색채로 구성되도록, '에메랄드색'의 제1 색채 영역(321), '초록색'의 제2 색채 영역(322), '회색'의 제3 색채 영역(323), '노랑색'의 제4 색채 영역(324) 및 '빨강색'의 제5 색채 영역(325)으로 구성될 수 있다.In one embodiment, the color area of the color characteristic distribution map 320 includes a first color area 321 of 'emerald color' and a second color area of 'green' so that the color areas are composed of the same colors as the colors constituting each cluster. 322, a third color area 323 of 'gray', a fourth color area 324 of 'yellow', and a fifth color area 325 of 'red'.

일 실시예에서, 제1 내지 제5 색채 영역(321~325)은 색채이미지 스케일상에 원형으로 표시될 수 있으나, 다른 도형(예: 삼각형, 사각형, 오각형 등)의 형태로 표시될 수도 있다.In one embodiment, the first to fifth color regions 321 to 325 may be displayed in a circular shape on the color image scale, but may be displayed in other shapes (eg, triangles, squares, pentagons, etc.).

일 실시예에서, 제1 내지 제5 색채 영역(321~325)은 군집이 상기와 같이 '에메랄드색'의 군집의 크기가 가장 크며, '빨강색'의 군집의 크기가 가장 작기 때문에, 도 6에 도시된 바와 같이 제1 색채 영역(321)으로부터 제5 색채 영역(325)으로 갈수록 크기(직경)가 작아질 수 있다.In one embodiment, in the first to fifth color regions 321 to 325, since the size of the 'emerald color' cluster is the largest and the size of the 'red' cluster is the smallest, as described above, FIG. 6 As shown in , the size (diameter) may decrease from the first color region 321 to the fifth color region 325 .

도 7을 참조하면, 워드클라우드(330)는 색채 특성 분포도(320)를 구성하는 색채 영역의 색과 관련된 색채이미지 형용사의 집합이며, 인공지능 서버(220)에 의해 각 색채이미지 형용사는 색채 영역(321~325)의 크기에 따라 크기가 조절된 상태로 피드백 대시보드에서 출력된다.Referring to FIG. 7 , the word cloud 330 is a set of color image adjectives related to the colors of the color range constituting the color characteristic distribution map 320, and each color image adjective by the artificial intelligence server 220 is a color range ( 321 to 325), it is output in the feedback dashboard in a state adjusted in size.

일 실시예에서, 워드클라우드(330)는 복수개의 색채이미지 형용사로 이루어지는데, 각 색채이미지 형용사는 색채 영역(321~325)의 크기에 따라 크기가 서로 다르게 출력되며, 크기가 동일한 색채 영역(321~325)의 색과 관련된 색채이미지 형용사는 크기가 동일할 수 있다.In one embodiment, the word cloud 330 is composed of a plurality of color image adjectives, and each color image adjective is output differently in size according to the size of the color areas 321 to 325, and the color area 321 having the same size ~325) color-related color image adjectives may have the same size.

일 실시예에서, 워드클라우드(330)의 각 색채이미지 형용사는 관리자 및 단말(400)을 구비한 학부모가 그림 데이터(105)를 그린 사용자의 성격을 객관적으로 판단할 수 있도록 하기 위한 사용자의 성격과 관련된 텍스트일 수 있다.In one embodiment, each color image adjective of the word cloud 330 is the user's personality and the character of the user who draws the picture data 105 so that the administrator and the parent equipped with the terminal 400 can objectively determine the character of the user. It can be related text.

일 실시예에서, 피드백 생성 모듈(300)은 관리자가 피드백 대시보드에 출력된 결과 데이터 또는 페어링 데이터를 확인한 후, 관리자에 의한 제어를 통해 결과 데이터 또는 페어링 데이터를 학부모가 구비한 단말(400)로 전송한다.In one embodiment, the feedback generation module 300 transmits the resulting data or pairing data to the terminal 400 provided by the parent through control by the administrator after the administrator checks the result data or pairing data output on the feedback dashboard. send.

다시 도 1을 참조하면, 단말(400)은 피드백 생성 모듈(300)로부터 전송받은 결과 데이터 또는 페어링 데이터를 시각 피드백의 형태로 출력하여 학부모에게 제공하며, 학부모는 단말(400)에 출력된 결과 데이터 또는 페어링 데이터를 이용하여 사용자인 아동의 수업방향에 대해 관리자와 상담을 진행할 수 있다.Referring back to FIG. 1 , the terminal 400 outputs the result data or pairing data received from the feedback generating module 300 in the form of visual feedback and provides them to parents, and the parents output the result data to the terminal 400. Alternatively, it is possible to consult with the manager about the class direction of the user, the child, using the pairing data.

일 실시예에서, 단말(400)은 피드백 생성 모듈(300)로부터 결과 데이터 또는 피드백 데이터를 전송받기 위해 피드백 생성 모듈(300)과 네트워크를 통해 연결되며, 전송받은 결과 데이터 또는 피드백 데이터를 화면에 출력하기 위한 앱이 기저장되는 스마트폰, 컴퓨터, 태블릿 등의 수단일 수 있다.In one embodiment, the terminal 400 is connected to the feedback generation module 300 through a network to receive result data or feedback data from the feedback generation module 300, and outputs the received result data or feedback data on a screen. It may be a means such as a smartphone, computer, tablet, etc. in which an app for doing this is pre-stored.

일 실시예에서, 단말(400)은 피드백 생성 모듈(300)로부터 결과 데이터를 전송받는 경우에 색채 사용 정도(310), 색채 특성 분포도(320) 및 워크클라우드(330)를 한 화면상에 출력할 수 있다.In one embodiment, the terminal 400 outputs the color usage degree 310, the color characteristic distribution map 320, and the work cloud 330 on one screen when receiving result data from the feedback generation module 300. can

일 실시예에서, 단말(400)은 피드백 생성 모듈(300)로부터 페어링 데이터를 전송받는 경우에 데이터 서버(210)로 전송된 그림 데이터(105)와, 색채 사용 정도(310), 색채 특성 분포도(320) 및 워크클라우드(330)를 한 화면상에 출력할 수 있다.In one embodiment, when the terminal 400 receives pairing data from the feedback generating module 300, the picture data 105 transmitted to the data server 210, the degree of color usage 310, and the color characteristic distribution map ( 320) and the work cloud 330 can be displayed on one screen.

상기 그림 객체 분석 시스템(10)은 워드클라우드(330)에 기반하여 그림 데이터(105)를 생성한 사용자인 아동의 성격을 객관적으로 판단할 수 있다.The drawing object analysis system 10 may objectively determine the personality of a child who is a user who creates the drawing data 105 based on the word cloud 330 .

상기 그림 객체 분석 시스템(10)은 색채 사용 정도(310)를 통해 사용자인 아동이 그림 데이터를 생성하는데 있어, 그림 데이터(105)를 생성하는데 주로 사용한 색에 대한 정보를 객관적으로 판단할 수 있다.The picture object analysis system 10 can objectively determine information on colors mainly used to create picture data 105 when a child, a user, creates picture data through the degree of color use 310 .

상기 그림 객체 분석 시스템(10)은 색채 특성 분포도(310)를 통해 사용자인 아동이 생성한 그림 데이터의 특성을 객관적으로 판단할 수 있다.The picture object analysis system 10 can objectively determine the characteristics of picture data created by a child as a user through the color characteristic distribution map 310 .

그림 색채 분석 방법Picture color analysis method

이하에서는, 학부모가 구비한 단말(400)에 전송되는 데이터가 결과 데이터인 것을 기준으로 하여, 상기 그림 객체 분석 시스템(10)에 의해 수행되는 그림 색채 분석 방법(10)에 대해 자세히 설명하도록 하겠다.Hereinafter, the picture color analysis method 10 performed by the picture object analysis system 10 will be described in detail on the basis that the data transmitted to the terminal 400 equipped by the parent is result data.

도 8은 본 발명의 일 실시예에 따른 그림 색채 분석 방법의 과정을 나타내는 도면이다.8 is a diagram illustrating a process of a picture color analysis method according to an embodiment of the present invention.

도 8을 참조하면, 그림 색채 분석 방법(S10)은 그림 데이터 입력 단계(S11), 그림 데이터 전송 단계(S12), 배경 이미지 제거 단계(S13), 결과 데이터 생성 단계(S14), 결과 데이터 출력 단계(S15), 결과 데이터 확인 여부 판단 단계(S16) 및 결과 데이터 전송 단계(S17)를 포함한다.Referring to FIG. 8, the picture color analysis method (S10) includes a picture data input step (S11), a picture data transmission step (S12), a background image removal step (S13), a result data generation step (S14), and a result data output step. (S15), a step of determining whether to check result data (S16), and a step of transmitting result data (S17).

먼저, 아동인 사용자가 입력 모듈(100)인 온라인 입력장치(110) 및 오프라인 입력장치(120) 중 적어도 하나를 이용하여 그림 데이터(105)를 입력할 수 있다(S11).First, a child user may input picture data 105 using at least one of the input module 100, the online input device 110 and the offline input device 120 (S11).

그 후, 데이터 서버(210)는 온라인 입력장치(110) 및 오프라인 입력장치(120) 중 적어도 하나로부터 전달받은 그림 데이터(105)를 인공지능 서버(220)로 전송할 수 있다(S12).Thereafter, the data server 210 may transmit the picture data 105 received from at least one of the online input device 110 and the offline input device 120 to the artificial intelligence server 220 (S12).

그 후, 인공지능 서버(220)는 학습된 이미지 추출 알고리즘(225a)을 통해 데이터 서버(210)로부터 전송받은 그림 데이터(105) 내 배경 이미지를 제거할 수 있다(S13).After that, the artificial intelligence server 220 may remove the background image in the picture data 105 transmitted from the data server 210 through the learned image extraction algorithm 225a (S13).

그 후, 인공지능 서버(220)는 그림 데이터(105)의 색채를 추출하여 결과 데이터인 색채 사용 정도(310), 색채 특성 분포도(320) 및 워드클라우드(330)를 생성할 수 있다(S14).After that, the artificial intelligence server 220 may extract the color of the picture data 105 and generate resultant data such as color usage degree 310, color characteristic distribution map 320, and word cloud 330 (S14). .

피드백 생성 모듈(300)은 인공지능 서버(220)로부터 전송받은 결과 데이터를 피드백 대시보드에 출력할 수 있다(S15).The feedback generation module 300 may output the resultant data transmitted from the artificial intelligence server 220 to the feedback dashboard (S15).

그 후, 관리자는 피드백 대시보드를 통해 인공지능 서버(220)가 그림 데이터(105)를 분석함으로써 생성한 결과 데이터를 확인할 수 있다(S16). After that, the manager can check result data generated by the artificial intelligence server 220 analyzing the picture data 105 through the feedback dashboard (S16).

이때 만약, 관리자가 피드백 대시보드를 통해 결과 데이터를 확인하지 않는 경우(S16-NO), 피드백 대시보드는 결과 데이터를 출력한 상태로 유지될 수 있다.At this time, if the manager does not check the result data through the feedback dashboard (S16-NO), the feedback dashboard may remain in the state of outputting the result data.

이와 달리 만약, 관리자가 피드백 대시보드를 통해 결과 데이터를 확인하는 경우(S16-YES), 피드백 생성 모듈(300)은 관리자에 의해 피드백 대시보드에 출력된 결과 데이터를 학부모가 구비한 단말(400)로 전송할 수 있다(S17).In contrast, if the administrator checks the result data through the feedback dashboard (S16-YES), the feedback generation module 300 sends the result data output to the feedback dashboard by the administrator to the terminal 400 provided by the parent. It can be transmitted to (S17).

상기 그림 색채 분석 방법(10)에서, 학부모는 단말(400)의 화면에 출력되는 결과 데이터를 통해 사용자인 아동의 성격, 그림 데이터(105)에 주로 사용한 색에 대한 정보 및 그림 데이터(105)의 특성을 객관적으로 판단할 수 있다.In the picture color analysis method (10), the parents use the result data output on the screen of the terminal (400) to determine the personality of the child, information on the color mainly used in the picture data (105), and the picture data (105). characteristics can be objectively judged.

결과 데이터 생성 단계Result data generation step

이하에서는, 인공지능 서버(220)가 그림 데이터(105)와 결과 데이터인 색채 사용 정도(310), 색채 특성 분포도(320) 및 워드클라우드(330)를 페어링하는 것을 기준으로 하여, 결과 데이터 생성 단계(S14)의 세부 과정에 대해 자세히 설명하도록 하겠다.Hereinafter, based on the artificial intelligence server 220 pairing the picture data 105 with the resulting data, the color usage degree 310, the color characteristic distribution map 320, and the word cloud 330, the result data generation step The detailed process of (S14) will be described in detail.

도 9는 본 발명의 일 실시예에 따른 인공지능 서버의 그림 데이터 분석 및 생성 단계의 세부 과정을 나타내는 도면이다.9 is a diagram showing a detailed process of analyzing and generating picture data of an artificial intelligence server according to an embodiment of the present invention.

도 9를 참조하면, 인공지능 서버(220)는 학습된 K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c) 중 적어도 하나를 이용하여 그림 데이터(105)를 분석함으로써, 색채 사용 정도(310)를 생성할 수 있다(S141).Referring to FIG. 9 , the artificial intelligence server 220 analyzes the picture data 105 using at least one of the learned K-means algorithm 225b and the K-medoids algorithm 225c, so that the color usage degree 310 ) can be generated (S141).

색채 사용 정도 생성 단계(S141)와 동시 또는 그 후, 인공지능 서버(220)는 그림 데이터(105)의 분석을 통해 색채 특성 분포도(320)를 생성할 수 있다(S142).Simultaneously with or after the color usage level generating step (S141), the artificial intelligence server 220 may generate a color characteristic distribution map 320 through analysis of the picture data 105 (S142).

그 후, 인공지능 서버(220)는 학습된 샘플링 알고리즘(225d)을 이용하여 워드클라우드(330)를 생성할 수 있다(S143).After that, the artificial intelligence server 220 may generate the word cloud 330 using the learned sampling algorithm 225d (S143).

그 후, 인공지능 서버(220)는 데이터 서버(210)에 입력된 그림 데이터(105)와 결과 데이터인 색채 사용 정도(310), 색채 특성 분포도(320) 및 워드클라우드(330)를 페어링하며(S144), 그림 데이터(105)와 결과 데이터의 페어링을 통해 생성된 페어링 데이터를 피드백 생성 모듈(300)로 전송할 수 있다(S145).After that, the artificial intelligence server 220 pairs the picture data 105 input to the data server 210 with the resulting data, the degree of color usage 310, the color characteristic distribution map 320, and the word cloud 330 ( S144), pairing data generated through pairing of the picture data 105 and result data may be transmitted to the feedback generating module 300 (S145).

색채 사용 정도 생성 방법How to create color usage

이하에서는, 인공지능 서버(220)가 그림 데이터(105)의 분석을 통해 생성하여 피드백 생성 모듈(300)에서 출력될 색채 사용 정도(310)를 생성하는 색새 사용 정도 생성 단계(S141)의 세부 과정에 대해 자세히 설명하도록 하겠다.Hereinafter, a detailed process of the color usage level generation step (S141) in which the artificial intelligence server 220 generates the color usage level 310 to be output from the feedback generation module 300 by analyzing the picture data 105. I will explain in detail about it.

도 10은 도 9에 도시된 색채 사용 정도 분석 및 생성 단계의 세부 과정을 나타내는 도면이다.FIG. 10 is a diagram illustrating a detailed process of the step of analyzing and generating the degree of color use shown in FIG. 9 .

도 10을 참조하면, 인공지능 서버(220)는 학습된 K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c) 중 적어도 하나인 인공지능 알고리즘(225)을 통해 기설정된 개수로 군집 수를 설정할 수 있다(S1410).Referring to FIG. 10, the artificial intelligence server 220 sets the number of clusters to a predetermined number through the artificial intelligence algorithm 225, which is at least one of the learned K-means algorithm 225b and the K-medoids algorithm 225c. It can (S1410).

그 후, 인공지능 알고리즘(225)은 배경 이미지가 제거된 그림 데이터(105)의 객체에 적용된 색채를 유사한 색채별로 클러스터링시켜 상기 기설정된 개수의 군집을 형성할 수 있다(S1411).Thereafter, the artificial intelligence algorithm 225 may form the preset number of clusters by clustering colors applied to objects of the picture data 105 from which the background image has been removed by similar colors (S1411).

그 후, 인공지능 알고리즘(225)은 군집의 크기를 분석하여 군집의 크기가 큰 순으로 군집을 정렬할 수 있다(S1412).Thereafter, the artificial intelligence algorithm 225 may analyze the size of the clusters and sort the clusters in the order of the size of the clusters (S1412).

그 후, 인공지능 서버(220)는 각각의 군집을 구성하는 색채에 대한 브러쉬(311~315)를 하나 이상 생성할 수 있다(S1413).After that, the artificial intelligence server 220 may generate one or more brushes 311 to 315 for colors constituting each cluster (S1413).

그 후, 인공지능 서버(220)는 각 군집의 크기에 따라 브러쉬(311~315)와 연결된 붓터치(311a~315a)의 길이에 차이를 두는 색채 사용 정도(310)를 생성할 수 있다(S1414).After that, the artificial intelligence server 220 may generate the degree of color use 310 that differentiates the length of the brush touches 311a to 315a connected to the brushes 311 to 315 according to the size of each cluster (S1414). ).

색채 특성 분포도 생성 방법How to create a color property distribution map

이하에서는, 인공지능 서버(220)가 그림 데이터(105)의 분석을 통해 생성하여 피드백 생성 모듈(300)에서 출력될 색채 특성 분포도(320)를 생성하는 색채 특성 분포도 생성 단계(S142)의 세부 과정에 대해 자세히 설명하도록 하겠다.Hereinafter, a detailed process of the color characteristic distribution map generation step (S142) in which the artificial intelligence server 220 generates the color characteristic distribution map 320 to be output from the feedback generating module 300 by analyzing the picture data 105. I will explain in detail about it.

도 11은 도 9에 도시된 색채 특성 분포도 분석 및 생성 단계의 세부 과정을 나타내는 도면이다.FIG. 11 is a diagram illustrating a detailed process of analyzing and generating a color characteristic distribution map shown in FIG. 9 .

도 11을 참조하면, 인공지능 서버(220)는 학습된 K-means 알고리즘(225b) 및 K-medoids 알고리즘(225c) 중 적어도 하나인 인공지능 알고리즘(225)을 통해 기설정된 개수로 군집 수를 설정할 수 있다(S1420).Referring to FIG. 11, the artificial intelligence server 220 sets the number of clusters to a predetermined number through the artificial intelligence algorithm 225, which is at least one of the learned K-means algorithm 225b and the K-medoids algorithm 225c. It can (S1420).

그 후, 인공지능 알고리즘(225)은 배경 이미지가 제거된 그림 데이터(105)의 객체에 적용된 색채를 유사한 색채별로 클러스터링시켜 상기 기설정된 개수의 군집을 형성할 수 있다(S1421).Thereafter, the artificial intelligence algorithm 225 may form the predetermined number of clusters by clustering colors applied to objects of the picture data 105 from which the background image has been removed by similar colors (S1421).

그 후, 인공지능 알고리즘(225)은 군집의 크기를 분석하여 군집의 크기가 큰 순으로 군집을 정렬할 수 있다(S1422).Thereafter, the artificial intelligence algorithm 225 may analyze the size of the clusters and sort the clusters in the order of the size of the clusters (S1422).

그 후, 인공지능 서버(220)는 색채이미지 스케일을 생성하며(S1423), 각각의 군집을 이루는 색채 영역(321~325)을 색채이미지 스케일상에 하나 이상 표시한 후, 각 군집의 크기 비율에 따라 색채 영역(321~325)의 크기를 조절하여 색채 특성 분포도(320)를 생성할 수 있다(S1424).After that, the artificial intelligence server 220 generates a color image scale (S1423), displays one or more color regions 321 to 325 constituting each cluster on the color image scale, and then determines the size ratio of each cluster. Accordingly, the color characteristic distribution map 320 may be generated by adjusting the size of the color regions 321 to 325 (S1424).

워드클라우드 생성 방법How to create a word cloud

이하에서는, 인공지능 서버(220)가 그림 데이터(105)의 분석을 통해 생성하여 피드백 생성 모듈(300)에서 출력될 워드클라우드(330)를 생성하는 워드클라우드 생성 단계(S143)의 세부 과정에 대해 자세히 설명하도록 하겠다.Hereinafter, the detailed process of the word cloud generation step (S143) in which the artificial intelligence server 220 generates the word cloud 330 to be output from the feedback generation module 300 by analyzing the picture data 105 is generated. Let me explain in detail.

도 12는 도 9에 도시된 워드클라우드 생성 단계의 세부 과정을 나타내는 도면이다.FIG. 12 is a diagram illustrating detailed processes of the word cloud generation step shown in FIG. 9 .

도 12를 참조하면, 인공지능 서버(220)는 색채 영역(321~325)의 크기를 퍼센테이지(percentage) 단위로 환산할 수 있다(S1430).Referring to FIG. 12 , the artificial intelligence server 220 may convert the size of the color regions 321 to 325 into a percentage unit (S1430).

그 후, 인공지능 서버(220)는 학습된 샘플링 알고리즘(225d)을 통해 % 단위로 환산된 색채 영역의 색과 관련된 색채이미지 형용사를 하나 이상 추출할 수 있다(S1431).Thereafter, the artificial intelligence server 220 may extract one or more color image adjectives related to the color of the color area converted in % through the learned sampling algorithm 225d (S1431).

그 후, 인공지능 서버(220)는 색채이미지 형용사에 대한 텍스트 말뭉치를 형성할 수 있다(S1432).Thereafter, the artificial intelligence server 220 may form a text corpus for color image adjectives (S1432).

그 후, 인공지능 서버(220)는 텍스트 말뭉치 내 각 색채이미지 형용사의 크기를 색채 영역(321~325)의 크기에 따라 조절한 워드클라우드(330)를 생성할 수 있다(S1433).After that, the artificial intelligence server 220 may generate a word cloud 330 in which the size of each color image adjective in the text corpus is adjusted according to the size of the color areas 321 to 325 (S1433).

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Detailed descriptions of the preferred embodiments of the present invention disclosed as described above are provided to enable those skilled in the art to implement and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way of combining each other. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 기술적 사상 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the technical spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. The invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.

10: 그림 색채 분석 시스템, 100: 입력 모듈,
105: 그림 데이터, 1050: 객체,
110: 온라인 입력장치, 120: 오프라인 입력장치,
200: 분석 모듈, 210: 데이터 서버,
220: 인공지능 서버, 225: 인공지능 알고리즘,
300: 피드백 생성 모듈, 310: 색채 사용 정도,
311~315: 브러쉬, 311a~315a: 붓터치,
320: 색채 특성 분포도, 321~325: 색채 영역,
330: 워드클라우드, 400: 단말.
10: picture color analysis system; 100: input module;
105: picture data, 1050: object,
110: online input device, 120: offline input device,
200: analysis module, 210: data server,
220: artificial intelligence server, 225: artificial intelligence algorithm,
300: feedback generation module, 310: degree of use of color,
311~315: brush, 311a~315a: brush touch,
320: color characteristic distribution, 321 to 325: color gamut,
330: word cloud, 400: terminal.

Claims (1)

아동인 사용자가 그림 데이터를 입력하기 위한 입력 모듈;
상기 입력 모듈에 입력된 그림 데이터를 전송받는 데이터 서버와, 상기 데이터 서버로부터 전송받은 그림 데이터 내 배경 이미지를 제거한 후에 상기 그림 데이터의 분석을 통해 상기 그림 데이터로부터 색채를 추출하여 결과 데이터를 생성하는 인공지능 서버로 구성된 분석 모듈;
상기 인공지능 서버에서 생성된 결과 데이터를 피드백 대시보드에 출력하여 관리자에게 상기 결과 데이터를 제공하며, 상기 피드백 대시보드에 출력된 결과 데이터를 상기 사용자의 학부모가 구비한 단말로 전송하는 피드백 생성 모듈; 및
상기 결과 데이터를 시각 피드백의 형태로 출력하여 상기 학부모에게 제공하는 상기 단말;을 포함하고,
상기 결과 데이터는,
상기 인공지능 서버가 학습된 인공지능 알고리즘을 통해 생성하는 색채 사용 정도, 색채 특성 분포도 및 워드클라우드이며,

상기 분석 모듈은,
상기 인공지능 서버가 학습된 인공지능 알고리즘을 통해 배경 이미지가 제거된 그림 데이터의 색채를 클러스터링하는 것을 기반으로 색채 사용 정도를 생성하고,
상기 인공지능 서버가 학습된 인공지능 알고리즘을 통해 배경 이미지가 제거된 그림 데이터의 색채를 클러스터링하는 것을 기반으로 색채 특성 분포도를 생성하며,
상기 인공지능 서버가 상기 색채 특성 분포도를 통해 추출되는 색채 영역과 관련된 색채이미지 형용사 기반의 워드클라우드를 생성하고,
상기 인공지능 서버가 상기 그림 데이터와 결과 데이터인 색채 사용 정도, 색채 특성 분포도 및 워드클라우드를 페어링시켜 페어링 데이터를 생성하며,
상기 인공지능 서버가 상기 페어링 데이터를 상기 피드백 생성 모듈로 전송하는 것을 특징으로 하는 그림 색채 분석 시스템.
an input module for a user who is a child to input picture data;
A data server receiving the picture data input to the input module, and an artificial person generating result data by extracting colors from the picture data through analysis of the picture data after removing a background image in the picture data received from the data server. Analysis module composed of intelligence server;
a feedback generation module outputting the result data generated by the artificial intelligence server to a feedback dashboard, providing the result data to an administrator, and transmitting the result data output on the feedback dashboard to a terminal equipped by a parent of the user; and
The terminal outputting the result data in the form of visual feedback and providing it to the parent; Including,
The resulting data,
The degree of color use, color characteristic distribution, and word cloud generated by the artificial intelligence server through the learned artificial intelligence algorithm,

The analysis module,
The artificial intelligence server generates a color usage degree based on clustering the colors of the picture data from which the background image has been removed through the learned artificial intelligence algorithm,
The artificial intelligence server generates a color characteristic distribution map based on clustering the colors of the picture data from which the background image has been removed through the learned artificial intelligence algorithm,
The artificial intelligence server creates a word cloud based on color image adjectives related to the color area extracted through the color characteristic distribution map,
The artificial intelligence server generates pairing data by pairing the picture data with resultant data such as color usage degree, color characteristic distribution map, and word cloud;
The picture color analysis system, characterized in that the artificial intelligence server transmits the pairing data to the feedback generating module.
KR1020230019737A 2022-11-21 2023-02-15 A system that analyzes picture colors and analyzes users based on artificial intelligence KR102521594B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230019737A KR102521594B1 (en) 2022-11-21 2023-02-15 A system that analyzes picture colors and analyzes users based on artificial intelligence

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220156504A KR102502210B1 (en) 2022-11-21 2022-11-21 Method and System of AI-based Image Color Analysis
KR1020230019737A KR102521594B1 (en) 2022-11-21 2023-02-15 A system that analyzes picture colors and analyzes users based on artificial intelligence

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220156504A Division KR102502210B1 (en) 2022-11-21 2022-11-21 Method and System of AI-based Image Color Analysis

Publications (1)

Publication Number Publication Date
KR102521594B1 true KR102521594B1 (en) 2023-04-14

Family

ID=85329827

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020220156504A KR102502210B1 (en) 2022-11-21 2022-11-21 Method and System of AI-based Image Color Analysis
KR1020230019479A KR102521593B1 (en) 2022-11-21 2023-02-14 A method for analyzing the user's personality based on the output data in the form of visual feedback
KR1020230019477A KR102521591B1 (en) 2022-11-21 2023-02-14 How to analyze colors applied to objects in user drawing data
KR1020230019478A KR102521592B1 (en) 2022-11-21 2023-02-14 How to generate color usage degree, color characteristic distribution map and word cloud as result data according to color analysis of picture data
KR1020230019737A KR102521594B1 (en) 2022-11-21 2023-02-15 A system that analyzes picture colors and analyzes users based on artificial intelligence

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020220156504A KR102502210B1 (en) 2022-11-21 2022-11-21 Method and System of AI-based Image Color Analysis
KR1020230019479A KR102521593B1 (en) 2022-11-21 2023-02-14 A method for analyzing the user's personality based on the output data in the form of visual feedback
KR1020230019477A KR102521591B1 (en) 2022-11-21 2023-02-14 How to analyze colors applied to objects in user drawing data
KR1020230019478A KR102521592B1 (en) 2022-11-21 2023-02-14 How to generate color usage degree, color characteristic distribution map and word cloud as result data according to color analysis of picture data

Country Status (1)

Country Link
KR (5) KR102502210B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102640350B1 (en) * 2023-09-26 2024-02-28 주식회사 아이스크림아트 User sentiment analysis method using color analysis module

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102587797B1 (en) * 2023-05-18 2023-10-11 정윤태 Method for providing art work search service and apparatus therefor
KR102655270B1 (en) * 2023-10-19 2024-04-09 주식회사 아이스크림아트 Method for developing Color Emotion Model, CEM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101353758B1 (en) 2012-06-12 2014-01-22 주식회사 문은배색채디자인 Using standard color checker color digital color correction and extraction program stored in the storage medium and color correction and color extraction method using him
KR101580034B1 (en) 2014-02-19 2015-12-24 주식회사 문은배색채디자인 Color extraction and storing method using mobile terminal
KR101896177B1 (en) * 2017-03-08 2018-09-06 김동훈 An Image Searching System Providing Multiplex Result
KR102185570B1 (en) * 2018-08-17 2020-12-02 경일대학교산학협력단 Image analysis apparatus and method for collaborative art elements scale, and image analysis apparatus and method for psychological examination
KR102326955B1 (en) * 2020-04-10 2021-11-16 주식회사 뷰웍스 Analysis system for display device and color analysis method thereof
KR20220077954A (en) * 2020-12-02 2022-06-10 (주)한국색채디자인개발원 Propensity testing method based on color

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101353758B1 (en) 2012-06-12 2014-01-22 주식회사 문은배색채디자인 Using standard color checker color digital color correction and extraction program stored in the storage medium and color correction and color extraction method using him
KR101580034B1 (en) 2014-02-19 2015-12-24 주식회사 문은배색채디자인 Color extraction and storing method using mobile terminal
KR101896177B1 (en) * 2017-03-08 2018-09-06 김동훈 An Image Searching System Providing Multiplex Result
KR102185570B1 (en) * 2018-08-17 2020-12-02 경일대학교산학협력단 Image analysis apparatus and method for collaborative art elements scale, and image analysis apparatus and method for psychological examination
KR102326955B1 (en) * 2020-04-10 2021-11-16 주식회사 뷰웍스 Analysis system for display device and color analysis method thereof
KR20220077954A (en) * 2020-12-02 2022-06-10 (주)한국색채디자인개발원 Propensity testing method based on color

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102640350B1 (en) * 2023-09-26 2024-02-28 주식회사 아이스크림아트 User sentiment analysis method using color analysis module

Also Published As

Publication number Publication date
KR102502210B1 (en) 2023-02-23
KR102521592B1 (en) 2023-04-14
KR102521593B1 (en) 2023-04-14
KR102521591B1 (en) 2023-04-14

Similar Documents

Publication Publication Date Title
KR102521594B1 (en) A system that analyzes picture colors and analyzes users based on artificial intelligence
CN109344237B (en) Information processing method and device for man-machine interaction
JP6994588B2 (en) Face feature extraction model training method, face feature extraction method, equipment, equipment and storage medium
CN111160452A (en) Multi-modal network rumor detection method based on pre-training language model
CN109005145A (en) A kind of malice URL detection system and its method extracted based on automated characterization
CN108229485A (en) For testing the method and apparatus of user interface
CN105446592A (en) Application icon classification and displaying method and device
KR20200046523A (en) Automatic Logo Creating System on basis of Artificial Intelligence and Method for Logo Creating Service using the same
CN115129848B (en) Method, device, equipment and medium for processing visual question-answering task
CN110782448A (en) Rendered image evaluation method and device
CN113778871A (en) Mock testing method, device, equipment and storage medium
CN110852109A (en) Corpus generating method, corpus generating device, and storage medium
CN110689480A (en) Image transformation method and device
CN112817563B (en) Target attribute configuration information determining method, computer device, and storage medium
CN107818175B (en) Legal case problem analysis method and device based on referee document
CN111192170B (en) Question pushing method, device, equipment and computer readable storage medium
CN114444476A (en) Information processing method, apparatus and computer readable storage medium
KR20190110174A (en) A core sentence extraction method based on a deep learning algorithm
Martins et al. Evotype: from shapes to glyphs
CN112269928A (en) User recommendation method and device, electronic equipment and computer readable medium
CN112148852A (en) Intelligent customer service method and device, storage medium and computer equipment
CN116681088A (en) Translation system, method and storage medium based on large model
Li et al. Saliency consistency-based image re-colorization for color blindness
KR102506947B1 (en) System of making my own picture book by parents and children using ai-based pictures and method for the same
CN108932704A (en) Image processing method, picture processing unit and terminal device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant