KR102548074B1 - 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법 - Google Patents

디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법 Download PDF

Info

Publication number
KR102548074B1
KR102548074B1 KR1020220156505A KR20220156505A KR102548074B1 KR 102548074 B1 KR102548074 B1 KR 102548074B1 KR 1020220156505 A KR1020220156505 A KR 1020220156505A KR 20220156505 A KR20220156505 A KR 20220156505A KR 102548074 B1 KR102548074 B1 KR 102548074B1
Authority
KR
South Korea
Prior art keywords
data
picture
artificial intelligence
model
tool
Prior art date
Application number
KR1020220156505A
Other languages
English (en)
Inventor
강재구
Original Assignee
주식회사 아이스크림아트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이스크림아트 filed Critical 주식회사 아이스크림아트
Priority to KR1020220156505A priority Critical patent/KR102548074B1/ko
Priority to KR1020230074971A priority patent/KR102555579B1/ko
Priority to KR1020230074972A priority patent/KR102555580B1/ko
Application granted granted Critical
Publication of KR102548074B1 publication Critical patent/KR102548074B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Psychiatry (AREA)
  • Epidemiology (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Molecular Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • Veterinary Medicine (AREA)
  • Educational Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Developmental Disabilities (AREA)
  • Strategic Management (AREA)
  • Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

본 발명은 사용자가 디지털 드로잉 툴을 이용하여 제작한 그림 데이터를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 방법에 관한 것으로, 본 발명의 일 실시예에 따른 디지털 드로잉 툴을 이용한 그림 분석 시스템은, 사용자가 그림 데이터를 제작하기 위한 그림 제작 앱이 기저장되며, 상기 그림 제작 앱의 디지털 드로잉 툴을 구성하는 하나 이상의 제작 툴을 통해 캔버스 영역상에 그림 데이터가 제작 및 저장되는 입력 모듈; 상기 그림 데이터를 상기 그림 제작 앱으로부터 전송받는 데이터 서버와, 상기 데이터 서버로부터 전송받은 그림 데이터를 분석하여 상기 제작 툴의 사용시간과 상기 사용자의 유형에 대한 결과 데이터를 생성하는 인공지능 서버로 구성된 분석 모듈; 및 상기 인공지능 서버로부터 상기 결과 데이터를 전송받아 객체에게 상기 결과 데이터를 제공하는 단말;을 포함하고, 상기 결과 데이터는, 상기 제작 툴의 사용시간에 대한 각 제작 툴의 사용량 정보 및 상기 그림 데이터를 기반으로 상기 사용자의 유형을 기설정된 복수개의 유형 중 적어도 하나의 유형으로 분류한 유형 정보일 수 있다.

Description

디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법{A Systematic Method of Analyzing Digital Drawings using AI}
본 발명은 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자가 디지털 드로잉 툴을 이용하여 제작한 그림 데이터를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법에 관한 것이다.
사용자가 캔버스상에 그림을 그리게 되는 오프라인 드로잉은 그림 제작 과정을 직접 비디오로 촬영한다 하여도 그림 제작 과정에 대한 데이터의 손실이 발생되거나, 그림이 그려진 화면의 비디오 촬영동안 사용자의 신체나 그림자 등의 요인에 의해 그림이 그려진 화면이 가려질 수 있는데, 이 경우 최종적으로는 후처리를 통해 화면과 빛의 특징을 고려하여 그림 제작 과정에 대한 데이터를 정제하는 등의 불필요한 과정이 반드시 필요한 단점이 있다.
이와 달리, 사용자가 디지털 드로잉 툴을 이용하여 그림을 그리게 되는 디지털 드로잉은 오프라인 드로잉과 비교하여 많은 장점이 존재하는데, 우선적으로 사용자의 신체나 그림자 등의 외부 요인에 의해 화면이 가려질 우려가 없어, 순수하게 픽셀 단위의 그림 제작 과정에 대한 데이터를 데이터베이스에 저장할 수 있으며, 이에 따라 오프라인 드로잉의 비디오 촬영에 비해 안정적으로 그림 제작 과정에 대한 데이터의 확보가 가능하며, 화면과 빛의 특징을 고려할 필요가 없어 후처리의 복잡도가 줄어드는 장점이 있다.
그러나 디지털 드로잉은 그림을 그리는데 발생된 모든 픽셀 단위의 정보와 그림을 그리기 위한 각 획수마다의 속도와 위치, 압력이 모두 기록되기 때문에, 오히려 사용자가 그린 그림을 분석하면서 적절한 피드백을 줄 수 있는 기술의 복잡도가 상승할 수 있다.
또한, 디지털 드로잉은 데이터의 패턴이 대량으로 이용되어야만 의미있는 분석 결과를 산출할 수 있는데, 이와 같이 디지털 드로잉에서 의미있는 분석 결과를 산출하기 위해서는 빅데이터의 효율적인 처리와 모델링 과정이 필요하다.
대한민국 등록특허공보 제10-2252851호 대한민국 등록특허공보 제10-2444163호
따라서, 본 발명은 디지털 드로잉으로 그려진 그림을 분석하기 위해 안출된 것으로서, 본 발명의 목적은 사용자가 디지털 드로잉 툴의 제작 툴을 이용하여 그림 데이터를 제작하게 되면, 그림 데이터를 제작하는 과정에서 사용된 각 제작 툴의 사용량 정보와, 그림 데이터를 기반으로 사용자의 유형을 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법을 제공함에 목적이 있다.
또한, 본 발명은 결과 데이터인 각 제작 툴의 사용량 정보를 기반으로 사용자가 그림 데이터를 제작하는 과정에서 주로 사용한 제작 툴을 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법을 제공함에 목적이 있다.
그리고 본 발명은 결과 데이터인 유형 정보를 기반으로 사용자의 성격유형과 사용자에 맞는 직업/진로를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법을 제공함에 목적이 있다.
다만, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 디지털 드로잉 툴을 이용한 그림 분석 시스템은, 사용자가 그림 데이터를 제작하기 위한 그림 제작 앱이 기저장되며, 상기 그림 제작 앱의 디지털 드로잉 툴을 구성하는 하나 이상의 제작 툴을 통해 캔버스 영역상에 그림 데이터가 제작 및 저장되는 입력 모듈; 상기 그림 데이터를 상기 그림 제작 앱으로부터 전송받는 데이터 서버와, 상기 데이터 서버로부터 전송받은 그림 데이터를 분석하여 상기 제작 툴의 사용시간과 상기 사용자의 유형에 대한 결과 데이터를 생성하는 인공지능 서버로 구성된 분석 모듈; 및 상기 인공지능 서버로부터 상기 결과 데이터를 전송받아 객체에게 상기 결과 데이터를 제공하는 단말;을 포함할 수 있다.
또한, 상기 디지털 드로잉 툴을 이용한 그림 분석 시스템에 의해 수행되는 디지털 드로잉 툴을 이용한 그림 분석 방법은, a) 사용자가 입력 모듈에 기저장된 그림 제작 앱을 실행시킨 후, 상기 그림 제작 앱의 디지털 드로잉 툴을 구성하는 하나 이상의 제작 툴을 이용하여 캔버스 영역상에 그림 데이터를 제작 및 저장하는 단계; b) 분석 모듈의 데이터 서버가 그림 제작 앱으로부터 전송받은 그림 데이터를 인공지능 서버로 전송하며, 상기 인공지능 서버가 그림 데이터를 분석하는 단계; c) 상기 인공지능 서버가 상기 그림 데이터의 분석을 통해 상기 제작 툴의 사용시간과 상기 사용자의 유형에 대한 결과 데이터를 생성하는 단계; 및 d) 상기 인공지능 서버가 상기 결과 데이터를 단말로 전송하여 상기 단말을 구비한 객체에게 상기 결과 데이터를 제공하는 단계;를 포함할 수 있다.
그리고 본 발명의 일 실시예에 따른 그림 분석 시스템 및 방법에서 결과 데이터는, 상기 제작 툴의 사용시간에 대한 각 제작 툴의 사용량 정보 및 상기 그림 데이터를 기반으로 상기 사용자의 유형을 기설정된 복수개의 유형 중 적어도 하나의 유형으로 분류한 유형 정보일 수 있다.
본 발명은 그림 데이터를 제작하는동안 사용된 각 제작 툴의 사용량 정보와, 그림 데이터를 기반으로 사용자의 유형을 분석함으로써, 사용자가 그림 데이터를 제작하는데 주로 사용한 제작 툴을 확인할 수 있으며, 그림 데이터를 기반으로 사용자의 성격유형과 사용자에 맞는 직업/진로를 설정해줄 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 그림 분석 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 입력 모듈의 사용상태도이다.
도 3은 본 발명의 일 실시예에 따른 그림 제작 앱의 사용상태도이다.
도 4는 본 발명의 일 실시예에 따른 파레트 툴의 사용상태도이다.
도 5는 본 발명의 일 실시예에 따른 제1 내지 제4 제작 툴의 사용상태도이다.
도 6은 본 발명의 일 실시예에 따른 인공지능 모델이 각 제작 툴의 사용량 정보를 추출하기 위한 방식을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시예에 따른 각 제작 툴의 사용량 정보를 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 제1 군집 모델의 일례를 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 제2 군집 모델의 일례를 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 유형 정보를 나타내는 도면이다.
도 11은 본 발명의 그림 분석 시스템에 의해 수행되는 그림 분석 방법의 과정을 나타내는 도면이다.
이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
그림 분석 시스템
이하에서는, 본 발명의 일 실시예에 따른 그림 분석 시스템(10)에 대해 자세히 설명하도록 하겠다.
도 1은 본 발명의 일 실시예에 따른 그림 분석 시스템을 나타내는 도면이다.
도 1을 참조하면, 그림 분석 시스템(10)은 사용자가 제작한 그림 데이터(115)의 분석과 그림 데이터(115)의 분석 결과를 제공하기 위해 입력 모듈(100), 분석 모듈(200) 및 단말(300)을 포함한다.
입력 모듈(100)은 그림 데이터(115)를 제작하기 위한 그림 제작 앱(110)이 기저장되며, 사용자는 그림 제작 앱(110)을 실행시킨 후에 그림 데이터(115)를 제작할 수 있다.
일 실시예에서, 입력 모듈(100)은 그림 데이터(115)의 제작과 동시에 네트워크를 통해 연결된 후술될 데이터 서버(210)로 그림 데이터(115)를 전송이 가능한 스마트폰, 컴퓨터, 태블릿 중 적어도 하나일 수 있다.
일 실시예에서, 사용자는 학부모의 관리가 필요한 만 4세~13세의 연령대에 속하는 아동으로 한정하여 설명하겠으나, 바람직하게는 연령대와 상관없이 입력 모듈(100)을 구비한 객체일 수 있다.
그림 제작 앱(110)은 도 2에 도시된 바와 같이 입력 모듈(100)과 상호작용이 가능하여, 이벤트 신호의 입력에 따라 그림 데이터(115)가 제작되는 과정이 입력 모듈(100)의 화면에 실시간으로 출력되도록 한다.
일 실시예에서, 이벤트 신호는 드래그, 터치, 클릭 중 적어도 하나의 스트로크(stroke)를 발생시키는 신호일 수 있으며, 사용자는 신체의 일부(예: 손가락)으로 이벤트 신호를 입력하거나, 별도의 툴을 이용하여 이벤트 신호를 입력할 수 있다. 이때, 별도의 툴은 이하에서 터치펜인 것으로 한정하여 설명하도록 하겠다.
도 2는 본 발명의 일 실시예에 따른 입력 모듈의 사용상태도이다.
도 2를 참조하면, 그림 데이터(115)는 그림 제작 앱(110)이 실행되어 네트워크를 통해 데이터 서버(210)와 연결된 후, 그림 제작 앱(110)에 저장될 때 데이터 서버(210)로 전송되는데, 객체(1150)를 적어도 포함한 상태로 데이터 서버(210)에 전송되는 것이 바람직하다.
일 실시예에서, 객체(1150)는 종류를 한정하지 아니하나, 사용자의 심리상태를 분석하는 HTP 검사를 기준으로 집, 나무 및 사람 중 적어도 하나일 수 있다.
도 3은 본 발명의 일 실시예에 따른 그림 제작 앱의 사용상태도이다.
도 3을 참조하면, 그림 제작 앱(110)은 입력 모듈(100)에 기저장되며, 사용자에 의해 실행될 때 점, 선, 면, 형, 색, 빛, 질감, 양감 중 적어도 하나의 회화적 표현이 가능한 디지털 드로잉 툴(1100)에 이벤트 신호를 입력하여 캔버스 영역(110a)상에 그림 데이터(115)의 제작이 가능한 환경을 지원하도록 구성된 소프트웨어일 수 있다.
일 실시예에서, 디지털 드로잉 툴(1100)은 객체(1150) 또는 상기 객체(1150)를 제외하고 그림 데이터(115)를 구성하는 배경 이미지의 색상을 설정하기 위한 파레트 툴(1101)이 도 4에 도시된 바와 같이 구성될 수 있다.
도 4는 본 발명의 일 실시예에 따른 파레트 툴의 사용상태도이다.
도 4를 참조하면, 파레트 툴(1101)은 사용자에 의해 이벤트 신호가 입력될 때, 그림 데이터(115)의 제작에 사용되는 제작 툴의 색상을 설정하기 위한 색상 설정 영역(1110)을 생성한다.
일 실시예에서, 색상 설정 영역(1110)을 생성하기 위해 파레트 툴(1101)에 입력되는 이벤트 신호는 터치 및 클릭 중 적어도 하나일 수 있다.
일 실시예에서, 색상 설정 영역(1110)은 입력 모듈(100)과 그림 제작 앱(110)간의 상호작용을 통해 입력 모듈(100)의 화면상에 출력되며, 바람직하게는 입력 모듈(100)의 화면상 캔버스 영역(110a)보다 전단에 배치되어 이벤트 신호를 입력받을 수 있다.
일 실시예에서, 색상 설정 영역(1110)은 그림 데이터(115)를 제작하는데 사용 가능한 색상을 하나 이상 나열한 제1 색상 설정 영역(1110a)과, 그림 데이터(115)를 제작하는데 사용 가능한 색상을 3차원 좌표계인 RGB 색공간 또는 HSV 색공간으로 표현한 제2 색상 설정 영역(1110b)으로 구성될 수 있다.
즉, 사용자는 제1 색상 설정 영역(1110a) 및 제2 색상 설정 영역(1110b) 중 적어도 하나를 이용하여 디지털 드로잉 툴(1100)을 구성하는 제작 툴의 색상을 설정할 수 있다.
일 실시예에서, 제1 색상 설정 영역(1110a) 및 제2 색상 설정 영역(1110b) 중 적어도 하나의 색상 설정 영역은 파레트 툴(1101)에 이벤트 신호가 입력될 때 생성되어 입력 모듈(100)의 화면에 출력될 수 있다. 다만, 사용자가 다양한 방식으로 제1 내지 제4 제작 툴(1102~1105)의 색상을 설정할 수 있도록 파레트 툴(1101)에 이벤트 신호가 입력될 때 동시에 생성되는 것이 바람직하다.
일 실시예에서, 디지털 드로잉 툴(1100)은 그림 데이터(115)를 제작하기 위한 복수개의 제작 툴로 구성되는데, 이하에서는 설명의 편의상 그림 데이터(115)의 제작을 위한 제1 내지 제4 제작 툴(1102~1105)과, 그림 데이터(115)을 수정하기 위한 제5 제작 툴(1106)로 구성되는 것을 기준으로 하여 디지털 드로잉 툴(1100)에 대해 설명하도록 하겠다.
일 실시예에서, 제1 제작 툴(1102)은 이벤트 신호가 입력될 때, 사용자가 '크레용'을 통해 그림 데이터(115)를 제작하는 것 같은 느낌을 주기 위한 제작 툴일 수 있다.
일 실시예에서, 제2 제작 툴(1103)은 이벤트 신호가 입력될 때, 사용자가 '수채화 브러쉬'를 통해 그림 데이터(115)를 제작하는 것 같은 느낌을 주기 위한 제작 툴일 수 있다.
일 실시예에서, 제3 제작 툴(1104)은 이벤트 신호가 입력될 때, 사용자가 '연필'을 통해 그림 데이터(115)를 제작하는 것 같은 느낌을 주기 위한 제작 툴일 수 있다.
일 실시예에서, 제4 제작 툴(1105)은 이벤트 신호가 입력될 때, 사용자가 '펜'을 통해 그림 데이터(115)를 제작하는 것 같은 느낌을 주기 위한 제작 툴일 수 있다.
즉, 제1 내지 제4 제작 툴(1102~1105)은 일 실시예에서 그림 데이터(115)를 제작하기 위한 드로잉(drawing) 방식이 서로 다른 툴(tool)이므로, 도 5에 도시된 바와 같이 캔버스 영역(110a)상에 서로 다르게 표현(또는 출력)될 수 있다.
일 실시예에서, 제5 제작 툴(1106)은 이벤트 신호가 입력될 때, 객체(1150)를 구성하는 선을 제거하기 위한 '지우개'의 역할을 수행하는 툴일 수 있다.
다시 도 1을 참조하면, 분석 모듈(200)은 그림 제작 앱(110)에 저장된 그림 데이터(115)를 그림 제작 앱(110)으로부터 전송받으면, 그림 데이터(115)를 분석하여 결과 데이터를 생성하기 위해 그림 분석 시스템(10)에 구비된다.
일 실시예에서, 분석 모듈(200)은 데이터 서버(210) 및 인공지능 서버(220)를 포함한다.
데이터 서버(210)는 그림 데이터(115)를 저장하기 위한 데이터베이스 서버의 역할을 수행하기 위해, 그림 제작 앱(110)으로부터 그림 데이터(115)를 전송받게 되면, 전송받은 그림 데이터(115)를 저장한다.
일 실시예에서, 데이터 서버(210)는 그림 제작 앱(110)과 네트워크를 통해 연결될 때 그림 데이터(115)를 전송받을 수 있다.
인공지능 서버(220)는 데이터 서버(210)로부터 그림 데이터(115)를 전송받기 위해 데이터 서버(210)와 네트워크를 통해 연결될 수 있으며, 데이터 서버(210)로부터 그림 데이터(115)를 전송받게 될 때, 그림 데이터(115)를 기반으로 결과 데이터를 생성하는데, 결과 데이터의 생성을 위해 학습 및 검증이 완료된 인공지능 모델(미도시)이 탑재(또는 구성)된다.
인공지능 서버(220)의 인공지능 모델은 결과 데이터를 생성하기 위해 도 6에 도시된 바와 같이 입력 모듈(100)의 화면 상에서 각 제작 툴(1102~1106)의 위치 좌표 및 공간 좌표/특성과, 각 제작 툴(1102~1106)에 입력되는 이벤트 신호의 압력 세기에 대한 압력 정보를 기반으로 각 제작 툴의 사용량 정보(2200a)를 도 7에 도시된 바와 같이 생성한다.
또한, 인공지능 서버(220)의 인공지능 모델은 이벤트 신호를 입력할 때 터치펜의 각도정보와 필압정보를 포함하여 각 제작 툴의 사용량 정보(2200a)를 생성할 수도 있다.
이때, 터치펜의 각도정보는 터치펜이 이벤트 신호를 입력하는 각도에 따라 입력의 범위와 선의 굵기 등이 달라지는 경향성이 존재하는데, 이러한 이벤트 신호의 입력 각도(기울어짐 정도)에 따라 선의 특징이 달리지기 때문에 터치펜의 각도 정보도 주요 정보로 사용될 수 있다.
또한, 터치펜의 필압정보는 터치펜이 입력 모듈(100)의 화면에 닿는 강도를 의미한다.
도 7은 본 발명의 일 실시예에 따른 각 제작 툴의 사용량 정보를 나타내는 도면이다.
도 7을 참조하면, 각 제작 툴의 사용량 정보(2200a)는 그림 데이터(115)를 캔버스 영역(110a)상에 제작 후 그림 제작 앱(110)에 저장하기까지의 시점을 기준으로 제1 내지 제5 제작 툴(1102~1106)의 사용시간을 그래프로 표시하는 데이터일 수 있다.
일 실시예에서, 각 제작 툴의 사용량 정보(2200a)는 인공지능 서버(220)로부터 단말(300)에 전송되는 결과 데이터 중 하나일 수 있다.
일 실시예에서, 인공지능 서버(220)는 인공지능 모델을 통해 추출된 각 제작 툴의 사용량 정보(2200a)를 사용자가 제공하기 위해 상기 사용자가 구비한 단말(300)로 전송할 수 있으며, 단말(300)로 각 제작 툴의 사용량 정보(2200a)를 전송하기 위해 네트워크를 통해 단말(300)과 연결될 수 있다.
일 실시예에서, 각 제작 툴의 사용량 정보(2200a)는 인공지능 서버(220)로부터 단말(300)로 전송되어 상기 단말(300)의 화면을 통해 출력될 때, 제1 내지 제5 제작 툴(1102~1106)의 사용시간에 대한 그래프가 해당 제작 툴의 일러스트 형태로 표시되도록 인공지능 서버(220)의 인공지능 모델을 통해 생성될 수 있다.
한편, 인공지능 서버(220)의 인공지능 모델은 시간에 따른 각 툴의 위치 좌표를 기반으로 획의 수(획수)를 추출한다.
일 실시예에서, 획수는 사용자가 제1 내지 제5 제작 툴(1102~1106) 중 적어도 하나의 제작 툴에 이벤트 신호를 입력한 후, 캔버스 영역(110a)상에 이벤트 신호를 입력한 시점으로부터 상기 이벤트 신호의 입력이 해제된 시점까지의 좌표 구간을 기반으로 추출되는 데이터일 수 있다.
인공지능 서버(220)의 인공지능 모델은 각 획수별의 길이, 속도, 압력 분포를 데이터프레임의 형태로 정리(또는 변환)하여 캔버스 영역(110a)상에서 제작되는 그림 데이터(115)별 데이터포인트를 정의한다.
일 실시예에서, 데이터포인트는 각 획수별의 길이, 속도, 압력 분포를 기반으로 정의되므로, 제1 내지 제5 툴(1102~1106)의 사용 특징 및 획수 특징이 포함되는 데이터일 수 있다.
인공지능 서버(220)의 인공지능 모델은 정의된 데이터포인트를 수집하여 피쳐 스케일링(feature scaling) 후 다차원 벡터 공간(multidimensional vector space)을 정의한다.
일 실시예에서, 인공지능 서버(220)의 인공지능 모델은 각 제작 툴(1102~1106)의 위치 좌표(가로-세로 픽셀 위치; 2차원 데이터), 각 제작 툴(1102~1106)의 공간 좌표/특성(제작 툴의 굵기 및 위치에 따른 스트로크 사이즈;1차원 데이터), 터치펜의 각도 정보(터치펜의 기울어짐 각도; 1차원 데이터), 터치펜의 필압 정보(터치펜이 입력 모듈(100)의 화면에 닿는 강도; 1차원 데이터)를 수집하는데, 이를 다차원 벡터들(5차원; 가로는 특징차원, 세로는 시간차원)로 쌓아서 군집 및 분류 모델의 인풋(in-put) 데이터로 활용할 수 있다.
이러한 인풋 데이터는 원본 데이터(raw data)이기 때문에, 정제(Z-scoring Standardization)를 통해 특징별 분포를 정규분포로 만들고, 비어있는 값과 아웃라이어를 제거한 데이터로 변형된 후에 최종적으로 활용되는데, 군집 알고리즘, 분류 알고리즘을 통해 모델링에 활용될 수 있다.
인공지능 서버(220)는 도 8에 도시된 바와 같이 학습 및 검증이 완료된 제1 군집 모델(221)이 탑재되며, 제1 군집 모델(221)을 통해 데이터포인트의 차원을 축소시켜 특징적인 데이터 축을 확인한다.
도 8은 본 발명의 일 실시예에 따른 제1 군집 모델의 일례를 나타내는 도면이다.
도 8을 참조하면, 제1 군집 모델(221)은 일 실시예에서 데이터포인트의 차원을 2차원 또는 3차원으로 축소시키기 위한 SVD 모델(221a)로 구성될 수 있다.
여기서, SVD 모델(221a)은 특이값 분해를 위한 데이터 차원축소 알고리즘(Singular Value Decomposition) 기반의 인공지능 모델으로서, 각 특징 차원이 상호작용하지 않고 독립적인 정보를 갖고 있도록 하는 데이터 기반 축 찾기를 수행하고, 찾아진 새로운 축을 데이터 차원으로 정의할 수 있다.
인공지능 서버(220)는 도 9에 도시된 바와 같이 학습 및 검증이 완료된 제2 군집 모델(222)이 탑재되며, 제2 군집 모델(222)을 통해 차원축소된 데이터포인트를 군집시킨다.
도 9는 본 발명의 일 실시예에 따른 제2 군집 모델의 일례를 나타내는 도면이다.
도 9를 참조하면, 제2 군집 모델(222)은 일 실시예에서 차원축소된 데이터포인트를 군집(Cluster)으로 묶기(Clusting) 위한 K-means 모델(222a), t-SNE 모델(222b) 및 가우시안 혼합 모델(222c)로 구성된다.
일 실시예에서, 제2 군집 모델(222)은 K-means 모델(222a)이 K-means clustering기법을 기반으로 차원축소된 데이터포인트가 어떤 유사성을 기반으로 나누어지는지 테스트하며, t-SNE 모델(222b)은 데이터포인트를 시각적으로 확인하고 분석하는 보조적인 방법으로 사용되는데, 이때 군집 개수인 "K"는 elbow method로 평가될 수 있다.
또한, 제2 군집 모델(222)은 그림 데이터(115)에 대한 메타데이터(아동의 연령, 그림 그리는 습관, 수업 피드백 등)를 연결시켜 분류(classification)을 할 수 있도록 데이터를 재정의하며, 이 과정은 여러번 반복하는(loss-minimizing optimization)과정으로서 새로운 그림 데이터(115)가 입력될 때마다 재정의할 데이터가 업데이트되도록 한다.
그리고 제2 군집 모델(222)은 그림 데이터(115)에 대한 메타데이터와의 연결을 확인하면서 데이터 유의미성을 파악하는 과정을 거치고 데이터 정제 또한 다시 진행하게 된다.
또한, 제2 군집 모델(222)은 가우시안 혼합 모델(222c)을 통해 최종 정의된 군집의 분포 특성(평균, 표준편차)도 추출하게 되며, 이러한 최종 정의된 군집의 분포 특성을 최종적으로 유형 정보에 맞게 레이블링할 수 있다.
여기서, K-means 모델(222a)은 머신러닝 비지도학습에 속하는 K-means 알고리즘 기반의 인공지능 모델로서 K개로 군집을 묶는 인공지능 모델이다.
또한, t-SNE 모델(222b)은 고차원 데이터를 저차원 데이터(예: 2차원 데이터)로 변환하는 차원 축소(dimensionality reduction)한 후 군집하는 t-SNE(t-distributed Stochastic Neighbor Embedding)기법의 인공지능 모델이다.
그리고 가우시안 혼합 모델(222c)은 전체 집단의 하위 집단의 확률분포가 가우시안 분포를 따르도록 하는 인공지능 모델이다.
인공지능 서버(220)는 제2 군집 모델(222)을 통해 군집된 데이터포인트를 기반으로 그림 데이터(115)를 제작한 사용자의 유형을 분류하며, 이러한 사용자의 유형 분류를 통해 도 10에 도시된 바와 같이 유형 정보(2200b)를 생성한다.
도 10은 본 발명의 일 실시예에 따른 유형 정보를 나타내는 도면이다.
도 10을 참조하면, 유형 정보(2200b)는 그림 데이터(115)를 기반으로 분석된 사용자의 유형을 기설정된 복수개의 유형 중 적어도 하나의 유형으로 분류하기 위한 데이터일 수 있다.
일 실시예에서, 유형 정보(2200b)는 사용자의 유형을 현실형(A), 탐구형(B), 예술형(C), 사회형(D), 진취형(E), 관습형(F) 중 적어도 하나로 분류하도록 유형이 기설정될 수 있다.
즉, 유형 정보(2200b)는 일 실시예에서 그림 데이터(115)를 제작한 사용자의 성격유형을 RIASEC 성격유형에 기반하여 분류하기 위한 데이터일 수 있다.
일 실시예에서, 유형 정보(2200b)는 인공지능 서버(220)로부터 단말(300)에 전송되는 결과 데이터 중 하나일 수 있다.
즉, 인공지능 서버(220)가 단말(300)로 전송하는 결과 데이터는 일 실시예에서 각 제작 툴의 사용량 정보(2200a) 및 유형 정보(2200b)를 포함한다.
다시 도 1을 참조하면, 단말(300)은 인공지능 서버(220)와 네트워크를 통해 연결되어 인공지능 서버(220)로부터 결과 데이터인 각 제작 툴의 사용량 정보(2200a) 및 유형 정보(2200b)를 전송받아 화면에 출력한다.
일 실시예에서, 단말(300)은 그림 데이터(115)를 제작한 사용자가 구비한 스마트폰, 컴퓨터, 태블릿 중 적어도 하나일 수 있으며, 사용자는 결과 데이터인 사용량 정보(2200a) 및 유형 정보(2200b)를 통해 제1 내지 제5 제작 툴(1102~1106)의 사용 특징 및 유형에 대한 분석 피드백을 제공받을 수 있다.
일 실시예에서, 단말(300)을 구비한 객체는 사용자로 한정되는 것은 아니며, 사용자의 미술수업을 담당하는 관리자 또는 사용자의 보호자인 학부모일 수도 있다.
단말(300)을 구비한 객체가 관리자인 경우, 관리자는 사용자의 사용량 정보(2200a)를 통해 사용자가 그림 데이터(115)를 제작하는 방식을 분석할 수 있으며, 그림 데이터(115)를 제작하는 과정에서 주로 사용되어야 할 제작 툴이 사용되지 않아 그림 데이터(115) 제작하는 방식이 잘못되었다고 주관적인 판단을 하는 경우에 사용자의 그림 데이터(115)를 제작하는 방식을 보완해줄 수 있다.
또한, 관리자는 유형 정보(2200b)를 통해 도출되는 사용자의 성격유형과 사용자에 맞는 직업/진로를 기반으로 사용자의 미술수업 커리큘럼을 마련하여 사용자에게 미술수업을 제공할 수 있다.
이와 달리, 단말(300)을 구비한 객체가 학부모인 경우, 학부모는 사용량 정보(2200a)를 통해 사용자가 그림 데이터(115)를 제작하는 방식을 확인할 수 있으며, 유형 정보(2200b)를 통해 사용자의 성격유형과 사용자에 맞는 직업/진로를 확인하여 사용자의 직업/진로를 설정해줄 수 있다.
그림 분석 방법
이하에서는, 사용자가 아동인 경우를 기준으로 하여 상기 그림 분석 시스템(10)에 의해 수행되는 그림 분석 방법(S10)에 대해 자세히 설명하도록 하겠다.
도 11은 본 발명의 그림 분석 시스템에 의해 수행되는 그림 분석 방법의 과정을 나타내는 도면이다.
도 11을 참조하면, 그림 분석 방법(S10)은 그림 제작 앱 실행 단계(S11), 그림 데이터 제작 단계(S12), 그림 데이터 저장 단계(S13), 그림 데이터 분석 단계(S14), 각 제작 툴의 사용량 정보 생성 단계(S15), 데이터포인트 정의 단계(S16), 데이터포인트 군집 단계(S17), 유형 정보 생성 단계(S18) 및 결과 데이터 제공 단계(S19)를 포함한다.
먼저, 사용자가 그림 데이터(115)를 제작하기 위해 입력 모듈(100)에 기저장된 그림 제작 앱(110)을 실행시킬 수 있다(S11).
그 후, 입력 모듈(100)은 그림 제작 앱(110)의 실행을 통해 그림 데이터(115)가 제작될 캔버스 영역(110a)을 화면에 출력하게 되며, 사용자는 디지털 드로잉 툴(1100)을 이용하여 캔버스 영역(110a)상에 그림 데이터(115)를 제작할 수 있다(S12).
그 후, 사용자는 입력 모듈(100)의 화면에 이벤트 신호를 입력하는 것으로 그림 데이터(115)가 그림 제작 앱(110)에 저장되도록 한다(S13).
그 후, 그림 제작 앱(110)은 네트워크를 통해 연결된 데이터 서버(210)로 그림 데이터(115)를 전송하며, 데이터 서버(210)는 인공지능 서버(220)로 그림 데이터(115)를 전송하여 그림 데이터(115)의 분석이 진행되도록 한다(S14).
그 후, 인공지능 서버(220)는 인공지능 모델을 통해 입력 모듈(100)의 화면 상에서 각 제작 툴(1102~1106)의 위치 좌표 및 공간 좌표와, 각 제작 툴(1102~1106)에 입력되는 이벤트 신호의 압력 세기에 대한 압력 정보와, 각도 정보를 기반으로 각 제작 툴의 사용량 정보(2200a)를 생성할 수 있다(S15).
그 후, 인공지능 서버(220)는 인공지능 모델을 통해 각 시간에 따른 각 툴의 위치 좌표를 기반으로 획수를 추출하며, 각 획수별의 길이, 속도, 압력 분포를 데이터프레임의 형태로 정리하여 캔버스 영역(110a)상에서 제작되는 각 그림 데이터(115)별 데이터포인트를 정의하고, 정의된 데이터포인트를 수집하여 피쳐 스케일링(feature scaling) 후 다차원 벡터 공간(multidimensional vector space)을 정의할 수 있다(S16).
그 후, 인공지능 서버(220)는 학습 및 검증이 완료된 제1 군집 모델(221)을 데이터포인트의 차원을 축소시켜 특징적인 데이터 축을 확인한 후, 학습 및 검증이 완료된 제2 군집 모델(222)을 통해 차원축소된 데이터포인트를 군집시킬 수 있다(S17).
그 후, 인공지능 서버(220)는 제2 군집 모델(222)을 통해 군집된 데이터포인트를 기반으로 그림 데이터(115)를 제작한 사용자의 유형을 분류하여 유형 정보(2200b)를 생성할 수 있다(S18).
그 후, 인공지능 서버(220)는 결과 데이터인 각 제작 툴의 사용량 정보(2200a) 및 유형 정보(2200b)를 네트워크를 통해 연결된 단말(300)로 전송함으로써 사용자, 관리자 및 학부모 중 적어도 하나의 객체에게 결과 데이터를 제공할 수 있다(S19).
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 기술적 사상 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.
10: 그림 분석 시스템, 100: 입력 모듈,
110: 그림 제작 앱, 110a: 캔버스 영역,
1100: 디지털 드로잉 툴, 1101: 파레트 툴,
1102: 제1 제작 툴, 1103: 제2 제작 툴,
1104: 제3 제작 툴, 1105: 제4 제작 툴,
1106: 제5 제작 툴, 1110: 색상 설정 영역,
1110a: 제1 색상 설정 영역, 1110b: 제2 색상 설정 영역,
115: 그림 데이터, 1150: 객체,
200: 분석 모듈, 210: 데이터 서버,
220: 인공지능 서버, 221: 제1 군집 모델,
221a: SVD 모델, 222: 제2 군집 모델,
222a: K-means 모델, 222b: t-SNE 모델,
222c: 가우시안 혼합 모델, 2200a: 각 제작 툴의 사용량 정보,
2200b: 유형 정보, 300: 단말.

Claims (10)

  1. 사용자가 그림 데이터를 제작하기 위한 그림 제작 앱이 기저장되며, 상기 그림 제작 앱의 디지털 드로잉 툴을 구성하는 하나 이상의 제작 툴을 통해 캔버스 영역상에 그림 데이터가 제작 및 저장되는 입력 모듈;
    상기 그림 데이터를 상기 그림 제작 앱으로부터 전송받는 데이터 서버와, 상기 데이터 서버로부터 전송받은 그림 데이터를 분석하여 상기 제작 툴의 사용시간과 상기 사용자의 유형에 대한 결과 데이터를 생성하는 인공지능 서버로 구성된 분석 모듈; 및
    상기 인공지능 서버로부터 상기 결과 데이터를 전송받아 객체에게 상기 결과 데이터를 제공하는 단말;을 포함하며,
    상기 각 제작 툴의 사용량 정보는,
    상기 인공지능 서버의 인공지능 모델이 상기 각 제작 툴의 위치 좌표 및 공간 좌표와, 상기 각 제작 툴에 입력되는 이벤트 신호의 압력 세기에 대한 압력 정보와, 각도 정보를 기반으로 생성하는 데이터이고,
    상기 인공지능 서버는,
    상기 각 제작 툴의 사용량 정보가 생성되면, 상기 인공지능 모델을 통해 상기 디지털 드로잉 툴의 각 툴 중 적어도 하나의 제작 툴에 이벤트 신호를 입력한 후, 상기 캔버스 영역상에 이벤트 신호를 입력한 시점으로부터 상기 이벤트 신호의 입력이 해제된 시점까지의 좌표 구간을 기반으로 획수를 추출하며,
    상기 인공지능 모델을 통해 각 획수별의 길이, 속도, 압력 분포를 데이터프레임의 형태로 정리하여 상기 캔버스 영역상에 제작되는 그림 데이터별 데이터포인트를 정의한 후, 상기 데이터포인트를 수집하여 피쳐 스케일링(feature scaling) 후 다차원 벡터 공간(multidimensional vector space)을 정의하고,
    학습 및 검증이 완료된 제1 군집 모델을 통해 데이터포인트의 차원을 2차원 또는 3차원으로 축소시켜 특징적인 데이터 축을 확인하며, 학습 및 검증이 완료된 제2 군집 모델을 통해 차원축소된 데이터포인트를 군집시키고,
    상기 제2 군집 모델은,
    상기 차원축소된 데이터포인트를 군집으로 묶기 위한 K-means 모델, t-SNE 모델 및 가우시안 혼합 모델이 구성되며, 상기 K-means 모델, t-SNE 모델 및 가우시안 혼합 모델을 통해 군집된 데이터포인트를 분석하여 정의된 군집의 분포 특성을 추출 및 유형 정보에 맞게 레이블링하고,
    상기 유형 정보는,
    상기 인공지능 서버가 상기 제2 군집 모델을 통해 군집된 데이터포인트를 기반으로 분류한 상기 그림 데이터를 제작한 사용자의 유형을 RIASEC 성격유형에 기반한 유형으로 분류하기 위한 데이터인 것을 특징으로 하는 디지털 드로잉 툴을 이용한 그림 분석 시스템.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 각 제작 툴의 사용량 정보는,
    상기 그림 데이터를 상기 캔버스 영역상에 제작 후 상기 그림 제작 앱에 저장하기까지의 시점을 기준으로 상기 각 제작 툴의 사용시간을 그래프로 표시하는 데이터인 것을 특징으로 하는 디지털 드로잉 툴을 이용한 그림 분석 시스템.
  4. ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈
    제 3 항에 있어서,
    상기 각 제작 툴의 사용량 정보는,
    상기 단말의 화면에 출력될 때를 기준으로, 상기 각 제작 툴의 사용시간에 대한 그래프가 해당 제작 툴의 일러스트 형태로 표시되는 것을 특징으로 하는 디지털 드로잉 툴을 이용한 그림 분석 시스템.
  5. 삭제
  6. 삭제
  7. 제 1 항에 있어서,
    상기 제1 군집 모델은,
    데이터 차원축소 알고리즘(Singular Value Decomposition) 기반의 SVD 모델인 것을 특징으로 하는 디지털 드로잉 툴을 이용한 그림 분석 시스템.
  8. 삭제
  9. 삭제
  10. ◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈
    a) 사용자가 입력 모듈에 기저장된 그림 제작 앱을 실행시킨 후, 상기 그림 제작 앱의 디지털 드로잉 툴을 구성하는 하나 이상의 제작 툴을 이용하여 캔버스 영역상에 그림 데이터를 제작 및 저장하는 단계;
    b) 분석 모듈의 데이터 서버가 그림 제작 앱으로부터 전송받은 그림 데이터를 인공지능 서버로 전송하며, 상기 인공지능 서버가 그림 데이터를 분석하는 단계;
    c) 상기 인공지능 서버가 상기 그림 데이터를 분석하는 단계 후, 인공지능 모델을 통해 상기 각 제작 툴의 위치 좌표 및 공간 좌표와, 상기 각 제작 툴에 입력되는 이벤트 신호의 압력 세기에 대한 압력 정보와, 각도 정보를 기반으로 하는 데이터인 각 제작 툴의 사용량 정보를 생성하는 단계;
    d) 상기 인공지능 서버가 상기 각 제작 툴의 사용량 정보가 생성되면, 상기 인공지능 모델을 통해 상기 디지털 드로잉 툴의 각 툴 중 적어도 하나의 제작 툴에 이벤트 신호를 입력한 후, 상기 캔버스 영역상에 이벤트 신호를 입력한 시점으로부터 상기 이벤트 신호의 입력이 해제된 시점까지의 좌표 구간을 기반으로 획수를 추출하는 단계;
    e) 상기 인공지능 서버가 상기 인공지능 모델을 통해 각 획수별의 길이, 속도, 압력 분포를 데이터프레임의 형태로 정리하여 상기 캔버스 영역상에 제작되는 그림 데이터별 데이터포인트를 정의한 후, 상기 데이터포인트를 수집하여 피쳐 스케일링(feature scaling) 후 다차원 벡터 공간(multidimensional vector space)을 정의하는 단계;
    f) 상기 인공지능 서버가 학습 및 검증이 완료된 제1 군집 모델을 통해 데이터포인트의 차원을 2차원 또는 3차원으로 축소시켜 특징적인 데이터 축을 확인하며, 학습 및 검증이 완료된 제2 군집 모델을 통해 차원축소된 데이터포인트를 군집시키는 단계;
    g) 상기 인공지능 서버가 상기 제2 군집 모델을 통해 군집된 데이터포인트를 기반으로 상기 그림 데이터를 제작한 사용자의 유형을 분류하여 유형 정보를 생성하는 단계;
    h) 상기 인공지능 서버가 상기 그림 데이터의 분석을 통해 상기 제작 툴의 사용시간과 상기 사용자의 유형에 대한 결과 데이터를 생성하는 단계; 및
    i) 상기 인공지능 서버가 상기 결과 데이터를 단말로 전송하여 상기 단말을 구비한 객체에게 상기 결과 데이터를 제공하는 단계;를 포함하며,
    상기 제2 군집 모델은,
    상기 차원축소된 데이터포인트를 군집으로 묶기 위한 K-means 모델, t-SNE 모델 및 가우시안 혼합 모델이 구성되며, 상기 K-means 모델, t-SNE 모델 및 가우시안 혼합 모델을 통해 군집된 데이터포인트를 분석하여 정의된 군집의 분포 특성을 추출 및 유형 정보에 맞게 레이블링하고,
    상기 유형 정보는,
    상기 인공지능 서버가 상기 제2 군집 모델을 통해 군집된 데이터포인트를 기반으로 분류한 상기 그림 데이터를 제작한 사용자의 유형을 RIASEC 성격유형에 기반한 유형으로 분류하기 위한 데이터인 것을 특징으로 하는 디지털 드로잉 툴을 이용한 그림 분석 방법.
KR1020220156505A 2022-11-21 2022-11-21 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법 KR102548074B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220156505A KR102548074B1 (ko) 2022-11-21 2022-11-21 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법
KR1020230074971A KR102555579B1 (ko) 2022-11-21 2023-06-12 사용자가 디지털 드로잉 툴을 이용하여 제작한 그림 데이터를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템
KR1020230074972A KR102555580B1 (ko) 2022-11-21 2023-06-12 그림 데이터를 제작하는 과정에서 사용된 각 제작 툴의 사용량 정보와 그림 데이터를 기반으로 사용자의 유형을 분석할 수 있는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220156505A KR102548074B1 (ko) 2022-11-21 2022-11-21 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020230074971A Division KR102555579B1 (ko) 2022-11-21 2023-06-12 사용자가 디지털 드로잉 툴을 이용하여 제작한 그림 데이터를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템
KR1020230074972A Division KR102555580B1 (ko) 2022-11-21 2023-06-12 그림 데이터를 제작하는 과정에서 사용된 각 제작 툴의 사용량 정보와 그림 데이터를 기반으로 사용자의 유형을 분석할 수 있는 방법

Publications (1)

Publication Number Publication Date
KR102548074B1 true KR102548074B1 (ko) 2023-06-28

Family

ID=86994026

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220156505A KR102548074B1 (ko) 2022-11-21 2022-11-21 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법
KR1020230074971A KR102555579B1 (ko) 2022-11-21 2023-06-12 사용자가 디지털 드로잉 툴을 이용하여 제작한 그림 데이터를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템
KR1020230074972A KR102555580B1 (ko) 2022-11-21 2023-06-12 그림 데이터를 제작하는 과정에서 사용된 각 제작 툴의 사용량 정보와 그림 데이터를 기반으로 사용자의 유형을 분석할 수 있는 방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020230074971A KR102555579B1 (ko) 2022-11-21 2023-06-12 사용자가 디지털 드로잉 툴을 이용하여 제작한 그림 데이터를 분석할 수 있는 디지털 드로잉 툴을 이용한 그림 분석 시스템
KR1020230074972A KR102555580B1 (ko) 2022-11-21 2023-06-12 그림 데이터를 제작하는 과정에서 사용된 각 제작 툴의 사용량 정보와 그림 데이터를 기반으로 사용자의 유형을 분석할 수 있는 방법

Country Status (1)

Country Link
KR (3) KR102548074B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005406A (ko) * 2013-07-05 2015-01-14 신창중 이미지를 이용한 성격 유형 및 심리 검사 방법
KR102052300B1 (ko) * 2019-04-22 2019-12-04 노덕영 그림을 이용한 유형별 성격 분석 시스템
KR102144247B1 (ko) * 2020-02-13 2020-08-12 윤보희 실측 데이터 기반의 이미지 컨설팅 시스템
KR20210028439A (ko) * 2019-09-04 2021-03-12 (주)알에프캠프 상담 대상자의 드로잉 과정을 통해 심리 상태를 판단하는 방법 및 컴퓨터 프로그램
KR102252851B1 (ko) 2019-05-30 2021-05-14 한림대학교 산학협력단 인지 능력 검사용 그림의 자동 분석 시스템 및 이를 위한 기록 매체
KR102444163B1 (ko) 2020-11-20 2022-09-19 주식회사 티엔에프에이아이 객체 인식 기술을 이용한 아동 그림 이미지의 유형 분석 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005406A (ko) * 2013-07-05 2015-01-14 신창중 이미지를 이용한 성격 유형 및 심리 검사 방법
KR102052300B1 (ko) * 2019-04-22 2019-12-04 노덕영 그림을 이용한 유형별 성격 분석 시스템
KR102252851B1 (ko) 2019-05-30 2021-05-14 한림대학교 산학협력단 인지 능력 검사용 그림의 자동 분석 시스템 및 이를 위한 기록 매체
KR20210028439A (ko) * 2019-09-04 2021-03-12 (주)알에프캠프 상담 대상자의 드로잉 과정을 통해 심리 상태를 판단하는 방법 및 컴퓨터 프로그램
KR102144247B1 (ko) * 2020-02-13 2020-08-12 윤보희 실측 데이터 기반의 이미지 컨설팅 시스템
KR102444163B1 (ko) 2020-11-20 2022-09-19 주식회사 티엔에프에이아이 객체 인식 기술을 이용한 아동 그림 이미지의 유형 분석 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yim J, etc., Application of object detection algorithm for psychological analysis of children’s drawing. Journal of the Korea Industrial Information System Research. Vol.26, No.5, pp.1~9 (Oct., 2021)* *

Also Published As

Publication number Publication date
KR102555579B1 (ko) 2023-07-17
KR102555580B1 (ko) 2023-07-17

Similar Documents

Publication Publication Date Title
Chang et al. Generating handwritten chinese characters using cyclegan
Liu et al. Towards better analysis of deep convolutional neural networks
EP3179407B1 (en) Recognition of a 3d modeled object from a 2d image
Zhang et al. Detecting densely distributed graph patterns for fine-grained image categorization
CN106570521B (zh) 多语言场景字符识别方法及识别系统
CN105354248A (zh) 基于灰度的分布式图像底层特征识别方法及系统
CN109726725B (zh) 一种基于大间隔类间互异性多核学习的油画作者识别方法
Lake et al. Concept learning as motor program induction: A large-scale empirical study
CN113361344B (zh) 视频事件识别方法、装置、设备及存储介质
US20210342496A1 (en) Geometry-aware interactive design
De Smedt Dynamic hand gesture recognition-From traditional handcrafted to recent deep learning approaches
Yuan et al. Deep colormap extraction from visualizations
Liao et al. An oil painters recognition method based on cluster multiple kernel learning algorithm
CN108520263B (zh) 一种全景图像的识别方法、系统及计算机存储介质
CN110097616A (zh) 一种联合绘画方法、装置、终端设备及可读存储介质
Camba et al. Sketch-based modeling in mechanical engineering design: Current status and opportunities
CN115393872A (zh) 一种训练文本分类模型的方法、装置、设备及存储介质
Plimmer et al. Sketchnode: Intelligent sketching support and formal diagramming
KR102548074B1 (ko) 디지털 드로잉 툴을 이용한 그림 분석 시스템 및 방법
JP2003203090A (ja) 画像空間表示方法
CN106156256A (zh) 一种用户信息分类透传方法及系统
Fang et al. Visualizing natural image statistics
Zhao Handsketch-based diagram editing
Matsuo et al. Construction of latent descriptor space and inference model of hand-object interactions
JP5824309B2 (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant