KR102294741B1 - Method for psychological test based on picture using deep learning and server using the same - Google Patents

Method for psychological test based on picture using deep learning and server using the same Download PDF

Info

Publication number
KR102294741B1
KR102294741B1 KR1020200189919A KR20200189919A KR102294741B1 KR 102294741 B1 KR102294741 B1 KR 102294741B1 KR 1020200189919 A KR1020200189919 A KR 1020200189919A KR 20200189919 A KR20200189919 A KR 20200189919A KR 102294741 B1 KR102294741 B1 KR 102294741B1
Authority
KR
South Korea
Prior art keywords
picture
psychological
deep learning
present
component data
Prior art date
Application number
KR1020200189919A
Other languages
Korean (ko)
Inventor
이재호
이지원
Original Assignee
(주)제이앤리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)제이앤리 filed Critical (주)제이앤리
Application granted granted Critical
Publication of KR102294741B1 publication Critical patent/KR102294741B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a picture-based psychological test method through deep learning and to enabling non-face-to-face picture-based psychological analysis and solutions. The picture-based psychological test method comprises the following steps: extracting component data from a picture to be analyzed; labeling the extracted component data; extracting and repeatedly labeling the component data by augmenting and repeatedly learning the analysis the picture to be analyzed; and deriving psychological diagnosis results according to the picture to be analyzed based on the extracted component data.

Description

딥러닝을 통한 그림기반 심리검사 방법 및 서버{METHOD FOR PSYCHOLOGICAL TEST BASED ON PICTURE USING DEEP LEARNING AND SERVER USING THE SAME}Picture-based psychological test method and server through deep learning

본 발명은 딥러닝을 통한 그림기반의 심리검사 방법 및 서버에 대한 것으로, 비대면으로 그림기반의 심리 분석 및 솔루션이 가능하도록 하는 것이다.The present invention relates to a picture-based psychological examination method and server through deep learning, and to enable picture-based psychological analysis and solutions non-face-to-face.

최근, 사회적으로 정신질환에 대한 환자가 증가하면서 심리 상담에 대한 요구가 증대되고 있다.Recently, as the number of patients with mental illness increases in society, the demand for psychological counseling is increasing.

하지만, 보편적으로 진행되고 있는 심리 상담의 경우, 심리 상담에 대한 편견, 자신 개방에 대한 두려움, 상담 비용에 대한 부담 또는 지리적, 시간적 한계가 존재한다.However, in the case of psychological counseling that is being conducted in general, there are prejudices against psychological counseling, fear of self-opening, burden of counseling costs, or geographical and temporal limitations.

이에 따라, 심리 상담을 위해 직접 상담 센터에 방문하지 않고도 비대면으로 온라인 심리 상담 및 솔루션이 가능하도록 하는 방법에 대한 요구가 점차 증대되고 있으며, 상술한 문제점을 해결하기 위한 방안이 시급한 실정이다.
참고적으로, 본 발명과 관련된 선행기술문헌으로는 등록특허공보 제10-1772987호(2017.08.31.)가 존재한다.
Accordingly, there is a growing demand for a method that enables online psychological counseling and solutions without a direct visit to a counseling center for psychological counseling, and a method for solving the above-mentioned problems is urgently needed.
For reference, as a prior art document related to the present invention, Korean Patent Publication No. 10-1772987 (2017.08.31.) exists.

본 발명은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 딥러닝 기술을 이용하여 그림기반의 심리 검사를 진행함으로써, 비대면의 심리 상담 및 솔루션 제공이 가능하도록 하는 것을 목적으로 한다.The present invention aims to solve the problems of the prior art described above, and to enable non-face-to-face psychological counseling and solution provision by performing picture-based psychological examination using deep learning technology.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

상기한 문제를 해결하기 위한 본 발명의 일 실시 예에 따른 딥러닝을 통한 그림기반 심리검사 방법은 분석 대상 그림에서 구성 요소 데이터를 추출하는 단계; 추출한 상기 구성 요소 데이터를 라벨링하는 단계; 상기 분석 대상 그림을 데이터 증강하고 반복 학습하여 상기 구성 요소 데이터를 추출하고 반복 라벨링하는 단계; 및 추출한 상기 구성 요소 데이터에 기반해 상기 분석 대상 그림에 따른 심리 진단 결과를 도출하는 단계;를 포함할 수 있다.A picture-based psychological examination method through deep learning according to an embodiment of the present invention for solving the above problem includes extracting component data from an analysis target picture; labeling the extracted component data; extracting and repeatedly labeling the component data by augmenting and repeatedly learning the data to be analyzed; and deriving a psychological diagnosis result according to the analysis target picture based on the extracted component data.

본 발명의 일 실시 예에 따르면, 상기 구성 요소 데이터 추출 단계는 집, 나무 및 사람의 특징을 상기 구성 요소 데이터로 추출할 수 있다.According to an embodiment of the present invention, the component data extraction step may extract characteristics of a house, a tree, and a person as the component data.

본 발명의 일 실시 예에 따르면, 상기 구성 요소 데이터 추출 단계는 상기 집의 특징은, 지붕, 벽, 문, 창문, 굴뚝, 진입로 중 적어도 하나 이상의 세부 특징을 포함하고, 상기 나무의 특징은 주제, 기둥, 가지, 뿌리, 잎, 나무껍질 중 적어도 하나 이상의 세부 특징을 포함하고, 상기 사람의 특징은 머리, 얼굴, 입, 입술, 턱, 눈, 팔 중 적어도 하나 이상의 세부 특징을 포함할 수 있다.According to an embodiment of the present invention, in the component data extraction step, the characteristic of the house includes at least one or more detailed characteristics of a roof, a wall, a door, a window, a chimney, and an access road, and the characteristic of the tree is a subject, At least one detailed characteristic of a column, branch, root, leaf, and bark may be included, and the human characteristic may include at least one or more detailed characteristic of a head, face, mouth, lips, chin, eyes, and arm.

본 발명의 일 실시 예에 따르면, 상기 라벨링 단계는 파일명, 특징의 클래스, 세부 특징의 클래스, x, y 좌표의 최대 및 최소 값을 포함하여 라벨링할 수 있다.According to an embodiment of the present invention, the labeling step may include a file name, a feature class, a detailed feature class, and maximum and minimum values of x and y coordinates for labeling.

본 발명의 일 실시 예에 따르면, 상기 데이터 증강, 반복 학습 및 반복 라벨링 단계는 상기 분석 대상 그림을 반전, 회전, 자르기, 크기 변경하여 데이터를 증강할 수 있다.According to an embodiment of the present invention, the data augmentation, repeated learning, and repeated labeling step may augment data by inverting, rotating, cropping, or changing the size of the analysis target picture.

본 발명의 일 실시 예에 따르면, 상기 데이터 증강, 반복 학습 및 반복 라벨링 단계는 라벨링된 상기 구성 요소에 기반해 상기 분석 대상 그림에서 ROI(Region Of Interest)를 반전, 회전, 자르기, 크기 변경하여 적어도 하나 이상 추출하는 단계; 상기 ROI를 기계 학습하고, 구성 요소 데이터를 추출하는 단계; 및 상기 ROI에서 추출한 상기 구성 요소 데이터를 라벨링하는 단계;를 포함할 수 있다.According to an embodiment of the present invention, the data augmentation, repeated learning, and repeated labeling step is performed by inverting, rotating, cropping, and changing the size of the ROI (Region Of Interest) in the analysis target picture based on the labeled components at least extracting one or more; machine learning the ROI and extracting component data; and labeling the component data extracted from the ROI.

본 발명의 일 실시 예에 따르면, 상기 심리 진단 결과 도출 단계는 추출한 상기 구성 요소의 클래스, 크기, 비율, 상태 및 위치에 따라 진단 결과를 도출할 수 있다.According to an embodiment of the present invention, the step of deriving the psychological diagnosis result may derive the diagnosis result according to the class, size, ratio, state, and location of the extracted component.

본 발명에 따르면, 딥러닝 기술을 이용하여 그림기반의 심리 검사를 진행함으로써, 비대면의 심리 상담 및 솔루션 제공이 가능 할 수 있다.According to the present invention, by performing a picture-based psychological examination using deep learning technology, it may be possible to provide non-face-to-face psychological counseling and solutions.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.On the other hand, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within the range apparent to those skilled in the art from the contents to be described below.

도 1은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리 검사 서버를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 결과지를 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 그림의 주요항목 및 세부특징에 대한 설정값을 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 과정을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스를 제공하기 위한 방법을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 라벨링에 대한 실시예를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 데이터 증강에 대한 실시예를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 데이터 증강에 대한 다른 실시예를 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 모델링에 대한 실시예를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 Faster R-CNN 기반의 모델링에 대한 실시예를 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 모델링 과정을 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 재학습 결과의 실시예를 도시한 도면이다.
도 13은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 결과를 예시하는 도면이다.
1 is a diagram showing a picture-based psychological examination server through deep learning according to an embodiment of the present invention.
2 is a diagram illustrating a picture-based psychological test result sheet through deep learning according to an embodiment of the present invention.
3 is a diagram illustrating setting values for main items and detailed features of a figure according to an embodiment of the present invention.
4 is a diagram illustrating a process of providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
5 is a diagram illustrating a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
6 is a diagram illustrating an embodiment of labeling in a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
7 is a diagram illustrating an embodiment of data augmentation in a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
8 is a diagram illustrating another embodiment of data augmentation in a method of providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
9 is a diagram illustrating an embodiment of modeling among a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
10 is a diagram illustrating an embodiment of Faster R-CNN-based modeling among a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
11 is a diagram illustrating a modeling process in a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
12 is a diagram illustrating an example of a re-learning result among a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.
13 is a diagram illustrating a picture-based psychological test result through deep learning according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 '딥러닝을 통한 그림기반 심리검사 방법 및 서버'을 상세하게 설명한다. 설명하는 실시 예들은 본 발명의 기술사상을 당업자가 용이하게 이해할 수 있도록 제공되는 것으로 이에 의해 본 발명이 한정되지 않는다. 또한, 첨부된 도면에 표현된 사항들은 본 발명의 실시 예들을 쉽게 설명하기 위해 도식화된 도면으로 실제로 구현되는 형태와 상이할 수 있다.Hereinafter, a 'picture-based psychological examination method and server through deep learning' according to the present invention will be described in detail with reference to the accompanying drawings. The described embodiments are provided so that those skilled in the art can easily understand the technical spirit of the present invention, and the present invention is not limited thereto. In addition, matters expressed in the accompanying drawings may be different from the forms actually implemented in the drawings schematically for easy explanation of the embodiments of the present invention.

한편, 이하에서 표현되는 각구성부는 본 발명을 구현하기 위한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 구성부가 사용될 수 있다.On the other hand, each component represented below is only an example for implementing the present invention. Accordingly, other components may be used in other implementations of the present invention without departing from the spirit and scope of the present invention.

또한, 각구성부는 순전히 하드웨어 또는 소프트웨어의 구성만으로 구현될 수도 있지만, 동일 기능을 수행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다. 또한, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 함께 구현될 수도 있다.In addition, each component may be implemented purely by a configuration of hardware or software, or may be implemented by a combination of various hardware and software configurations that perform the same function. In addition, two or more components may be implemented together by one piece of hardware or software.

또한, 어떤 구성요소들을 '포함'한다는 표현은, '개방형'의 표현으로서 해당구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안된다.In addition, the expression 'including' certain components merely refers to the existence of the corresponding components as an expression of 'open type', and should not be construed as excluding additional components.

도 1은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리 검사 서버를 나타낸 도면이다.1 is a diagram showing a picture-based psychological examination server through deep learning according to an embodiment of the present invention.

우선, 심리검사 서버(100)의 통신부(110)는 다양한 통신 기술로 구현될 수 있다. 즉, 와이파이(WIFI), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), HSPA(High Speed Packet Access), 모바일 와이맥스(Mobile WiMAX), 와이브로(WiBro), LTE(Long Term Evolution), 5G, 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), NFC(Near Field Communication), 지그비(Zigbee), 무선랜 기술 등이 적용될 수 있다. 또한, 인터넷과 연결되어 서비스를 제공하는 경우 인터넷에서 정보전송을 위한 표준 프로토콜인 TCP/IP를 따를 수 있다. First, the communication unit 110 of the psychological examination server 100 may be implemented with various communication technologies. That is, Wi-Fi (WIFI), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), HSPA (High Speed Packet Access), Mobile WiMAX (Mobile WiMAX), WiBro (WiBro) , LTE (Long Term Evolution), 5G, Bluetooth, infrared data association (IrDA), NFC (Near Field Communication), Zigbee, wireless LAN technology, etc. can be applied. In addition, when a service is provided by being connected to the Internet, TCP/IP, which is a standard protocol for information transmission on the Internet, may be followed.

또한, 상기 심리검사 서버(100)의 데이터베이스(130)는 각종 심리검사 결과에 대한 정보 등을 가지고 있으며, 이에 대해서는 프로세서(120)의 동작과 함께 후술하도록 하겠다.In addition, the database 130 of the psychological test server 100 has information on various psychological test results, which will be described later along with the operation of the processor 120 .

상기 통신부(110)를 통해 데이터베이스(130), 사용자의 단말(200), 관리자의 단말(300) 등과 정보를 송수신 가능하며, 사용자의 단말(200) 및 관리자의 단말(300)은 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기, 스마트 리모컨, 각종 IOT 메인기기 등과 같이 통신을 수행하면서 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖추고, 카메라를 탑재하여 QR 코드 등의 마커를 인식할 수 있는 디지털 기기라면 얼마든지 본 발명에 따른 사용자의 단말(200), 관리자의 단말(300)에 해당할 수 있다. Information can be transmitted and received with the database 130, the user's terminal 200, the administrator's terminal 300, and the like through the communication unit 110, and the user's terminal 200 and the administrator's terminal 300 are desktop computers, notebook computers, and the like. A computer, workstation, PDA, web pad, mobile phone, smart remote control, various IOT main devices, etc. are equipped with a memory means while performing communication, equipped with a microprocessor to have computing power, and a camera equipped with a marker such as a QR code Any digital device capable of recognizing , may correspond to the user's terminal 200 and the administrator's terminal 300 according to the present invention.

본 발명의 심리검사 진행 및 심리검사 결과 제공되는 리포트 등은 사용자의 단말(200)을 통해 확인될 수 있고, 선택된 그림은 관리자의 단말(300)을 통해 분석될 수 있다.The psychological test progress of the present invention and the report provided with the psychological test result may be checked through the user's terminal 200 , and the selected picture may be analyzed through the manager's terminal 300 .

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리 검사 서버(100)의 프로세서(120)에서는 이미지 데이터를 수집하여, 상기 이미지 데이터를 전처리하여, 이미지를 학습하고, 학습된 결과에서 추출한 구성 요소의 특징을 분석하여 심리 진단 결과를 해석하고 해석 내용에 대한 리포트를 제공할 수 있다. The processor 120 of the picture-based psychological examination server 100 through deep learning according to an embodiment of the present invention collects image data, pre-processes the image data, learns an image, and extracts from the learned result. By analyzing the characteristics of the components, it is possible to interpret the psychological diagnosis results and provide a report on the interpretation contents.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리 검사 서버(100)는 인공지능을 이용한 CNN(Convolutional Neural Network)를 이용한 컴퓨터, 또는 시스템을 포함할 수 있고, 이미지 기계 학습을 통해 분석 대상 그림에서 구성 요소를 추출하고, 그 특징을 분석해 심리 분석 결과를 도출할 수 있다.The picture-based psychological examination server 100 through deep learning according to an embodiment of the present invention may include a computer or a system using a Convolutional Neural Network (CNN) using artificial intelligence, and is analyzed through image machine learning It is possible to derive psychological analysis results by extracting components from the target picture and analyzing its characteristics.

도 2는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 결과지를 예시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 그림의 주요항목 및 세부특징에 대한 설정값을 예시한 도면이다.2 is a diagram illustrating a picture-based psychological test result sheet through deep learning according to an embodiment of the present invention, and FIG. 3 is a set value for main items and detailed features of a picture according to an embodiment of the present invention. It is an exemplified drawing.

우선, 본 발명의 심리검사 서버(100)의 프로세서(120)는 분석 대상 그림을 획득할 수 있다. 데이터베이스(130)에 복수의 그림이 저장되어 있는 상태에서, 프로세서(120)는 이를 사용자의 단말(200)에 전달하여 사용자로 하여금 적어도 하나의 그림을 선택하도록 요청할 수 있다. 상기 프로세서(120)는 사용자의 단말(200)에 입력된 적어도 하나의 그림을 분석 대상 그림으로 설정하고, 분석 대상 그림을 AI 분석을 통해 분석하며 사용자의 단말(200)에 송신할 수 있다. 분석된 결과를 관리자의 단말(300)에 전달하여 관리자로 하여금 상기 분석 결과를 검토하도록 할 수 있다.First, the processor 120 of the psychological examination server 100 of the present invention may obtain an analysis target picture. In a state in which a plurality of pictures are stored in the database 130 , the processor 120 may transmit them to the user's terminal 200 to request the user to select at least one picture. The processor 120 may set at least one picture input to the user's terminal 200 as an analysis target picture, analyze the analysis target picture through AI analysis, and transmit it to the user's terminal 200 . The analyzed result may be transmitted to the manager's terminal 300 to allow the manager to review the analysis result.

또한, 프로세서(120)는 상기 분석 결과를 레포트 형태로서 사용자의 단말(260)에 디스플레이할 수 있다.In addition, the processor 120 may display the analysis result in the form of a report on the user's terminal 260 .

도 2 및 도 3을 참조하면, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법은 분석 대상 그림에서 구성 요소 데이터를 추출할 수 있다. 상기 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 집, 나무 및 사람의 특징을 상기 구성 요소 데이터로 추출할 수 있다. 상기 집의 특징은 지붕, 벽, 문, 창문, 굴뚝, 진입로 중 적어도 하나 이상의 세부 특징을 포함할 수 있고, 상기 나무의 특징은 주제, 기둥, 가지, 뿌리, 잎, 나무껍질 중 적어도 하나 이상의 세부 특징을 포함할 수 있고, 상기 사람의 특징은 머리, 얼굴, 입, 입술, 턱, 눈, 팔 중 적어도 하나 이상의 세부 특징을 포함할 수 있다. 도면에서는 사설명의 편의상 사람의 특징을 중심으로 세부 특징을 확인할 수 있도록 구성될 수 있다.2 and 3 , the picture-based psychological examination method through deep learning according to an embodiment of the present invention may extract component data from an analysis target picture. In the picture-based psychological examination method through the deep learning, the processor 120 may extract the characteristics of a house, a tree, and a person as the component data. The characteristic of the house may include at least one or more detailed characteristics of a roof, a wall, a door, a window, a chimney, and a driveway, and the characteristic of the tree may include at least one or more of a subject, a column, a branch, a root, a leaf, and a bark. It may include a characteristic, and the characteristic of the person may include at least one or more detailed characteristics of a head, face, mouth, lips, chin, eyes, and arm. In the drawings, for the convenience of the private description, it may be configured so that detailed characteristics can be identified centering on the characteristics of a person.

또한, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 추출한 상기 구성 요소의 클래스, 크기, 비율, 상태 및 위치에 따라 진단 결과를 도출할 수 있다. 상기 구성 요소의 클래스, 크기, 비율, 상태 및 위치는 절대적인 값 또는 상대적인 값일 수 있다. 또한, 프로세서(120)는 상기 구성 요소를 통해 심리 상태에 대한 점수를 산출할 수 있다. 일 실시예에 따라, 프로세서(120)는 10점만점의 점수대를 4개의 구역으로 구분하여 제1 구역(ex 0점~3점), 제2 구역(ex 4점~5점), 제3 구역(ex 6점~7점), 제4 구역(ex 8점~10점)으로 구분할 수 있다.In addition, in the picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 may derive a diagnosis result according to the class, size, ratio, state and location of the extracted components. The class, size, proportion, state, and position of the components may be absolute or relative. In addition, the processor 120 may calculate a score for the psychological state through the above components. According to an embodiment, the processor 120 divides the score out of 10 points into four zones, a first zone (ex 0 points to 3 points), a second zone (ex 4 points to 5 points), and a third zone It can be divided into (ex 6~7 points) and the 4th area (ex 8~10 points).

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 머리의 특징은 크기 또는 비율이 큰 경우 지적인 능력에 대한 관심, 지적 야심, 성취욕, 확장된 자아, 내성적, 공상에 몰두함, 과잉관념화(편집증), 공격정 경향, 퇴행, 억제, 의존, 미성숙, 불안의 심리 상태와 연관될 수 있다. As a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 is interested in intellectual ability, intellectual ambition, achievement desire, expanded ego, when the size or ratio of the head is large. It may be associated with psychological states of introversion, daydreaming, hyperidealization (paranoia), aggressive tendencies, regression, inhibition, dependence, immaturity, and anxiety.

본 발명은 그림을 통해 인간의 심리를 진단하는 것으로서, 머리가 크게 그려진 그림은 공상에 의한 적극성과 무의식에 관련한 것을 의미하며, 지적인 것에 대한 만족을 의미할 수 있다. 반대로 작은 머리는 강박이나 신경증에 관련이 있으며, 손을 숨기는 경우 공격적, 적대적 감정이 반영된 것이고, 주먹진 손 그림은 억압된 공격성을 반영할 수 있으며. 의복의 단추, 포켓 강조 등은 의존성과 결손의 보상을 의미할 수 있다. 위와 같이, 심리 상태와 관련 일부 문제가 있다고 판단된 경우, 프로세서(120)는 심리 상태 관련 점수를 낮게 산출할 수 있을 것이다.The present invention is to diagnose human psychology through pictures, and a picture with a large head is related to the activeness and unconsciousness caused by daydreaming, and may mean satisfaction with the intellectual. Conversely, small heads are associated with obsessive-compulsive or neuroticism; hiding hands may reflect aggressive and hostile emotions; clenched hands may reflect repressed aggression. Clothing buttons, pocket accents, etc. can mean compensation for dependence and deficits. As described above, when it is determined that there are some problems related to the mental state, the processor 120 may calculate a low psychological state-related score.

구체적으로, 분석 대상 그림의 전체 크기를 기준으로 머리의 크기가 기설정 비율(ex 5%)이상인 경우 머리의 크기가 큰것으로 보고, 기설정 비율(ex 5%)미만인 경우 머리의 크기가 작은 것으로 볼 수 있다. Specifically, based on the overall size of the picture to be analyzed, if the size of the head is greater than or equal to the preset ratio (ex 5%), the size of the head is considered large, and if it is less than the preset ratio (ex 5%), the size of the head is considered small. can see.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 머리의 특징은 4등신 이상인 경우 불균형하게 큰 머리로 판단하고, 8등신 이하인 경우 작은 머리로 판단할 수 있고, 그 사이에 해당하는 경우 균형잡힌 것으로 판단할 수 있으며, 머리가 없는 경우 머리를 생략한 것으로 판단할 수 있고, 선이 가늘고 뚜렷하지 않은 경우(옅은 회색선) 흐릿하게 그린 머리로 판단할 수 있고, 누구나 알 수 있는 머리 형태가 아닌 경우 기형적인 머리로 판단할 수 있고, 목 위에 있지 않은 경우 제 위치에 있지 않은 머리로 판단할 수 있다. 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 머리의 특징을 추가적으로 머리를 가장 늦게 그린 그림, 이성상의 머리를 보다 크게 그린 그림 및 성인남자가 여성상의 머리를 크게 그린 경우를 판단할 수 있고, 상기 케이스(ex 머리가 가장 늦게 그려진 경우, 머리가 비정상적으로 크게 그려진 경우, 성인 남자가 여성상의 머리를 가진 경우 등)에 해당할 때, 프로세서(120)는 심리 상태 관련 점수를 기설정 점수보다 낮게 책정(ex 제1구역 또는 제2 구역에 해당 점수)할 수 있을 것이다.In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 determines that the head feature is a disproportionately large head if it is 4 or more heads, and a small head if it is 8 or less heads. In between, it can be judged as balanced, when there is no head, it can be judged that the head is omitted, and when the line is thin and indistinct (light gray line), it can be judged as a blurred hair. If it is not a head shape that anyone can recognize, it can be judged as a deformed head, and when it is not on the neck, it can be judged as a head that is not in position. In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 additionally adds the features of the head to the picture in which the head is drawn the latest, the picture in which the head of the opposite sex is drawn larger, and the adult male is female. It is possible to determine the case in which the large head of ) will be able to set the psychological state-related score lower than the preset score (ex the score corresponding to the first zone or the second zone).

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 머리의 특징은 크기 또는 비율이 작은 경우 (지적, 사회적, 성적) 부적절감, 무능감, 열등감의 심리 상태와 연관될 수 있다. 따라서, 프로세서(120)는 그림에서의 머리가 크나 비율이 불균형한 경우 심리 상태 관련 점수에 대해 제3 구역(ex 6점~7점)에 해당하는 점수를 부여할 수 있고, 그림에서 머리가 작고 비율이 균형잡힌 경우 심리 상태 관련 점수에 대해 제2 구역(ex 4점~5점)에 해당하는 점수를 부여할 수 있다.In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 determines that the size or ratio of the head is small (intellectual, social, sexual) of inadequacy, incompetence, and inferiority. It may be related to the state of mind. Therefore, the processor 120 may give a score corresponding to the third zone (ex 6 to 7 points) for the psychological state related score when the head is large in the picture but the proportion is unbalanced, and the head is small in the picture If the ratio is balanced, a score corresponding to the second zone (ex 4 to 5 points) can be given for the psychological state related score.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 머리의 특징이 생략된 경우, 상기 머리가 흐릿한 경우, 또는 머리가 기형적인 머리로 판단된 경우 불쾌한 생각을 제거하고 싶은 욕망, R/O 신경증, R/O 정신증의 심리 상태와 연관될 수 있다. 따라서, 프로세서(120)는 심리 상태 관련 점수에 대해 제1구역(ex 0점~3점)에 해당하는 점수를 부여할 수 있다. 특히, 그림에서 여성이라고 판단된 사람의 머리카락이 없는 것으로 판단된 경우, 프로세서(120)는 사용자의 대인관계의 문제 가능성을 고려하여 심리 상태 관련 점수에 대해 제1 구역(ex 0점~3점)에 해당하는 점수를 부여할 수 있다.In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 is unpleasant when the features of the head are omitted, when the head is blurred, or when it is determined that the head is a deformed head It can be associated with the psychological states of the desire to get rid of thoughts, R/O neurosis, and R/O psychosis. Accordingly, the processor 120 may give a score corresponding to the first zone (ex 0 to 3 points) for the psychological state related score. In particular, when it is determined that there is no hair of a person determined to be a woman in the picture, the processor 120 considers the possibility of a problem in the user's interpersonal relationship and determines the psychological state-related score in the first zone (ex 0 to 3 points). points can be awarded.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 집의 특징은 지붕 면적이 벽면의 면적보다 큰 경우 과도하게 큰 지붕으로 판단하고, 지붕이 그림 크기의 1/2 이상인 경우 지붕이 전부인 그림으로 판단하고, 지붕이 그림 크기의 1/2 미만이고 벽면의 면적보다 작은 경우 평균적인 지붕 면적에 해당하는 것으로 판단하며, 벽 내부의 지그재그선이 있는 경우 허물어지는 벽으로 판단할 수 있다. 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 집의 특징은 일차원 지붕, 지붕선 강조, 지면선 강조, 적절히 연결되지 않은 벽, 하나의 벽면만 그린 경우 등을 구분할 수 있다. In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 determines that the characteristic of the house is an excessively large roof when the roof area is larger than the wall area, and the roof is the picture size If it is more than 1/2 of the figure, it is judged as a picture with the entire roof. If the roof is less than 1/2 of the picture size and smaller than the wall area, it is judged to correspond to the average roof area. It can be judged by a falling wall. In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 shows that the characteristics of the house are a one-dimensional roof, a roof line emphasis, a ground line emphasis, a wall that is not properly connected, and only one wall is drawn. cases can be distinguished.

구체적으로, 프로세서(120)는 지붕 면적이 과도하게 큰 것으로 판단된 경우 심리 상태 관련 점수에 대해 제1 구역에 해당하는 점수를 부여할 수 있고, 지붕이 전부인 그림으로 판단된 경우 심리 상태 관련 점수에 대해 제2 구역에 해당하는 점수를 부여할 수 있으며, 평균적인 지붕 면적에 해당하나 벽면에 지그재그 선이 있는 경우 심리 상태 관련 점수에 대해 제3 구역에 해당하는 점수를 부여할 수 있고, 평균적인 지붕 면적 및 벽면이 깨끗한 경우 심리 상태 관련 점수에 대해 제4 구역에 해당하는 점수를 부여할 수 있다.Specifically, when it is determined that the roof area is excessively large, the processor 120 may give a score corresponding to the first zone for the psychological state-related score, and when it is determined that the roof is the whole picture, the psychological state-related score A score corresponding to the second zone can be given to the second zone for the If the area and wall are clean, a score corresponding to the fourth zone may be given for the score related to the psychological state.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 나무의 특징은 나무의 중심선이 폭의 2/3 왼쪽에 있는 경우 왼쪽으로 기울어진 것으로 판단하고, 나무의 중심선의 폭이 2/3 오른쪽에 있는 경우 오른쪽으로 기울어진 것으로 판단할 수 있다. 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 나무의 특징은 사과나무, 가지가 축축 늘어진 버드나무, 크리스마스 나무, 죽은 나무, 거대한 나무, 언덕 꼭대기 홀로 있는 나무, 왼쪽으로 기울어진 나무, 오른쪽으로 기울어진 나무, 열쇠구멍처럼 생긴 나무로 구분할 수 있다.In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 determines that the tree is inclined to the left when the centerline of the tree is to the left of 2/3 of the width, If the width of the center line of the tree is 2/3 to the right, it can be determined that it is inclined to the right. In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 is characterized in that the tree is an apple tree, a willow tree with drooping branches, a Christmas tree, a dead tree, a huge tree, and a hilltop. It can be distinguished as a lone tree, a tree that leans to the left, a tree that leans to the right, and a tree that looks like a keyhole.

구체적으로, 프로세서(120)는 나무의 중심선이 왼쪽 또는 오른쪽으로 기울어진 것으로 판단된 경우 심리 상태 관련 점수에 대해 제1 구역 또는 제2 구역에 해당하는 점수를 부여할 수 있고, 나무의 중심선이 기울어지지 않은 것으로 판단된 경우 심리 상태 관련 점수에 대해 제3 구역 또는 제4 구역에 해당하는 점수를 부여할 수 있다.Specifically, when it is determined that the center line of the tree is tilted to the left or right, the processor 120 may give a score corresponding to the first zone or the second zone for the psychological state related score, and the center line of the tree is tilted. If it is judged not to lose, a score corresponding to the third zone or the fourth zone may be given to the psychological state-related score.

분석 대상 그림에 사람, 집, 나무 중 적어도 2개 이상이 동시에 존재하는 경우, 프로세서(120)는 사람과 관련된 심리 상태 점수에 가장 큰 가중치를 부여하고, 다음으로 집, 나무 순으로 가중치를 부여할 수 있다. 결국, 사람과 관련된 심리 상태 점수를 x, 집과 관련된 심리 상태 점수를 y, 나무와 관련된 심리 상태 점수를 z라고 할 때, 최종 심리 상태 점수는 아래와 같은 수식에 의해 결정될 수 있다.When at least two or more of a person, a house, and a tree exist at the same time in the picture to be analyzed, the processor 120 gives the greatest weight to the psychological state score related to the person, and then assigns the weight in the order of the house and the tree. can After all, when a psychological state score related to a person is x, a mental state score related to a house is y, and a mental state score related to a tree is z, the final psychological state score may be determined by the following formula.

수식) Ax + By + Cz = 심리상태점수 (단, A > B > C이고, A, B, C는 자연수) Formula) Ax + By + Cz = Mental state score (however, A > B > C, A, B, C are natural numbers)

도 4는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 과정을 도시한 도면이다.4 is a diagram illustrating a process of providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.

도 4를 참조하면, 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법에 따른 서비스 제공 과정은 피상담자가 심리 진단을 위한 그림을 그리면 상기 그림을 분석 대상 그림으로 검사를 요청하고, 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법을 이용해 AI 기반 그림 분석을 통해 심리 진단 결과를 확인하고 상담 및 치료를 진행할 수 있다.4, in the service providing process according to the picture-based psychological examination method through deep learning according to an embodiment of the present invention, when the interviewee draws a picture for psychological diagnosis, the picture is requested as an analysis target picture, Using the picture-based psychological examination method through deep learning according to an embodiment of the invention, it is possible to confirm the psychological diagnosis result through AI-based picture analysis, and to proceed with counseling and treatment.

또한, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법의 프로세서(120)는 사람, 집, 나무 등의 주요 특징과 그 세부 특징을 인식하고, 특징에 따른 해석 결과를 확인한다. 상기 분석 대상 그림은 사람, 집, 나무 중 적어도 하나 이상을 포함하는 그림일 수 있다.In addition, the processor 120 of the picture-based psychological examination method through deep learning according to an embodiment of the present invention recognizes main features and detailed features of people, houses, trees, etc., and confirms the analysis results according to the features do. The analysis target picture may be a picture including at least one of a person, a house, and a tree.

도 5는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스를 제공하기 위한 방법을 도시한 도면이다.5 is a diagram illustrating a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 인공지능을 이용한 시스템이 논문, 구글 등을 참조해 집, 사람, 나무의 특징 등 데이터를 추출할 수 있다.Referring to FIG. 5 , as a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 is a system using artificial intelligence referring to papers, Google, etc. data can be extracted.

또한, 이를 전처리하여, 라벨링, 박싱, 좌표 등의 데이터를 추출하고, 데이터를 증식할 수 있다.In addition, by preprocessing it, data such as labeling, boxing, and coordinates can be extracted and the data can be propagated.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 Faster R-CNN을 이용하여 상기 분석 대상 그림에서, 구성 요소의 특징 및 세부 특징을 추출하고 학습할 수 있고, 데이터 증식을 통해 반복 학습 및 특징 추출로 정확도를 높이고 라벨링할 수 있다. As a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 can extract and learn the features and detailed features of the components from the analysis target picture using Faster R-CNN. And through data multiplication, iterative learning and feature extraction can increase accuracy and label.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 분석 결과를 상기 구성 요소의 특징 및 세부 특징의 키워드, 좌표값 거리 계산 및 위치 등에 기반해 진단 결과를 도출할 수 있다.In a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 analyzes the analysis results based on the keywords of the features and detailed features of the components, the coordinate value distance calculation, and the location of the diagnosis results. can be derived

도 6은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 라벨링에 대한 실시예를 도시한 도면이다.6 is a diagram illustrating an embodiment of labeling in a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 추출한 상기 구성 요소 데이터를 라벨링할 수 있다. 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 분석 대상 그림을 데이터 증강하고 반복 학습하여 상기 구성 요소 데이터를 추출하고 반복 라벨링할 수 있다. Referring to FIG. 6 , in a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 may label the extracted component data. In the picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 may augment the data for the analysis target picture and repeatedly learn to extract the component data and repeatedly label it.

구체적으로, 도 6에서 볼 수 있듯이, 프로세서(120)는 해당 그림에서 추출한 구성 요소 데이터에 대해 파일 이름, 가로, 세로 길이, 카테고리(ex 사람_눈, 사람_코, 집_벽, 집_지붕, 나무_뿌리, 나무_나뭇잎 등), 중심 좌표(ex x, y, z)를 산출하면서 라벨링할 수 있다.Specifically, as can be seen in FIG. 6 , the processor 120 determines the file name, width, length, and category (eg, person_eye, person_nose, house_wall, house_roof) for the component data extracted from the corresponding figure. , tree_root, tree_leaf, etc.) and center coordinates (ex x, y, z) can be calculated while labeling.

도 7은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 데이터 증강에 대한 실시예를 도시한 도면이고, 도 8은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 데이터 증강에 대한 다른 실시예를 도시한 도면이다.7 is a diagram illustrating an embodiment of data augmentation among a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention, and FIG. 8 is a view illustrating deep learning according to an embodiment of the present invention. It is a diagram showing another embodiment of data augmentation among the method of providing a picture-based psychological examination service through the

도 7 및 도 8을 참조하면, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법의 데이터 증강은 상기 분석 대상 그림을 반전, 회전, 자르기, 크기 변경하여 데이터를 증강할 수 있다. 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법의 데이터 증강은 상기 분석 대상 그림을 구성 요소의 특징 또는 세부 특징을 중심으로 반전, 회전, 자르기, 크기 및 비율을 변경하여 데이터를 증강할 수 있다. 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법의 데이터 증강은 상기 분석 대상 그림을 구성 요소의 특징 또는 세부 특징을 적어도 하나 이상 포함하는 부분 이미지를 생성하고, 상기 부분 이미지를 반전, 회전, 자르기, 크기 및 비율을 변경하여 데이터를 증강할 수 있다.7 and 8, the data augmentation of the picture-based psychological examination method through deep learning according to an embodiment of the present invention can augment data by inverting, rotating, cropping, and changing the size of the analysis target picture. have. Data augmentation of the picture-based psychological examination method through deep learning according to an embodiment of the present invention is data by inverting, rotating, cropping, changing the size and ratio of the analysis target picture around the characteristics or detailed characteristics of the components. can be augmented. Data augmentation of the picture-based psychological examination method through deep learning according to an embodiment of the present invention generates a partial image including at least one or more characteristics or detailed characteristics of the components of the analysis target picture, and the partial image You can augment data by flipping, rotating, cropping, changing the size and scale.

한편, CNN(Convolutional Neural Network)은 심층 신경망(DNN: Deep Neural Network)의 한 종류로, 하나 또는 여러 개의 콘볼루션 계층(convolutional layer)과 통합 계층(pooling layer), 완전하게 연결된 계층(fully connected layer)들로 구성된 신경망이다.On the other hand, CNN (Convolutional Neural Network) is a type of Deep Neural Network (DNN), and includes one or several convolutional layers, a pooling layer, and a fully connected layer. ) is a neural network composed of

상기 CNN은 2차원 데이터의 학습에 적합한 구조를 가지고 있으며, 역전달(Backpropagation algorithm)을 통해 훈련될 수 있다. 영상 내 객체 분류, 객체 탐지 등 다양한 응용 분야에 폭넓게 활용되는 DNN의 대표적 모델 중 하나이다.The CNN has a structure suitable for learning two-dimensional data, and can be trained through a backpropagation algorithm. It is one of the representative models of DNN that is widely used in various application fields such as object classification in images and object detection.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 CNN을 이용해 이미지의 특징을 추출할 수 있다. 추출한 상기 특징을 뉴럴 테트워크에 기반해 분류할 수 있다.As a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 may extract features of the image using the CNN. The extracted features may be classified based on a neural network.

도 9는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 모델링에 대한 실시예를 도시한 도면이고, 도 10은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 Faster R-CNN 기반의 모델링에 대한 실시예를 도시한 도면이다.9 is a diagram illustrating an embodiment of modeling among a method for providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention, and FIG. 10 is a view showing an embodiment of the present invention through deep learning It is a diagram showing an embodiment of Faster R-CNN-based modeling among the picture-based psychological examination service providing methods.

도 9 및 도 10를 참조하면, 중 Faster R-CNN은 RPN(Region Proposal Network)을 포함할 수 있고, RPN은 객체의 경계 상자와 객체의 존재 유무를 동시에 예측하는 FCN(Fully Convolution Network)이다. 또한 Fast R-CNN에서 강조하였던 End-to-End 방식으로 학습을 한다. 나아가 RPN과 Detection Network(Fast R-CNN detector)는 Convolution Feature를 공유하여 단일 네트워크로 결합하였다. 9 and 10 , the middle Faster R-CNN may include a Region Proposal Network (RPN), and the RPN is a Fully Convolution Network (FCN) that simultaneously predicts the presence or absence of an object's bounding box and an object. In addition, learning is carried out in the end-to-end method emphasized in Fast R-CNN. Furthermore, RPN and Detection Network (Fast R-CNN detector) shared a convolution feature and combined into a single network.

상기 Faster R-CNN은 2개의 모듈로 구성이 될 수 있다. 하나는 Region Proposal을 수행하는 Fully Convolutional Network로 구성된 Region Proposal Network이고, 하나는 앞의 과정을 거친 제안된 영역을 사용하여 객체를 detection을 하는 Fast R-CNN detector이다.The Faster R-CNN may be composed of two modules. One is a Region Proposal Network consisting of a Fully Convolutional Network that performs Region Proposal, and the other is a Fast R-CNN detector that detects objects using the proposed region that has undergone the previous process.

또한 RPN의 output과 Fast R-CNN의 결과를 합치는 과정에서 attention 메커니즘을 사용할 수 있다. attention 메커니즘이란, 딥러닝 모델이 특정 벡터에 주목하게 만들어 모델의 성능을 높이는 기법이다. 상기 RPN 모듈은 Fast R-CNN detector 모듈이 어디를 보아야 하는지 알려줄 수 있다.In addition, the attention mechanism can be used in the process of merging the output of RPN and the result of Fast R-CNN. The attention mechanism is a technique to increase the performance of the model by making the deep learning model pay attention to a specific vector. The RPN module can tell where the Fast R-CNN detector module should look.

상기 RPN은 임의의 크기의 이미지를 입력으로 받아서 Object가 그 위치에 존재하는지 존재하지 않는지에 대한 점수와 Bounding Box의 offset을 출력할 수 있다.The RPN may receive an image of an arbitrary size as an input and output a score for whether the object exists at the position or not, and an offset of the bounding box.

상기 RPN은 Convolution Layer에 의해 출력된 Feature Map을 입력으로 받을 수 있다. Region Proposal을 생성하기 위해 입력된 Feature Map 위에 n × n spatial window를 슬라이드 하는 sliding window 방식을 사용할 수 있다.The RPN may receive a feature map output by the convolution layer as an input. A sliding window method that slides an n × n spatial window on the input feature map can be used to generate a region proposal.

이 과정에서 각 Anchor마다 Region Proposal을 수행하게 되고, 결과로 원래의 Feature Map과 동일한 크기의 Feature Map이 만들어지게 된다. 이 Sliding Window를 통해서 나온 Feature는 2개의 Fully Connected Layer(1 × 1 Convolution Layer)로 입력되는데 box regression layer과 box classification layer이다.In this process, a region proposal is performed for each anchor, and as a result, a feature map of the same size as the original feature map is created. Feature output through this sliding window is input to two Fully Connected Layers (1 × 1 Convolution Layer), a box regression layer and a box classification layer.

box classification layer의 output은 W × H × k(number of anchor) × 2(number of score : object / non-object)를 얻고, box regression layer의 output은 W × H × k × 4(box offset : x, y, w, h)를 얻는다.The output of the box classification layer is W × H × k (number of anchor) × 2 (number of score: object / non-object), and the output of the box regression layer is W × H × k × 4 (box offset: x , y, w, h) are obtained.

각 sliding window에서 동시에 여러 개의 Region Proposal을 예측하게 되는데 각 위치에서 가능한 Proposal의 최대 개수(Anchor box의 개수 × 종횡비)는 k라고 한다. 따라서 regression layer는 k 개의 경계 상자의 좌표(x, y, w, h)에 해당하는 4k 개의 출력을 가지고 classification layer는 각 proposal이 객체인지 아닌지의 확률을 예측하는 2k의 출력을 가질 수 있다.Multiple region proposals are predicted at the same time in each sliding window, and the maximum number of possible proposals at each position (number of anchor boxes × aspect ratio) is called k. Therefore, the regression layer can have 4k outputs corresponding to the coordinates (x, y, w, h) of k bounding boxes, and the classification layer can have 2k outputs that predict the probability of whether each proposal is an object or not.

k 개의 Proposal은 기본적으로 미리 정해놓은 크기와 종횡비로 이루어져 있는 박스가 존재하는 데 이를 Anchor라고 부른다. 본 발명의 일 실시 예에 따르면, 3개의 크기와 3개의 종횡비를 사용하여 각 sliding 위치에 대해 9개의 Anchor를 사용할 수 있다. W × H 크기의 feature map에 대해 총 W × H × k 개의 앵커가 있게 된다.For k proposals, there is basically a box consisting of a predetermined size and aspect ratio, which is called an anchor. According to an embodiment of the present invention, nine anchors can be used for each sliding position using three sizes and three aspect ratios. For a feature map of size W × H, there are a total of W × H × k anchors.

도 11은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 모델링 과정을 도시한 도면이고, 도 12는 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 서비스 제공 방법 중 재학습 결과의 실시예를 도시한 도면이고, 도 13은 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 결과를 예시하는 도면이다.11 is a diagram illustrating a modeling process among a method of providing a picture-based psychological examination service through deep learning according to an embodiment of the present invention, and FIG. 12 is a picture-based method through deep learning according to an embodiment of the present invention. It is a diagram illustrating an embodiment of a re-learning result among a method of providing a psychological examination service, and FIG. 13 is a diagram illustrating a picture-based psychological examination result through deep learning according to an embodiment of the present invention.

도 11 내지 도 13을 참조하면, 본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 추출한 상기 구성 요소의 클래스, 크기, 비율, 상태 및 위치에 따라 진단 결과를 도출할 수 있다. 11 to 13 , in a picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 diagnoses according to the class, size, ratio, state and location of the extracted components. results can be derived.

참고로, 분석 대상 그림에서 구성 요소 데이터(ex 사람(머리), 집, 나무 등)를 추출하였고, 이에 대해 심리 상태 관련 점수를 추출할 수 있었다. 상기 추출된 심리 상태 관련 점수는 진단 결과에 포함되어 함께 도출될 수 있을 것이다.For reference, component data (ex person (head), house, tree, etc.) was extracted from the picture to be analyzed, and psychological state-related scores could be extracted from this. The extracted psychological state-related score may be included in the diagnosis result and derived together.

본 발명의 일 실시예에 따른 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 상기 분석 대상 그림에서 데이터를 증강하고 반복 학습하여 추출한 상기 구성 요소의 특징을 추출할 수 있다. 상기 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 라벨링된 데이터를 참조하여 클래스, 크기, 비율, 상태 및 위치에 따라 진단 결과를 도출할 수 있다.In the picture-based psychological examination method through deep learning according to an embodiment of the present invention, the processor 120 may extract the features of the components extracted by augmenting and repeatedly learning data from the analysis target picture. In the picture-based psychological examination method through the deep learning, the processor 120 may derive a diagnosis result according to the class, size, ratio, state and location with reference to the labeled data.

본 발명의 일 실시예에 따르면, 상기 딥러닝을 통한 그림기반의 심리검사 방법으로 프로세서(120)는 사람의 특징 및 세부 특징을 인식하고, 그 상태에 따라 심리 진단 결과를 도출할 수 있다. 예를 들어, 팔을 벌리고 있는 것을 몸통과 팔 사이의 거리에 따라 판단할 수 있고, 팔을 벌리고 있는 것은 밖으로 향한 공격성 또는 도움이나 애정을 필요로하면서 환경이나 대인 접촉에서의 요구로 연관될 수 있다. 예를 들어, 주먹진 손은 손 위치에 손가락의 특성이 추출되지 않는 경우 판단할 수 있으며, 업압된 공격성으로 연관될 수 있다. 따라서, 본 발명의 일 실시예에 따르면 팔을 벌리고 주먹을 쥐고 있으면, 내면에 주변에서 도움이나 애정을 주길 기다리며 사람들 만나는 것을 좋아하는 성향 또는 억압된 것들이 표출이 안되어 공격성으로 나타날 수 있는 건으로 연관될 수 있다.According to an embodiment of the present invention, in the picture-based psychological examination method through the deep learning, the processor 120 may recognize the characteristics and detailed characteristics of a person, and derive a psychological diagnosis result according to the state. For example, having outstretched arms can be judged by the distance between the torso and arms, and having arms outstretched can be associated with outward-facing aggression or demands in the environment or in interpersonal contact while in need of help or affection. . For example, a fisted hand may be determined when a characteristic of a finger is not extracted from a hand position, and may be associated with up-pressured aggression. Therefore, according to an embodiment of the present invention, if you open your arms and clench your fists, you can be related to the tendency to like to meet people while waiting for help or affection from the people around you or the repressed things can not be expressed and can appear as aggression. have.

진단 결과에는 애정 결핍 관련 지수, 공격성 지수 등이 포함될 수 있다. 그림상 사람의 전체 가로 길이(a)를 기준으로 어깨와 손 사이의 거리가 상기 전체 가로 길이(a)의 일정 비율 이상(15%)인 경우 팔을 벌리고 있는 것으로 판단할 수 있고, 프로세서(120)는 사용자의 애정 결핍 관련 지수가 기준 수치보다 높은 것으로 산출할 수 있다.The diagnosis result may include an affection deficit-related index, an aggression index, and the like. If the distance between the shoulder and the hand is more than a certain percentage (15%) of the total horizontal length (a) based on the overall horizontal length (a) of the person in the figure, it can be determined that the arms are spread out, and the processor 120 ) can be calculated as the user's affection deficiency-related index is higher than the reference value.

또한, 그림상 사람의 손가락이 보이지 않는 경우(손가락의 길이가 '0'인 경우), 프로세서(120)는 그림상 사람이 주먹을 쥐고 있는 것으로 보고 사용자의 공격성 지수가 기준 수치보다 높은 것으로 산출할 수 있을 것이다.In addition, if the finger of a person is not visible in the picture (if the length of the finger is '0'), the processor 120 considers that the person is clenching a fist in the picture and calculates that the user's aggression index is higher than the reference value. will be able

참고로, 본 발명의 전반적인 프로세스를 정리하면 다음과 같을 수 있다.For reference, the overall process of the present invention may be summarized as follows.

1차적으로, 프로세서(120)는 이미지를 수집하여 데이터 셋을 구축할 수 있으며, 이때 이미지는 실사 이미지 또는 그림 이미지를 모두 포함할 수 있다.First, the processor 120 may collect an image to build a data set, in which case the image may include both a live-action image or a picture image.

다음으로, 프로세서(120)는 전처리 과정으로서 이미지(그림) 상의 일부 영역에 대해 label을 정의할 수 있다. 예를 들어, 사람의 눈, 사람의 손, 집의 벽면, 나무의 줄기 등에 대해서 label을 정의할 수 있고, 세부적으로는 상태 또는 행동을 반영한 뒤로 숨긴 팔, 사라진 다리 등으로 label을 정의할 수도 있다. 이때, 상기 label 정의와 함께 심리 상태 관련 점수를 산출할 수도 있다.Next, the processor 120 may define a label for a partial area on the image (picture) as a pre-processing process. For example, a label can be defined for human eyes, a human hand, a wall of a house, a tree trunk, etc. In detail, a label can be defined with a hidden arm or a missing leg after reflecting the state or behavior. . In this case, it is also possible to calculate a psychological state-related score together with the label definition.

또한, 프로세서(120)는 상기 데이터 셋에 포함된 이미지들을 Faster R-CNN 등의 알고리즘을 통해 학습을 수행하여 label 과정 및 심리 상태 예측(심리 상태 관련 점수)의 정확도를 높일 수 있고, 학습을 반복적으로 수행함으로써 오차율을 줄일 수 있다. 이때, 학습을 반복할 때 데이터들을 augmentation(ex 상하 반전, 좌우 반전 등)하여 보다 많은 양의 데이터에 대해 학습하여 정확도를 높일 수 있다. In addition, the processor 120 may increase the accuracy of the label process and the psychological state prediction (mental state related score) by learning the images included in the data set through an algorithm such as Faster R-CNN, and repeat the learning. By doing this, the error rate can be reduced. At this time, when the learning is repeated, the data can be augmented (ex vertical inversion, left and right inversion, etc.) to learn a larger amount of data to increase the accuracy.

상기 학습이 완료된 모듈을 통해 프로세서(120)는 구성요소 데이터를 추출하고, label 작업 등을 통해 이미지로부터 사용자의 심리 상태를 진단하고, 리포트로서 진단 결과를 도출할 수 있을 것이다. 상기 리포트에는 심리 상태 관련 점수, 애정 결핍 관련 지수, 공격성 지수 등이 포함될 수 있다.Through the module on which the learning is completed, the processor 120 may extract component data, diagnose the user's psychological state from the image through label work, etc., and derive the diagnosis result as a report. The report may include a score related to a psychological state, an index related to lack of affection, an aggression index, and the like.

이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific matters such as specific components and limited embodiments and drawings, but these are provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , those of ordinary skill in the art to which the present invention pertains can devise various modifications and variations from these descriptions.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다. Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and not only the claims described below, but also all modifications equivalently or equivalently to the claims described below belong to the scope of the spirit of the present invention. will do it

100: 심리검사 서버
110: 통신부
120: 프로세서
130: 데이터베이스
200: 사용자의 단말
300: 관리자의 단말
100: psychological test server
110: communication department
120: processor
130: database
200: user's terminal
300: administrator's terminal

Claims (7)

심리검사 서버가 딥러닝을 통해 그림기반 심리검사를 수행하는 방법에 있어서,
(a) 분석 대상 그림을 획득하는 단계;
(b) 상기 분석 대상 그림에서 구성 요소 데이터를 추출하는 단계;
(c) 추출한 상기 구성 요소 데이터를 라벨링하는 단계;
(d) 상기 분석 대상 그림을 데이터 증강하고 반복 학습하여 상기 구성 요소 데이터를 추출하고 반복 라벨링하는 단계;
(e) 추출한 상기 구성 요소 데이터에 기반해 상기 분석 대상 그림에 따른 심리 진단 결과를 도출하는 단계; 및
(f) 상기 구성 요소 데이터를 이용하여 심리 상태 점수를 산출하는 단계를 포함하며,
상기 구성 요소 데이터는, 지붕, 벽, 문, 창문, 굴뚝, 진입로 중 적어도 하나의 집의 세부 특징, 주제, 기둥, 가지, 뿌리, 잎, 나무껍질 중 적어도 하나의 나무의 세부 특징, 및 머리, 얼굴, 입, 입술, 턱, 눈, 팔 중 적어도 하나의 사람의 세부 특징을 포함하고,
상기 (d) 단계는, 상기 구성 요소 데이터 중 상기 집의 세부 특징, 상기 나무의 세부 특징 및 상기 사람의 세부 특징 중 하나 이상의 세부 특징을 포함하는 부분 이미지를 생성하고, 상기 부분 이미지를 반전, 회전, 자르기, 크기의 변경 및 비율의 변경으로 상기 데이터 증강하는 단계를 더 포함하고,
상기 심리 상태 점수는 상기 사람의 세부 특징에 대한 점수, 상기 집의 세부 특징에 대한 점수, 및 상기 나무의 세부 특징에 대한 점수를 합하여 산출되고,
상기 심리 상태 점수에서, 상기 사람의 세부 특징에 대한 점수의 가중치는 상기 집의 세부 특징에 대한 점수의 가중치보다 크고,
상기 심리 상태 점수에서, 상기 집의 세부 특징에 대한 점수의 상기 가중치는 상기 나무의 세부 특징에 대한 점수의 가중치보다 큰, 딥러닝을 통한 그림기반 심리검사 방법.
In a method for a psychological test server to perform a picture-based psychological test through deep learning,
(a) obtaining a picture to be analyzed;
(b) extracting component data from the analysis target picture;
(c) labeling the extracted component data;
(d) data augmentation and repeated learning of the analysis target picture to extract the component data and repeat labeling;
(e) deriving a psychological diagnosis result according to the analysis target picture based on the extracted component data; and
(f) calculating a psychological state score using the component data,
The component data may include detailed features of at least one of a roof, a wall, a door, a window, a chimney, and a driveway, a detailed feature of a tree of at least one of a subject, a column, a branch, a root, a leaf, and a bark, and a head; contains detailed characteristics of a person of at least one of face, mouth, lips, chin, eyes, and arms;
In the step (d), a partial image including at least one of detailed characteristics of the house, detailed characteristics of the tree, and detailed characteristics of the person among the component data is generated, and the partial image is inverted and rotated , further comprising the step of augmenting the data by cropping, changing the size, and changing the ratio,
The psychological state score is calculated by summing the scores for the detailed features of the person, the scores for the detailed features of the house, and the scores for the detailed features of the tree,
In the psychological state score, the weight of the score for the detailed characteristic of the person is greater than the weight of the score for the detailed characteristic of the house,
In the psychological state score, the weight of the score for the detailed feature of the house is greater than the weight of the score for the detailed feature of the tree, a picture-based psychological test method through deep learning.
삭제delete 삭제delete 제1항에 있어서,
상기 라벨링 단계는,
파일명, 특징의 클래스, 세부 특징의 클래스, x, y 좌표의 최대 및 최소 값을 포함하여 라벨링하는 것을 특징으로 하는 딥러닝을 통한 그림기반 심리검사 방법.
According to claim 1,
The labeling step is
A picture-based psychological examination method through deep learning, characterized in that the labeling includes the file name, the class of features, the class of detailed features, and the maximum and minimum values of x and y coordinates.
제1항에 있어서,
상기 데이터 증강, 반복 학습 및 반복 라벨링 단계는,
상기 분석 대상 그림을 반전, 회전, 자르기, 크기 변경하여 데이터를 증강하는 것을 특징으로 하는 딥러닝을 통한 그림기반 심리검사 방법.
According to claim 1,
The data augmentation, iterative learning and repeating labeling steps include:
Picture-based psychological examination method through deep learning, characterized in that the data is augmented by inverting, rotating, cropping, and changing the size of the picture to be analyzed.
제5항에 있어서,
상기 데이터 증강, 반복 학습 및 반복 라벨링 단계는,
라벨링된 상기 구성 요소에 기반해 상기 분석 대상 그림에서 ROI(Region Of Interest)를 반전, 회전, 자르기, 크기 변경하여 적어도 하나 이상 추출하는 단계;
상기 ROI를 기계 학습하고, 구성 요소 데이터를 추출하는 단계; 및
상기 ROI에서 추출한 상기 구성 요소 데이터를 라벨링하는 단계;를 포함하는 딥러닝을 통한 그림기반 심리검사 방법.
6. The method of claim 5,
The data augmentation, iterative learning and repeating labeling steps include:
extracting at least one by inverting, rotating, cropping, or changing the size of an ROI (Region Of Interest) in the analysis target picture based on the labeled component;
machine learning the ROI and extracting component data; and
A picture-based psychological examination method through deep learning comprising; labeling the component data extracted from the ROI.
제1항에 있어서,
상기 심리 진단 결과 도출 단계는,
추출한 상기 구성 요소의 클래스, 크기, 비율, 상태 및 위치에 따라 진단 결과를 도출하는 것을 특징으로 하는 딥러닝을 통한 그림기반 심리검사 방법.
According to claim 1,
The psychological diagnosis result derivation step is,
A picture-based psychological examination method through deep learning, characterized in that the diagnosis results are derived according to the class, size, ratio, state and location of the extracted components.
KR1020200189919A 2020-03-09 2020-12-31 Method for psychological test based on picture using deep learning and server using the same KR102294741B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200028829 2020-03-09
KR1020200028829 2020-03-09

Publications (1)

Publication Number Publication Date
KR102294741B1 true KR102294741B1 (en) 2021-08-27

Family

ID=77504419

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200189919A KR102294741B1 (en) 2020-03-09 2020-12-31 Method for psychological test based on picture using deep learning and server using the same

Country Status (1)

Country Link
KR (1) KR102294741B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102403704B1 (en) 2021-11-11 2022-05-31 주식회사 파블로아트컴퍼니 An artificial intelligence system to provide synergistic education linked to drawing skill evaluation and art education and writing education
KR102407315B1 (en) * 2021-09-30 2022-06-13 주식회사 라온에이치씨 A parking control system based on a hybrid method of license plate and vehicle recognition and a parking control method using the same
KR102476787B1 (en) 2022-02-14 2022-12-12 주식회사 플랙스 Apparatus and method for diagnosing the mental state of a picture diary user through picture diary analysis based on artificial intelligence model
WO2023033245A1 (en) * 2021-09-03 2023-03-09 주식회사 아이스크림아트 Artificial intelligence system for providing synergistic education in which drawing skill evaluation, art education, and writing education are linked
KR20230001059U (en) * 2021-11-17 2023-05-24 (주)디자인씽킹 Educational tool Box for youth self-understanding
KR20230136274A (en) 2022-03-18 2023-09-26 주식회사 알고리마 Apparatus and method for psychological analysis of drawing using neural network
KR20230174635A (en) 2022-06-21 2023-12-28 동국대학교 산학협력단 Apparatus and method of predicting personality type using image data for psychological testing
WO2024106902A1 (en) * 2022-11-15 2024-05-23 동국대학교 산학협력단 Personality type prediction device and method using image data for psychological test

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772987B1 (en) * 2017-02-28 2017-08-31 (주)코뮤즈 Method for providing results of psychological tests using scanned image
KR20190121549A (en) * 2018-04-18 2019-10-28 한국전자통신연구원 Method and apparatus for semantic analysis and recognition of objects in image
KR102052624B1 (en) * 2018-11-09 2019-12-05 주식회사 루닛 Method for machine learning and apparatus for the same
KR20200019493A (en) * 2018-08-14 2020-02-24 에스케이텔레콤 주식회사 Object recognition apparatus and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772987B1 (en) * 2017-02-28 2017-08-31 (주)코뮤즈 Method for providing results of psychological tests using scanned image
KR20190121549A (en) * 2018-04-18 2019-10-28 한국전자통신연구원 Method and apparatus for semantic analysis and recognition of objects in image
KR20200019493A (en) * 2018-08-14 2020-02-24 에스케이텔레콤 주식회사 Object recognition apparatus and control method thereof
KR102052624B1 (en) * 2018-11-09 2019-12-05 주식회사 루닛 Method for machine learning and apparatus for the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023033245A1 (en) * 2021-09-03 2023-03-09 주식회사 아이스크림아트 Artificial intelligence system for providing synergistic education in which drawing skill evaluation, art education, and writing education are linked
KR102407315B1 (en) * 2021-09-30 2022-06-13 주식회사 라온에이치씨 A parking control system based on a hybrid method of license plate and vehicle recognition and a parking control method using the same
KR102403704B1 (en) 2021-11-11 2022-05-31 주식회사 파블로아트컴퍼니 An artificial intelligence system to provide synergistic education linked to drawing skill evaluation and art education and writing education
KR102423852B1 (en) 2021-11-11 2022-07-22 주식회사 파블로아트컴퍼니 A system for evaluating drawing skills to provide customized art education curriculum based on an artificial intelligence model
KR102423853B1 (en) 2021-11-11 2022-07-22 주식회사 파블로아트컴퍼니 An artificial intelligence system that improves the user's expressive ability by supplementing the lack of expression in the user's document through feedback from the user
KR20230001059U (en) * 2021-11-17 2023-05-24 (주)디자인씽킹 Educational tool Box for youth self-understanding
KR200497034Y1 (en) 2021-11-17 2023-07-10 (주)디자인씽킹 Educational tool Box for youth self-understanding
KR102476787B1 (en) 2022-02-14 2022-12-12 주식회사 플랙스 Apparatus and method for diagnosing the mental state of a picture diary user through picture diary analysis based on artificial intelligence model
KR20230136274A (en) 2022-03-18 2023-09-26 주식회사 알고리마 Apparatus and method for psychological analysis of drawing using neural network
KR20230174635A (en) 2022-06-21 2023-12-28 동국대학교 산학협력단 Apparatus and method of predicting personality type using image data for psychological testing
WO2024106902A1 (en) * 2022-11-15 2024-05-23 동국대학교 산학협력단 Personality type prediction device and method using image data for psychological test

Similar Documents

Publication Publication Date Title
KR102294741B1 (en) Method for psychological test based on picture using deep learning and server using the same
CN112784764B (en) Expression recognition method and system based on local and global attention mechanism
EP3757905A1 (en) Deep neural network training method and apparatus
WO2021227726A1 (en) Methods and apparatuses for training face detection and image detection neural networks, and device
US9639746B2 (en) Systems and methods of detecting body movements using globally generated multi-dimensional gesture data
CN113362382A (en) Three-dimensional reconstruction method and three-dimensional reconstruction device
CN112800903B (en) Dynamic expression recognition method and system based on space-time diagram convolutional neural network
Khaire et al. Deep learning and RGB-D based human action, human–human and human–object interaction recognition: A survey
CN110110602A (en) A kind of dynamic sign Language Recognition Method based on three-dimensional residual error neural network and video sequence
CN116051574A (en) Semi-supervised segmentation model construction and image analysis method, device and system
WO2021190433A1 (en) Method and device for updating object recognition model
CN113378770A (en) Gesture recognition method, device, equipment, storage medium and program product
CN106548194A (en) The construction method and localization method of two dimensional image human joint pointses location model
Li et al. Graph diffusion convolutional network for skeleton based semantic recognition of two-person actions
Ansar et al. Robust hand gesture tracking and recognition for healthcare via Recurent neural network
Liao et al. FERGCN: facial expression recognition based on graph convolution network
CN113076905B (en) Emotion recognition method based on context interaction relation
CN117033609B (en) Text visual question-answering method, device, computer equipment and storage medium
Pang et al. Dance video motion recognition based on computer vision and image processing
Rizk et al. Cross-subject activity detection for covid-19 infection avoidance based on automatically annotated imu data
Xiaolong Simulation analysis of athletes’ motion recognition based on deep learning method and convolution algorithm
CN116469147A (en) Facial expression migration method and device, electronic equipment and storage medium
CN113568983B (en) Scene graph generation method and device, computer readable medium and electronic equipment
CN113761975B (en) Human skeleton action recognition method based on multi-mode feature fusion
Li et al. [Retracted] Human Sports Action and Ideological and PoliticalEvaluation by Lightweight Deep Learning Model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant