KR20240003779A - Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen - Google Patents

Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen Download PDF

Info

Publication number
KR20240003779A
KR20240003779A KR1020220081112A KR20220081112A KR20240003779A KR 20240003779 A KR20240003779 A KR 20240003779A KR 1020220081112 A KR1020220081112 A KR 1020220081112A KR 20220081112 A KR20220081112 A KR 20220081112A KR 20240003779 A KR20240003779 A KR 20240003779A
Authority
KR
South Korea
Prior art keywords
input
ann
acceleration
layer
handwriting recognition
Prior art date
Application number
KR1020220081112A
Other languages
Korean (ko)
Inventor
이은승
김현수
Original Assignee
주식회사 다비다
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다비다 filed Critical 주식회사 다비다
Priority to KR1020220081112A priority Critical patent/KR20240003779A/en
Publication of KR20240003779A publication Critical patent/KR20240003779A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • G06V30/18019Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
    • G06V30/18038Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
    • G06V30/18048Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
    • G06V30/18057Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Character Discrimination (AREA)

Abstract

필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 방법 및 장치를 개시한다.
본 실시예는 전자펜의 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor)를 포함하는 IMU(Inertial Measurement Unit) 센서와 OID(Optical Identification) 센서를 이용하여 획득한 값을 ANN(Artificial Neural Network)에 대입하여 출력한 결과를 기반으로 필기 위해 입력한 획을 분류하도록 하는 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 방법 및 장치를 제공한다.
Disclosed is a real-time stroke analysis method and device using machine learning for a writing pen.
In this embodiment, the values obtained using the IMU (Inertial Measurement Unit) sensor including the acceleration sensor and gyro sensor of the electronic pen and the OID (Optical Identification) sensor are used as ANN (Artificial Neural Network). Provides a real-time stroke analysis method and device using machine learning for a writing pen that classifies the strokes input for writing based on the results output by substituting into.

Description

필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 방법 및 장치{Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen}Real-time stroke analysis method and device using machine learning for writing pen {Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen}

본 발명의 일 실시예는 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 방법 및 장치에 관한 것이다. One embodiment of the present invention relates to a real-time stroke analysis method and device using machine learning for a writing pen.

이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The content described below simply provides background information related to this embodiment and does not constitute prior art.

일반적으로 컴퓨터 또는 이동통신 단말기 등의 전자 기기들은 문자 입력을 위하여 문자와 자판을 매칭하는 자판 입력 방식을 제공한다. 그러나 터치 패드 등과 같은 입력 장치들이 등장함에 따라 사용자가 직접 문자를 써서 입력하는 필기형 입력 방식이 제안되고 있다.In general, electronic devices such as computers or mobile communication terminals provide a keyboard input method that matches letters and keyboards for character input. However, with the advent of input devices such as touch pads, a handwriting-type input method in which users input characters by writing them directly is being proposed.

필기형 입력 방식은 터치 패드와 같은 입력 장치를 이용하여 사용자가 직접 필기를 하고 이를 필기인식 장치가 인식함으로써 문자를 입력하는 방식이다.The handwriting input method is a method in which the user directly writes handwriting using an input device such as a touch pad and a handwriting recognition device recognizes it to input characters.

일반적인 필기형 입력 방식은 문자를 펜과 같은 도구나 손으로 필기하면 필기인식 장치가 입력된 필기와 가장 근접하다 판단되는 문자를 입력된 문자로 인식하게 된다. 필기를 입력하는 사람마다 글씨체가 조금씩 차이가 있기 때문에 필기인식 장치가 입력된 필기를 사용자의 의도와 다른 문자로 인식하는 경우가 많다.In the general handwriting input method, when characters are written with a tool such as a pen or by hand, the handwriting recognition device recognizes the character that is determined to be closest to the input handwriting as the entered character. Because each person who inputs handwriting has a slightly different handwriting, handwriting recognition devices often recognize the input handwriting as characters different from the user's intent.

최근에는 필기인식 장치가 사용자가 의도한 단어를 정확하게 인식하기 위하여 필기인식 장치는 최초 인식된 단어와 유사한 단어를 추천하여, 추천된 유사한 단어에서 의도한 단어를 찾는 방법으로 필기인식률을 높이고 있다.Recently, in order for handwriting recognition devices to accurately recognize the word intended by the user, the handwriting recognition device recommends words similar to the initially recognized word, and is increasing the handwriting recognition rate by finding the intended word from the recommended similar words.

전술한 방법은 사용자가 필기한 필기와 유사한 단어를 추천하는 방식이 아니라, 필기인식 장치가 사용자의 필기를 인식한 단어와 유사한 단어를 추천하는 방식을 취하고 있어 필기인식 장치가 실질적으로 사용자의 의사에 부합하는 단어를 찾지 못하는 문제가 있다.The above-mentioned method does not recommend words similar to the user's handwriting, but rather recommends words similar to words that the handwriting recognition device recognizes as the user's handwriting, so the handwriting recognition device effectively determines the user's intention. There is a problem of not being able to find a matching word.

따라서, 필기펜을 이용한 단어를 정확하게 인식하기 위해 머신 러닝을 이용한 실시간 획을 분석하는 기술을 필요로 한다.Therefore, in order to accurately recognize words using a writing pen, real-time stroke analysis technology using machine learning is needed.

본 실시예는 전자펜의 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor)를 포함하는 IMU(Inertial Measurement Unit) 센서와 OID(Optical Identification) 센서를 이용하여 획득한 값을 ANN(Artificial Neural Network)에 대입하여 출력한 결과를 기반으로 필기 위해 입력한 획을 분류하도록 하는 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 방법 및 장치를 제공하는 데 목적이 있다.In this embodiment, the values obtained using an IMU (Inertial Measurement Unit) sensor including an acceleration sensor and a gyro sensor of an electronic pen and an OID (Optical Identification) sensor are used as an ANN (Artificial Neural Network). The purpose is to provide a real-time stroke analysis method and device using machine learning for a writing pen that classifies the strokes input for writing based on the output results.

본 실시예의 일 측면에 의하면, 필기 인식 개선 장치에서 전자펜으로부터 가속도 a(), 각속도 ω()를 획득한 후 상기 가속도 a(), 상기 각속도 ω()를 기반으로 한 매개변수를 제1 ANN(Artificial Neural Network)에 입력하는 과정; 상기 제1 ANN에서 상기 가속도 a(), 상기 각속도 ω()를 기반으로 한 매개변수를 학습한 제1 학습 결과를 출력하는 과정; 상기 필기 인식 개선 장치에서 상기 전자펜으로부터 좌표값(OID 2D position p (x, y))을 획득하여 제2 ANN에 입력하는 과정; 상기 제2 ANN에서 상기 가속도 a(), 상기 각속도 ω()를 기반으로 한 매개변수, 상기 좌표값(OID 2D position p (x, y))를 학습한 제2 학습 결과를 출력하는 과정; 상기 필기 인식 개선 장치에서 상기 제1 학습 결과와 상기 제2 학습 결과를 기반으로 상기 전자펜에서 입력한 필기를 인식하여 획(Stroke)을 분류하는 과정;을 포함하는 것을 특징으로 하는 실시간 획 분석 방법을 제공한다.According to one aspect of this embodiment, in the handwriting recognition improvement device, acceleration a ( ), angular velocity ω( ) After obtaining the acceleration a ( ), the angular velocity ω( ) A process of inputting parameters based on a first ANN (Artificial Neural Network); In the first ANN, the acceleration a ( ), the angular velocity ω( ) A process of outputting a first learning result of learning parameters based on ; A process of obtaining coordinate values (OID 2D position p (x, y)) from the electronic pen in the handwriting recognition improvement device and inputting them into a second ANN; In the second ANN, the acceleration a ( ), the angular velocity ω( A process of outputting a second learning result by learning a parameter based on ) and the coordinate value (OID 2D position p (x, y)); A real-time stroke analysis method comprising: recognizing handwriting input from the electronic pen and classifying strokes in the handwriting recognition improvement device based on the first learning result and the second learning result. provides.

이상에서 설명한 바와 같이 본 실시예에 의하면, 전자펜의 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor)를 포함하는 IMU(Inertial Measurement Unit) 센서와 OID(Optical Identification) 센서를 이용하여 획득한 값을 ANN(Artificial Neural Network)에 대입하여 출력한 결과를 기반으로 필기 위해 입력한 획을 분류할 수 있는 효과가 있다.As described above, according to this embodiment, values obtained using an IMU (Inertial Measurement Unit) sensor including an acceleration sensor and a gyro sensor of the electronic pen and an OID (Optical Identification) sensor It has the effect of being able to classify strokes input for writing based on the results output by substituting them into ANN (Artificial Neural Network).

본 실시예에 의하면, 전자펜의 필기를 인식하여 악필을 인식하거나 인식률이 떨어지는 글자를 보정할 수 있는 효과가 있다.According to this embodiment, there is an effect of recognizing bad handwriting or correcting letters with a low recognition rate by recognizing handwriting using an electronic pen.

도 1은 본 실시예에 따른 전자펜의 구성을 나타낸 도면이다.
도 2는 본 실시예에 따른 전자펜의 동작을 나타낸 도면이다.
도 3은 본 실시예에 따른 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 시스템을 나타낸 도면이다.
도 4는 본 실시예에 따른 ANN을 이용한 획 분류 방법을 설명하기 위한 도면이다.
도 5는 본 실시예에 따른 필기 인식 결과를 반영한 획 분류 방법을 설명하기 위한 도면이다.
1 is a diagram showing the configuration of an electronic pen according to this embodiment.
Figure 2 is a diagram showing the operation of the electronic pen according to this embodiment.
Figure 3 is a diagram showing a real-time stroke analysis system using machine learning for a writing pen according to this embodiment.
Figure 4 is a diagram for explaining a stroke classification method using ANN according to this embodiment.
Figure 5 is a diagram for explaining a stroke classification method reflecting handwriting recognition results according to this embodiment.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, this embodiment will be described in detail with reference to the attached drawings.

도 1은 본 실시예에 따른 전자펜의 구성을 나타낸 도면이다.1 is a diagram showing the configuration of an electronic pen according to this embodiment.

본 실시예에 따른 전자펜(110)은 IMU 센서(120), 자이로 센서(112), 가속도 센서(114), OID 센서(116)를 포함한다. 전자펜(110)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The electronic pen 110 according to this embodiment includes an IMU sensor 120, a gyro sensor 112, an acceleration sensor 114, and an OID sensor 116. Components included in the electronic pen 110 are not necessarily limited to this.

전자펜(110)은 USB 전원으로 내부에 구비된 배터리를 충전한다. 전자펜(110)은 블루투스(Bluetooth)를 이용하여 외부 장치와 통신한다.The electronic pen 110 charges the battery provided inside with USB power. The electronic pen 110 communicates with an external device using Bluetooth.

IMU 센서(120)는 자이로 센서(112)와 가속도 센서(114)를 포함하는 개념이다. IMU 센서(120)는 관성측정유닛 센서로서, 자이로 3축, 가속도 3축을 포함하는 6축 센서를 의미한다.The IMU sensor 120 is a concept that includes a gyro sensor 112 and an acceleration sensor 114. The IMU sensor 120 is an inertial measurement unit sensor and refers to a 6-axis sensor including 3 axes of gyro and 3 axes of acceleration.

자이로 센서(112)는 필기를 위해 펜대의 끝단이 움직일 때 끝단의 회전속도인 각속도를 센싱하여 각속도 측정값을 생성한다. 자이로 센서(112)는 필기시 끌기의 곡선 운동, 회전운동, ‘S’자, ‘ㄹ’자 등을 작성할때의 각속도를 센싱한다.The gyro sensor 112 generates an angular velocity measurement value by sensing the angular velocity, which is the rotational speed of the tip of the pen when the tip moves for writing. The gyro sensor 112 senses the curved movement of dragging, rotational movement, and angular speed when writing the letter ‘S’ or ‘ㄹ’ when writing.

가속도 센서(114)는 펜의 끝단에 구비되는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. 가속도 센서(114)는 3축 가속도 센서를 포함한다. 가속도 센서(114)는 필기를 위해 펜대의 중심이 피벗 방향(Pivot orientation)으로 움직이는 가속도를 센싱하여 가속도 측정값을 생성한다. 가속도 센서(114)는 필기시 직선에서의 선운동을 센싱한다.The acceleration sensor 114 is preferably provided at the tip of the pen, but is not necessarily limited thereto. Acceleration sensor 114 includes a three-axis acceleration sensor. The acceleration sensor 114 generates an acceleration measurement value by sensing the acceleration of the center of the pen moving in the pivot orientation for writing. The acceleration sensor 114 senses linear movement in a straight line when writing.

OID 센서(116)는 펜촉에 구비된다. OID 센서(116)는 필기를 위해 펜촉이 움직임이면 종이에 포함된 점과 선데이터에 대한 좌표를 인식한다.The OID sensor 116 is provided on the pen tip. The OID sensor 116 recognizes the coordinates of points and line data included in the paper when the pen tip moves for writing.

도 2는 본 실시예에 따른 전자펜의 동작을 나타낸 도면이다.Figure 2 is a diagram showing the operation of the electronic pen according to this embodiment.

전자펜(110)은 필기시 IMU 센서(120)를 이용하여 필시 펜의 움직임, 이동방향, 속도를 센싱한다. 전자펜(110)은 필기시 OID 센서(116)를 이용하여 펜촉이 움직임이면 종이에 씌여지는 점과 선 데이터에 대한 좌표를 인식한다. 전자펜(110)은 IMU 센서(120)를 이용하여 센싱한 값과 OID 센서(116)를 이용하여 센싱한값을 기반으로 필기를 인식한다.The electronic pen 110 uses the IMU sensor 120 to sense the movement, direction, and speed of the pen when writing. When writing, the electronic pen 110 uses the OID sensor 116 to recognize the coordinates of point and line data written on paper when the pen tip moves. The electronic pen 110 recognizes handwriting based on the value sensed using the IMU sensor 120 and the value sensed using the OID sensor 116.

도 3은 본 실시예에 따른 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 시스템을 나타낸 도면이다.Figure 3 is a diagram showing a real-time stroke analysis system using machine learning for a writing pen according to this embodiment.

본 실시예에 따른 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 시스템은 전자펜(110), 필기 인식 개선 장치(320), 제1 ANN(332), 제2 ANN(334)을 포함한다. 필기펜을 위한 머신 러닝을 이용한 실시간 획 분석 시스템에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The real-time stroke analysis system using machine learning for a writing pen according to this embodiment includes an electronic pen 110, a handwriting recognition improvement device 320, a first ANN 332, and a second ANN 334. The components included in the real-time stroke analysis system using machine learning for writing pens are not necessarily limited to this.

전자펜(110)은 필기 인식 개선 장치(320)와 통신을 수행한다. 전자펜(110)은 가속도 센서(114)를 이용하여 획득한 가속도 a()를 필기 인식 개선 장치(320)로 전송한다. 전자펜(110)은 자이로 센서(112)를 이용하여 획득한 각속도 ω()를 필기 인식 개선 장치(320)로 전송한다. 전자펜(110)은 OID 센서(116)를 이용하여 획득한 좌표값(OID 2D position p (x, y))를 필기 인식 개선 장치(320)로 전송한다.The electronic pen 110 communicates with the handwriting recognition improvement device 320. The electronic pen 110 obtains acceleration a ( ) is transmitted to the handwriting recognition improvement device 320. The electronic pen 110 has an angular velocity ω ( ) is transmitted to the handwriting recognition improvement device 320. The electronic pen 110 transmits the coordinate value (OID 2D position p (x, y)) obtained using the OID sensor 116 to the handwriting recognition improvement device 320.

필기 인식 개선 장치(320)는 하드웨어적으로 통상적인 웹서버(Web Server) 또는 네트워크 서버와 동일한 하드웨어 모듈을 포함한다. 필기 인식 개선 장치(320)는 웹서버 또는 네트워크 서버의 형태로 구현될 수 있다.The handwriting recognition improvement device 320 includes the same hardware module as a typical web server or network server. The handwriting recognition improvement device 320 may be implemented in the form of a web server or network server.

필기 인식 개선 장치(320)는 일반적으로 인터넷과 같은 개방형 컴퓨터 네트워크를 경유하여 불특정 다수 클라이언트 또는 다른 서버와 통신한다. 필기 인식 개선 장치(320)는 클라이언트 또는 다른 웹서버의 작업수행 요청에 대응하는 작업 결과를 도출하여 제공하는 컴퓨터 시스템, 컴퓨터 소프트웨어(웹서버 프로그램)를 의미한다.The handwriting recognition improvement device 320 generally communicates with an unspecified number of clients or other servers via an open computer network such as the Internet. The handwriting recognition improvement device 320 refers to a computer system and computer software (web server program) that derives and provides work results corresponding to work performance requests from a client or other web server.

필기 인식 개선 장치(320)는 필기시 전자펜(110)에 구비된 가속도 센서(Acceleration Sensor)(114)를 이용하여 가속도 값을 획득한다. 필기 인식 개선 장치(320)는 필기시 전자펜(110)에 구비된 OID(Optical Identification) 센서(116)를 이용하여 좌표값(x,y)을 획득한다. 필기 인식 개선 장치(320)는 필기시 전자펜(110)에 구비된 자이로 센서(112)를 이용하여 각속도 측정값을 획득한다.The handwriting recognition improvement device 320 obtains an acceleration value using the acceleration sensor 114 provided in the electronic pen 110 when writing. The handwriting recognition improvement device 320 acquires coordinate values (x, y) using the OID (Optical Identification) sensor 116 provided in the electronic pen 110 when writing. The handwriting recognition improvement device 320 obtains an angular velocity measurement value using the gyro sensor 112 provided in the electronic pen 110 when writing.

필기 인식 개선 장치(320)는 가속도 센서(114)로부터 취득한 가속도(acceleration) 값을 적분하여 속도(velocity) 정보를 산출한다. 필기 인식 개선 장치(320)는 속도 정보를 적분하여 거리(distance) 정보를 산출한다.The handwriting recognition improvement device 320 calculates velocity information by integrating the acceleration value obtained from the acceleration sensor 114. The handwriting recognition improvement device 320 integrates the speed information to calculate distance information.

필기 인식 개선 장치(320)는 가속도 정보에 대해 FFT(Fast Fourier Transform)을 수행하여 가속도 파워 스펙트럼(Power spectrum of acceleration) 값을 산출한다. 필기 인식 개선 장치(320)는 자이로 센서(112)로부터 획득한 각속도 측정값에 대해 FFT(Fast Fourier Transform)을 수행하여 각속도 파워 스펙트럼(Power spectrum of angular velocity) 값을 산출한다. 필기 인식 개선 장치(320)는 가속도값으로부터 산출한 파워 스펙트럼, 좌표값(x,y), 각속도 측정값으로부터 산출한 파워 스펙트럼을 ANN(Artificial Neural Network)에 대입하여 출력 결과를 필기시 입력한 획으로 분류한다.The handwriting recognition improvement device 320 performs FFT (Fast Fourier Transform) on the acceleration information to calculate a power spectrum of acceleration value. The handwriting recognition improvement device 320 performs FFT (Fast Fourier Transform) on the angular velocity measurement value obtained from the gyro sensor 112 to calculate a power spectrum of angular velocity. The handwriting recognition improvement device 320 substitutes the power spectrum calculated from the acceleration value, the coordinate value (x, y), and the power spectrum calculated from the angular velocity measurement value into ANN (Artificial Neural Network) and outputs the output result as the stroke input when writing. Classify as

필기 인식 개선 장치(320)는 전자펜(110)으로부터 가속도 a(), 각속도 ω()를 획득한다. 필기 인식 개선 장치(320)는 가속도 a(), 각속도 ω()를 기반으로 한 매개변수를 제1 ANN(Artificial Neural Network)에 입력한다.The handwriting recognition improvement device 320 receives acceleration a ( ), angular velocity ω( ) to obtain. The handwriting recognition improvement device 320 has acceleration a ( ), angular velocity ω( ) is input to the first ANN (Artificial Neural Network).

필기 인식 개선 장치(320)는 가속도 a()를 적분하여 속도 v()를 산출한다. 필기 인식 개선 장치(320)는 속도 v()를 적분하여 거리 d(x,y,z)를 산출한다.The handwriting recognition improvement device 320 has acceleration a ( ) by integrating the velocity v( ) is calculated. The handwriting recognition improvement device 320 has a speed v( ) is integrated to calculate the distance d(x,y,z).

필기 인식 개선 장치(320)는 가속도 a()를 적응적 4차 룽게-쿠다 방법(Adaptive Runge-Kutta 4th order method)으로 속도 v()(velocity v())를 산출한다.The handwriting recognition improvement device 320 has acceleration a ( ) to the velocity v( )(velocity v( )) is calculated.

필기 인식 개선 장치(320)는 가속도 a()를 제1 입력으로 제1 ANN(332)의 입력층으로 입력한다. 필기 인식 개선 장치(320)는 속도 v()를 제2 입력으로 제1 ANN(332)의 입력층으로 입력한다. 필기 인식 개선 장치(320)는 거리 d(x,y,z)를 제3 입력으로 제1 ANN(332)의 입력층으로 입력한다. 필기 인식 개선 장치(320)는 각속도 ω()를 제4 입력으로 제1 ANN(332)의 입력층으로 입력한다.The handwriting recognition improvement device 320 has acceleration a ( ) is input to the input layer of the first ANN (332) as the first input. The handwriting recognition improvement device 320 has a speed v( ) is input to the input layer of the first ANN (332) as the second input. The handwriting recognition improvement device 320 inputs the distance d(x,y,z) as the third input to the input layer of the first ANN 332. The handwriting recognition improvement device 320 has an angular velocity ω ( ) is input to the input layer of the first ANN (332) as the fourth input.

필기 인식 개선 장치(320)는 전자펜(110)으로부터 좌표값(OID 2D position p (x, y))을 획득한다. 필기 인식 개선 장치(320)는 좌표값(OID 2D position p (x, y))을 제2 ANN(334)으로 입력한다.The handwriting recognition improvement device 320 obtains coordinate values (OID 2D position p (x, y)) from the electronic pen 110. The handwriting recognition improvement device 320 inputs coordinate values (OID 2D position p (x, y)) into the second ANN 334.

필기 인식 개선 장치(320)는 각속도 ω()에 FFT(Fast Fourier Transform)를 수행하여 각속도 파워 스펙트럼()을 산출한다. 필기 인식 개선 장치(320)는 가속도 a()에 FFT를 수행하여 가속도 파워 스펙트럼()을 산출한다.The handwriting recognition improvement device 320 has an angular velocity ω ( ) by performing FFT (Fast Fourier Transform) on the angular velocity power spectrum ( ) is calculated. The handwriting recognition improvement device 320 has acceleration a ( ) by performing an FFT on the acceleration power spectrum ( ) is calculated.

필기 인식 개선 장치(320)는 각속도 파워 스펙트럼()을 제1 입력으로 제2 ANN(334)의 입력층에 입력한다. 필기 인식 개선 장치(320)는 가속도 파워 스펙트럼()을 제2 입력으로 제2 ANN(334)의 입력층에 입력한다. 필기 인식 개선 장치(320)는 좌표값(OID 2D position p (x, y))을 제3 입력으로 제2 ANN(334)의 입력층에 입력한다.The handwriting recognition improvement device 320 is an angular velocity power spectrum ( ) is input to the input layer of the second ANN 334 as the first input. The handwriting recognition improvement device 320 is an acceleration power spectrum ( ) is input to the input layer of the second ANN (334) as the second input. The handwriting recognition improvement device 320 inputs the coordinate value (OID 2D position p (x, y)) as a third input to the input layer of the second ANN 334.

필기 인식 개선 장치(320)는 AI 모델을 이용하여 좌표값(OID 2D position p (x, y))을 기반으로 애플리케이션을 위한 크로스 플랫폼 API를 이용하여 필기를 인식한 필기 인식 결과를 생성한다. 필기 인식 개선 장치(320)는 필기 인식 결과를 제1 ANN(332) 및 제2 ANN(334)로 입력한다.The handwriting recognition improvement device 320 uses an AI model to recognize handwriting using a cross-platform API for applications based on coordinate values (OID 2D position p (x, y)) and generates a handwriting recognition result. The handwriting recognition improvement device 320 inputs the handwriting recognition results to the first ANN 332 and the second ANN 334.

필기 인식 개선 장치(320)는 제1 ANN(332)의 제1 학습 결과와 제2 ANN(334)의 제2 학습 결과를 기반으로 전자펜(110)에서 입력한 필기를 인식하여 획(Stroke)을 분류한다.The handwriting recognition improvement device 320 recognizes the handwriting input from the electronic pen 110 based on the first learning result of the first ANN 332 and the second learning result of the second ANN 334 and creates a stroke. Classify.

제1 ANN(332)는 시계열적으로 로우 데이터를 분류한다.The first ANN 332 classifies raw data in a time series manner.

제1 ANN(332)은 가속도 a(), 각속도 ω()를 기반으로 한 매개변수를 학습한 제1 학습 결과를 출력한다.The first ANN 332 has acceleration a ( ), angular velocity ω( ) outputs the first learning result of learning parameters based on

제1 ANN(332)은 필기 인식 개선 장치(320)로부터 입력된 가속도 a(), 속도 v(), 거리 d(x,y,z), 각속도 ω()를 학습한 제1 학습 결과를 출력한다.The first ANN 332 calculates the acceleration a ( ), speed v( ), distance d(x,y,z), angular velocity ω( ) outputs the first learning result of learning.

제1 ANN(332)의 입력층에서 가속도 a(), 상기 속도 v(), 거리 d(x,y,z), 각속도 ω() 각각에 대한 특징맵을 가지는 레이어로 저장한다. 제1 ANN(332)의 하나 이상의 은닉층에서 가속도 a(), 속도 v(), 거리 d(x,y,z), 각속도 ω() 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 특징맵으로부터 특징을 학습한다. 제1 ANN(332)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득할 때, 분류하고자 하는 각 GRF(Ground Reaction Force), CoP(Center of Pressure), CR(Center of Rotation)별 출력을 확률값으로 매핑한 제1 학습 결과를 생성한다.In the input layer of the first ANN 332, the acceleration a ( ), the speed v( ), distance d(x,y,z), angular velocity ω( ) Save it as a layer with a feature map for each. Acceleration a ( ), speed v( ), distance d(x,y,z), angular velocity ω( ) Use each to obtain the feature map of the layer located in the upper layer, and then learn the features from the feature map. When the output layer of the first ANN (332) obtains a classification result using the features extracted from the hidden layer, the output layer for each GRF (Ground Reaction Force), CoP (Center of Pressure), and CR (Center of Rotation) to be classified Generate a first learning result that maps to a probability value.

제1 ANN(332)은 필기 인식 개선 장치(320)로부터 필기 인식 결과를 입력받으면, 가속도 a(), 속도 v(), 거리 d(x,y,z), 각속도 ω(), 필기 인식 결과를 학습한 제1 학습 결과를 출력한다.When the first ANN 332 receives the handwriting recognition result from the handwriting recognition improvement device 320, the first ANN 332 receives the acceleration a ( ), speed v( ), distance d(x,y,z), angular velocity ω( ), the first learning result obtained by learning the handwriting recognition result is output.

제1 ANN(332)의 입력층은 필기 인식 개선 장치(320)로부터 필기 인식 결과를 입력받으면, 가속도 a(), 속도 v(), 거리 d(x,y,z), 각속도 ω(), 필기 인식 결과 각각에 대한 특징맵을 가지는 레이어로 저장한다. 제1 ANN(332)의 하나 이상의 은닉층은 가속도 a(), 속도 v(), 거리 d(x,y,z), 각속도 ω(), 필기 인식 결과 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 특징맵으로부터 특징을 학습한다. 제1 ANN(332)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득할 때, 분류하고자 하는 각 GRF(Ground Reaction Force), CoP(Center of Pressure), CR(Center of Rotation)별 출력을 확률값으로 매핑하여 제1 학습 결과를 생성한다.When the input layer of the first ANN 332 receives the handwriting recognition result from the handwriting recognition improvement device 320, the acceleration a ( ), speed v( ), distance d(x,y,z), angular velocity ω( ), and save it as a layer with a feature map for each handwriting recognition result. One or more hidden layers of the first ANN 332 have acceleration a ( ), speed v( ), distance d(x,y,z), angular velocity ω( ), each handwriting recognition result is used to obtain the feature map of the layer located in the upper layer, and then the features are learned from the feature map. When the output layer of the first ANN (332) obtains a classification result using the features extracted from the hidden layer, the output layer for each GRF (Ground Reaction Force), CoP (Center of Pressure), and CR (Center of Rotation) to be classified The first learning result is generated by mapping to a probability value.

제2 ANN(334)는 필기 시 전자펜(110)의 반복 동작 분류한다. 제2 ANN(334)는 전자펜(110)에 대해 시간 경과에 따른 신호의 주파수 및 전력 스펙트럼 추출을 추출한다.The second ANN 334 classifies repetitive movements of the electronic pen 110 when writing. The second ANN 334 extracts the frequency and power spectrum of the signal over time for the electronic pen 110.

제2 ANN(334)은 가속도 a(), 각속도 ω()를 기반으로 한 매개변수, 좌표값(OID 2D position p (x, y))를 학습한 제2 학습 결과를 출력한다.The second ANN 334 has acceleration a ( ), angular velocity ω( ) and output the second learning result of learning the coordinate values (OID 2D position p (x, y)) based on .

제2 ANN(334)은 필기 인식 개선 장치(320)로부터 입력된 각속도 파워 스펙트럼(), 가속도 파워 스펙트럼(), 좌표값(OID 2D position p (x, y))를 학습한 제2 학습 결과를 출력한다.The second ANN 334 is an angular velocity power spectrum input from the handwriting recognition improvement device 320 ( ), acceleration power spectrum ( ), the second learning result of learning the coordinate values (OID 2D position p (x, y)) is output.

제2 ANN(334)의 입력층은 각속도 파워 스펙트럼(), 가속도 파워 스펙트럼(), 좌표값(OID 2D position p (x, y)) 각각에 대한 특징맵을 가지는 레이어로 저장한다. 제2 ANN(334)의 하나 이상의 은닉층은 각속도 파워 스펙트럼(), 가속도 파워 스펙트럼(), 좌표값(OID 2D position p (x, y)) 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 특징맵으로부터 특징을 학습한다. 제2 ANN(334)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득할 때, 분류하고자 하는 각 RF(Repetitive Frequency), PC(Power Spectrum Characteristics)별 출력을 확률값으로 매핑한 제2 학습 결과를 생성한다.The input layer of the second ANN 334 is the angular velocity power spectrum ( ), acceleration power spectrum ( ), and store it as a layer with a feature map for each coordinate value (OID 2D position p (x, y)). One or more hidden layers of the second ANN 334 include the angular velocity power spectrum ( ), acceleration power spectrum ( ), coordinate values (OID 2D position p (x, y)) are used to obtain the feature map of the layer located in the upper layer, and then the features are learned from the feature map. When the output layer of the second ANN (334) obtains a classification result using the features extracted from the hidden layer, the output for each RF (Repetitive Frequency) and PC (Power Spectrum Characteristics) to be classified is mapped to a probability value. generate results.

제2 ANN(334)은 필기 인식 개선 장치(320)로부터 필기 인식 결과를 입력받으면, 각속도 파워 스펙트럼(), 가속도 파워 스펙트럼(), 좌표값(OID 2D position p (x, y)), 필기 인식 결과를 학습한 제2 학습 결과를 출력한다.When the second ANN 334 receives the handwriting recognition result from the handwriting recognition improvement device 320, the angular velocity power spectrum ( ), acceleration power spectrum ( ), a coordinate value (OID 2D position p (x, y)), and a second learning result obtained by learning the handwriting recognition result are output.

제2 ANN(334)의 입력층은 필기 인식 개선 장치(320)로부터 필기 인식 결과를 입력받으면, 각속도 파워 스펙트럼(), 가속도 파워 스펙트럼(), 좌표값(OID 2D position p (x, y)), 필기 인식 결과 각각에 대한 특징맵을 가지는 레이어로 저장한다. 제2 ANN(334)의 하나 이상의 은닉층은 각속도 파워 스펙트럼(), 가속도 파워 스펙트럼(), 좌표값(OID 2D position p (x, y)), 필기 인식 결과 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 특징맵으로부터 특징을 학습한다. 제2 ANN(334)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득할 때, 분류하고자 하는 각 RF(Repetitive Frequency), PC(Power Spectrum Characteristics)별 출력을 확률값으로 매핑하여 제2 학습 결과를 생성한다.When the input layer of the second ANN 334 receives the handwriting recognition result from the handwriting recognition improvement device 320, the angular velocity power spectrum ( ), acceleration power spectrum ( ), coordinate values (OID 2D position p (x, y)), and handwriting recognition results are stored as a layer with feature maps for each. One or more hidden layers of the second ANN 334 include the angular velocity power spectrum ( ), acceleration power spectrum ( ), coordinate values (OID 2D position p (x, y)), and handwriting recognition results are used to obtain the feature map of the layer located in the upper layer, and then learn the features from the feature map. When the output layer of the second ANN (334) obtains a classification result using the features extracted from the hidden layer, the output for each RF (Repetitive Frequency) and PC (Power Spectrum Characteristics) to be classified is mapped to probability values for second learning. generate results.

도 4는 본 실시예에 따른 ANN을 이용한 획 분류 방법을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a stroke classification method using ANN according to this embodiment.

전자펜(110)이 필기를 위해 동작한다. 전자펜(110)은 필기를 위해 움직이면 가속도 센서(114)를 이용하여 가속도 a()(acceleration a())를 획득한다. 전자펜(110)은 필기를 위해 움직이면, 자이로 센서(112)를 이용하여 각속도 ω()(angular velocity ω())를 획득한다. 전자펜(110)은 필기를 위해 움직이면, OID 센서(116)를 이용하여 좌표값(OID 2D position p (x, y))을 획득한다.The electronic pen 110 operates for writing. When the electronic pen 110 moves for writing, it uses the acceleration sensor 114 to detect acceleration a ( )(acceleration a( ))). When the electronic pen 110 moves for writing, the angular velocity ω( )(angular velocity ω( ))). When the electronic pen 110 moves for writing, it acquires coordinate values (OID 2D position p (x, y)) using the OID sensor 116.

전자펜(110)은 필기를 위해 움직이면 가속도 센서(114)를 이용하여 가속도 a()(acceleration a())를 획득한다. 필기 인식 개선 장치(320)는 전자펜(110)으로부터 가속도 a()를 획득한다. 필기 인식 개선 장치(320)는 가속도 a()를 제1 입력으로 제1 ANN(332)의 입력층에 입력한다.When the electronic pen 110 moves for writing, it uses the acceleration sensor 114 to detect acceleration a ( )(acceleration a( ))). The handwriting recognition improvement device 320 receives acceleration a ( ) to obtain. The handwriting recognition improvement device 320 has acceleration a ( ) is input to the input layer of the first ANN (332) as the first input.

필기 인식 개선 장치(320)는 가속도 a()를 적응적 4차 룽게-쿠다 방법(Adaptive Runge-Kutta 4th order method)에 적용하여 속도 v()(velocity v())를 산출한다. 다시 말해, 필기 인식 개선 장치(320)는 가속도 a()를 적분하여 속도 v()를 산출한다. 전자펜(110)은 속도 v()를 제1 ANN(332)의 제2 입력으로 입력한다.The handwriting recognition improvement device 320 has acceleration a ( ) is applied to the adaptive Runge-Kutta 4th order method to obtain the velocity v( )(velocity v( )) is calculated. In other words, the handwriting recognition improvement device 320 increases the acceleration a ( ) by integrating the velocity v( ) is calculated. The electronic pen 110 has a speed v ( ) is input as the second input of the first ANN (332).

필기 인식 개선 장치(320)는 속도 v()를 적응적 4차 룽게-쿠다 방법(Adaptive Runge-Kutta 4th order method)에 적용하여 거리 d(x,y,z)(distance d (x,y,z))를 산출한다. 다시 말해, 필기 인식 개선 장치(320)는 속도 v()를 적분하여 거리 d(x,y,z)를 산출한다. 필기 인식 개선 장치(320)는 거리 d(x,y,z)를 제1 ANN(332)의 제3 입력으로 입력한다.The handwriting recognition improvement device 320 has a speed v( ) is applied to the Adaptive Runge-Kutta 4th order method to calculate the distance d (x,y,z). In other words, the handwriting recognition improvement device 320 has a speed v ( ) is integrated to calculate the distance d(x,y,z). The handwriting recognition improvement device 320 inputs the distance d(x,y,z) as the third input of the first ANN 332.

전자펜(110)은 필기를 위해 움직이면, 자이로 센서(112)를 이용하여 각속도 ω()(angular velocity ω())를 획득한다. When the electronic pen 110 moves for writing, the angular velocity ω( )(angular velocity ω( ))).

필기 인식 개선 장치(320)는 전자펜(110)으로부터 각속도 ω()를 획득한다. 필기 인식 개선 장치(320)는 각속도 ω()를 제1 ANN(332)의 제4 입력으로 입력한다.The handwriting recognition improvement device 320 receives an angular velocity ω( ) to obtain. The handwriting recognition improvement device 320 has an angular velocity ω ( ) is input as the fourth input of the first ANN (332).

제1 ANN(332)은 입력층, 하나 이상의 은닉층, 출력층을 포함한다.The first ANN 332 includes an input layer, one or more hidden layers, and an output layer.

제1 ANN(332)의 입력층은 가속도 a()(제1 입력), 속도 v()(제2 입력), 거리 d(x,y,z)(제3 입력), 각속도 ω()(제4 입력)을 입력받는다. 제1 ANN(332)의 입력층은 가속도 a()(제1 입력), 속도 v()(제2 입력), 거리 d(x,y,z)(제3 입력), 각속도 ω()(제4 입력) 각각에 대한 특징맵을 가지는 레이어로 저장한다.The input layer of the first ANN 332 has acceleration a ( )(first input), speed v( )(second input), distance d(x,y,z)(third input), angular velocity ω( ) (fourth input) is input. The input layer of the first ANN 332 has acceleration a ( )(first input), speed v( )(second input), distance d(x,y,z)(third input), angular velocity ω( ) (Fourth input) Save as a layer with a feature map for each.

제1 ANN(332)의 하나 이상의 은닉층은 가속도 a()(제1 입력), 속도 v()(제2 입력), 거리 d(x,y,z)(제3 입력), 각속도 ω()(제4 입력) 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한다. 제1 ANN(332)의 은닉층은 획득한 특징맵으로부터 특징을 학습한다.One or more hidden layers of the first ANN 332 have acceleration a ( )(first input), speed v( )(second input), distance d(x,y,z)(third input), angular velocity ω( ) (fourth input) to obtain the feature map of the layer located in the upper layer. The hidden layer of the first ANN 332 learns features from the obtained feature map.

제1 ANN(332)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 GRF(Ground Reaction Force), CoP(Center of Pressure), CR(Center of Rotation)별 출력을 확률값으로 매핑한다.The output layer of the first ANN (332) obtains classification results using the features extracted from the hidden layer, and outputs each GRF (Ground Reaction Force), CoP (Center of Pressure), and CR (Center of Rotation) to be classified. Map to probability value.

필기 인식 개선 장치(320)는 각속도 ω()에 FFT를 수행하여 각속도 파워 스펙트럼()(Power spectrum of angular velocity v())을 산출한다. 필기 인식 개선 장치(320)는 각속도 파워 스펙트럼()을 제2 ANN(334)의 제1 입력으로 입력한다.The handwriting recognition improvement device 320 has an angular velocity ω ( ) by performing an FFT on the angular velocity power spectrum ( )(Power spectrum of angular velocity v( )) is calculated. The handwriting recognition improvement device 320 is an angular velocity power spectrum ( ) is input as the first input of the second ANN (334).

필기 인식 개선 장치(320)는 가속도 a()에 FFT를 수행하여 가속도 파워 스펙트럼()(Power spectrum of acceleration a())을 산출한다. 필기 인식 개선 장치(320)는 가속도 파워 스펙트럼()을 제2 ANN(334)의 제2 입력으로 입력한다.The handwriting recognition improvement device 320 has acceleration a ( ) by performing an FFT on the acceleration power spectrum ( )(Power spectrum of acceleration a( )) is calculated. The handwriting recognition improvement device 320 is an acceleration power spectrum ( ) is input as the second input of the second ANN (334).

전자펜(110)은 필기를 위해 움직이면, OID 센서(116)를 이용하여 좌표값(OID 2D position p (x, y))을 획득한다. 필기 인식 개선 장치(320)는 전자펜(110)으로부터 좌표값(OID 2D position p (x, y))를 획득한다. 필기 인식 개선 장치(320)는 좌표값(OID 2D position p (x, y))을 제2 ANN(334)의 제3 입력으로 입력한다.When the electronic pen 110 moves for writing, it acquires coordinate values (OID 2D position p (x, y)) using the OID sensor 116. The handwriting recognition improvement device 320 obtains coordinate values (OID 2D position p (x, y)) from the electronic pen 110. The handwriting recognition improvement device 320 inputs the coordinate value (OID 2D position p (x, y)) as the third input of the second ANN 334.

제2 ANN(334)은 입력층, 하나 이상의 은닉층, 출력층을 포함한다.The second ANN 334 includes an input layer, one or more hidden layers, and an output layer.

제2 ANN(334)의 입력층은 각속도 파워 스펙트럼()(제1 입력), 가속도 파워 스펙트럼()(제2 입력), 좌표값(OID 2D position p (x, y))(제3 입력)을 입력받는다. 제2 ANN(334)의 입력층은 각속도 파워 스펙트럼()(제1 입력), 가속도 파워 스펙트럼()(제2 입력), 좌표값(OID 2D position p (x, y))(제3 입력) 각각에 대한 특징맵을 가지는 레이어로 저장한다.The input layer of the second ANN 334 is the angular velocity power spectrum ( ) (first input), acceleration power spectrum ( ) (second input), coordinate values (OID 2D position p (x, y)) (third input) are input. The input layer of the second ANN 334 is the angular velocity power spectrum ( ) (first input), acceleration power spectrum ( ) (second input), and coordinate values (OID 2D position p (x, y)) (third input) are stored as layers with feature maps for each.

제2 ANN(334)의 하나 이상의 은닉층은 각속도 파워 스펙트럼()(제1 입력), 가속도 파워 스펙트럼()(제2 입력), 좌표값(OID 2D position p (x, y))(제3 입력) 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한다. 은닉층은 획득한 특징맵으로부터 특징을 학습한다.One or more hidden layers of the second ANN 334 include the angular velocity power spectrum ( ) (first input), acceleration power spectrum ( ) (second input) and coordinate values (OID 2D position p (x, y)) (third input) are used to obtain the feature map of the layer located in the upper layer. The hidden layer learns features from the obtained feature maps.

제2 ANN(334)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 RF(Repetitive Frequency), PC(Power Spectrum Characteristics)별 출력을 확률값으로 매핑한다.The output layer of the second ANN 334 obtains classification results using the features extracted from the hidden layer, and maps the output for each RF (Repetitive Frequency) and PC (Power Spectrum Characteristics) to be classified into probability values.

도 5는 본 실시예에 따른 필기 인식 결과를 반영한 획 분류 방법을 설명하기 위한 도면이다.Figure 5 is a diagram for explaining a stroke classification method reflecting handwriting recognition results according to this embodiment.

전자펜(110)이 필기를 위해 동작한다. 전자펜(110)은 필기를 위해 움직이면 가속도 센서(114)를 이용하여 가속도 a()(acceleration a())를 획득한다. 전자펜(110)은 필기를 위해 움직이면, 자이로 센서(112)를 이용하여 각속도 ω()(angular velocity ω())를 획득한다. 전자펜(110)은 필기를 위해 움직이면, OID 센서(116)를 이용하여 좌표값(OID 2D position p (x, y))을 획득한다.The electronic pen 110 operates for writing. When the electronic pen 110 moves for writing, it uses the acceleration sensor 114 to detect acceleration a ( )(acceleration a( ))). When the electronic pen 110 moves for writing, the angular velocity ω( )(angular velocity ω( ))). When the electronic pen 110 moves for writing, it acquires coordinate values (OID 2D position p (x, y)) using the OID sensor 116.

전자펜(110)은 필기를 위해 움직이면 가속도 센서(114)를 이용하여 가속도 a()(acceleration a())를 획득한다. 필기 인식 개선 장치(320)는 전자펜(110)으로부터 가속도 a()를 획득한다(S510). 전자펜(110)은 필기를 위해 움직이면, 자이로 센서(112)를 이용하여 각속도 ω()(angular velocity ω())를 획득한다. 필기 인식 개선 장치(320)는 전자펜(110)으로부터 각속도 ω()를 획득한다(S510).When the electronic pen 110 moves for writing, it uses the acceleration sensor 114 to detect acceleration a ( )(acceleration a( ))). The handwriting recognition improvement device 320 receives acceleration a ( ) obtain (S510). When the electronic pen 110 moves for writing, the angular velocity ω( )(angular velocity ω( ))). The handwriting recognition improvement device 320 receives an angular velocity ω( ) obtain (S510).

필기 인식 개선 장치(320)는 가속도 a()를 제1 입력으로 제1 ANN(332)의 입력층에 입력한다(S512).The handwriting recognition improvement device 320 has acceleration a ( ) is input to the input layer of the first ANN 332 as the first input (S512).

필기 인식 개선 장치(320)는 가속도 a()를 적분하여 속도 v()를 산출한다. 다시 말해, 필기 인식 개선 장치(320)는 가속도 a()를 적응적 4차 룽게-쿠다 방법(Adaptive Runge-Kutta 4th order method)에 적용하여 속도 v()(velocity v())를 산출한다(S514). The handwriting recognition improvement device 320 has acceleration a ( ) by integrating the velocity v( ) is calculated. In other words, the handwriting recognition improvement device 320 increases the acceleration a ( ) is applied to the adaptive Runge-Kutta 4th order method to obtain the velocity v( )(velocity v( )) is calculated (S514).

필기 인식 개선 장치(320)는 속도 v()를 적분하여 거리 d(x,y,z)를 산출한다. 다시 말해, 필기 인식 개선 장치(320)는 속도 v()를 적응적 4차 룽게-쿠다 방법(Adaptive Runge-Kutta 4th order method)에 적용하여 거리 d(x,y,z)(distance d (x,y,z))를 산출한다(S514). The handwriting recognition improvement device 320 has a speed v( ) is integrated to calculate the distance d(x,y,z). In other words, the handwriting recognition improvement device 320 has a speed v ( ) is applied to the adaptive Runge-Kutta 4th order method to calculate the distance d (x,y,z) (S514).

단계 S514에서, 필기 인식 개선 장치(320)는 [수학식1]를 이용하여 가속도 a()를 기반으로 속도 v()와 거리 d(x,y,z)를 산출한다.In step S514, the handwriting recognition improvement device 320 uses [Equation 1] to determine acceleration a ( ) based on speed v( ) and the distance d(x,y,z).

필기 인식 개선 장치(320)는 속도 v()를 제2 입력으로 제1 ANN(332)의 입력층에 입력한다(S516). 필기 인식 개선 장치(320)는 거리 d(x,y,z)를 제1 ANN(332)의 제3 입력으로 입력한다(S518). 필기 인식 개선 장치(320)는 각속도 ω()를 제1 ANN(332)의 제4 입력으로 입력한다(S530).The handwriting recognition improvement device 320 has a speed v( ) is input to the input layer of the first ANN 332 as the second input (S516). The handwriting recognition improvement device 320 inputs the distance d(x,y,z) as the third input to the first ANN 332 (S518). The handwriting recognition improvement device 320 has an angular velocity ω ( ) is input as the fourth input of the first ANN (332) (S530).

제1 ANN(332)은 입력층, 하나 이상의 은닉층, 출력층을 포함한다.The first ANN 332 includes an input layer, one or more hidden layers, and an output layer.

제1 ANN(332)의 입력층은 가속도 a()(제1 입력), 속도 v()(제2 입력), 거리 d(x,y,z)(제3 입력), 각속도 ω()(제4 입력), 필기 인식 결과(제5 입력)를 입력받는다. 제1 ANN(332)의 입력층은 가속도 a()(제1 입력), 속도 v()(제2 입력), 거리 d(x,y,z)(제3 입력), 각속도 ω()(제4 입력), 필기 인식 결과(제5 입력) 각각에 대한 특징맵을 가지는 레이어로 저장한다.The input layer of the first ANN 332 has acceleration a ( )(first input), speed v( )(second input), distance d(x,y,z)(third input), angular velocity ω( ) (fourth input), the handwriting recognition result (fifth input) is input. The input layer of the first ANN 332 has acceleration a ( )(first input), speed v( )(second input), distance d(x,y,z)(third input), angular velocity ω( ) (fourth input), and the handwriting recognition result (fifth input) are stored as layers with feature maps for each.

제1 ANN(332)의 하나 이상의 은닉층은 가속도 a()(제1 입력), 속도 v()(제2 입력), 거리 d(x,y,z)(제3 입력), 각속도 ω()(제4 입력), 필기 인식 결과(제5 입력) 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한다. 제1 ANN(332)의 은닉층은 획득한 특징맵으로부터 특징을 학습한다.One or more hidden layers of the first ANN 332 have acceleration a ( )(first input), speed v( )(second input), distance d(x,y,z)(third input), angular velocity ω( ) (fourth input) and the handwriting recognition result (fifth input) are used to obtain the feature map of the layer located in the upper layer. The hidden layer of the first ANN 332 learns features from the obtained feature map.

제1 ANN(332)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 GRF(Ground Reaction Force), CoP(Center of Pressure), CR(Center of Rotation)별 출력을 확률값으로 매핑한다(S530).The output layer of the first ANN (332) obtains classification results using the features extracted from the hidden layer, and outputs each GRF (Ground Reaction Force), CoP (Center of Pressure), and CR (Center of Rotation) to be classified. Map to probability value (S530).

필기 인식 개선 장치(320)는 각속도 ω()에 FFT를 수행하여 각속도 파워 스펙트럼()(Power spectrum of angular velocity v())을 산출한다. 필기 인식 개선 장치(320)는 각속도 파워 스펙트럼()을 제2 ANN(334)의 제1 입력으로 입력한다(S540). 필기 인식 개선 장치(320)는 가속도 a()에 FFT를 수행하여 가속도 파워 스펙트럼()(Power spectrum of acceleration a())을 산출한다. 필기 인식 개선 장치(320)는 가속도 파워 스펙트럼()을 제2 ANN(334)의 제2 입력으로 입력한다(S540).The handwriting recognition improvement device 320 has an angular velocity ω ( ) by performing an FFT on the angular velocity power spectrum ( )(Power spectrum of angular velocity v( )) is calculated. The handwriting recognition improvement device 320 is an angular velocity power spectrum ( ) is input as the first input of the second ANN 334 (S540). The handwriting recognition improvement device 320 has acceleration a ( ) by performing an FFT on the acceleration power spectrum ( )(Power spectrum of acceleration a( )) is calculated. The handwriting recognition improvement device 320 is an acceleration power spectrum ( ) is input as the second input of the second ANN (334) (S540).

필기 인식 개선 장치(320)는 단계 S540에서, 필기시 전자펜(110)의 반복 동작을 분석한다. 다시 말해, 필기 인식 개선 장치(320)는 시간 경과에 따른 신호의 주파수 및 전력 스펙트럼을 추출한다.In step S540, the handwriting recognition improvement device 320 analyzes repetitive movements of the electronic pen 110 when writing. In other words, the handwriting recognition improvement device 320 extracts the frequency and power spectrum of the signal over time.

전자펜(110)은 필기를 위해 움직이면, OID 센서(116)를 이용하여 좌표값(OID 2D position p (x, y))을 획득한다. 필기 인식 개선 장치(320)는 전자펜(110)으로부터 좌표값(OID 2D position p (x, y))를 획득한다. 필기 인식 개선 장치(320)는 좌표값(OID 2D position p (x, y))을 제2 ANN(334)의 제3 입력으로 입력한다(S550).When the electronic pen 110 moves for writing, it acquires coordinate values (OID 2D position p (x, y)) using the OID sensor 116. The handwriting recognition improvement device 320 obtains coordinate values (OID 2D position p (x, y)) from the electronic pen 110. The handwriting recognition improvement device 320 inputs the coordinate value (OID 2D position p (x, y)) as the third input of the second ANN 334 (S550).

필기 인식 개선 장치(320)는 AI 모델을 이용하여 좌표값(OID 2D position p (x, y))을 기반으로 애플리케이션을 위한 크로스 플랫폼 API를 이용하여 필기를 인식한 필기 인식 결과를 생성한다(S560).The handwriting recognition improvement device 320 uses an AI model to recognize handwriting using a cross-platform API for applications based on coordinate values (OID 2D position p (x, y)) and generates a handwriting recognition result (S560 ).

필기 인식 개선 장치(320)는 필기 인식 결과를 제1 ANN(332)의 제5 입력 및 제2 ANN(334)의 제4 입력으로 입력 가능하다.The handwriting recognition improvement device 320 can input the handwriting recognition result as the fifth input of the first ANN 332 and the fourth input of the second ANN 334.

제2 ANN(334)은 입력층, 하나 이상의 은닉층, 출력층을 포함한다.The second ANN 334 includes an input layer, one or more hidden layers, and an output layer.

제2 ANN(334)의 입력층은 각속도 파워 스펙트럼()(제1 입력), 가속도 파워 스펙트럼()(제2 입력), 좌표값(OID 2D position p (x, y))(제3 입력), 필기 인식 결과(제4 입력)를 입력받는다. 제2 ANN(334)의 입력층은 각속도 파워 스펙트럼()(제1 입력), 가속도 파워 스펙트럼()(제2 입력), 좌표값(OID 2D position p (x, y))(제3 입력), 필기 인식 결과(제4 입력) 각각에 대한 특징맵을 가지는 레이어로 저장한다.The input layer of the second ANN 334 is the angular velocity power spectrum ( ) (first input), acceleration power spectrum ( ) (second input), coordinate value (OID 2D position p (x, y)) (third input), and handwriting recognition result (fourth input) are input. The input layer of the second ANN 334 is the angular velocity power spectrum ( ) (first input), acceleration power spectrum ( ) (second input), coordinate value (OID 2D position p (x, y)) (third input), and handwriting recognition result (fourth input) are stored as layers with feature maps for each.

제2 ANN(334)의 하나 이상의 은닉층은 각속도 파워 스펙트럼()(제1 입력), 가속도 파워 스펙트럼()(제2 입력), 좌표값(OID 2D position p (x, y))(제3 입력), 필기 인식 결과(제4 입력) 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한다. 제2 ANN(334)의 은닉층은 획득한 특징맵으로부터 특징을 학습한다.One or more hidden layers of the second ANN 334 include the angular velocity power spectrum ( ) (first input), acceleration power spectrum ( ) (second input), coordinate values (OID 2D position p (x, y)) (third input), and handwriting recognition results (fourth input) are used to obtain the feature map of the layer located in the upper layer. The hidden layer of the second ANN 334 learns features from the obtained feature map.

제2 ANN(334)의 출력층은 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 RF(Repetitive Frequency), PC(Power Spectrum Characteristics)별 출력을 확률값으로 매핑한다(S570).The output layer of the second ANN (334) obtains classification results using the features extracted from the hidden layer, and maps the output for each RF (Repetitive Frequency) and PC (Power Spectrum Characteristics) to be classified into probability values (S570).

필기 인식 개선 장치(320)는 단계 S530의 결과 단계 S570의 결과를 기반으로 필기를 인식하여 획을 분류한다.The handwriting recognition improvement device 320 recognizes handwriting and classifies strokes based on the result of step S530 and the result of step S570.

필기 인식 개선 장치(320)는 단계 S530와 단계 S570를 반복 수행한 결과 머신러닝 모델(ML Model)의 튜닝의 완료 여부를 확인한다(S580).The handwriting recognition improvement device 320 checks whether tuning of the machine learning model (ML Model) is complete as a result of repeatedly performing steps S530 and S570 (S580).

도 5에서는 단계 S510 내지 단계 S580을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 5에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 5는 시계열적인 순서로 한정되는 것은 아니다.In Figure 5, steps S510 to S580 are described as being sequentially executed, but this is not necessarily limited. In other words, the steps shown in FIG. 5 may be applied by modifying them or executing one or more steps in parallel, so FIG. 5 is not limited to a time-series order.

전술한 바와 같이 도 5에 기재된 본 실시예에 따른 필기 인식 결과를 반영한 획 분류 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 필기 인식 결과를 반영한 획 분류 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. As described above, the stroke classification method reflecting the handwriting recognition results according to this embodiment shown in FIG. 5 may be implemented as a program and recorded on a computer-readable recording medium. A computer-readable recording medium on which a program for implementing a stroke classification method reflecting the handwriting recognition results according to this embodiment is recorded includes all types of recording devices that store data that can be read by a computer system.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

110: 전자펜
320: 필기 인식 개선 장치
110: Electronic pen
320: Handwriting recognition improvement device

Claims (15)

필기 인식 개선 장치에서 전자펜으로부터 가속도 a(), 각속도 ω()를 획득한 후 상기 가속도 a(), 상기 각속도 ω()를 기반으로 한 매개변수를 제1 ANN(Artificial Neural Network)에 입력하는 과정;
상기 제1 ANN에서 상기 가속도 a(), 상기 각속도 ω()를 기반으로 한 매개변수를 학습한 제1 학습 결과를 출력하는 과정;
상기 필기 인식 개선 장치에서 상기 전자펜으로부터 좌표값(OID 2D position p (x, y))을 획득하여 제2 ANN에 입력하는 과정;
상기 제2 ANN에서 상기 가속도 a(), 상기 각속도 ω()를 기반으로 한 매개변수, 상기 좌표값(OID 2D position p (x, y))를 학습한 제2 학습 결과를 출력하는 과정;
상기 필기 인식 개선 장치에서 상기 제1 학습 결과와 상기 제2 학습 결과를 기반으로 상기 전자펜에서 입력한 필기를 인식하여 획(Stroke)을 분류하는 과정;
을 포함하는 것을 특징으로 하는 실시간 획 분석 방법.
In the handwriting recognition improvement device, acceleration a ( ), angular velocity ω( ) After obtaining the acceleration a ( ), the angular velocity ω( ) A process of inputting parameters based on a first ANN (Artificial Neural Network);
In the first ANN, the acceleration a ( ), the angular velocity ω( ) A process of outputting a first learning result of learning parameters based on ;
A process of obtaining coordinate values (OID 2D position p (x, y)) from the electronic pen in the handwriting recognition improvement device and inputting them into a second ANN;
In the second ANN, the acceleration a ( ), the angular velocity ω( A process of outputting a second learning result by learning a parameter based on ) and the coordinate value (OID 2D position p (x, y));
A process of recognizing handwriting input from the electronic pen and classifying strokes in the handwriting recognition improvement device based on the first learning result and the second learning result;
A real-time stroke analysis method comprising:
제1항에 있어서,
상기 필기 인식 개선 장치에서
상기 가속도 a()를 적분하여 속도 v()를 산출하고, 상기 속도 v()를 적분하여 거리 d(x,y,z)를 산출하는 것을 특징으로 하는 특징으로 하는 실시간 획 분석 방법.
According to paragraph 1,
In the handwriting recognition improvement device
The acceleration a ( ) by integrating the velocity v( ) is calculated, and the speed v ( A real-time stroke analysis method characterized by calculating the distance d(x,y,z) by integrating ).
제2항에 있어서,
상기 필기 인식 개선 장치에서
상기 가속도 a()를 적응적 4차 룽게-쿠다 방법(Adaptive Runge-Kutta 4th order method)으로 상기 속도 v()(velocity v())를 산출하는 것을 특징으로 하는 실시간 획 분석 방법.
According to paragraph 2,
In the handwriting recognition improvement device
The acceleration a ( ) to the velocity v ( )(velocity v( )) A real-time stroke analysis method characterized by calculating.
제2항에 있어서,
상기 필기 인식 개선 장치에서
상기 가속도 a()를 제1 입력으로 상기 제1 ANN의 입력층으로 입력하고,
상기 속도 v()를 제2 입력으로 상기 제1 ANN의 입력층으로 입력하고,
상기 거리 d(x,y,z)를 제3 입력으로 상기 제1 ANN의 입력층으로 입력하고,
상기 각속도 ω()를 제4 입력으로 상기 제1 ANN의 입력층으로 입력하는 것을 특징으로 하는 실시간 획 분석 방법.
According to paragraph 2,
In the handwriting recognition improvement device
The acceleration a ( ) is input as the first input to the input layer of the first ANN,
The speed v( ) is input as a second input to the input layer of the first ANN,
Input the distance d(x,y,z) as a third input to the input layer of the first ANN,
The angular velocity ω( ) is input as a fourth input to the input layer of the first ANN.
제4항에 있어서,
상기 제1 ANN에서
상기 가속도 a(), 상기 속도 v(), 상기 거리 d(x,y,z), 상기 각속도 ω()를 학습한 상기 제1 학습 결과를 출력하는 것을 특징으로 하는 실시간 획 분석 방법.
According to paragraph 4,
In the first ANN
The acceleration a ( ), the speed v( ), the distance d(x,y,z), the angular velocity ω( ) A real-time stroke analysis method characterized in that the first learning result is output.
제5항에 있어서,
상기 제1 ANN의 상기 입력층에서 가속도 a(), 상기 속도 v(), 상기 거리 d(x,y,z), 상기 각속도 ω() 각각에 대한 특징맵을 가지는 레이어로 저장하고,
상기 제1 ANN의 하나 이상의 은닉층에서 상기 가속도 a(), 상기 속도 v(), 상기 거리 d(x,y,z), 상기 각속도 ω() 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 상기 특징맵으로부터 특징을 학습하며
상기 제1 ANN의 출력층에서 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 GRF(Ground Reaction Force), CoP(Center of Pressure), CR(Center of Rotation)별 출력을 확률값으로 매핑한 상기 제1 학습 결과를 생성하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 5,
Acceleration a ( ), the speed v( ), the distance d(x,y,z), the angular velocity ω( ) Save it as a layer with a feature map for each,
The acceleration a ( ), the speed v( ), the distance d(x,y,z), the angular velocity ω( ) Use each to obtain the feature map of the layer located in the upper layer, and then learn the features from the feature map.
In the output layer of the first ANN, a classification result is obtained using the features extracted from the hidden layer, and the output for each GRF (Ground Reaction Force), CoP (Center of Pressure), and CR (Center of Rotation) to be classified is converted into a probability value. A real-time stroke analysis method characterized by generating the mapped first learning result.
제1항에 있어서,
상기 필기 인식 개선 장치에서
상기 각속도 ω()에 FFT(Fast Fourier Transform)를 수행하여 각속도 파워 스펙트럼()을 산출하고, 상기 가속도 a()에 FFT를 수행하여 가속도 파워 스펙트럼()을 산출하는 것을 특징으로 하는 실시간 획 분석 방법.
According to paragraph 1,
In the handwriting recognition improvement device
The angular velocity ω( ) by performing FFT (Fast Fourier Transform) on the angular velocity power spectrum ( ) is calculated, and the acceleration a ( ) by performing an FFT on the acceleration power spectrum ( ) A real-time stroke analysis method characterized by calculating.
제7항에 있어서,
상기 필기 인식 개선 장치에서
상기 각속도 파워 스펙트럼()을 제1 입력으로 상기 제2 ANN의 입력층에 입력하고, 상기 가속도 파워 스펙트럼()을 제2 입력으로 상기 제2 ANN의 입력층에 입력하고, 상기 좌표값(OID 2D position p (x, y))을 제3 입력으로 상기 제2 ANN의 입력층에 입력하는 것을 특징으로 하는 실시간 획 분석 방법.
In clause 7,
In the handwriting recognition improvement device
The angular velocity power spectrum ( ) is input to the input layer of the second ANN as the first input, and the acceleration power spectrum ( ) is input to the input layer of the second ANN as a second input, and the coordinate value (OID 2D position p (x, y)) is input to the input layer of the second ANN as a third input. Real-time stroke analysis method.
제8항에 있어서,
상기 제2 ANN에서
상기 각속도 파워 스펙트럼(), 상기 가속도 파워 스펙트럼(), 상기 좌표값(OID 2D position p (x, y))를 학습한 제2 학습 결과를 출력하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 8,
In the second ANN
The angular velocity power spectrum ( ), the acceleration power spectrum ( ), a real-time stroke analysis method characterized by outputting a second learning result by learning the coordinate value (OID 2D position p (x, y)).
제9항에 있어서,
상기 제2 ANN의 상기 입력층에서 상기 각속도 파워 스펙트럼(), 상기 가속도 파워 스펙트럼(), 상기 좌표값(OID 2D position p (x, y)) 각각에 대한 특징맵을 가지는 레이어로 저장하고,
상기 제2 ANN의 하나 이상의 은닉층에서 상기 각속도 파워 스펙트럼(), 상기 가속도 파워 스펙트럼(), 상기 좌표값(OID 2D position p (x, y)) 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 상기 특징맵으로부터 특징을 학습하고,
상기 제2 ANN의 출력층에서 상기 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 RF(Repetitive Frequency), PC(Power Spectrum Characteristics)별 출력을 확률값으로 매핑한 상기 제2 학습 결과를 생성하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 9,
The angular velocity power spectrum in the input layer of the second ANN ( ), the acceleration power spectrum ( ), stored as a layer with a feature map for each of the coordinate values (OID 2D position p (x, y)),
The angular velocity power spectrum ( ), the acceleration power spectrum ( ), obtain the feature map of the layer located in the upper layer using each of the coordinate values (OID 2D position p (x, y)), and then learn the features from the feature map,
The output layer of the second ANN obtains a classification result using the features extracted from the hidden layer, and the second learning result maps the output for each RF (Repetitive Frequency) and PC (Power Spectrum Characteristics) to be classified into probability values. A real-time stroke analysis method characterized by generating.
제1항에 있어서,
상기 필기 인식 개선 장치에서
AI 모델을 이용하여 상기 좌표값(OID 2D position p (x, y))을 기반으로 애플리케이션을 위한 크로스 플랫폼 API를 이용하여 필기를 인식한 필기 인식 결과를 생성한 후 상기 필기 인식 결과를 상기 제1 ANN 및 상기 제2 ANN로 입력하는 것을 특징으로 하는 실시간 획 분석 방법.
According to paragraph 1,
In the handwriting recognition improvement device
After generating a handwriting recognition result that recognizes the handwriting using a cross-platform API for an application based on the coordinate value (OID 2D position p (x, y)) using an AI model, the handwriting recognition result is sent to the first A real-time stroke analysis method characterized by input into an ANN and the second ANN.
제11항에 있어서,
상기 제1 ANN에서
상기 가속도 a(), 상기 속도 v(), 상기 거리 d(x,y,z), 상기 각속도 ω(), 상기 필기 인식 결과를 학습한 상기 제1 학습 결과를 출력하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 11,
In the first ANN
The acceleration a ( ), the speed v( ), the distance d(x,y,z), the angular velocity ω( ), a real-time stroke analysis method characterized by outputting the first learning result obtained by learning the handwriting recognition result.
제12항에 있어서,
상기 제1 ANN의 입력층에서 상기 가속도 a(), 상기 속도 v(), 상기 거리 d(x,y,z), 상기 각속도 ω(), 상기 필기 인식 결과 각각에 대한 특징맵을 가지는 레이어로 저장하고,
상기 제1 ANN의 하나 이상의 은닉층에서 상기 가속도 a(), 상기 속도 v(), 상기 거리 d(x,y,z), 상기 각속도 ω(), 상기 필기 인식 결과 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 상기 특징맵으로부터 특징을 학습하고,
상기 제1 ANN의 출력층에서 상기 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 GRF(Ground Reaction Force), CoP(Center of Pressure), CR(Center of Rotation)별 출력을 확률값으로 매핑하여 상기 제1 학습 결과를 생성하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 12,
The acceleration a ( ), the speed v( ), the distance d(x,y,z), the angular velocity ω( ), stored as a layer with a feature map for each of the handwriting recognition results,
The acceleration a ( ), the speed v( ), the distance d(x,y,z), the angular velocity ω( ), using each of the handwriting recognition results to obtain a feature map of a layer located in a higher layer, and then learning features from the feature map,
In the output layer of the first ANN, a classification result is obtained using the features extracted from the hidden layer, and the output for each GRF (Ground Reaction Force), CoP (Center of Pressure), and CR (Center of Rotation) to be classified is converted into a probability value. A real-time stroke analysis method characterized in that the first learning result is generated by mapping to .
제11항에 있어서,
상기 제2 ANN에서
상기 각속도 파워 스펙트럼(), 상기 가속도 파워 스펙트럼(), 상기 좌표값(OID 2D position p (x, y)), 상기 필기 인식 결과를 학습한 상기 제2 학습 결과를 출력하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 11,
In the second ANN
The angular velocity power spectrum ( ), the acceleration power spectrum ( ), the coordinate value (OID 2D position p (x, y)), and the second learning result obtained by learning the handwriting recognition result.
제14항에 있어서,
상기 제2 ANN의 입력층에서 상기 각속도 파워 스펙트럼(), 상기 가속도 파워 스펙트럼(), 상기 좌표값(OID 2D position p (x, y)), 상기 필기 인식 결과 각각에 대한 특징맵을 가지는 레이어로 저장하고,
상기 제2 ANN의 하나 이상의 은닉층에서 상기 각속도 파워 스펙트럼(), 상기 가속도 파워 스펙트럼(), 상기 좌표값(OID 2D position p (x, y)), 상기 필기 인식 결과 각각을 이용하여 상위 계층에 위치한 레이어의 특징맵을 획득한 후 상기 특징맵으로부터 특징을 학습하고,
상기 제2 ANN의 출력층에서 상기 은닉층으로부터 추출된 특징을 이용하여 분류 결과를 획득하되, 분류하고자 하는 각 RF(Repetitive Frequency), PC(Power Spectrum Characteristics)별 출력을 확률값으로 매핑하여 상기 제2 학습 결과를 생성하는 것을 특징으로 하는 실시간 획 분석 방법.
According to clause 14,
The angular velocity power spectrum in the input layer of the second ANN ( ), the acceleration power spectrum ( ), the coordinate value (OID 2D position p (x, y)), and the handwriting recognition result are stored as a layer having a feature map for each,
The angular velocity power spectrum ( ), the acceleration power spectrum ( ), the coordinate value (OID 2D position p (x, y)), and the handwriting recognition result are used to obtain a feature map of the layer located in the upper layer, and then learn features from the feature map,
In the output layer of the second ANN, a classification result is obtained using the features extracted from the hidden layer, and the output for each RF (Repetitive Frequency) and PC (Power Spectrum Characteristics) to be classified is mapped to a probability value to obtain the second learning result. A real-time stroke analysis method characterized by generating.
KR1020220081112A 2022-07-01 2022-07-01 Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen KR20240003779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220081112A KR20240003779A (en) 2022-07-01 2022-07-01 Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220081112A KR20240003779A (en) 2022-07-01 2022-07-01 Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen

Publications (1)

Publication Number Publication Date
KR20240003779A true KR20240003779A (en) 2024-01-10

Family

ID=89511799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220081112A KR20240003779A (en) 2022-07-01 2022-07-01 Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen

Country Status (1)

Country Link
KR (1) KR20240003779A (en)

Similar Documents

Publication Publication Date Title
JP4274941B2 (en) Method and apparatus for decoding handwritten characters
US7010165B2 (en) Preprocessing of multi-line rotated electronic ink
TWI569176B (en) Method and system for identifying handwriting track
Gupta et al. Indian sign language recognition using wearable sensors and multi-label classification
Ott et al. The onhw dataset: Online handwriting recognition from imu-enhanced ballpoint pens with machine learning
Ghosh et al. A dempster–shafer theory based classifier combination for online signature recognition and verification systems
Oh et al. Inertial sensor based recognition of 3-D character gestures with an ensemble classifiers
Behera et al. Analysis of 3D signatures recorded using leap motion sensor
KR20060084945A (en) Method of generating brush touch effect using touch pad
KR20180101313A (en) Method and Apparatus for Recognizing Hand Shapes and Gestures
Roy et al. 3D word spotting using leap motion sensor
Maarse et al. Automatic identification of writers
KR20240003779A (en) Method And Apparatus for Analyzing Live Stroke by using ML for hand writing pen
JP3335542B2 (en) Method and apparatus for collating handwritten characters
US20220365621A1 (en) Pen state detection circuit, method, and device, and parameter supply device
Wang et al. Accelerometer-based gesture recognition using dynamic time warping and sparse representation
Chen et al. A fusion recognition method based on multifeature hidden markov model for dynamic hand gesture
Saleem et al. Survey of preprocessing techniques and classification approaches in online signature verification
K Jabde et al. A Comprehensive Literature Review on Air-written Online Handwritten Recognition
CN110390281B (en) Sign language recognition system based on sensing equipment and working method thereof
Long et al. High discriminant features for writer-independent online signature verification
WO2023218886A1 (en) Information input device, information input method, and information input program
Tan et al. An End-to-End Air Writing Recognition Method Based on Transformer
Kader et al. A real-time classification model for Bengali character recognition in air-writing
Nasir et al. Hand Gesture Recognition using Leap Motion Controller for Recognition of Javanese Script