KR102003221B1 - 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법 - Google Patents

필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법 Download PDF

Info

Publication number
KR102003221B1
KR102003221B1 KR1020180000566A KR20180000566A KR102003221B1 KR 102003221 B1 KR102003221 B1 KR 102003221B1 KR 1020180000566 A KR1020180000566 A KR 1020180000566A KR 20180000566 A KR20180000566 A KR 20180000566A KR 102003221 B1 KR102003221 B1 KR 102003221B1
Authority
KR
South Korea
Prior art keywords
data
image data
style
learning
user terminal
Prior art date
Application number
KR1020180000566A
Other languages
English (en)
Inventor
이준엽
Original Assignee
엔에이치엔 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔 주식회사 filed Critical 엔에이치엔 주식회사
Priority to KR1020180000566A priority Critical patent/KR102003221B1/ko
Application granted granted Critical
Publication of KR102003221B1 publication Critical patent/KR102003221B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

임의의 필기 객체에 포함된 필기 정보를 컴퓨터가 인식할 수 있는 이미지 형태의 파일로 변경시킬 수 있는 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법이 개시된다. 이러한 필기 이미지 데이터 생성 시스템은 인공지능 서버 및 사용자 단말기를 포함한다. 상기 인공지능 서버는 복수의 학습용 이미지들을 이용하여 인공신경망 모델을 구축하고, 구축된 상기 인공신경망 모델을 저장하고 있다. 상기 사용자 단말기는 필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하고, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득한다. 이로써, 사용자가 상기 사용자 단말기를 통해 상기 필기 객체를 촬영만 해도, 상기 필기 객체에 포함되어 있는 각종 필기 정보를 컴퓨터에서 인식이 가능한 상기 필기 이미지 데이터로 만들어 낼 수 있다.

Description

필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법{SYSTEM FOR GENERATING NOTE DATA AND METHOD FOR GENERATING NOTE DATA USING THE SYSTEM}
본 발명은 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법에 관한 것으로, 보다 상세하게는 노트에 필기된 내용을 이미지로 변환시킬 수 있는 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법에 관한 것이다.
일반적으로, 수강생이 강의를 들을 때나 세미나를 들을 때 자신의 공책에 들은 내용을 적어가며 들을 때가 많다. 이렇게 노트 필기를 작성할 경우, 해당 수강생이 한참 시간이 흐른 후 해당 강의 또는 세미나의 내용을 잊어버린다고 해도, 필요한 시점에 해당 노트 필기를 확인만 하면 해당 강의 또는 세미나의 내용을 다시금 인지할 수 있다.
하지만, 이러한 노트 필기는 공책과 같은 종이 위에 적혀진 것이기 때문에, 사용자의 실수 또는 부주의로 해당 종이가 파손되거나 잃어버리는 경우가 발생될 수도 있다. 또한, 해당 종이를 잘 보관할 수 있다고 하더라도 이를 언제까지 계속 잘 보관할 수 있을지도 의문이다. 따라서, 해당 종이에 포함된 필기 내용을 컴퓨터가 읽을 수 있는 문서 파일에 포함시켜 저장시킬 필요가 있다. 즉, 사용자가 자신의 공책에 적혀진 필기 내용을 문서 파일로 작성하여 컴퓨터에 저장시켜야만 한다.
그러나, 사용자가 해당 필기 내용을 문서 파일로 작성하기 위해서는 키보드를 통해 타이핑(typing)하는 과정을 거쳐야만 한다. 그러나, 필기 내용을 타이핑하는데 적지 않는 시간과 노력이 필요하는 것은 물론이고, 해당 필기 내용에 그림, 도표 등이 포함되어 있을 경우 더 많은 시간과 노력이 요구되어 질 수 있다.
따라서, 본 발명은 이러한 문제점을 해결하고자 도출된 것으로, 본 발명이 해결하고자 하는 과제는 임의의 필기 객체에 포함된 필기 정보를 컴퓨터가 인식할 수 있는 이미지 형태의 파일로 변경시킬 수 있는 필기 이미지 데이터 생성 시스템을 제공하는 것이다.
또한, 본 발명이 해결하고자 하는 다른 과제는 상기 필기 이미지 데이터 생성 시스템을 이용한 필기 이미지 데이터 생성 방법을 제공하는 것이다.
본 발명의 일 실시예에 의한 필기 이미지 데이터 생성 시스템은 인공지능 서버 및 사용자 단말기를 포함한다.
상기 인공지능 서버는 복수의 학습용 이미지들을 이용하여 인공신경망 모델을 구축하고, 구축된 상기 인공신경망 모델을 저장하고 있다. 상기 사용자 단말기는 필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하고, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득한다.
상기 인공지능 서버는 복수의 학습용 단말기들로부터 상기 학습용 이미지들을 각각 제공받고, 제공받은 상기 학습용 이미지들을 이용하여 상기 인공신경망 모델을 구축하며, 구축된 상기 인공신경망 모델을 저장하고 있을 수 있다.
상기 인공지능 서버는 상기 학습용 이미지들을 각각 전처리하여 학습용 데이터들을 생성하고, 생성된 상기 학습용 데이터들을 이용하여 상기 인공신경망 모델을 구축하며, 구축된 상기 인공신경망 모델을 저장하고 있을 수 있다. 예를 들어, 상기 인공지능 서버는 상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성하고, 생성된 상기 학습용 데이터들을 이용하여 상기 인공신경망 모델을 구축하며, 구축된 상기 인공신경망 모델을 저장하고 있을 수 있다.
상기 인공지능 서버는 상기 학습용 이미지들과, 임의의 스타일을 적용시키기 위한 정보를 포함하는 적어도 하나의 스타일 데이터를 이용하여, 임의의 스타일이 적용된 적어도 하나의 스타일 학습 모델을 포함하는 상기 인공신경망 모델을 구축하고, 구축된 상기 인공신경망 모델을 저장하고 있을 수 있다.
상기 인공신경망 모델은 두 개의 딥 뉴럴 네트워크(deep neural network)들이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램일 수 있다.
상기 사용자 단말기는 상기 필기 객체를 촬영하여 촬영 이미지를 획득하고, 획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성하며, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득할 수 있다. 예를 들어, 상기 사용자 단말기는 상기 필기 객체를 촬영하여 촬영 이미지를 획득하고, 획득된 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성하며, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득할 수 있다.
상기 사용자 단말기는 상기 필기 객체를 촬영하여 상기 입력용 데이터를 생성하고, 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하며, 상기 인공지능 서버에 접속하여 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 결정된 상기 타겟 스타일에 대응되는 하나의 모델(이하, '타겟 스타일 학습 모델'이라 함)을 다운로드받고, 다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성할 수 있다.
이와 다르게, 상기 사용자 단말기는 상기 필기 객체를 촬영하여 상기 입력용 데이터를 생성하고, 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하며, 생성된 상기 입력용 데이터 및 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송할 수 있다. 이후, 상기 인공지능 서버는 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 상기 사용자 단말기로부터 전송받은 상기 타겟 스타일에 대응되는 하나의 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하고, 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기로 전송할 수 있다.
상기 사용자 단말기는 상기 필기 객체를 촬영하여 상기 입력용 데이터를 생성하고, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득하며, 획득한 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성할 수 있다.
상기 최종 이미지 데이터는 편집 가능한 상태의 파일일 수 있다. 이때, 상기 사용자 단말기는 상기 필기 객체를 촬영하여 상기 입력용 데이터를 생성하고, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득하며, 획득한 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성하고, 생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시킬 수 있다.
이어서, 본 발명의 일 실시예에 의한 필기 이미지 데이터 생성 방법은, 인공지능 서버가, 복수의 학습용 이미지들을 이용하여 인공신경망 모델을 구축하여 저장하는 단계(이하, '인공신경망 모델 구축 단계'라 함)와, 사용자 단말기가, 필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하는 단계(이하, '입력용 데이터 생성 단계'라 함)와, 상기 사용자 단말기가, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 단계(이하, '필기 이미지 데이터 획득 단계'라 함)를 포함한다.
상기 인공신경망 모델 구축 단계는, 상기 인공지능 서버가, 복수의 학습용 단말기들로부터 상기 학습용 이미지들을 각각 수신하는 단계와, 상기 인공지능 서버가, 수신된 상기 학습용 이미지들을 이용하여 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함할 수 있다.
상기 인공신경망 모델 구축 단계는, 상기 인공지능 서버가, 임의의 스타일을 적용시키기 위한 정보를 포함하는 적어도 하나의 스타일 데이터를 저장하는 단계를 더 포함할 수 있다. 이때, 상기 인공지능 서버가 상기 인공신경망 모델을 구축하여 저장하는 단계에서는, 상기 인공지능 서버가, 수신된 상기 학습용 이미지들 및 저장된 상기 스타일 데이터를 이용하여, 임의의 스타일이 적용된 적어도 하나의 스타일 학습 모델을 포함하는 상기 인공신경망 모델을 구축하여 저장할 수 있다.
상기 인공지능 서버가 상기 인공신경망 모델을 구축하여 저장하는 단계는, 상기 인공지능 서버가, 수신된 상기 학습용 이미지들을 전처리하여 학습용 데이터들을 생성하는 단계와, 상기 인공지능 서버가, 생성된 상기 학습용 데이터들 및 저장된 상기 스타일 데이터를 이용하여, 상기 스타일 학습 모델을 포함하는 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함할 수 있다.
상기 인공지능 서버가 상기 학습용 데이터들을 생성하는 단계에서는, 상기 인공지능 서버가, 수신된 상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성할 수 있다.
상기 인공신경망 모델은 두 개의 딥 뉴럴 네트워크들(deep neural network)이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램일 수 있다.
상기 입력용 데이터 생성 단계는, 상기 사용자 단말기가, 상기 필기 객체를 촬영하여 촬영 이미지를 획득하는 단계와, 상기 사용자 단말기가, 획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성하는 단계를 포함할 수 있다.
상기 사용자 단말기가 상기 입력용 데이터를 생성하는 단계에서는, 상기 사용자 단말기가, 획득된 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성할 수 있다.
상기 필기 이미지 데이터 획득 단계는, 상기 사용자 단말기가, 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하는 단계와, 상기 사용자 단말기가, 상기 인공지능 서버에 접속하여 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 결정된 상기 타겟 스타일에 대응되는 하나의 모델(이하, '타겟 스타일 학습 모델'이라 함)을 다운로드받는 단계와, 상기 사용자 단말기가, 다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계를 포함할 수 있다.
이와 다르게, 상기 필기 이미지 데이터 획득 단계는, 상기 사용자 단말기가, 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하는 단계와, 상기 사용자 단말기가, 생성된 상기 입력용 데이터 및 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송하는 단계와, 상기 인공지능 서버가, 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 상기 사용자 단말기로부터 전송받은 상기 타겟 스타일에 대응되는 하나의 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계와, 상기 인공지능 서버가, 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기로 전송하는 단계를 포함할 수 있다.
상기 필기 이미지 데이터 생성 방법은, 상기 사용자 단말기가, 획득한 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성하는 단계(이하, '후처리 단계'라 함)를 더 포함할 수 있다.
상기 최종 이미지 데이터는 편집 가능한 상태의 파일일 수 있다.
상기 후처리 단계는, 상기 사용자 단말기가, 획득한 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성하는 단계와, 상기 사용자 단말기가, 생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시키는 단계를 포함할 수 있다.
이어서, 본 발명의 일 실시예에 의한 필기 이미지 데이터 생성 방법은, 인공지능 서버에 접속된 사용자 단말기에 의해 수행되는 방법에 관한 것으로, 필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하는 단계(이하, '입력용 데이터 생성 단계'라 함)와, 복수의 학습용 이미지들을 이용하여 구축되어 상기 인공지능 서버에서 저장된 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 단계(이하, '필기 이미지 데이터 획득 단계'라 함)를 포함한다.
상기 인공신경망 모델은 임의의 스타일이 적용된 적어도 하나의 스타일 학습 모델을 포함할 수 있다.
상기 인공신경망 모델은 두 개의 딥 뉴럴 네트워크들(deep neural network)이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램일 수 있다.
상기 입력용 데이터 생성 단계는 상기 필기 객체를 촬영하여 촬영 이미지를 획득하는 단계와, 획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성하는 단계를 포함할 수 있다. 이때, 기 입력용 데이터를 생성하는 단계에서는, 획득된 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성할 수 있다.
상기 필기 이미지 데이터 획득 단계는 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하는 단계와, 상기 인공지능 서버에 접속하여 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 결정된 상기 타겟 스타일에 대응되는 하나의 모델(이하, '타겟 스타일 학습 모델'이라 함)을 다운로드받는 단계와, 다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계를 포함할 수 있다.
이와 다르게, 상기 필기 이미지 데이터 획득 단계는 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하는 단계와, 생성된 상기 입력용 데이터 및 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송하는 단계와, 상기 인공지능 서버에서 상기 입력용 데이터 및 상기 타겟 스타일에 의해 생성된 필기 이미지 데이터를 상기 인공지능 서버로부터 수신하는 단계를 포함할 수 있다. 이때, 상기 필기 이미지 데이터는 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 상기 사용자 단말기로부터 전송받은 상기 타겟 스타일에 대응되는 하나의 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 생성된 데이터일 수 있다.
상기 필기 이미지 데이터 생성 방법은 획득한 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성하는 단계(이하, '후처리 단계'라 함)를 더 포함할 수 있다.
상기 최종 이미지 데이터는 편집 가능한 상태의 파일일 수 있다.
상기 후처리 단계는 획득한 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성하는 단계와, 생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시키는 단계를 포함할 수 있다.
이어서, 본 발명의 일 실시예에 의한 필기 이미지 데이터 생성 방법은, 사용자 단말기와 접속된 인공지능 서버에 의해 수행되는 방법에 관한 것으로, 복수의 학습용 이미지들을 이용하여 인공신경망 모델을 구축하여 저장하는 단계(이하, '인공신경망 모델 구축 단계'라 함)와, 상기 사용자 단말기가 필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하고, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득할 수 있도록, 상기 사용자 단말기와 신호를 주고받는 단계(이하, '필기 이미지 데이터 획득 단계'라 함)을 포함한다.
상기 인공신경망 모델 구축 단계는 복수의 학습용 단말기들로부터 상기 학습용 이미지들을 각각 수신하는 단계와, 수신된 상기 학습용 이미지들을 이용하여 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함할 수 있다.
상기 인공신경망 모델 구축 단계는 임의의 스타일을 적용시키기 위한 정보를 포함하는 적어도 하나의 스타일 데이터를 저장하는 단계를 더 포함할 수 있다. 이때, 상기 인공신경망 모델을 구축하여 저장하는 단계에서는, 수신된 상기 학습용 이미지들 및 저장된 상기 스타일 데이터를 이용하여, 임의의 스타일이 적용된 적어도 하나의 스타일 학습 모델을 포함하는 상기 인공신경망 모델을 구축하여 저장할 수 있다.
상기 인공신경망 모델을 구축하여 저장하는 단계는 수신된 상기 학습용 이미지들을 전처리하여 학습용 데이터들을 생성하는 단계와, 생성된 상기 학습용 데이터들 및 저장된 상기 스타일 데이터를 이용하여, 상기 스타일 학습 모델을 포함하는 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함할 수 있다.
상기 학습용 데이터들을 생성하는 단계에서는, 수신된 상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성할 수 있다.
상기 인공신경망 모델은 두 개의 딥 뉴럴 네트워크들(deep neural network)이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램일 수 있다.
상기 필기 이미지 데이터 획득 단계는 상기 사용자 단말기로부터 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 수신하는 단계와, 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 상기 사용자 단말기로부터 수신된 상기 타겟 스타일에 대응되는 하나의 모델(이하, '타겟 스타일 학습 모델'이라 함)을 결정하는 단계와, 상기 사용자 단말기가 상기 타겟 스타일 학습 모델을 이용하여 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하도록, 결정된 상기 타겟 스타일 학습 모델을 상기 사용자 단말기로 전송하는 단계를 포함할 수 있다.
이와 다르게, 상기 필기 이미지 데이터 획득 단계는 상기 사용자 단말기로부터 상기 입력용 데이터 및 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 수신하는 단계와, 상기 인공신경망 모델에 포함된 적어도 하나의 스타일 학습 모델 중에서, 상기 사용자 단말기로부터 전송받은 상기 타겟 스타일에 대응되는 하나의 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계와, 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기로 전송하는 단계를 포함할 수 있다.
이와 같이 본 발명에 따른 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법에 따르면, 사용자 단말기가 노트와 같은 필기 객체를 촬영하여 입력용 데이터를 생성한 후, 인공지능 서버에 저장된 인공신경망 모델을 이용하여, 상기 입력용 데이터로부터 필기 이미지 데이터를 획득함으로써, 사용자는 상기 사용자 단말기의 촬영만으로, 상기 필기 객체에 포함되어 있는 각종 필기 정보를 컴퓨터에서 인식이 가능한 상기 필기 이미지 데이터로 만들어 낼 수 있다.
도 1은 본 발명의 일 실시예에 따른 필기 이미지 데이터 생성 시스템을 설명한 개념도이다.
도 2는 도 1의 필기 이미지 데이터 생성 시스템을 이용한 필기 이미지 데이터 생성 방법을 설명하기 위한 순서도이다.
도 3은 도 2의 필기 이미지 데이터 생성 방법 중 인공신경망 모델 구축 과정을 상하게 설명하기 위한 순서도이다.
도 4는 도 3의 인공신경망 모델 구축 과정 중 학습용 이미지들 및 스타일 데이터를 이용하여 인공신경망 모델을 구축하는 과정을 상세하게 설명하기 위한 순서도이다.
도 5는 도 3의 인공신경망 모델 구축 과정을 통해 구축된 인공신경망 모델의 일 예를 도시한 개념도이다.
도 6은 도 2의 필기 이미지 데이터 생성 방법 중 입력용 데이터 생성 과정을 상세하게 설명하기 위한 순서도이다.
도 7은 도 6의 입력용 데이터 생성 과정을 도시한 개념도이다.
도 8은 도 6의 입력용 데이터 생성 과정에서 획득된 촬영 이미지의 일 예를 도시한 그림이다.
도 9는 도 6의 입력용 데이터 생성 과정에서 생성된 입력용 이미지의 일 예를 도시한 그림이다.
도 10은 도 2의 필기 이미지 데이터 생성 방법 중 필기 이미지 데이터 생성 과정의 일 실시예를 설명하기 위한 순서도이다.
도 11은 도 10의 필기 이미지 데이터 생성 과정을 도시한 개념도이다.
도 12는 도 10의 필기 이미지 데이터 생성 과정에서 생성된 필기 이미지 데이터의 일 예를 도시한 그림이다.
도 13은 도 2의 필기 이미지 데이터 생성 방법 중 필기 이미지 데이터 생성 과정의 다른 실시예를 설명하기 위한 순서도이다.
도 14는 도 13의 필기 이미지 데이터 생성 과정을 도시한 개념도이다.
도 15는 도 2의 필기 이미지 데이터 생성 방법 중 최종 이미지 데이터 생성 과정을 설명하기 위한 순서도이다.
도 16은 도 15의 최종 이미지 데이터 생성 과정에서 생성된 최종 이미지 데이터가 편집된 상태의 일 예를 도시한 그림이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조 부호를 유사한 구성 요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 과장하여 도시한 것일 수 있다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, A와 B가'연결된다', '결합된다'라는 의미는 A와 B가 직접적으로 연결되거나 결합하는 것 이외에 다른 구성요소 C가 A와 B 사이에 포함되어 A와 B가 연결되거나 결합되는 것을 포함하는 것이다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 또한, 방법 발명에 대한 특허청구범위에서, 각 단계가 명확하게 순서에 구속되지 않는 한, 각 단계들은 그 순서가 서로 바뀔 수도 있다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다.
도 1은 본 발명의 일 실시예에 따른 필기 이미지 데이터 생성 시스템을 설명한 개념도이다.
도 1을 참조하면, 본 실시예에 의한 필기 이미지 데이터 생성 시스템은 인공지능 서버(10) 및 적어도 하나의 사용자 단말기(20)를 포함한다.
상기 인공지능 서버(10)는 복수의 학습용 단말기들(30), 예를 들어 스마트폰, 테블릿 PC와 같은 모바일 단말기, 데스크탑 또는 노트북과 같은 개인용 컴퓨터, 각종 정보들을 저장하고 있는 데이터 베이스 서버 등으로부터 복수의 학습용 이미지들을 각각 제공받고, 제공받은 상기 학습용 이미지들을 이용하여 인공신경망 모델을 구축하며, 구축된 상기 인공신경망 모델을 저장하고 있을 수 있다. 이때, 상기 인공신경망 모델은 두 개의 딥 뉴럴 네트워크(deep neural network)들이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램일 수 있다.
본 실시예에서, 상기 인공지능 서버(10)는 상기 학습용 이미지들을 그대로 이용하여 상기 인공신경망 모델을 구축할 수도 있지만, 이와 다르게 상기 학습용 이미지들을 각각 전처리하여 학습용 데이터들을 생성한 후, 생성된 상기 학습용 데이터들을 이용하여 상기 인공신경망 모델을 구축할 수도 있다. 예를 들어, 상기 인공지능 서버(10)는 상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후, 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성하고, 생성된 상기 학습용 데이터들을 이용하여 상기 인공신경망 모델을 구축할 수도 있다.
본 실시예에서, 상기 인공지능 서버(10)는 임의의 스타일을 적용시키기 위한 정보를 포함하는 적어도 하나의 스타일 데이터를 저장하고 있을 수 있다. 이때, 상기 인공지능 서버(10)는 상기 학습용 이미지들 및 상기 스타일 데이터를 이용하여, 임의의 스타일이 각각 적용된 복수의 스타일 학습 모델들을 포함하는 상기 인공신경망 모델을 구축할 수도 있다. 여기서, 스타일은 글씨, 도표, 그림 등의 데이터를 표현하는 디자인적인 요소를 의미할 수 있다.
상기 사용자 단말기(20)는 인터넷을 통해 상기 인공지능 서버(10)와 접속하여 신호를 주고받을 수 있는 이동통신 단말기, 예를 들어 스마트폰, 테블릿 PC와 같은 스마트 단말기일 수 있다. 또한, 상기 사용자 단말기(20)는 상기 학습용 단말기들(30) 중 하나일 수도 있다. 상기 사용자 단말기(20)는 상기 인공지능 서버(10)와 접속하여 필기 이미지 생성 서비스를 제공받도록 필기 이미지 생성 프로그램, 예를 들어 필기 이미지 생성 어플리케이션 프로그램을 설치하고 있을 수 있다.
상기 사용자 단말기(20)는 상기 필기 이미지 생성 프로그램을 실행한 후, 필기 정보가 포함된 필기 객체를 촬영하여 촬영 이미지를 획득하고, 획득된 상기 촬영 이미지를 전처리하여 입력용 데이터를 생성하며, 상기 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득할 수 있다. 예를 들어, 상기 사용자 단말기(20)는 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후, 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성할 수 있다.
본 실시예에서, 상기 사용자 단말기(20)는 적용을 원하는 스타일을 결정하고, 상기 인공지능 서버(10)에 접속하여 상기 인공신경망 모델에 포함된 상기 스타일 학습 모델들 중에서, 상기 결정된 스타일에 대응되는 하나의 모델을 다운로드받으며, 상기 다운로드 받은 모델을 이용하여, 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성할 수 있다.
이와 다르게, 상기 사용자 단말기(20)는 적용을 원하는 스타일을 결정한 후, 상기 입력용 데이터 및 상기 결정된 스타일을 상기 인공지능 서버(10)로 전송하면, 상기 인공지능 서버(10)는 상기 인공신경망 모델에 포함된 상기 스타일 학습 모델들 중에서, 상기 사용자 단말기(20)로부터 전송받은 스타일에 대응되는 하나의 모델을 이용하여, 상기 사용자 단말기(20)로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하고, 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기(20)로 전송할 수 있다.
상기 사용자 단말기(20)는 상기 인공신경망 모델을 통해 획득된 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성할 수 있다. 본 실시예에서, 상기 사용자 단말기(20)는 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성한 후, 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시킬 수 있다. 이때, 상기 최종 이미지 데이터는 편집 가능한 상태의 파일일 수 있다.
이하, 위에서 설명한 상기 필기 이미지 데이터 생성 시스템을 이용하여 필기 이미지 데이터 생성 방법을 상세하게 설명하고자 한다.
도 2는 도 1의 필기 이미지 데이터 생성 시스템을 이용한 필기 이미지 데이터 생성 방법을 설명하기 위한 순서도이고, 도 3은 도 2의 필기 이미지 데이터 생성 방법 중 인공신경망 모델 구축 과정을 상하게 설명하기 위한 순서도이며, 도 4는 도 3의 인공신경망 모델 구축 과정 중 학습용 이미지들 및 스타일 데이터를 이용하여 인공신경망 모델을 구축하는 과정을 상세하게 설명하기 위한 순서도이고, 도 5는 도 3의 인공신경망 모델 구축 과정을 통해 구축된 인공신경망 모델의 일 예를 도시한 개념도이다.
도 2 내지 도 5를 참조하면, 본 실시예에 의한 필기 이미지 데이터 생성 방법으로, 우선 상기 인공지능 서버(10)가, 상기 학습용 이미지들을 이용하여 상기 인공신경망 모델을 구축하여 저장할 수 있다(S100).
상기 S100 단계를 구체적으로 설명하면, 상기 인공지능 서버(10)가, 임의의 스타일을 적용시키기 위한 정보를 각각 포함하는 복수의 스타일 데이터들을 저장할 수 있다(S110).
이어서, 상기 인공지능 서버(10)가, 상기 학습용 단말기들(30)로부터 상기 학습용 이미지들을 각각 수신할 수 있다(S120). 즉, 상기 학습용 단말기들(30)은 상기 학습용 이미지들을 각각 저장하고 있고, 상기 인공지능 서버(10)가 상기 학습용 단말기들(30)에 각각 접속하여 상기 학습용 이미지들을 각각 수신할 수 있다. 이때, 상기 S120 단계는 상기 S110 단계와 앞서서, 뒤이어 또는 동시에 이루어질 수 있다.
이어서, 상기 인공지능 서버(10)가, 상기 학습용 단말기들(30)로부터 수신된 상기 학습용 이미지들을 이용하여, 상기 인공신경망 모델을 구축하여 저장할 수 있다(S130). 구체적으로 설명하면, 상기 인공지능 서버(10)가, 상기 학습용 이미지들을 전처리하여 상기 학습용 데이터들을 생성한 후(S132), 이렇게 생성된 상기 학습용 데이터들 및 기 저장되어 있는 상기 스타일 데이터를 이용하여, 임의의 스타일들이 각각 적용된 상기 스타일 학습 모델들을 포함하는 상기 인공신경망 모델을 구축하여 저장할 수 있다(S134). 한편, 상기 S132 단계에서, 상기 인공지능 서버가, 상기 학습용 이미지들을 각각 분석하여 문자, 도표, 그림 등과 같은 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후, 상기 배경 데이터를 삭제하면서 상기 필기 데이터를 강조, 예를 들어 보다 진하게 변경하여 상기 학습용 데이터들을 생성할 수 있다.
도 6은 도 2의 필기 이미지 데이터 생성 방법 중 입력용 데이터 생성 과정을 상세하게 설명하기 위한 순서도이고, 도 7은 도 6의 입력용 데이터 생성 과정을 도시한 개념도이며, 도 8은 도 6의 입력용 데이터 생성 과정에서 획득된 촬영 이미지의 일 예를 도시한 그림이고, 도 9는 도 6의 입력용 데이터 생성 과정에서 생성된 입력용 이미지의 일 예를 도시한 그림이다.
도 6 내지 도 9를 참조하면, 상기 사용자 단말기(20)가, 필기 정보가 포함된 상기 필기 객체, 예를 들어 필기 내용이 포함된 종이를 촬영하여 상기 입력용 데이터를 생성할 수 있다(S200).
상기 S200 단계를 구체적으로 설명하면, 상기 사용자 단말기(20)가, 내장된 카메라를 이용하여 상기 필기 객체를 촬영하여 상기 촬영 이미지를 획득한 후(S210), 이렇게 획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성할 수 있다(S220). 여기서, 상기 S220 단계에서, 상기 사용자 단말기(20)가, 상기 촬영 이미지를 분석하여 문자, 도표, 그림 등과 같은 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후, 상기 배경 데이터를 삭제하면서 상기 필기 데이터를 강조, 예를 들어 보다 진하게 변경하여 상기 입력용 데이터를 생성할 수 있다. 한편, 상기 S210 단계 이전에, 상기 사용자 단말기(20)가 기 설치된 상기 필기 이미지 생성 프로그램을 실행시킬 수도 있다.
이어서, 도 2를 다시 참조하면, 상기 사용자 단말기(20)가, 상기 인공신경망 모델을 이용하여, 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득할 수 있다(S300). 예를 들어, 상기 사용자 단말기(20)가 상기 필기 이미지 데이터를 획득하는 과정(S300)은 이후 설명될 두 가지 다른 방법에 의해 수행될 수 있다.
도 10은 도 2의 필기 이미지 데이터 생성 방법 중 필기 이미지 데이터 생성 과정의 일 실시예를 설명하기 위한 순서도이고, 도 11은 도 10의 필기 이미지 데이터 생성 과정을 도시한 개념도이며, 도 12는 도 10의 필기 이미지 데이터 생성 과정에서 생성된 필기 이미지 데이터의 일 예를 도시한 그림이다.
도 10 내지 도 12를 참조하면, 상기 사용자 단말기(20)가 상기 필기 이미지 데이터를 획득하는 과정(S300)의 첫 번째 방법으로, 우선 상기 사용자 단말기(20)가, 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정할 수 있다(S310). 예를 들어, 사용자가 상기 사용자 단말기(20)를 통해 표시되는 복수의 스타일 선택 단추들 중 하나를 선택함으로써, 상기 타겟 스타일이 결정될 수 있다.
이어서, 상기 사용자 단말기(20)가, 상기 인공지능 서버(10)에 접속하여 상기 인공신경망 모델에 포함된 상기 스타일 학습 모델들 중에서, 상기 타겟 스타일에 대응되는 하나의 모델(이하, '타겟 스타일 학습 모델'이라 함)을 다운로드받을 수 있다(S320). 즉, 상기 사용자 단말기(20)가 상기 타겟 스타일을 상기 인공지능 서버(10)에 전송하면, 상기 인공지능 서버(10)는 상기 스타일 학습 모델들 중에서 상기 타겟 스타일에 대응되는 하나의 모델을 선택하여 상기 타겟 스타일 학습 모델을 결정한 후 상기 타겟 스타일 학습 모델을 상기 사용자 단말기(20)로 전송시킬 수 있다.
이어서, 상기 사용자 단말기(20)가, 상기 인공지능 서버(10)로부터 다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성할 수 있다(S330). 즉, 상기 타겟 스타일 학습 모델은 두 개의 딥 뉴럴 네트워크들이 스스로 경쟁하면서 학습하여 상기 타겟 스타일이 적용된 이미지 데이터를 생성할 수 있다. 예를 들어, 두 개의 딥 뉴럴 네트워크들 중 하나의 딥 뉴럴 네트워크는 학습을 통해 구축된 상기 타겟 스타일에 대한 기준 데이터를 정답 레이블 데이터로 사용하여 상기 입력용 데이터로부터 상기 타겟 스타일이 적용된 이미지 데이터를 생성하면, 나머지 하나의 딥 뉴럴 네트워크가 위에서 생성된 이미지 데이터가 상기 정답 레이블 데이터와 비교할 때 기준 품질 이상의 데이터인지를 판단할 수 있다. 두 개의 딥 뉴럴 네트워크들은 이러한 과정을 서로 번갈아가면서 수행하면서, 상기 타겟 스타일이 적용된 도 12와 고품질의 이미지 데이터를 생성할 수 있다.
도 13은 도 2의 필기 이미지 데이터 생성 방법 중 필기 이미지 데이터 생성 과정의 다른 실시예를 설명하기 위한 순서도이고, 도 14는 도 13의 필기 이미지 데이터 생성 과정을 도시한 개념도이다.
도 13 및 도 14를 참조하면, 상기 사용자 단말기(20)가 상기 필기 이미지 데이터를 획득하는 과정(S300)의 첫 번째 방법으로, 우선 상기 사용자 단말기(20)가, 상기 타겟 스타일을 결정할 수 있다(S340). 예를 들어, 사용자가 상기 사용자 단말기(20)를 통해 표시되는 복수의 스타일 선택 단추들 중 하나를 선택함으로써, 상기 타겟 스타일이 결정될 수 있다.
이어서, 상기 사용자 단말기(20)가, 촬영 및 전처리 과정을 통해 생성된 상기 입력용 데이터 및 사용자에 의해 선택된 상기 타겟 스타일을 상기 인공지능 서버(10)로 전송할 수 있다(S350).
이어서, 상기 인공지능 서버(10)가, 상기 인공신경망 모델에 포함된 상기 스타일 학습 모델들 중에서, 상기 사용자 단말기로부터 전송받은 상기 타겟 스타일에 대응되는 하나의 모델인 상기 타겟 스타일 학습 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성할 수 있다(S360). 즉, 상기 타겟 스타일 학습 모델은 두 개의 딥 뉴럴 네트워크들이 스스로 경쟁하면서 학습하여 상기 타겟 스타일이 적용된 이미지 데이터를 생성할 수 있다.
이어서, 상기 인공지능 서버(10)가, 상기 타겟 스타일 학습 모델에 의해 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기(20)로 전송할 수 있다(S370). 그 결과, 상기 사용자 단말기(20)는 상기 필기 이미지 데이터를 획득할 수 있다.
도 15는 도 2의 필기 이미지 데이터 생성 방법 중 최종 이미지 데이터 생성 과정을 설명하기 위한 순서도이고, 도 16은 도 15의 최종 이미지 데이터 생성 과정에서 생성된 최종 이미지 데이터가 편집된 상태의 일 예를 도시한 그림이다.
도 15 및 도 16을 참조하면, 상기 사용자 단말기(10)가, 상기 필기 이미지 데이터를 후처리하여 상기 최종 이미지 데이터를 생성할 수 있다(S400).
상기 S400 단계를 구체적으로 설명하면, 상기 사용자 단말기(10)가, 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성할 수 있다(S410). 이어서, 상기 사용자 단말기(10)가, 이렇게 생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시킬 수 있다(S420). 이때, 상기 최종 이미지 데이터는 편집 가능한 상태의 파일일 수 있다. 한편, 상기 S410 단계에서, 상기 사용자 단말기(20)가, 상기 이미지 데이터를 분석하여 문자, 도표, 그림 등과 같은 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후, 상기 배경 데이터를 삭제하면서 상기 필기 데이터를 강조, 예를 들어 보다 진하게 변경하여 상기 보정 이미지 데이터를 생성할 수 있다.
이와 같이 본 실시예에 따르면, 상기 사용자 단말기(20)가 노트와 같은 상기 필기 객체를 촬영하여 상기 입력용 데이터를 생성한 후, 상기 인공지능 서버(10)에 저장된 상기 인공신경망 모델을 이용하여, 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 획득할 수 있다. 그 결과, 사용자는 상기 사용자 단말기의 촬영만으로, 상기 필기 객체에 포함되어 있는 각종 필기 정보를 컴퓨터에서 인식이 가능한 상기 필기 이미지 데이터로 만들어 낼 수 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10 : 인공지능 서버 20 : 사용자 단말기
30 : 학습용 단말기들

Claims (44)

  1. 복수의 학습용 이미지들과 서로 다른 스타일을 적용시키기 위한 정보들을 각각 포함하는 복수의 스타일 데이터들을 이용하여, 서로 다른 스타일이 적용된 복수의 스타일 학습 모델들을 포함하는 인공신경망 모델을 구축하고, 구축된 상기 인공신경망 모델을 저장하고 있는 인공지능 서버; 및
    필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하고, 적용을 원하는 스타일(이하, ‘타겟 스타일’이라 함)을 결정하며, 상기 스타일 학습 모델들 중 상기 타겟 스타일에 대응되는 하나의 모델(이하, ‘타겟 스타일 학습 모델’이라 함)을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 사용자 단말기를 포함하는 필기 이미지 데이터 생성 시스템.
  2. 제1항에 있어서,
    상기 인공지능 서버는
    복수의 학습용 단말기들로부터 상기 학습용 이미지들을 각각 제공받는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  3. 제1항에 있어서,
    상기 인공지능 서버는
    상기 학습용 이미지들을 각각 전처리하여 학습용 데이터들을 생성하고, 생성된 상기 학습용 데이터들 및 상기 스타일 데이터들을 상기 인공신경망 모델을 구축하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  4. 제3항에 있어서,
    상기 인공지능 서버는
    상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  5. 삭제
  6. 제1항에 있어서,
    상기 인공신경망 모델은
    두 개의 딥 뉴럴 네트워크(deep neural network)들이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램인 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  7. 제1항에 있어서,
    상기 사용자 단말기는
    상기 필기 객체를 촬영하여 촬영 이미지를 획득하고, 획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  8. 제7항에 있어서,
    상기 사용자 단말기는
    획득된 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  9. 제1항에 있어서,
    상기 사용자 단말기는
    결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송한 후, 상기 인공지능 서버로부터 상기 타겟 스타일 학습 모델을 다운로드받고, 다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  10. 제1항에 있어서,
    상기 사용자 단말기는
    생성된 상기 입력용 데이터 및 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송하고,
    상기 인공지능 서버는
    상기 타겟 스타일 학습 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하고, 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기로 전송하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  11. 제1항에 있어서,
    상기 사용자 단말기는
    획득한 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  12. 제11항에 있어서,
    상기 최종 이미지 데이터는
    편집 가능한 상태의 파일인 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  13. 제12항에 있어서,
    상기 사용자 단말기는
    획득한 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성하고, 생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시키는 것을 특징으로 하는 필기 이미지 데이터 생성 시스템.
  14. 인공지능 서버가, 복수의 학습용 이미지들과 서로 다른 스타일을 적용시키기 위한 정보들을 각각 포함하는 복수의 스타일 데이터들을 이용하여, 서로 다른 스타일이 적용된 복수의 스타일 학습 모델들을 포함하는 인공신경망 모델을 구축하여 저장하는 단계(이하, ‘인공신경망 모델 구축 단계’라 함);
    사용자 단말기가, 필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하는 단계(이하, ‘입력용 데이터 생성 단계’라 함);
    상기 사용자 단말기가, 적용을 원하는 스타일(이하, ‘타겟 스타일’이라 함)을 결정하는 단계; 및
    상기 사용자 단말기가, 상기 스타일 학습 모델들 중 상기 타겟 스타일에 대응되는 하나의 모델(이하, ‘타겟 스타일 학습 모델’이라 함)을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 단계(이하, ‘필기 이미지 데이터 획득 단계’라 함)를 포함하는 필기 이미지 데이터 생성 방법.
  15. 제14항에 있어서,
    상기 인공신경망 모델 구축 단계는
    상기 인공지능 서버가, 복수의 학습용 단말기들로부터 상기 학습용 이미지들을 각각 수신하는 단계; 및
    상기 인공지능 서버가, 수신된 상기 학습용 이미지들 및 상기 스타일 데이터들을 이용하여 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  16. 제15항에 있어서,
    상기 인공신경망 모델 구축 단계는
    상기 인공지능 서버가, 상기 스타일 데이터들을 저장하는 단계를 더 포함하고,
    상기 인공지능 서버가 상기 인공신경망 모델을 구축하여 저장하는 단계에서는,
    상기 인공지능 서버가, 수신된 상기 학습용 이미지들 및 저장된 상기 스타일 데이터들를 이용하여, 상기 스타일 학습 모델들을 포함하는 상기 인공신경망 모델을 구축하여 저장하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  17. 제16항에 있어서,
    상기 인공지능 서버가 상기 인공신경망 모델을 구축하여 저장하는 단계는
    상기 인공지능 서버가, 수신된 상기 학습용 이미지들을 전처리하여 학습용 데이터들을 생성하는 단계; 및
    상기 인공지능 서버가, 생성된 상기 학습용 데이터들 및 저장된 상기 스타일 데이터들을 이용하여, 상기 스타일 학습 모델들을 포함하는 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  18. 제17항에 있어서,
    상기 인공지능 서버가 상기 학습용 데이터들을 생성하는 단계에서는,
    상기 인공지능 서버가, 수신된 상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  19. 제14항에 있어서,
    상기 인공신경망 모델은
    두 개의 딥 뉴럴 네트워크들(deep neural network)이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램인 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  20. 제14항에 있어서,
    상기 입력용 데이터 생성 단계는
    상기 사용자 단말기가, 상기 필기 객체를 촬영하여 촬영 이미지를 획득하는 단계; 및
    상기 사용자 단말기가, 획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  21. 제20항에 있어서,
    상기 사용자 단말기가 상기 입력용 데이터를 생성하는 단계에서는,
    상기 사용자 단말기가, 획득된 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  22. 제14항에 있어서,
    상기 필기 이미지 데이터 획득 단계는
    상기 사용자 단말기가, 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송하는 단계;
    상기 사용자 단말기가, 상기 인공지능 서버로부터 상기 타겟 스타일 학습 모델을 다운로드받는 단계; 및
    상기 사용자 단말기가, 다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  23. 제14항에 있어서,
    상기 필기 이미지 데이터 획득 단계는
    상기 사용자 단말기가, 적용을 원하는 스타일(이하, '타겟 스타일'이라 함)을 결정하는 단계;
    상기 사용자 단말기가, 생성된 상기 입력용 데이터 및 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송하는 단계;
    상기 인공지능 서버가, 상기 타겟 스타일 학습 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계; 및
    상기 인공지능 서버가, 생성된 상기 필기 이미지 데이터를 상기 사용자 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  24. 제14항에 있어서,
    상기 사용자 단말기가, 획득한 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성하는 단계(이하, '후처리 단계'라 함)를 더 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  25. 제24항에 있어서,
    상기 최종 이미지 데이터는
    편집 가능한 상태의 파일인 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  26. 제25항에 있어서,
    상기 후처리 단계는
    상기 사용자 단말기가, 획득한 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성하는 단계; 및
    상기 사용자 단말기가, 생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시키는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  27. 인공지능 서버에 접속된 사용자 단말기에 의해 수행되는 필기 이미지 데이터 생성 방법에 있어서,
    필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성하는 단계(이하, ‘입력용 데이터 생성 단계’라 함);
    적용을 원하는 스타일(이하, ‘타겟 스타일’이라 함)을 결정하는 단계; 및
    상기 인공지능 서버에서 저장된 인공신경망 모델을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 단계(이하, ‘필기 이미지 데이터 획득 단계’라 함)를 포함하고,
    상기 인공지능 서버는
    복수의 학습용 이미지들과 서로 다른 스타일을 적용시키기 위한 정보들을 각각 포함하는 복수의 스타일 데이터들을 이용하여, 서로 다른 스타일이 적용된 복수의 스타일 학습 모델들을 포함하는 인공신경망 모델을 구축하여 저장하고,
    상기 필기 이미지 데이터 획득 단계에서는,
    상기 스타일 학습 모델들 중 상기 타겟 스타일에 대응되는 하나의 모델(이하, ‘타겟 스타일 학습 모델’이라 함)을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  28. 삭제
  29. 제27항에 있어서,
    상기 인공신경망 모델은
    두 개의 딥 뉴럴 네트워크들(deep neural network)이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램인 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  30. 제27항에 있어서,
    상기 입력용 데이터 생성 단계는
    상기 필기 객체를 촬영하여 촬영 이미지를 획득하는 단계; 및
    획득된 상기 촬영 이미지를 전처리하여 상기 입력용 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  31. 제30항에 있어서,
    상기 입력용 데이터를 생성하는 단계에서는,
    획득된 상기 촬영 이미지를 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 입력용 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  32. 제27항에 있어서,
    상기 필기 이미지 데이터 획득 단계는
    결정된 상기 타겟 스타일을 전송하는 단계;
    상기 인공지능 서버로부터 상기 타겟 스타일 학습 모델을 다운로드받는 단계; 및
    다운로드 받은 상기 타겟 스타일 학습 모델을 이용하여, 생성된 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  33. 제27항에 있어서,
    상기 필기 이미지 데이터 획득 단계는
    생성된 상기 입력용 데이터 및 결정된 상기 타겟 스타일을 상기 인공지능 서버로 전송하는 단계; 및
    상기 인공지능 서버에서 상기 입력용 데이터 및 상기 타겟 스타일에 의해 생성된 필기 이미지 데이터를 상기 인공지능 서버로부터 수신하는 단계를 포함하고,
    상기 필기 이미지 데이터는
    상기 타겟 스타일 학습 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 생성된 데이터인 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  34. 제27항에 있어서,
    획득한 상기 필기 이미지 데이터를 후처리하여 최종 이미지 데이터를 생성하는 단계(이하, '후처리 단계'라 함)를 더 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  35. 제34항에 있어서,
    상기 최종 이미지 데이터는
    편집 가능한 상태의 파일인 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  36. 제35항에 있어서,
    상기 후처리 단계는
    획득한 상기 필기 이미지 데이터를 보정하여 보정 이미지 데이터를 생성하는 단계; 및
    생성된 상기 보정 이미지 데이터를 상기 최종 이미지 데이터로 변환시키는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  37. 사용자 단말기와 접속된 인공지능 서버에 의해 수행되는 필기 이미지 데이터 생성 방법에 있어서,
    복수의 학습용 이미지들과 서로 다른 스타일을 적용시키기 위한 정보들을 각각 포함하는 복수의 스타일 데이터들을 이용하여, 서로 다른 스타일이 적용된 복수의 스타일 학습 모델들을 포함하는 인공신경망 모델을 구축하여 저장하는 단계(이하, ‘인공신경망 모델 구축 단계’라 함); 및
    상기 사용자 단말기로부터 적용을 원하는 스타일(이하, ‘타겟 스타일’이라 함)을 수신하는 단계; 및
    필기 정보가 포함된 필기 객체를 촬영하여 입력용 데이터를 생성한 상기 사용자 단말기로 필기 이미지 생성 서비스를 제공하는 단계(이하, ‘필기 이미지 데이터 획득 단계’라 함)을 포함하고,
    상기 필기 이미지 데이터 획득 단계에서는,
    상기 사용자 단말기가 상기 필기 이미지 생성 서비스에 의해 상기 스타일 학습 모델들 중 상기 타겟 스타일에 대응되는 하나의 모델(이하, ‘타겟 스타일 학습 모델’이라 함)을 이용하여, 생성된 상기 입력용 데이터로부터 필기 이미지 데이터를 획득하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  38. 제37항에 있어서,
    상기 인공신경망 모델 구축 단계는
    복수의 학습용 단말기들로부터 상기 학습용 이미지들을 각각 수신하는 단계; 및
    수신된 상기 학습용 이미지들 및 상기 스타일 데이터들을 이용하여 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  39. 삭제
  40. 제37항에 있어서,
    상기 인공신경망 모델을 구축하여 저장하는 단계는
    수신된 상기 학습용 이미지들을 전처리하여 학습용 데이터들을 생성하는 단계; 및
    생성된 상기 학습용 데이터들 및 상기 스타일 데이터를 이용하여, 상기 스타일 학습 모델을 포함하는 상기 인공신경망 모델을 구축하여 저장하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  41. 제40항에 있어서,
    상기 학습용 데이터들을 생성하는 단계에서는,
    수신된 상기 학습용 이미지들을 각각 분석하여 필기 데이터 및 상기 필기 데이터 이외의 배경 데이터로 구분한 후 상기 배경 데이터를 삭제하여 상기 학습용 데이터들을 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  42. 제37항에 있어서,
    상기 인공신경망 모델은
    두 개의 딥 뉴럴 네트워크들(deep neural network)이 경쟁하면서 학습이 이루어지는 GAN(Generative Adversarial Network, 생성적 적대 신경망) 방식이 적용된 프로그램인 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  43. 제37항에 있어서,
    상기 필기 이미지 데이터 획득 단계는
    상기 타겟 스타일 학습 모델을 결정하는 단계; 및
    결정된 상기 타겟 스타일 학습 모델을 상기 사용자 단말기로 전송하는 단계를 포함하고,
    상기 사용자 단말기는
    상기 타겟 스타일 학습 모델을 이용하여 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
  44. 제37항에 있어서,
    상기 필기 이미지 데이터 획득 단계는
    상기 타겟 스타일 학습 모델을 이용하여, 상기 사용자 단말기로부터 전송받은 상기 입력용 데이터로부터 상기 필기 이미지 데이터를 생성하는 단계; 및
    생성된 상기 필기 이미지 데이터를 상기 사용자 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는 필기 이미지 데이터 생성 방법.
KR1020180000566A 2018-01-03 2018-01-03 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법 KR102003221B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180000566A KR102003221B1 (ko) 2018-01-03 2018-01-03 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180000566A KR102003221B1 (ko) 2018-01-03 2018-01-03 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법

Publications (1)

Publication Number Publication Date
KR102003221B1 true KR102003221B1 (ko) 2019-07-24

Family

ID=67481247

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180000566A KR102003221B1 (ko) 2018-01-03 2018-01-03 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법

Country Status (1)

Country Link
KR (1) KR102003221B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516560B1 (ko) * 2022-07-12 2023-03-31 망고클라우드 주식회사 수기로 작성된 문서의 관리 시스템
EP4358490A1 (de) * 2022-10-20 2024-04-24 Alexander Brandt Bildgesteuertes initiieren von befehlen auf einem server in einem kommunikationsnetzwerk mithilfe eines mobilen kommunikationsgerätes und eines künstlichen intelligenzmoduls

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087357A (ko) * 2016-01-20 2017-07-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101794578B1 (ko) * 2017-06-07 2017-11-07 (주)크레아소프트 질병 예측 방법, 이를 수행하기 위한 기록 매체 및 장치
KR101801153B1 (ko) * 2016-12-30 2017-11-27 이경민 기계학습 기반의 문자 인식 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087357A (ko) * 2016-01-20 2017-07-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101801153B1 (ko) * 2016-12-30 2017-11-27 이경민 기계학습 기반의 문자 인식 시스템
KR101794578B1 (ko) * 2017-06-07 2017-11-07 (주)크레아소프트 질병 예측 방법, 이를 수행하기 위한 기록 매체 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516560B1 (ko) * 2022-07-12 2023-03-31 망고클라우드 주식회사 수기로 작성된 문서의 관리 시스템
EP4358490A1 (de) * 2022-10-20 2024-04-24 Alexander Brandt Bildgesteuertes initiieren von befehlen auf einem server in einem kommunikationsnetzwerk mithilfe eines mobilen kommunikationsgerätes und eines künstlichen intelligenzmoduls

Similar Documents

Publication Publication Date Title
CN110458918B (zh) 用于输出信息的方法和装置
Villán Mastering OpenCV 4 with Python: a practical guide covering topics from image processing, augmented reality to deep learning with OpenCV 4 and Python 3.7
US9524418B2 (en) Systems and methods for detecting, identifying and tracking objects and events over time
KR20190095651A (ko) 문자 학습 트레이닝 데이터 생성 장치 및 그 방법
US20120005564A1 (en) Content distribution system and method
KR102003221B1 (ko) 필기 이미지 데이터 생성 시스템 및 이를 이용한 필기 이미지 데이터 생성 방법
CN111246272A (zh) 视频封面图的显示方法及装置
CN107609487B (zh) 一种用户头像的生成方法和装置
EP4246425A1 (en) Animal face style image generation method and apparatus, model training method and apparatus, and device
US11334706B2 (en) Information processing apparatus and non-transitory computer readable medium
KR101388965B1 (ko) 디지털 사진의 드로잉 변환 방법
CN113408208A (zh) 模型训练方法、信息提取方法、相关装置及存储介质
CN112866577B (zh) 图像的处理方法、装置、计算机可读介质及电子设备
CN113850714A (zh) 图像风格转换模型的训练、图像风格转换方法及相关装置
CN112087590A (zh) 图像处理方法、装置、系统及计算机存储介质
CN110415318B (zh) 图像处理方法和装置
CN111274447A (zh) 基于视频的目标表情生成方法、装置、介质、电子设备
CN112668300B (zh) 一种公式编辑方法、装置、计算机设备和存储介质
CN114283422A (zh) 一种手写字体生成方法、装置、电子设备和存储介质
CN114550545A (zh) 一种课程生成、课程展示方法以及装置
KR20170127354A (ko) 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법
CN112381709A (zh) 图像处理方法、模型训练方法、装置、设备和介质
US20190303664A1 (en) Method and system for using whiteboard changes as interactive directives for vectorization software
CN110941728A (zh) 一种电子文件的处理方法及装置
CN110377824A (zh) 信息推送方法、装置、计算机可读存储介质及电子设备

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant