KR20220034070A - 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체 - Google Patents

모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체 Download PDF

Info

Publication number
KR20220034070A
KR20220034070A KR1020220025908A KR20220025908A KR20220034070A KR 20220034070 A KR20220034070 A KR 20220034070A KR 1020220025908 A KR1020220025908 A KR 1020220025908A KR 20220025908 A KR20220025908 A KR 20220025908A KR 20220034070 A KR20220034070 A KR 20220034070A
Authority
KR
South Korea
Prior art keywords
character
loss
target domain
style
font
Prior art date
Application number
KR1020220025908A
Other languages
English (en)
Inventor
자밍 류
리청 탕
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20220034070A publication Critical patent/KR20220034070A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1918Fusion techniques, i.e. combining data from various sources, e.g. sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Document Processing Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 개시는 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체를 제공한다. 본 개시는 인공 지능 기술분야에 관한 것으로서, 구체적으로는 컴퓨터 시각 및 딥러닝 기술분야에 관한 것이며, OCR 광학적 문자부호 인식 등 시나리오에 응용될 수 있다. 구체적으로 모델 훈련을 수행하는 실현 방안은, 소스 도메인 샘플 문자 및 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여, 타겟 도메인 생성 문자를 획득하고; 타겟 도메인 샘플 문자 및 타겟 도메인 관련 문자 중의 적어도 하나 및 타겟 도메인 생성 문자를 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 제1 손실에 따라 폰트 생성 모델의 파라미터를 조정하며; 소스 도메인 샘플 문자 및 랜덤 벡터를 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득하고; 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 손실 분석 네트워크에 입력하여 제2 손실을 획득하며, 제2 손실에 따라 폰트 생성 모델의 파라미터를 다시 조정하는 것이다. 해당 방안을 통해 모델의 정확성을 향상시킨다.

Description

모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체{MODEL TRAINING METHOD AND APPARATUS, FONT LIBRARY ESTABLISHMENT METHOD AND APPARATUS, AND STORAGE MEDIUM}
본 개시는 인공 지능 기술분야에 관한 것으로서, 구체적으로는 컴퓨터 시각 및 딥러닝 기술분야에 관한 것이며, OCR 광학적 문자부호 인식 등 시나리오에 응용될 수 있다.
인터넷의 발전 및 사람들의 개인화 수요가 증가함에 따라, 사용자 정의 스타일 폰트의 생성이 점점 발전하기 시작하고 있다.
폰트의 생성 과정은 실질적으로 이미지 스타일이 변환되는 과정이고, 즉 한 장의 이미지를 콘텐츠가 변경되지 않도록 유지하는 상황하에 다른 스타일로 전환시키는 것이며, 예를 들어, 표준 해서체 스타일의 "
Figure pat00001
"라는 문자를 사용자의 필기체 스타일의 "
Figure pat00002
"로 전환시키는 것이다.
본 개시는 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체를 제공한다.
본 개시의 일 측면에 따르면, 폰트 생성 모델의 훈련 방법을 제공하며, 해당 방법은,
소스 도메인 샘플 문자 및 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여, 타겟 도메인 생성 문자를 획득하는 단계;
타겟 도메인 샘플 문자 및 타겟 도메인 관련 문자 중의 적어도 하나 및 타겟 도메인 생성 문자를 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 제1 손실에 따라 폰트 생성 모델의 파라미터를 조정하는 단계;
소스 도메인 샘플 문자 및 랜덤 벡터를 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득하는 단계;
랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 제2 손실에 따라 폰트 생성 모델의 파라미터를 다시 조정하는 단계; 를 포함한다.
본 개시의 다른 측면에 따르면, 폰트 라이브러리 구축 방법을 제공하며, 해당 방법은,
소스 도메인 입력 문자를 폰트 생성 모델에 입력하여, 타겟 도메인 새 문자를 획득하는 단계; 및
타겟 도메인 새 문자에 기반하여 폰트 라이브러리를 구축하는 단계; 를 포함하되,
여기서, 폰트 생성 모델은 본 개시의 임의의 실시예의 폰트 생성 모델의 훈련 방법에 따라 획득된다.
본 개시의 다른 측면에 따르면, 전자설비를 제공하며, 해당 전자설비는,
적어도 하나의 프로세서; 및
적어도 하나의 프로세서와 통신 연결하는 메모리; 를 포함하되, 여기서,
메모리는 적어도 하나의 프로세서에 의해 실행 가능한 명령을 저장하고, 명령은 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서가 본 개시의 임의의 실시예의 폰트 생성 모델의 훈련 및/또는 폰트 라이브러리 구축 방법을 수행할 수 있도록 한다.
본 개시의 다른 측면에 따르면, 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독가능 저장매체를 제공하며, 여기서, 컴퓨터 명령은 컴퓨터가 본 개시의 임의의 실시예의 폰트 생성 모델의 훈련 및/또는 폰트 라이브러리 구축 방법을 수행하도록 한다.
본 개시의 기술에 따라, 적은 양의 샘플 데이터 훈련의 폰트 생성 모델을 위한 새로운 아이디어를 제공하고, 모델 훈련의 정확성 및 일반화성을 향상시킨다.
본문에서 설명된 내용은 본 개시의 실시예의 키포인트 또는 중요한 특징을 식별하기 위함이 아니며, 본 개시의 범위는 이에 한정되지 않음을 이해해야 한다. 본 개시의 기타 특징은 다음의 설명을 통해 쉽게 이해할 수 있다.
첨부된 도면은 본 방안을 보다 잘 이해하기 위한 것이고, 본 개시를 한정하지 않는다. 여기서:
도 1은 본 개시의 일 실시예에 따른 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법을 응용 가능한 예시적인 시스템의 구조 개략도이다.
도 2a는 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 훈련 방법의 흐름도이다.
도 2b는 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 구조 개략도이다.
도 3은 본 개시의 실시예에 따라 제공한 다른 폰트 생성 모델의 구조 개략도이다.
도 4는 본 개시의 실시예에 따라 제공한 다른 폰트 생성 모델의 훈련 방법의 흐름도이다.
도 5는 본 개시의 실시예에 따라 제공한 다른 폰트 생성 모델의 훈련 방법의 흐름도이다.
도 6은 본 개시의 실시예에 따라 제공한 폰트 라이브러리 구축 방법의 흐름도이다.
도 7은 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 훈련 장치의 구조 개략도이다.
도 8은 본 개시의 실시예에 따라 제공한 폰트 라이브러리 구축 장치의 구조 개략도이다.
도 9는 본 개시의 실시예의 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법을 실현하기 위한 전자 설비의 블록도이다.
이하, 도면을 결합하여 본 개시의 예시적인 실시예에 대해 설명하도록 하고, 여기서 본 개시의 실시예를 포함하는 각종 상세한 설명은 이해를 돕기 위한 것이며, 이들을 예시적인 것으로 간주하여야 한다. 따라서, 본 분야의 당업자는 본 개시의 범위 및 사상을 벗어나지 않고 여기서 설명된 실시예에 대하여 다양한 변경 및 수정이 가능함을 이해할 것이다. 마찬가지로, 명확하고 간결하게 하기 위해, 이하의 설명에서는 공지된 기능 및 구조에 대한 설명을 생략하도록 한다.
폰트 생성은 이미지 스타일 변환 분야 중의 하나의 새로운 태스크이고, 이미지 스타일 변환은 한 장의 이미지를 콘텐츠가 변경되지 않도록 유지하는 상황하에 다른 스타일로 전환시키는 것으로, 딥 러닝 응용의 인기 있는 연구 방향이다.
현재는 GAN(Generative Adversarial Networks, 생성적 적대 네트워크)모델을 채택하여 폰트 생성을 실현할 수 있다. 그러나 GAN 모델에 기반한 폰트 생성 방안에서는, 적은 데이터양으로 훈련된 네트워크를 이용하면, 상대적으로 약한 일부의 특징, 예를 들어, 기울기, 크기 및 부분 스트로크와 같은 특징만을 학습할 수 있으며, 사용자 스타일을 가장 많이 구비하는 특징을 학습할 수 없다. 또한, 큰 데이터양으로 훈련된 네트워크를 사용할 수도 있으며, 이 경우, 스타일적으로는 강하지만 훈련 세트 이외의 한자에서는 오자가 발생하기 쉽다. 이러한 주류의 연구 결과는 모두 폰트 레벨의 효과를 달성하기 어렵다.
본 개시의 실시예는 폰트 생성 모델의 훈련 방법 및 해당 폰트 생성 모델을 사용하여 폰트 라이브러리를 구축하는 방법을 제공한다. 폰트 생성 모델을 훈련하여 소스 도메인과 타겟 도메인의 폰트 스타일 변환 태스크를 실행하는 과정에서 소스 도메인과 랜덤 스타일의 폰트 변환 훈련을 인입하여, 즉 랜덤 훈련 브랜치(branch)를 증가하여, 폰트 생성 모델이 폰트 스타일 변환을 실행하는 능력을 향상시키며, 타겟 도메인 샘플 데이터가 적거나, 소스 도메인 폰트가 폰트 분포의 스타일 문자에 부합되지 않는 경우, 여전히 미관적이고 정확한 폰트를 생성할 수 있어, 모델의 정확성과 일반화성을 향상시킨다.
도 1은 본 개시의 일 실시예에 따른 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법을 응용 가능한 예시적인 시스템의 구조 개략도이다. 주의해야 할 것은, 도 1은 당업자가 본 개시의 기술 내용을 이해할 수 있도록, 본 개시의 실시예를 응용 가능한 시스템 구조의 예시일뿐이며, 본 개시의 실시예가 기타 설비, 시스템, 환경 또는 시나리오에 사용될 수 없다는 것을 의미하지 않는다.
도 1에 도시된 바와 같이, 해당 실시예에 따른 시스템 구조(100)는 다수의 단말 설비(101), 네트워크(102) 및 서버(103)를 포함할 수 있다. 네트워크(102)는 단말 설비(101)와 서버(103) 사이에서 통신 링크를 제공하는 매체이다. 네트워크(102)는 각종 연결 유형을 포함하고, 예를 들어, 유선 및/또는 무선 통신 링크 등을 포함한다.
사용자는 단말 설비(101)를 사용하여 네트워크(102)를 통해 서버(103)와 상호 작용하여 메세지 등을 수신 또는 송신할 수 있다. 단말 설비(101)는 각종 전자 설비일 수 있으며, 해당 전자 설비는 스마트 폰, 태블릿 컴퓨터, 랩톱형 휴대용 컴퓨터 등을 포함하나 이에 한정되지 않는다.
본 개시의 실시예에서 제공되는 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법 중의 적어도 하나는 일반적으로 서버(103)에 의해 실행될 수 있다. 이에 대응하게, 본 개시의 실시예에서 제공되는 폰트 생성 모델의 훈련 장치 및/또는 폰트 라이브러리 구축 장치는 일반적으로 서버(103)에 설치될 수 있다. 본 개시의 실시예에서 제공되는 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법은 서버(103)와 상이한, 단말 설비(101) 및/또는 서버(103)와 통신 가능한 서버 또는 서버 클러스터에 의해 실행될 수도 있다. 대응하게, 본 개시의 실시예에서 제공되는 폰트 생성 모델의 훈련 장치 및/또는 폰트 라이브러리 구축 장치는 서버(103)와 상이한, 단말 설비(101) 및/또는 서버(103)와 통신 가능한 서버 또는 서버 클러스터에 설치될 수 있다.
도 2a는 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 훈련 방법의 흐름도이고; 도 2b는 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 구조 개략도이다. 본 개시의 실시예는 폰트 스타일 변환 태스크를 수행하는 폰트 생성 모델을 훈련하는 경우에 적용되고, 특히 적은 양의 샘플 데이터에 기반하여, 폰트 스타일 변환 태스크를 수행하는 폰트 생성 모델을 훈련하는 경우에 적용된다. 해당 방법은 폰트 생성 모델의 훈련 장치에 의해 수행될 수 있고, 해당 장치는 소프트웨어 및/또는 하드웨어의 방식에 의해 실현될 수 있다. 도 2a-도 2b에 도시된 바와 같이, 본 실시예에서 제공하는 폰트 생성 모델의 훈련 방법은 다음의 단계를 포함할 수 있다.
단계(S201), 소스 도메인 샘플 문자 및 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여, 타겟 도메인 생성 문자를 획득한다.
여기서, 소스 도메인 샘플 문자는 소스 도메인 폰트 스타일을 구비한 이미지일 수 있고, 소스 도메인 스타일 폰트는 해서체, 송체 또는 흑체 등 상규적인 폰트일 수 있다. 타겟 도메인 관련 문자는 타겟 도메인 폰트 스타일을 구비하고, 소스 도메인 샘플 문자의 편방(부수)을 커버할 수 있는 이미지일 수 있다. 타겟 도메인 폰트 스타일은 사용자 손글씨 폰트 스타일이거나 기타 예술적 문자 폰트 스타일일 수 있다. 설명해야 할 것은, 본 실시예 중의 타겟 도메인 관련 문자의 개수는 하나 또는 복수 개일 수 있고, 바람직하게는 복수 개이다. 타겟 도메인 생성 문자는 폰트 생성 모델에 의해 생성된, 소스 도메인 샘플 문자의 콘텐츠 및 타겟 도메인 관련 문자의 폰트 스타일을 구비하는 이미지일 수 있고, 예를 들어, 만약 소스 도메인 샘플 문자가 "
Figure pat00003
"이면, 이에 대응하는 편방(부수)은 "
Figure pat00004
" 및 "
Figure pat00005
"를 포함하고, 따라서, 타겟 도메인 관련 문자는 타겟 도메인 폰트 스타일을 구비하고, "
Figure pat00006
" 또는 "
Figure pat00007
"을 포함하는 모든 문자의 이미지일 수 있으며, 예를 들어 "
Figure pat00008
" 및 "佳"일 수 있다. 타겟 도메인 생성 문자는 타겟 도메인 폰트 스타일을 구비한 "
Figure pat00009
"일 수 있다.
도 2b에 도시된 바와 같이, 본 출원의 실시예의 폰트 생성 모델(2)은 소스 도메인 샘플 문자를 소스 도메인 스타일 폰트로부터 타겟 도메인 스타일 폰트로 변환하는 신경 네트워크 모델이다. 해당 폰트 생성 모델(2)은 폰트 생성 네트워크(20) 및 손실 분석 네트워크(21)를 포함할 수 있다. 여기서, 폰트 생성 네트워크(20)는 폰트 스타일 변환 태스크를 수행하고, 즉 폰트 생성 모델의 주요 네트워크이며; 손실 분석 네트워크(21)는 모델 훈련 단계에서, 훈련 과정 중에 모델의 손실 함수를 계산하여 모델이 해당 손실 함수를 기반으로 파라미터의 조정을 수행하도록 한다.
구체적으로, 본 실시예에서 한번의 반복 훈련 태스크를 실행할 때, 먼저 소스 도메인 샘플 문자에 기반하여, 해당 소스 도메인 샘플 문자의 편방(부수)을 커버하는 한 배치(batch)의 타겟 도메인 관련 문자를 획득한 후, 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자를 폰트 생성 모델(2)의 폰트 생성 네트워크(20)에 입력하며, 폰트 생성 네트워크(20)는 입력된 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자에 기반하여, 소스 도메인 샘플 문자의 폰트 스타일을 소스 도메인 폰트 스타일로부터 타겟 도메인 폰트 스타일로 변환하여 타겟 도메인 생성 문자를 획득한다. 도 2b에 도시된 바와 같이, 송체 스타일의 문자 "
Figure pat00010
"(즉, 소스 도메인 샘플 문자)와 손글씨 스타일의 문자 "
Figure pat00011
" 및 "佳"(즉, 타겟 도메인 관련 문자)를 폰트 생성 모델(2)의 폰트 생성 네트워크(20)에 입력하여 손글씨 스타일의 문자 "
Figure pat00012
"(즉, 타겟 도메인 생성 문자)를 획득한다.
단계(S202), 타겟 도메인 샘플 문자 및 타겟 도메인 관련 문자 중의 적어도 하나 및 타겟 도메인 생성 문자를 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 제1 손실에 따라 폰트 생성 모델의 파라미터를 조정한다.
여기서, 타겟 도메인 샘플 문자는 실제로 존재하는 소스 도메인 샘플 문자의 콘텐츠 및 타겟 도메인 관련 문자의 폰트 스타일을 구비하는 이미지일 수 있다. 타겟 도메인 샘플 문자는 타겟 도메인 생성 문자에 대응하는 표준 문자이다. 예를 들어, 샘플 문자가 "
Figure pat00013
"이고, 타겟 도메인 폰트가 사용자 손글씨 스타일 폰트이면, 해당 타겟 도메인 샘플 문자는 사용자가 실제로 자필한 "
Figure pat00014
"라는 문자일 수 있다. 타겟 도메인 생성 문자는 폰트 생성 모델에 의해 예측된 사용자가 자필한 "
Figure pat00015
"라는 문자이다. 제1 손실은 단계(S201)가 타겟 도메인 관련 문자 및 소스 도메인 샘플 문자에 기반하여 모델에 대해 훈련할 때 계산한 손실 함수이다.
본 실시예의 폰트 생성 모델 중의 손실 분석 네트워크는 적어도 하나의 유형의 손실 함수를 파싱하는 적어도 하나의 서브 네트워크를 포함할 수 있고, 즉, 해당 손실 분석 네트워크에 기반하여 결정된 제1 손실은 적어도 하나의 유형의 손실 함수 값을 포함할 수 있다. 예를 들어, 폰트 생성 모델의 손실 분석 네트워크는, 타겟 도메인 샘플 문자와 타겟 도메인 생성 문자의 문자부호 콘텐츠의 일치성을 분석하여 문자부호 분류 손실을 생성하고; 타겟 도메인 샘플 문자와 타겟 도메인 생성 문자의 폰트 스타일의 일치성을 분석하여 스타일 분류 손실을 생성하며; 타겟 도메인 관련 문자와 타겟 도메인 생성 문자의 편방(부수)(즉 컴포넌트)의 일치성을 분석하여 컴포넌트 분류 손실을 생성하고; 타겟 도메인 생성 문자가 오자인지를 분석하여 오자 손실을 생성하는 등일 수 있다. 본 실시예는 손실 분석 네트워크를 통해 제1 손실을 계산한 후, 해당 제1 손실에 기반하여 폰트 생성 모델의 폰트 생성 네트워크 및 손실 분석 네트워크의 파라미터 값을 조정한다. 이때, 한 번의 반복 훈련 태스크의 제1 단계의 훈련을 완성하였고, 즉 타겟 브랜치 훈련을 완성하였다.
단계(S203), 소스 도메인 샘플 문자 및 랜덤 벡터를 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득한다.
여기서, 랜덤 벡터는 정규 분포에 따라 랜덤으로 샘플링한 하나의 랜덤 벡터이다. 해당 랜덤 벡터는 하나의 랜덤 도메인의 스타일 폰트에 대응한다. 랜덤 벡터의 차원은 사전 설정한 것일 수 있다. 랜덤 도메인 생성 문자는 소스 도메인 샘플 문자의 콘텐츠 및 랜덤 벡터에 대응하는 랜덤 도메인의 폰트 스타일을 구비하는 이미지일 수 있다.
본 실시예는 한 번의 반복 훈련 태스크에 대한 것으로, 단계(S201)-단계(S202)의 제1 단계의 훈련을 완성한 후, 소스 도메인 샘플 폰트 및 랜덤으로 샘플링한 랜덤 벡터에 기반하여, 모델에 대해 제2 단계의 훈련, 즉, 랜덤 브랜치 훈련을 수행한다. 구체적으로, 소스 도메인 샘플 문자 및 랜덤 벡터를 폰트 생성 모델(2)의 폰트 생성 네트워크(20)에 입력하며, 폰트 생성 네트워크(20)는 입력된 소스 도메인 샘플 문자 및 랜덤 벡터에 기반하여 소스 도메인 샘플 문자의 폰트 스타일을 소스 도메인 폰트 스타일로부터 랜덤 벡터에 대응하는 랜덤 도메인 폰트 스타일로 변환하여 랜덤 도메인 생성 문자를 획득한다.
단계(S204), 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 제2 손실에 따라 폰트 생성 모델의 파라미터를 다시 조정한다.
여기서, 랜덤 샘플 문자는 실제로 존재하는, 소스 도메인 샘플 문자의 콘텐츠 및 랜덤 도메인 폰트 스타일을 구비하는 이미지일 수 있다. 이는 랜덤 도메인 생성 문자에 대응하는 표준 문자이다. 제2 손실은 단계(S203)가 랜덤 벡터 및 소스 도메인 샘플 문자에 기반하여 모델에 대해 훈련할 때 계산한 손실 함수이다. 제1 손실 및 제2 손실은 동일할 수도 있고 상이할 수 도 있다.새로우
단계(S203) 훈련시, 폰트 스타일이 랜덤이기 때문에, 손실 분석 네트워크는 스타일 변환이 정확한지를 결정할 수 없으므로, 손실 분석 네트워크는 본 단계를 수행하여 제2 손실을 생성하는 경우, 문자부호 콘텐츠를 참조할 수 있으며, 예를 들어, 랜덤 도메인 생성 문자의 문자부호 콘텐츠가 랜덤 도메인 샘플 문자와 일치한지를 파싱하여 문자부호 분류 손실을 생성하고; 또한 랜덤 도메인 생성 문자가 오자인지를 분석하여 오자 손실을 생성하는 등일 수 있다. 본 실시예는 손실 분석 네트워크를 통해 제2 손실을 계산한 후, 해당 제2 손실에 기반하여 폰트 생성 모델의 폰트 생성 네트워크 및 손실 분석 네트워크의 파라미터 값을 조정한다. 이때 한 번의 반복 훈련 태스크의 제2 단계의 훈련, 즉 랜덤 브랜치 훈련을 완성하였다.
설명해야 할 것은, 본 출원의 실시예의 방안은 복수의 그룹의 소스 도메인 샘플 문자에 기반하여, 모델에 대해 여러 번의 반복 훈련을 수행해야 하며, 구체적으로, 각 그룹의 소스 도메인 샘플 문자에 대하여, 폰트 생성 모델에 대해 한 번의 반복 훈련을 수행할 때, 모두 타겟 브랜치(즉, 단계(S201)-단계(S202))와 랜덤 브랜치(즉, 단계(S203)-단계(S204))로 나누어 두 단계의 훈련을 수행해야 한다. 기설정된 훈련 정지 조건에 도달할 때까지 여러 번의 반복 훈련을 수행하며, 해당 조건에 도달하면, 폰트 생성 모델의 파라미터를 조정하는 것을 정지하고, 훈련을 거친 폰트 생성 모델을 획득한다. 훈련 정지 조건은, 훈련 횟수가 기설정된 횟수에 도달하는 것, 또는, 상기 제1 손실 및/또는 제2 손실이 수렴되는 등을 포함할 수 있다.
더 설명해야 할 것은, 폰트 생성 모델에 입력된 문자(예를 들어, 소스 도메인 샘플 문자, 타겟 도메인 관련 문자, 타겟 도메인 샘플 문자 및 랜덤 도메인 샘플 문자)는 이미지의 형식으로 입력될 수 있고, 폰트 생성 모델에 입력된 문자에 대응하는 이미지는 개시된 데이터 세트에서 얻거나, 관련된 권한을 부여받은 후 얻은 것이다.
본 출원의 실시예의 방안은 폰트 생성 모델에 대해 한 번의 반복 훈련을 수행할 때, 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자에 기반하여 모델에 대해 타겟 브랜치 훈련을 수행하는 단계 및 소스 도메인 샘플 문자 및 랜덤 벡터에 기반하여 모델에 대해 랜덤 브랜치 훈련을 수행하는 단계를 포함한다. 랜덤 브랜치 훈련 단계를 인입하는 것을 통해, 폰트 생성 모델이 폰트 스타일 변환을 수행하는 능력을 향상시키며, 타겟 도메인 샘플 데이터가 적거나, 소스 도메인 폰트가 폰트 분포의 스타일 문자에 부합되지 않을 경우, 여전히 미관적이고 정확한 폰트를 생성할 수 있어, 모델의 정확성과 일반화성을 향상시킨다. 적은 샘플 훈련의 폰트 생성 모델을 위한 새로운 아이디어를 제공하였다.
도 3은 본 개시의 실시예에 따라 제공한 다른 폰트 생성 모델의 구조 개략도이다. 도 3에 도시된 바와 같이, 본 출원의 실시예의 폰트 생성 모델(3)의 폰트 생성 네트워크(30)는, 콘텐츠 인코더(301), 랜덤 스타일 인코더(302), 타겟 스타일 인코더(303) 및 디코더(304)를 포함한다. 여기서, 콘텐츠 인코더(301)는 소스 도메인 샘플 문자의 콘텐츠 특징을 코딩하고; 랜덤 스타일 인코더(302)는 랜덤 벡터의 스타일 특징을 코딩하며; 타겟 스타일 인코더(303)는 타겟 도메인 관련 문자의 스타일 특징을 코딩한다. 선택적으로, 상기 각각의 인코더는 앤드 투 앤드(end to end) 형식으로 연결된 복수의 완전 연결층으로 구성된 다층 감지 네트워크를 포함할 수 있다. 각 인코더의 다층 감지 네트워크의 네트워크층 설계는 동일할 수도 있고 상이할 수도 있다. 디코더(304)는 각 인코더 코딩 특징에 기반하여, 디코딩을 통해 스타일 변환 후의 생성 문자를 획득한다. 본 실시예의 각 상기 인코더는 모두 디코더(304)와 연결된다.
본 실시예의 폰트 생성 모델의 스타일 디코더는, 변환될 타겟 스타일의 타겟 스타일 인코더를 포함할뿐만 아니라, 랜덤 스타일의 랜덤 스타일 인코더를 더 포함하고, 이러한 설정의 장점은, 모델 훈련 단계에서, 랜덤 스타일 폰트가 모델 훈련에 대한 영향을 인입하는 것을 지원하여, 폰트 생성 모델이 폰트 스타일 변환을 수행하는 능력을 향상시켜 모델의 정확성과 일반화성을 향상시킨다.
본 출원의 실시예의 폰트 생성 모델(3)의 손실 분석 네트워크(31)는, 컴포넌트 분류기(311), 문자부호 판별기(312), 스타일 판별기(313) 및 문자부호 분류기(314) 중 적어도 하나를 포함한다. 여기서, 컴포넌트 분류기(311)는 컴포넌트 분류 손실을 계산하고; 문자부호 판별기(312)는 문자부호 분류 손실을 계산하며; 스타일 판별기(313)는 스타일 분류 손실을 계산하고; 문자부호 분류기(314)는 오자 손실을 계산한다. 따라서, 본 실시예의 제1 손실은, 컴포넌트 분류 손실, 제1 문자부호 분류 손실, 스타일 분류 손실 및 제1 오자 손실 중의 적어도 하나를 포함하며; 제2 손실은, 제2 문자부호 분류 손실 및/또는 제2 오자 손실을 포함한다. 구체적으로 상기 각 손실을 계산하는 과정에 대해서는 하기의 실시예에서 상세하게 설명한다.
본 실시예의 손실 분석 네트워크에는 상이한 유형의 손실을 계산하는 다양한 네트워크 구조가 포함될 수 있고, 이러한 설정의 장점은, 다양한 유형의 손실을 통하여 모델를 훈련함으로써, 모델 훈련 결과의 정확성을 크게 향상시킨다.
이어서, 도 3에 도시된 폰트 생성 모델에 기반하여, 해당 폰트 생성 모델의 훈련 방법을 구체적으로 설명한다.
도 4는 본 개시의 실시예에 따라 제공한 다른 폰트 생성 모델의 훈련 방법의 흐름도이다. 본 개시의 실시예는 상기 실시예에 기초하여 타겟 도메인 생성 문자 및 랜덤 도메인 생성 문자를 획득하는 과정에 대해 추가로 상세하게 해석 및 설명하고, 도 3 내지 도 4에 도시된 바와 같이, 본 실시예에서 제공하는 폰트 생성 모델의 훈련 방법은 다음의 단계를 포함할 수 있다.
단계(S401), 소스 도메인 샘플 문자를 콘텐츠 인코더에 입력하여 샘플 문자 콘텐츠 특징을 획득한다.
여기서, 샘플 문자 콘텐츠 특징은 소스 도메인 샘플 문자의 폰트 콘텐츠(예를 들어, 문자부호 분류 및 컴포넌트 분류)를 나타내는 특징일 수 있다.
예시적으로, 도 3에 도시된 바와 같이, 소스 도메인 샘플 문자(예를 들어, 송체 스타일의 문자 "
Figure pat00016
")를 폰트 생성 모델(3)의 폰트 생성 네트워크(30)의 콘텐츠 인코더(301)에 입력하며, 해당 콘텐츠 인코더(301)는 입력된 소스 도메인 샘플 문자의 폰트 콘텐츠를 코딩하여 샘플 문자 콘텐츠 특징을 획득한다.
단계(S402), 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 타겟 스타일 인코더에 입력하여, 타겟 도메인 스타일 특징을 획득한다.
여기서, 타겟 도메인 스타일 특징은 타겟 도메인의 폰트 스타일을 나타내는 특징일 수 있다.
예시적으로, 도 3에 도시된 바와 같이, 소스 도메인 샘플 문자의 타겟 도메인 관련 문자(예를 들어, 손글씨 스타일의 글자 "
Figure pat00017
" 및 "佳")를 폰트 생성 모델(3)의 폰트 생성 네트워크(30)의 타겟 스타일 인코더(303)에 입력하며, 해당 타겟 스타일 인코더(303)는 입력된 타겟 도메인 관련 문자의 폰트 스타일을 코딩하여, 샘플 문자 콘텐츠 특징을 획득한다.
선택적으로, 입력되는 타겟 도메인 관련 문자가 복수 개인 경우, 타겟 스타일 인코더(303)는 우선 각 타겟 도메인 관련 문자에 대해 하나의 서브 스타일 특징을 생성한 다음, 각 서브 스타일 특징을 처리(예를 들어, 평균값을 처리)하여, 타겟 도메인을 나타낼 수 있는 전체 스타일 특징(즉, 타겟 도메인 스타일 특징)을 획득할 수 있다.
단계(S403), 타겟 도메인 스타일 특징 및 샘플 문자 콘텐츠 특징을 디코더에 입력하여, 타겟 도메인 생성 문자를 획득한다.
예시적으로, 도 3에 도시된 바와 같이, 콘텐츠 인코더(301)에 의해 코딩된 샘플 문자 콘텐츠 특징 및 타겟 스타일 인코더(303)에 의해 코딩된 타겟 스타일 특징을 모두 디코더(304)에 입력하며, 디코더(304)는 타겟 도메인 스타일 특징 및 샘플 문자 콘텐츠 특징을 디코딩하며, 나아가 디코딩 결과에 따라 융합하여 소스 도메인 샘플 문자의 콘텐츠 및 타겟 도메인 관련 문자의 폰트 스타일을 구비하는 타겟 도메인 생성 문자(예를 들어, 손글씨 스타일의 문자 "
Figure pat00018
")를 획득한다.
단계(S404), 타겟 도메인 샘플 문자 및 타겟 도메인 관련 문자 중의 적어도 하나 및 타겟 도메인 생성 문자를 폰트 생성 모델의 손실 분석 네트워크에 입력하여, 제1 손실을 획득하고, 제1 손실에 따라 폰트 생성 모델의 파라미터를 조정한다.
단계(S405), 소스 도메인 샘플 문자를 콘텐츠 인코더에 입력하여 샘플 문자 콘텐츠 특징을 획득한다.
설명해야 할 것은, 본 단계의 구체적인 실행 과정은 단계(S401)과 동일하다. 제2 단계 훈련을 실행할 때, 본 단계를 실행하지 않아도 되고, 즉 단계(S407)을 실행할 때, 단계(S401)에서 얻은 샘플 콘텐츠 특징을 획득하기만 하면 된다.
단계(S406), 랜덤 벡터를 랜덤 스타일 인코더에 입력하여, 랜덤 도메인 스타일 특징을 획득한다.
여기서, 랜덤 도메인 스타일 특징은 랜덤 벡터에 대응하는 랜덤 도메인의 폰트 스타일을 나타내는 특징일 수 있다.
예시적으로, 도 3에 도시된 바와 같이, 정규 분포에 부합하는 하나의 랜덤 벡터를 랜덤으로 샘플링하여, 이를 폰트 생성 모델(3)의 폰트 생성 네트워크(30)의 랜덤 스타일 인코더(302)에 입력하고, 해당 랜덤 스타일 인코더(302)는 내부의 다층 감지 네트워크를 통해, 랜덤 벡터에 대응하는 랜덤 폰트 스타일의 랜덤 도메인 스타일 특징을 획득할 수 있다.
단계(S407), 랜덤 도메인 스타일 특징 및 샘플 문자 콘텐츠 특징을 디코더에 입력하여, 랜덤 도메인 생성 문자를 획득한다.
예시적으로, 도 3에 도시된 바와 같이, 콘텐츠 인코더 (301)에 의해 코딩된 샘플 문자 콘텐츠 특징 및 랜덤 스타일 인코더(302)에 의해 코딩된 랜덤 도메인 스타일 특징을 모두 디코더(304)에 입력하고, 디코더(304)는 랜덤 도메인 스타일 특징 및 샘플 문자 콘텐츠 특징을 디코딩하며, 나아가, 디코딩 결과에 따라 융합하여 소스 도메인 샘플 문자의 콘텐츠 및 랜덤 도메인의 폰트 스타일을 구비하는 랜덤 도메인 생성 문자(도 3에는 랜덤 도메인 생성 문자가 도시되지 않음)를 획득한다.
단계(S408), 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 제2 손실에 따라 폰트 생성 모델의 파라미터를 다시 조정한다.
본 출원의 실시예의 방안은 폰트 생성 모델에 대해 한 번의 반복 훈련을 수행할 때, 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자에 기반하여 모델을 훈련시켜야 할 뿐만 아니라, 랜덤 벡터를 랜덤 스타일 인코더에 입력하여, 랜덤 스타일 인코더에 의해 출력된 랜덤스타일 특징에 기반하여, 손실 함수를 다시 계산함으로써 모델에 대해 랜덤 브랜치 훈련을 수행한다. 타겟 스타일 문자 및 랜덤 스타일 폰트가 모델 훈련에 대한 영향을 동시에 인입하여, 폰트 생성 모델이 폰트 스타일 변환을 실행하는 능력을 향상시킴으로써 모델의 정확성과 일반화성을 향상시킨다.
도 5는 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 훈련 방법의 흐름도이다. 본 개시의 실시예는 상기 실시예의 기초상에, 어떻게 1 손실 및 제2 손실을 계산하는 지에 대해, 및 어떻게 제1 손실 및 제2 손실에 기반하여 폰트 생성 모델의 파라미터를 조정하는 지에 대해 추가로 상세하게 설명한다. 도 3과 도 5에 도시된 바와 같이, 본 실시예에서 제공하는 폰트 생성 모델의 훈련 방법은 다음의 단계를 포함할 수 있다.
단계(S501), 소스 도메인 샘플 문자 및 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여 타겟 도메인 생성 문자를 획득한다.
단계(S502), 타겟 도메인 샘플 문자 및 타겟 도메인 관련 문자 중의 적어도 하나 및 타겟 도메인 생성 문자를 폰트 생성 모델의 손실 분석 네트워크에 입력하여, 컴포넌트 분류 손실, 제1 문자부호 분류 손실, 스타일 분류 손실 및 제1 오자 손실 중의 적어도 하나를 획득하며, 컴포넌트 분류 손실, 제1 문자부호 분류 손실, 스타일 분류 손실 및 제1 오자 손실 중의 적어도 하나에 따라 폰트 생성 모델의 파라미터를 조정한다.
이어서, 단계(S502) 중 각 유형의 손실의 계산 방법 및 해당 손실에 기반하여 모델에 대해 훈련을 수행하는 과정에 대해 설명한다.
1. 컴포넌트 분류 손실을 결정하는 과정은, 타겟 도메인 관련 문자와 타겟 도메인 생성 문자를 컴포넌트 분류기에 입력하여, 타겟 도메인 생성 문자의 컴포넌트 벡터와 타겟 도메인 관련 문자의 컴포넌트 벡터를 획득하는 것; 타겟 도메인 생성 문자의 컴포넌트 벡터 및 타겟 도메인 관련 문자의 컴포넌트 벡터 사이의 차이에 따라, 컴포넌트 분류 손실을 결정하는 것; 을 포함한다.
여기서, 컴포넌트 벡터는 하나의 N 차원의 벡터일 수 있고, N은 컴포넌트표에 포함된 모든 컴포넌트, 즉, 모든 편방(부수)의 개수 값이다. 컴포넌트 벡터 중의 각 요소는 컴포넌트표 중의 하나의 컴포넌트를 나타내고, 입력된 문자에 해당 컴포넌트가 포함되면, 해당 요소는 제1 수치(예를 들어, 1)이고, 포함되지 않으면 제2 수치(예를 들어, 0)이다. 따라서, 컴포넌트 분류기는 생성된 컴포넌트 벡터를 통해 입력된 문자에 기설정된 편방(부수)(즉, 컴포넌트)이 포함되는지를 예측할 수 있다.
구체적으로, 본 실시예는 타겟 도메인 관련 문자 및 타겟 도메인 생성 문자를 컴포넌트 분류기(311)에 입력하며, 컴포넌트 분류기(311)는 입력된 타겟 도메인 관련 문자 및 타겟 도메인 생성 문자에 대하여, 하나의 N 차원의 컴포넌트 벡터를 각각 생성할 수 있으며, 예를 들어, 컴포넌트 벡터 1 및 컴포넌트 벡터 2를 생성할 수 있다. 나아가, N 차원의 컴포넌트 벡터 1 및 N 차원의 컴포넌트 벡터 2 사이의 차이에 기반하여 컴포넌트 분류 손실값을 계산한다. 예를 들어, 두 컴포넌트 벡터의 크로스 엔트로피를 계산하여 분류 손실값으로한다. 해당 컴포넌트 분류 손실값이 계산된 후, 해당 컴포넌트 분류 손실값을 제약으로 하여 폰트 생성 모델(3)의 파라미터를 조정함으로써, 모든 스타일의 문자가 해당 컴포넌트 분류기(311)를 통과한 후 컴포넌트 분류를 정확하게 수행할 수 있도록 한다. 본 실시예는 폰트 생성 모델의 훈련 과정에서 컴포넌트 분류 손실을 인입하여 모든 스타일의 문자가 해당 컴포넌트 분류기를 통과한 후 컴포넌트 분류를 정확하게 수행할 수 있도록 보장하며, 나아가, 타겟 도메인 생성 문자가 타겟 도메인 관련 문자의 컴포넌트(즉, 복수의 타겟 관련 문자가 공동으로 갖고 있는 컴포넌트)를 보류하는 것을 보장한다.
2. 제1 문자부호 분류 손실을 결정하는 과정은 다음의 서브단계를 포함할 수 있다.
서브 단계 A, 타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 획득하고, 제1 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 서브단계는 타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 판별기(312)에 입력하여, 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치를 획득하고; 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치에 따라, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 결정하는 것일 수 있다.
본 실시예에서, 훈련 샘플은 M개(예를 들어, 6700개)의 문자의 이미지를 포함할 수 있다. M개의 문자는 M 차원의 벡터, 즉 문자부호 분류 헤더 벡터를 구성할 수 있고, 벡터 중의 각 요소는 하나의 문자에 대응하며, 해당 요소가 문자부호 분류 헤더 벡터에서의 위치는 즉 문자부호 분류 헤더 위치이다. 본 실시예의 문자부호 판별기(312)는 타겟 도메인 샘플 문자를 위해 그에 대응하는 문자부호 분류 헤더 위치 X를 결정하고, 타겟 도메인 생성 문자를 위해 그에 대응하는 문자부호 분류 헤더 위치 X*를 결정한다. 또한, 아래의 공식 (1)에 기반하여 제1 문자부호 분류 손실의 제1 문자부호 손실값을 계산한다. 제1 문자부호 손실값을 결정한 후, 해당 제1 문자부호 손실값에 기반하여, 문자부호 판별기(312)의 파라미터에 대해 한 번의 파라미터 조정을 수행한다.
Figure pat00019
(1)
여기서,
Figure pat00020
는 제1 문자부호 분류 손실의 제1 문자부호 손실값이고; X는 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치이며; X*는 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치이다.
서브단계 B, 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제2 문자부호 손실값을 획득하고, 제2 문자부호 손실값에 기반하여 폰트 생성 네트워크의 파라미터를 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 서브단계는 타겟 도메인 생성 문자를 조정된 문자부호 판별기(312)에 입력하여, 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치를 업데이트하고; 업데이트된 문자부호 분류 헤더 위치에 따라, 제1 문자부호 분류 손실의 제2 문자부호 손실값을 결정한다.
본 실시예에서, 서브단계 A를 통해 문자부호 판별기(312)의 파라미터에 대해 한 번의 업데이트를 수행하며, 이후, 업데이트된 문자부호 판별기(312)는 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치를 결정하는 조작을 다시 수행하며, 즉 문자부호 분류 헤더 위치 X*를 업데이트한다. 또한, 아래의 공식 (2)에 기반하여 제1 문자부호 분류 손실의 제2 문자부호 손실값을 계산한다. 제2 문자부호 손실값을 결정한 후, 해당 제2 문자부호 손실값에 기반하여 폰트 생성 네트워크(30)의 파라미터에 대해 한 번의 파라미터 조정을 수행한다.
Figure pat00021
(2)
여기서,
Figure pat00022
는 제1 문자부호 분류 손실의 제2 문자부호 손실값이고; X*는 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치이다. 설명해야 할 것은, 이때의 X*는 조정된 문자부호 판별기(312)에 의해 업데이트된 문자부호 분류 헤더 위치이다.
서브단계 C, 타겟 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력함으로써, 제1 문자부호 손실값을 업데이트하고, 업데이트된 제1 문자부호 손실값에 기반하여, 문자부호 판별기의 파라미터를 다시 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 단계는 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자를 서브단계 B에 의해 조정된 폰트 생성 네트워크(30)에 다시 입력하여, 타겟 도메인 생성 문자를 업데이트한 후, 업데이트된 후의 타겟 도메인 생성 문자 및 타겟 도메인 샘플 문자를 서브단계 A에 의해 조정된 문자부호 판별기(312)에 다시 입력하여, 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 X* 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치 X를 업데이트하며, 나아가, 공식 (1)에 기반하여 제1 문자부호 손실값을 업데이트하고, 업데이트된 제1 문자부호 손실값을 기반으로 다시 리턴타여 문자부호 판별기(312)의 파라미터를 조정하는 것일 수 있다.
본 실시예는 폰트 생성 모델의 훈련 과정에서, 문자부호 분류 손실를 인입하고, 문자부호 판별기(312) 및 폰트 생성 네트워크(30)에 대해 교대로 반복 훈련을 수행함으로써, 폰트 생성 네트워크(30) 및 문자부호 판별기(312)의 파라미터의 정확성을 크게 향샹시킨다.
3. 스타일 분류 손실을 결정하는 과정은 다음의 서브단계를 포함할 수 있다.
서브단계 D, 타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 스타일 판별기에 입력하여, 스타일 분류 손실의 제1 스타일 손실값을 획득하고, 제1 스타일 손실값에 기반하여, 스타일 판별기의 파라미터를 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 서브단계는 타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 스타일 판별기에 입력하여, 타겟 도메인 생성 문자의 스타일 분류 헤더 위치 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치를 획득하고; 타겟 도메인 생성 문자의 스타일 분류 헤더 위치 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치에 따라, 스타일 분류 손실의 제1 스타일 손실값을 결정하는 것일 수 있다.
본 실시예에서, 훈련 샘플은 S 가지(예를 들어, 80 가지) 스타일의 문자를 포함할 수 있다. S 가지 스타일은 하나의 S 차원의 벡터, 즉 스타일 분류 헤더 벡터를 구성할 수 있고, 벡터 중의 각 요소는 한 가지 스타일에 대응하며, 해당 요소가 스타일 분류 헤더 벡터에서의 위치는 즉, 스타일 분류 헤더의 위치이다. 본 실시예의 스타일 판별기(313)는 타겟 도메인 샘플 문자를 위해 그에 대응하는 스타일 분류 헤더 위치 Y를 결정하고, 타겟 도메인 생성 문자를 위해 그에 대응하는 스타일 분류 헤더 위치 Y*를 결정한다. 또한, 아래의 공식 (3)에 기반하여 스타일 분류 손실의 제1 스타일 손실값을 계산한다. 제1 스타일 손실값을 결정한 후, 해당 제1 스타일 손실값에 기반하여 스타일 판별기(313)의 파라미터에 대해 한 번의 파라미터 조정을 수행한다.
Figure pat00023
(3)
여기서,
Figure pat00024
은 스타일 분류 손실의 제1 스타일 손실값이고; Y는 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치이며; Y*는 타겟 도메인 생성 문자의 스타일 분류 헤더 위치이다.
서브단계 E, 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여, 스타일 분류 손실의 제2 스타일 손실값을 획득하고, 제2 스타일 손실값에 기반하여 폰트 생성 네트워크의 파라미터를 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 서브단계는 타겟 도메인 생성 문자를 조정된 스타일 판별기(313)에 입력하여, 타겟 도메인 생성 문자의 스타일 분류 헤더 위치를 업데이트하고; 업데이트된 스타일 분류 헤더 위치에 따라, 스타일 분류 손실의 제2 스타일 손실값을 결정하는 것일 수 있다.
본 실시예에서, 서브단계 D를 통해 스타일 판별기(313)의 파라미터에 대해 한 번의 업데이트를 수행하며, 이후, 업데이트된 스타일 판별기(313)는 타겟 도메인 생성 문자의 스타일 분류 헤더 위치를 결정하는 조작을 다시 수행하며, 즉, 스타일 분류 헤더 위치 Y*를 업데이트한다. 또한, 아래의 공식 (4)에 기반하여 스타일 분류 손실의 제2 스타일 손실값을 계산한다. 제2 스타일 손실값을 결정한 후, 해당 제2 스타일 손실값에 기반하여 폰트 생성 네트워크(30)의 파라미터에 대해 한 번의 파라미터 조정을 수행한다.
Figure pat00025
(4)
여기서,
Figure pat00026
는 스타일 분류 손실의 제2 스타일 손실값이고; Y*는 타겟 도메인 생성 문자의 스타일 분류 헤더 위치이다. 설명해야 할 것은, 이때의 Y*는 조정된 스타일 판별기(313)에 의해 업데이트된 스타일 분류 헤더 위치이다.
서브단계 F, 타겟 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여, 제1 스타일 손실값을 업데이트하고, 업데이트된 제1 스타일 손실값에 기반하여 스타일 판별기의 파라미터를 다시 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 단계는 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자를 서브단계 E에 의해 조정된 폰트 생성 네트워크(30)에 다시 입력하여, 타겟 도메인 생성 문자를 업데이트한 후, 업데이트된 후의 타겟 도메인 생성 문자 및 타겟 도메인 샘플 문자를 서브단계 D에 의해 조정된 스타일 판별기(313)에 다시 입력하여, 타겟 도메인 생성 문자의 스타일 분류 헤더 위치 Y* 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치 Y를 업데이트하며, 나아가, 공식 (3)에 기반하여 제1 스타일 손실값을 업데이트하고, 업데이트된 제1 스타일 손실값을 기반으로 다시 리턴하여 스타일 판별기(313)의 파라미터를 조정한다.
본 실시예는 폰트 생성 모델의 훈련 과정에서, 스타일 분류 손실를 인입하고, 스타일 판별기(313) 및 폰트 생성 네트워크(30)에 대해 교대로 반복 훈련을 수행함으로써, 폰트 생성 네트워크(30) 및 스타일 판별기(313)의 파라미터의 정확성을 크게 향샹시킨다.
4. 제1 오자 손실을 결정하는 과정은, 타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 분류기 네트워크에 입력하여, 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터 및 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터를 획득하는 것; 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터 및 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터 사이의 차이에 따라, 제1 오자 손실을 결정하는 것; 을 포함할 수 있다.
구체적으로, 도 3에 도시된 바와 같이, 타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 분류기 네트워크(314)에 입력하고, 문자부호 분류기 네트워크(314)는 타겟 도메인 샘플 문자를 위해 그에 대응하는 문자부호 분류 헤더 벡터
Figure pat00027
를 결정하고, 타겟 도메인 생성 문자를 위해 그에 대응하는 문자부호 분류 헤더 벡터
Figure pat00028
를 결정하며; 여기서, 벡터
Figure pat00029
및 벡터
Figure pat00030
중 각 요소는 훈련 샘플 중의 하나의 문자부호를 표시할 수 있으면, m은 훈련 샘플 중의 문자부호의 개수를 표시하며, 예를 들어, 훈련 샘플이 6761개의 문자를 구비하면, m은 6760일 수 있다. 그 다음, 문자부호 분류 헤더 벡터
Figure pat00031
및 문자부호 분류 헤더 벡터
Figure pat00032
사이의 차이에 기반하여, 제1 오자 손실을 계산한다. 예를 들어, 문자부호 분류 헤더 벡터
Figure pat00033
와 문자부호 분류 헤더 벡터
Figure pat00034
사이의 크로스 엔트로피에 기반하여, 아래의 공식 (5)에 따라 제1 오자 손실을 계산한다. 제1 오자 손실을 결정한 후, 해당 제1 오자 손실에 기반하여 폰트 생성 네트워크(30)의 파라미터에 대해 한 번의 파라미터 조정을 수행한다.
Figure pat00035
(5)
여기서,
Figure pat00036
는 제1 오자 손실을 표시하고,
Figure pat00037
는 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터에서 아래 첨자가 i인 요소를 표시하며,
Figure pat00038
는 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터에서 아래 첨자가 i인 요소를 표시하고, i는 0보다 크거나 같고 m보다 작거나 같은 정수이며, m은 문자부호 분류 헤더 벡터에서의 요소의 개수를 표시한다. 본 실시예는 폰트 생성 모델의 훈련 과정에서, 오자 손실을 인입하여, 폰트 생성 네트워크(30)에 의해 출력된 타겟 도메인 생성 문자의 오자율을 제한하여, 폰트 생성 모델이 오자를 생성하는 확률을 감소한다.
설명해야 할 것은, 본 실시예는 상기 4 가지 손실 중의 적어도 한 가지를 생성하여, 폰트 생성 모델의 파라미터를 조정함으로써, 폰트 생성 모델에 대한 제1 단계의 훈련을 완성할 수 있다.
단계(S503), 소스 도메인 샘플 문자 및 랜덤 벡터를 폰트 생성 네트워크에 입력하여, 랜덤 도메인 생성 문자를 획득한다.
단계(S504), 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 손실 분석 네트워크에 입력하여, 제2 문자부호 분류 손실 및/또는 제2 오자 손실을 획득하고, 제2 문자부호 분류 손실 및/또는 제2 오자 손실에 따라, 폰트 생성 모델의 파라미터를 다시 조정한다.
이어서, 단계(S504)에서의 제2 문자부호 분류 손실 및 제2 오자 손실의 계산 방법 및 해당 손실에 기반하여 모델에 대해 훈련을 수행하는 과정을 설명한다.
1. 제2 문자부호 분류 손실을 결정하는 과정은 다음의 서브단계를 포함할 수 있다.
서브단계 G, 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 문자부호 판별기에 입력하여, 제2 문자부호 분류 손실의 제3 문자부호 손실값을 획득하고, 제3 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 서브단계는 랜덤 도메인 샘플 문자 및 랜덤 도메인 생성 문자를 문자부호 판별기(312)에 입력하여, 랜덤 도메인 생성 문자의 문자부호 분류 헤더 위치 및 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 위치를 획득하고; 랜덤 도메인 생성 문자의 문자부호 분류 헤더 위치 및 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 위치에 따라, 제2 문자부호 분류 손실의 제3 문자부호 손실값을 결정하며, 해당 제3 문자부호 손실에 기반하여, 문자부호 판별기(312)의 파라미터에 대해 한 번의 파라미터 조정을 수행하는 것일 수 있다.
설명해야 할 것은, 해당 제3 문자부호 손실값의 계산 과정은 제1 문자부호 분류 손실의 제1 문자부호 손실값을 계산하는 과정과 유사하고, 공식 (1)을 참고하여 계산할 수 있으며, 공식 (1)에서 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치를 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 위치로 변경하고; 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치를 랜덤 도메인 생성 문자의 문자부호 분류 헤더 위치로 변경하면 된다.
서브단계 H, 랜덤 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 제2 문자부호 분류 손실의 제4 문자부호 손실값을 획득하고, 제4 문자부호 손실값에 기반하여 폰트 생성 네트워크의 파라미터를 조정한다.
구체적으로, 도 3에 도시된 바와 같이, 본 서브단계는 랜덤 도메인 생성 문자를 조정된 문자부호 판별기(312)에 입력하여, 랜덤 도메인 생성 문자의 문자부호 분류 헤더 위치를 업데이트하고; 업데이트된 문자부호 분류 헤더 위치에 따라, 제2 문자부호 분류 손실의 제4 문자부호 손실값을 결정하며, 제4 문자부호 손실값을 결정한 후, 해당 제4 문자부호 손실값에 기반하여 폰트 생성 네트워크(30)의 파라미터에 대해 한 번의 파라미터 조정을 수행하는 것일 수 있다.
설명해야 할 것은, 해당 제4 문자부호 손실값의 계산 과정은 제1 문자부호 분류 손실의 제2 문자부호 손실값을 계산하는 과정과 유사하며, 공식 (2)를 참고하여 계산할 수 있고, 공식 (2)에서의 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치를 랜덤 도메인 생성 문자의 문자부호 분류 헤더 위치로 변경하면 된다.
서브단계 I, 랜덤 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 랜덤 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 제3 문자부호 손실값을 업데이트하고, 업데이트된 제3 문자부호 손실값에 기반하여, 문자부호 판별기의 파라미터를 다시 조정한다.
설명해야 할 것은, 서브단계 I의 과정은 상기 서브단계 C의 과정과 유사하므로, 여기서 더 이상 반복하여 설명하지 않는다.
본 실시예는 폰트 생성 모델의 훈련 과정에서, 문자부호 분류 손실를 인입하고, 문자부호 판별기(312) 및 폰트 생성 네트워크(30)에 대해 교대로 반복 훈련을 수행함으로써, 폰트 생성 네트워크(30) 및 문자부호 판별기(312)의 파라미터의 정확성을 크게 향샹시킨다.
2. 제2 오자 손실을 결정하는 과정은, 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 문자부호 분류기 네트워크에 입력하여, 랜덤 도메인 생성 문자의 문자부호 분류 헤더 벡터 및 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 벡터를 획득하는 것; 랜덤 도메인 생성 문자의 문자부호 분류 헤더 벡터 및 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 벡터 사이의 차이에 따라, 제2 오자 손실을 결정하는 것;을 포함할 수 있다.
설명해야 할 것은, 제2 오자 손실을 결정하는 과정은 상기 제1 오자 손실을 결정하는 과정과 유사하므로, 여기서 더 이상 반복하여 설명하지 않는다. 본 실시예는 폰트 생성 모델의 훈련 과정에서, 오자 손실을 인입하여, 폰트 생성 네트워크(30)에 의해 출력되는 타겟 도메인 생성 문자의 오자율을 제한함으로써, 폰트 생성 모델이 오자를 생성하는 확률을 감소한다.
더 설명해야 할 것은, 편리하게 구분하기 위해, 본 실시예는 *가 있는 파라미터를 사용하여 해당 파라미터가 모델에 의해 생성된 이미지와 관련됨을 표시되고, *가 없는 파라미터로 해당 파라미터가 실제 이미지와 관련됨을 표시한다.
더 설명해야 할 것은, 본 실시예는 상기 2가지 손실 중의 적어도 한 가지를 생성하여, 폰트 생성 모델의 파라미터를 조정함으로써, 폰트 생성 모델에 대한 제2 단계의 훈련을 완성할 수 있다.
본 출원의 실시예의 방안은, 폰트 생성 모델을 훈련하는 과정에 다양한 유형의 손실을 인입하고, 다양한 유형의 손실을 통해 모델 훈련을 공동으로 제한하여 모델 훈련의 정확성을 크게 향상한다.
도 6은 본 개시의 실시예에 따라 제공한 폰트 라이브러리 구축 방법의 흐름도이다. 본 개시의 실시예는 상기 실시예에 따라 훈련된 폰트 생성 모델에 기반하여 폰트 라이브러리를 구축하는 경우에 적용된다. 해당 방법은 폰트 라이브러리 구축 장치에 의해 실행될 수 있고, 해당 장치는 소프트웨어 및/또는 하드웨어의 방식에 의해 실현될 수 있다. 도 6에 되시된 바와 같이, 본 실시예에서 제공하는 폰트 라이브러리 구축 방법은 다음의 단계를 포함할 수 있다.
단계(S601), 소스 도메인 입력 문자를 폰트 생성 모델에 입력하여, 타겟 도메인 새 문자를 획득한다.
여기서, 폰트 생성 모델은 상기 실시예에 기반하여 훈련된 폰트 생성 모델일 수 있다.
예를 들어, 소스 도메인 입력 문자는 송체자 이미지이고, 새 문자는 손글씨 이미지이며, 송체자 이미지를 폰트 생성 모델에 입력하면 손글씨 이미지를 획득할 수 있다.
단계(S602), 타겟 도메인 새 문자에 기반하여 폰트 라이브러리를 구축한다.
본 실시예는 폰트 생성 모델에 의해 생성된 새 문자를 저장하여, 손글씨 폰트 스타일을 구비한 폰트 라이브러리를 구축 및 획득할 수 있고, 해당 폰트 라이브러리는 입력법에 응용될 수 있으며, 사용자는 해당 폰트 라이브러리에 기반한 입력법을 사용하여, 손글씨 폰트 스타일을 구비한 문자를 직접 획득할 수 있으므로, 사용자의 다양한 수요를 만족할 수 있고 사용자의 체험을 향상시킨다.
도 7은 본 개시의 실시예에 따라 제공한 폰트 생성 모델의 훈련 장치의 구조 개략도이다. 본 개시의 실시예는 폰트 스타일 변환 태스크를 수행하는 폰트 생성 모델을 훈련하는 경우에 적용되고, 특히 적은 샘플 데이터에 기반하여, 폰트 스타일 변환 태스크를 수행하는 폰트 생성 모델을 훈련하는 경우에 적용된다. 해당 장치는 소프트웨어 및/또는 하드웨어의 방식에 의해 실현될 수 있고, 해당 장치는 본 개시의 임의의 실시예의 폰트 생성 모델의 훈련 방법을 실현할 수 있다. 도 7에 도시된 바와 같이, 해당 폰트 생성 모델의 훈련 장치는,
소스 도메인 샘플 문자 및 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여, 타겟 도메인 생성 문자를 획득하는 생성 문자 결정 모듈(701);
타겟 도메인 샘플 문자 및 타겟 도메인 관련 문자 중의 적어도 하나 및 타겟 도메인 생성 문자를 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 제1 손실에 따라 폰트 생성 모델의 파라미터를 조정하는 모델 훈련 모듈(702); 을 포함하되,
생성 문자 결정 모델(701)은 소스 도메인 샘플 문자 및 랜덤 벡터를 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득하는데 더 사용되고;
모델 훈련 모듈(702)은 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 제2 손실에 따라 폰트 생성 모델의 파라미터를 다시 조정하는데 더 사용된다.
본 출원의 실시예의 방안은 폰트 생성 모델에 대해 한 번의 반복 훈련을 수행할 때, 소스 도메인 샘플 문자 및 타겟 도메인 관련 문자에 기반하여 모델에 대해 타겟 브랜치 훈련을 수행하는 단계 및 소스 도메인 샘플 문자 및 랜덤 벡터에 기반하여 모델에 대해 랜덤 브랜치 훈련을 수행하는 단계를 포함한다. 랜덤 브랜치 훈련 단계를 인입하는 것을 통해, 폰트 생성 모델이 폰트 스타일 변환을 수행하는 능력을 향상시키며, 타겟 도메인 샘플 데이터 적거나, 소스 도메인 폰트가 폰트 분포의 스타일 문자에 부합되지 않을 경우, 여전히 미관적이고 정확한 폰트를 생성할 수 있어, 모델의 정확성과 일반화성을 향상시킨다. 적은 샘플 훈련의 폰트 생성 모델을 위한 새로운 아이디어를 제공하였다.
추가로, 상기 폰트 생성 네트워크는 콘텐츠 인코더, 랜덤 스타일 인코더, 타겟 스타일 인코더 및 디코더를 포함한다.
추가로, 상기 생성 문자 결정 모듈(701)은 구체적으로,
소스 도메인 샘플 문자를 콘텐츠 인코더에 입력하여 샘플 문자 콘텐츠 특징을 획득하고;
랜덤 벡터를 랜덤 스타일 인코더에 입력하여, 랜덤 도메인 스타일 특징을 획득하며;
랜덤 도메인 스타일 특징 및 샘플 문자 콘텐츠 특징을 디코더에 입력하여, 랜덤 도메인 생성 문자를 획득한다.
추가로, 상기 생성 문자 결정 모듈(701)은 구체적으로,
소스 도메인 샘플 문자를 콘텐츠 인코더에 입력하여 샘플 문자 콘텐츠 특징을 획득하고;
소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 타겟 스타일 인코더에 입력하여 타겟 도메인 스타일 특징을 획득하며;
타겟 도메인 스타일 특징 및 샘플 문자 콘텐츠 특징을 디코더에 입력하여 타겟 도메인 생성 문자를 획득한다.
추가로, 상기 손실 분석 네트워크는, 컴포넌트 분류기, 문자부호 판별기, 스타일 판별기 및 문자부호 분류기 네트워크 중 적어도 하나를 포함하고; 제1 손실은, 컴포넌트 분류 손실, 제1 문자부호 분류 손실, 스타일 분류 손실 및 제1 오자 손실 중의 적어도 하나를 포함하며; 제2 손실은, 제2 문자부호 분류 손실 및/또는 제2 오자 손실를 포함한다.
추가로, 상기 모델 훈련 모듈(702)은,
타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 획득하는 제1 문자부호 손실 계산 유닛;
제1 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 조정하는 문자부호 판별기 조정 유닛;
타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제2 문자부호 손실값을 획득하는 제2 문자부호 손실 계산 유닛;
제2 문자부호 손실값에 기반하여, 폰트 생성 네트워크의 파라미터를 조정하는 폰트 생성 네트워크 조정 유닛; 을 포함하되.
제1 문자부호 손실 계산 유닛은 타겟 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력함으로써, 제1 문자부호 손실값을 업데이트하는데 더 사용되고;
문자부호 판별기 조정 유닛은 업데이트된 제1 문자부호 손실값에 기반하여, 문자부호 판별기의 파라미터를 다시 조정하는데 더 사용된다.
추가로, 상기 제1 문자부호 손실 계산 유닛은 구체적으로,
타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 판별기에 입력하여, 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치를 획득하고;
타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치에 따라, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 결정한다.
추가로, 상기 제2 문자부호 손실 계산 유닛은 구체적으로,
타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치를 업데이트하고;
업데이트된 문자부호 분류 헤더 위치에 따라, 제1 문자부호 분류 손실의 제2 문자부호 손실값을 결정한다.
추가로, 상기 모델 훈련 모듈(702)은,
타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 스타일 판별기에 입력하여, 스타일 분류 손실의 제1 스타일 손실값을 획득하는 제1 스타일 손실 계산 유닛;
제1 스타일 손실값에 기반하여, 스타일 판별기의 파라미터를 조정하는 스타일 판별기 조정 유닛;
타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여, 스타일 분류 손실의 제2 스타일 손실값을 획득하는 제2 스타일 손실 계산 유닛;
제2 스타일 손실값에 기반하여, 폰트 생성 네트워크의 파라미터를 조정하는 폰트 생성 네트워크 조정 유닛; 을 더 포함하되,
제1 스타일 손실 계산 유닛은 타겟 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여, 제1 스타일 손실값을 업데이트하는데 더 사용되고;
스타일 판별기 조정 유닛은 업데이트된 제1 스타일 손실값에 기반하여 스타일 판별기의 파라미터를 다시 조정하는데 더 사용된다.
추가로, 상기 제1 스타일 손실 계산 유닛은 구체적으로,
타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 스타일 판별기에 입력하여, 타겟 도메인 생성 문자의 스타일 분류 헤더 위치 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치를 획득하고;
타겟 도메인 생성 문자의 스타일 분류 헤더 위치 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치에 따라, 스타일 분류 손실의 제1 스타일 손실값을 결정한다.
추가로, 상기 제2 스타일 손실 계산 유닛은 구체적으로,
타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여 타겟 도메인 생성 문자의 스타일 분류 헤더 위치를 업데이트하고;
업데이트된 스타일 분류 헤더 위치에 따라 스타일 분류 손실의 제2 스타일 손실값을 결정한다.
추가로, 상기 모델 훈련 모듈(702)은,
랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 문자부호 판별기에 입력하여 제2 문자부호 분류 손실의 제3 문자부호 손실값을 획득하는 제3 문자부호 손실 계산 유닛;
제3 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 조정하는 문자부호 판별기 조정 유닛;
랜덤 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여 제2 문자부호 분류 손실의 제4 문자부호 손실값을 획득하는 제4 문자부호 손실 계산 유닛;
제4 문자부호 손실값에 기반하여, 폰트 생성 네트워크의 파라미터를 조정하는 폰트 생성 네트워크 조정 유닛; 을 더 포함하되,
제3 문자부호 손실 계산 유닛은, 랜덤 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 랜덤 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여 제3 문자부호 손실값을 업데이트하는데 더 사용되고;
문자부호 판별기 조정 유닛은, 업데이트된 제3 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 다시 조정하는데 더 사용된다.
추가로, 상기 모델 훈련 모듈(702)은,
타겟 도메인 관련 문자와 타겟 도메인 생성 문자를 컴포넌트 분류기에 입력하여, 타겟 도메인 생성 문자의 컴포넌트 벡터와 타겟 도메인 관련 문자의 컴포넌트 벡터를 획득하고; 타겟 도메인 생성 문자의 컴포넌트 벡터 및 타겟 도메인 관련 문자의 컴포넌트 벡터 사이의 차이에 따라, 컴포넌트 분류 손실을 결정하는 컴포넌트 분류 손실 계산 유닛을 더 포함한다.
추가로, 상기 모델 훈련 모듈(702)은,
타겟 도메인 샘플 문자 및 타겟 도메인 생성 문자를 문자부호 분류기 네트워크에 입력하여, 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터 및 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터를 획득하고; 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터 및 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터 사이의 차이에 따라, 제1 오자 손실을 결정하는 제1 오자 손실 계산 유닛을 더 포함한다.
추가로, 상기 모델 훈련 모듈(702)은,
랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 문자부호 분류기 네트워크에 입력하여, 랜덤 도메인 생성 문자의 문자부호 분류 헤더 벡터 및 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 벡터를 획득하고; 랜덤 도메인 생성 문자의 문자부호 분류 헤더 벡터 및 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 벡터 사이의 차이에 따라, 제2 오자 손실을 결정하는 제2 오자 손실 계산 유닛을 더 포함한다.
도 8은 본 개시의 실시예에 따라 제공한 폰트 라이브러리 구축 장치의 구조 개략도이다. 본 개시의 실시예는 상기 실시예에 따라 훈련된 폰트 생성 모델에 기반하여 폰트 라이브러리를 구축하는 경우에 적용된다. 해당 장치는 소프트웨어 및/또는 하드웨어에 의해 실현될 수 있고, 해당 장치는 본 개시의 임의의 실시예의 폰트 라이브러리 구축 방법을 실현할 수 있다. 도 8에 도시된 바와 같이, 해당 폰트 라이브러리 구축 장치는,
소스 도메인 입력 문자를 폰트 생성 모델에 입력하여, 타겟 도메인 새 문자를 획득하는 새 문자 생성 모듈(801); 및
타겟 도메인 새 문자에 기반하여 폰트 라이브러리를 구축하는 폰트 라이브러리 구축 모듈(802);을 포함하되,
여기서, 폰트 생성 모델은 본 개시의 임의의 실시예의 폰트 생성 모델의 훈련 방법에 따라 훈력하여 획득된다.
본 실시예는 폰트 생성 모델에 의해 생성된 새 문자를 저장하여, 손글씨 폰트 스타일을 구비한 폰트 라이브러리를 구축 및 획득할 수 있고, 해당 폰트 라이브러리는 입력법에 응용될 수 있으며, 사용자는 해당 폰트 라이브러리에 기반한 입력법을 사용하여, 손글씨 폰트 스타일을 구비한 문자를 직접 획득할 수 있으므로, 사용자의 다양한 수요를 만족할 수 있고 사용자의 체험을 향상시킨다.
상기 제품은 본 개시된 임의의 실시예에서 제공하는 방법을 실행할 수 있으며, 방법을 실행하는데 대응하는 기능 모듈과 유익한 효과를 구비한다.
주의해야 할 것은, 본 개시의 기술방안에 관련되는 폰트 이미지의 수집, 저장, 사용, 가공, 전송, 제공 및 개시 등 처리는 모두 관련 법률 및 법규의 규정에 부합되고, 공서양속을 위반하지 않는다.
본 개시의 실시예에 따르면, 본 개시는 전자 설비, 판독가능 저장매체 및 컴퓨터 프로그램 제품을 더 제공한다.
도 9는 본 개시의 실시예의 예시를 실시하기 위한 전자 설비(900)의 예시적인 블록도를 도시한다. 전자 설비는 각종 형태의 디지컬 컴퓨터를 표시하며, 예를 들어, 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크스테이션, 개인용 정보 단말기(Personal Digital Assistant), 서버, 블레이드 서버, 메인프레임 컴퓨터 및 기타 적합한 컴퓨터를 의미한다. 전자 설비는 또한 각종 형태의 모바일 장치를 표시할 수 있으며, 예를 들어, 개인 디지털 처리, 셀 폰, 스마트 폰, 웨어러블 설비 및 기타 유사한 컴퓨팅 장치를 표시할 수 있다. 본문에 설명된 컴포넌트, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것일 뿐, 본문에서 설명 및/또는 요구하는 본 개시의 구현을 한정하지 않는다.
도 9에 도시된 바 및 같이, 설비(900)는 컴퓨팅 유닛(901)을 포함하며, 이는 판독전용 메모리(ROM)(902)에 저장된 컴퓨터 프로그램 또는 저장 유닛(908)으로부터 랜덤 액세스 메모리(RAM)(903)에 로딩되는 컴퓨터 프로그램에 따라, 각종 적합한 동작 및 처리를 수행할 수 있다. RAM(903)에는 설비(900) 동작에 필요한 각종 프로그램 및 데이터가 더 저장될 수 있다. 컴퓨팅 유닛(901), ROM(902) 및 RAM(903)은 버스(904)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(905)도 버스(904)에 연결된다.
설비(900) 중의 복수의 컴포넌트는 I/O 인터페이스(905)에 연결되고, 해당 컴포넌트는 키패드, 마우스 등과 같은 입력 유닛(906); 여러 가지 유형의 디스플레이, 스피커 등과 같은 출력 유닛(907); 자기디스크, 콤팩트디스크 등과 같은 저장 유닛(908); 및 네크워크 인터페이스 카드, 모뎀, 무선통신 트랜시버 등과 같은 통신 유닛(909)을 포함한다. 통신 유닛(909)은 설비(900)가 인터넷과 같은 컴퓨터 네트워크 및/또는 각종 전기 통신망을 통해 기타 설비 및 정보/데이터를 교환하도록 허용한다.
컴퓨팅 유닛(901)은 처리 및 컴퓨팅 능력을 구비하는 각종 범용 및/또는 전용 처리 컴포넌트일 수 있다. 컴퓨팅 유닛(901)의 일부 예시는 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 각종 전용 인공지능(AI) 컴퓨팅 칩, 기계 러닝 모델 알고리즘을 수행하는 각종 컴퓨팅 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적합한 프로세서, 컨트롤러, 마이크로 컨트롤러 등을 포함하나, 이에 한정되지 않는다. 컴퓨팅 유닛(901)은 위에서 설명된 다양한 방법과 처리를 수행하며, 예를 들어 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법을 수행한다. 예를 들어, 일부 실시예에서, 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있고, 이는 저장 유닛(908)과 같은 기계 판독가능 매체에 유형적으로 포함된다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(902) 및/또는 통신 유닛(909)에 의해 설비(900)에 로딩 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(903)에 로딩되어, 컴퓨팅 유닛(901)에 의해 실행되는 경우, 상기에서 설명한 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법의 하나 또는 복수의 단계를 수행할 수 있다. 대안적으로, 기타 실시예에서 컴퓨팅 유닛(901)은 기타 임의의 적합한 방식(예를 들어, 펌웨어를 통해)으로 폰트 생성 모델의 훈련 방법 및/또는 폰트 라이브러리 구축 방법을 수행하는데 구성될 수 있다.
본문 중 상기에서 설명된 시스템 및 기술의 각 실시형태는, 디지털 전자회로 시스템, 집적 회로 시스템, 필드 프로그램 가능 게이트 어레이(FPGA), 주문형 집적 회로(ASIC), 특정 용도 표준 제품(ASSP), 시스템온칩(SOC), 복합 프로그램 가능 로직 설비(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합으로 구현될 수 있다. 이러한 각종 실시형태는, 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있고, 해당 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능한 프로세서를 포함하는 프로그램 가능한 시스템에서 실행 및/또는 해석(interpretating)될 수 있으며, 해당 프로그램 가능한 프로세서는 전용 또는 범용 프로그램 가능한 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치 및 상기 적어도 하나의 출력 장치로 전송한다.
본 개시의 방법을 실시하기 위한 프로그램 코드는 하나 이상의 프로그래밍 언어의 임임의 조합을 사용하여 작성될 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그램 가능한 데이터 처리 장치의 프로세서 또는 컨트롤러에 제공되어, 프로그램 코드가 프로세서 또는 컨트롤러에 의해 실행될 때, 흐름도 및/또는 블록도에 규정된 기능/동작이 실시되도록 할 수 있다. 프로그램 코드는 전부가 기계에서 실행되거나, 일부가 기계에서 실행되며, 독립적인 소프트웨어 패키지로서 일부가 기계에서 실행되고 일부가 원격 기계에서 실행되거나, 전부가 원격 기계 또는 서버에서 실행될 수 있다.
본 개시의 전문에서, 기계 판독가능 매체는 유형의 매체(tangible medium)일 수 있으며, 해당 매체는 실행 시스템, 장치 또는 설비에 의해 사용되거나, 명령 실행 시스템, 장치 또는 설비와 결합하여 사용되는 프로그램을 포함하거나 저장할 수 있다. 기계 판독가능 매체는 기계 판독가능 신호매체 또는 기계 판독가능 저장매체일 수 있다. 기계 판독가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 설비, 또는 상기 내용의 임의의 적합한 조합일 수 있으나 이에 한정되지 않는다. 기계 판독가능 저장매체의 보다 구체적인 예시는, 하나 이상의 와이어에 기반하는 전기적 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독전용 메모리(ROM), 소거 및 프로그램 가능한 판독전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트디스크 판독전용 메모리(CD-ROM), 광학 저장 설비, 자기 저장 설비 또는 상기 내용의 임의의 적합한 조합을 포함한다.
사용자와의 상호 작용을 제공하기 위해, 여기서 설명된 시스템 및 기술은 컴퓨터에서 실시될 수 있으며, 해당 컴퓨터는, 사용자에게 정보를 디스플레이 하기 위한 디스플레이 장치(예를 들어, 음극선관(CRT) 또는 액정 디스플레이(LCD) 모니터), 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙볼)를 구비하며, 사용자는 해당 키보드 및 해당 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 기타 유형의 장치도 사용자와의 상호 작용을 제공할 수 있으며, 예를 들어, 사용자에게 제공되는 피드백은 시각 피드백, 청각 피드백 또는 햅틱 피드백과 같은 임의의 형태의 센싱 피드백일 수 있으며, 사운드 입력, 음성 입력 또는 햅틱 입력과 같은 임의의 형태를 사용하여 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술은 백엔드 컴포넌트를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 컴포넌트를 포함하는 컴퓨팅 시스템(예를 들어, 애플리케이션 서버), 또는 프런트엔드 컴포넌트를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹브라우저를 구비하는 사용자 컴퓨터, 사용자는 해당 그래픽 사용자 인터페이스 또는 해당 웹브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백엔드 컴포넌트, 미들웨어 컴포넌트, 또는 프런트엔드 컴포넌트를 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)으로 시스템의 컴포넌트를 서로 연결할 수 있다. 통신 네트워크의 예시는 근거리 통신망(LAN), 광역 네트워크(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템에는 클라이언트 및 서버가 포함될 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있으며, 통상적으로 통신 네트워크를 통해 상호 작용을 수행한다. 클라이언트와 서버의 관계는 상응하는 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 구비하는 컴퓨터 프로그램에 의해 발생된다. 서버는 클라우드 서버일 수 있으며, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 한다. 클라우드 서버는 클라우드 컴퓨팅 서비스 체계 중의 하나의 호스트 제품으로, 전통적인 물리적 호스트와 VPS 서버에 존재하는 관리 난이도가 크고, 트래픽 확장성이 약한 결함을 해결한다. 서버는 분산식 시스템의 서버이거나 블록체인과 결합된 서버일 수도 있다.
인공 지능은 컴퓨터가 사람의 특정 사고 과정과 지능적 행위(예를 들어, 학습, 추론, 사고, 계획 등)를 시뮬레이션하도록 연구하는 학과로, 하드웨어적 기술도 구비하고 소프트웨어적 기술도 구비한다. 인공지능 하드웨어 기술은 일반적으로 센서, 전용 인공 지능 칩, 클라우드 컴퓨팅, 분산식 저장, 빅 데이터 처리 등과 같은 기술을 포함하고; 인공 지능 소프트웨어 기술은 주로 컴퓨터 비전 기술, 음성 인식 기술, 자연어 처리 기술 및 기계 학습/딥 러닝 기술, 빅 데이터 처리 기술, 지식 그래프(Knowledge Graph/Vault) 기술 등 몇 개 방향을 포함한다.
클라우드 컴퓨팅(cloud computing)은 네트워크를 통해 탄력적이며 확장 가능한 공유 물리적 또는 가상 리소스 풀에 액세스하는 것을 의미하고, 리소스에는 서버, 운영 시스템, 네트워크, 소프트웨어, 애플리케이션 및 저장 설비 등이 포함될 수 있으며, 수요형 및 주문형 셀프 서비스의 방식으로 리소스를 배포하고 관리하는 기술적 체계이다. 클라우드 컴퓨팅 기술을 통해 인공 지능, 블록체인 등 기술적 응용 및 모델 훈련을 위해 효율적이고 강력한 데이터 처리 능력을 제공한다.
상기에 언급된 각종 형태의 프로세스를 사용하여 단계의 순서재배정, 추가 또는 삭제를 수행할 수 있음을 이해해야 한다. 예를 들어, 본 개시에 기재된 각각의 단계는 병렬로 수행될 수 있거나, 순차적으로 수행될 수도 있거나, 상이한 순서로 수행될 수도 있으며, 본 개시에서 개시한 기술방안이 원하는 결과를 구현할 수 있기만 하면, 본문에서는 이에 대해 한정하지 않는다.
상기 구체적인 실시형태는 본 개시의 보호 범위에 대해 한정하지 않는다. 본 분야의 당업자는 설계 요구 및 기타 요소에 따라 각종 수정, 조합, 부분 조합 및 대체가 가능함을 이해할 수 있을 것이다. 본 개시의 사상과 원칙 내에서 이루어진 임의의 수정, 등가적 대체 및 개선 등은 모두 본 개시의 보호범위에 포함되어야 한다.

Claims (21)

  1. 소스 도메인 샘플 문자 및 상기 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여, 타겟 도메인 생성 문자를 획득하는 단계;
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 관련 문자 중의 적어도 하나, 및 상기 타겟 도메인 생성 문자를 상기 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 상기 제1 손실에 따라 상기 폰트 생성 모델의 파라미터를 조정하는 단계;
    상기 소스 도메인 샘플 문자 및 랜덤 벡터를 상기 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득하는 단계; 및
    상기 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 상기 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 상기 제2 손실에 따라 상기 폰트 생성 모델의 파라미터를 다시 조정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  2. 제 1 항에 있어서,
    상기 폰트 생성 네트워크는, 콘텐츠 인코더, 랜덤 스타일 인코더, 타겟 스타일 인코더 및 디코더를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  3. 제 2 항에 있어서,
    상기 소스 도메인 샘플 문자 및 랜덤 벡터를 상기 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득하는 단계는,
    상기 소스 도메인 샘플 문자를 상기 콘텐츠 인코더에 입력하여 샘플 문자 콘텐츠 특징을 획득하는 단계;
    상기 랜덤 벡터를 상기 랜덤 스타일 인코더에 입력하여 랜덤 도메인 스타일 특징을 획득하는 단계; 및
    상기 랜덤 도메인 스타일 특징 및 상기 샘플 문자 콘텐츠 특징을 상기 디코더에 입력하여 랜덤 도메인 생성 문자를 획득하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  4. 제 2 항에 있어서,
    상기 소스 도메인 샘플 문자 및 상기 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여, 타겟 도메인 생성 문자를 획득하는 단계는,
    소스 도메인 샘플 문자를 상기 콘텐츠 인코더에 입력하여 샘플 문자 콘텐츠 특징을 획득하는 단계;
    상기 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 상기 타겟 스타일 인코더에 입력하여 타겟 도메인 스타일 특징을 획득하는 단계; 및
    상기 타겟 도메인 스타일 특징 및 상기 샘플 문자 콘텐츠 특징을 상기 디코더에 입력하여 타겟 도메인 생성 문자를 획득하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  5. 제 1 항에 있어서,
    상기 손실 분석 네트워크는, 컴포넌트 분류기, 문자부호 판별기, 스타일 판별기 및 문자부호 분류기 중의 적어도 하나를 포함하고;
    상기 제1 손실은, 컴포넌트 분류 손실, 제1 문자부호 분류 손실, 스타일 분류 손실 및 제1 오자 손실 중의 적어도 하나를 포함하며; 및
    상기 제2 손실은, 제2 문자부호 분류 손실 및 제2 오자 손실 중의 적어도 하나를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  6. 제 5 항에 있어서,
    상기 타겟 도메인 샘플 문자 및 상기 타겟 도메인 관련 문자 중의 적어도 하나, 및 상기 타겟 도메인 생성 문자를 상기 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 상기 제1 손실에 따라 상기 폰트 생성 모델의 파라미터를 조정하는 단계는,
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 획득하고, 상기 제1 문자부호 손실값에 기반하여 상기 문자부호 판별기의 파라미터를 조정함으로써 조정된 분자부호 판별기를 획득하는 단계;
    상기 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제2 문자부호 손실값을 획득하고, 상기 제2 문자부호 손실값에 기반하여 상기 폰트 생성 네트워크의 파라미터를 조정함으로써 조정된 폰트 생성 네트워크를 획득하는 단계; 및
    타겟 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력함으로써, 상기 제1 문자부호 손실값을 업데이트하고, 업데이트된 제1 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 다시 조정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  7. 제 6 항에 있어서,
    상기 타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 획득하는 단계는,
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 문자부호 판별기에 입력하여, 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치를 획득하는 단계; 및
    타겟 도메인 생성 문자의 문자부호 분류 헤더 위치 및 타겟 도메인 샘플 문자의 문자부호 분류 헤더 위치에 따라, 제1 문자부호 분류 손실의 제1 문자부호 손실값을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  8. 제 6 항에 있어서,
    상기 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 제1 문자부호 분류 손실의 제2 문자부호 손실값을 획득하는 단계는,
    상기 타겟 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여, 타겟 도메인 생성 문자의 문자부호 분류 헤더 위치를 업데이트하는 단계; 및
    업데이트된 문자부호 분류 헤더 위치에 따라 제1 문자부호 분류 손실의 제2 문자부호 손실값을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  9. 제 5 항에 있어서,
    상기 타겟 도메인 샘플 문자 및 상기 타겟 도메인 관련 문자 중의 적어도 하나, 및 상기 타겟 도메인 생성 문자를 상기 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 상기 제1 손실에 따라 상기 폰트 생성 모델의 파라미터를 조정하는 단계는,
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 스타일 판별기에 입력하여 스타일 분류 손실의 제1 스타일 손실값을 획득하고, 상기 제1 스타일 손실값에 기반하여, 상기 스타일 판별기의 파라미터를 조정함으로써, 조정된 스타일 판별기를 획득하는 단계;
    상기 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여 스타일 분류 손실의 제2 스타일 손실값을 획득하고, 상기 제2 스타일 손실값에 기반하여 상기 폰트 생성 네트워크의 파라미터를 조정함으로써, 조정된 폰트 생성 네트워크를 획득하는 단계; 및
    타겟 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여, 상기 제1 스타일 손실값을 업데이트하고, 업데이트된 제1 스타일 손실값에 기반하여 스타일 판별기의 파라미터를 다시 조정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  10. 제 9 항에 있어서,
    상기 타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 스타일 판별기에 입력하여 스타일 분류 손실의 제1 스타일 손실값을 획득하는 단계는,
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 스타일 판별기에 입력하여, 타겟 도메인 생성 문자의 스타일 분류 헤더 위치 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치를 획득하는 단계; 및
    타겟 도메인 생성 문자의 스타일 분류 헤더 위치 및 타겟 도메인 샘플 문자의 스타일 분류 헤더 위치에 따라, 스타일 분류 손실의 제1 스타일 손실값을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  11. 제 9 항에 있어서,
    상기 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여 스타일 분류 손실의 제2 스타일 손실값을 획득하는 단계는,
    상기 타겟 도메인 생성 문자를 조정된 스타일 판별기에 입력하여, 타겟 도메인 생성 문자의 스타일 분류 헤더 위치를 업데이트하는 단계; 및
    업데이트된 스타일 분류 헤더 위치에 따라, 스타일 분류 손실의 제2 스타일 손실값을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  12. 제 5 항에 있어서,
    상기 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 상기 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 상기 제2 손실에 따라 상기 폰트 생성 모델의 파라미터를 다시 조정하는 단계는,
    상기 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 상기 문자부호 판별기에 입력하여 제2 문자부호 분류 손실의 제3 문자부호 손실값을 획득하고, 상기 제3 문자부호 손실값에 기반하여 상기 문자부호 판별기의 파라미터를 조정하는 단계;
    상기 랜덤 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여 제2 문자부호 분류 손실의 제4 문자부호 손실값을 획득하고, 상기 제4 문자부호 손실값에 기반하여 상기 폰트 생성 네트워크의 파라미터를 조정하는 단계; 및
    랜덤 도메인 샘플 문자 및 조정된 폰트 생성 네트워크에 기반하여 업데이트된 랜덤 도메인 생성 문자를 조정된 문자부호 판별기에 입력하여 상기 제3 문자부호 손실값을 업데이트하고, 업데이트된 제3 문자부호 손실값에 기반하여 문자부호 판별기의 파라미터를 다시 조정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  13. 제 5 항에 있어서,
    상기 타겟 도메인 샘플 문자 및 상기 타겟 도메인 관련 문자 중의 적어도 하나, 및 상기 타겟 도메인 생성 문자를 상기 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하는 단계는,
    상기 타겟 도메인 관련 문자 및 상기 타겟 도메인 생성 문자를 상기 컴포넌트 분류기에 입력하여, 상기 타겟 도메인 생성 문자의 컴포넌트 벡터 및 상기 타겟 도메인 관련 문자의 컴포넌트 벡터를 획득하는 단계; 및
    상기 타겟 도메인 생성 문자의 컴포넌트 벡터 및 상기 타겟 도메인 관련 문자의 컴포넌트 벡터 사이의 차이에 따라 컴포넌트 분류 손실을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  14. 제 5 항에 있어서,
    상기 타겟 도메인 샘플 문자 및 상기 타겟 도메인 관련 문자 중의 적어도 하나, 및 상기 타겟 도메인 생성 문자를 상기 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하는 단계는,
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 생성 문자를 상기 문자부호 분류기에 입력하여, 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터 및 상기 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터를 획득하는 단계; 및
    상기 타겟 도메인 샘플 문자의 문자부호 분류 헤더 벡터 및 상기 타겟 도메인 생성 문자의 문자부호 분류 헤더 벡터 사이의 차이에 따라, 제1 오자 손실을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  15. 제 5 항에 있어서,
    상기 상기 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 상기 손실 분석 네트워크에 입력하여 제2 손실을 획득하는 단계는,
    상기 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 상기 문자부호 분류기에 입력하여, 랜덤 도메인 생성 문자의 문자부호 분류 헤더 벡터 및 상기 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 벡터를 획득하는 단계; 및
    상기 랜덤 도메인 생성 문자의 문자부호 분류 헤더 벡터 및 상기 랜덤 도메인 샘플 문자의 문자부호 분류 헤더 벡터 사이의 차이에 따라 제2 오자 손실을 결정하는 단계; 를 포함하는 것을 특징으로 하는 폰트 생성 모델의 훈련 방법.
  16. 소스 도메인 입력 문자를 폰트 생성 모델에 입력하여, 타겟 도메인 새 문자를 획득하는 단계; 및
    상기 타겟 도메인 새 문자에 기반하여 폰트 라이브러리를 구축하는 단계; 를 포함하되,
    여기서, 상기 폰트 생성 모델은 제 1 항 내지 제 15 항 중 어느 한 항에 따른 방법에 따라 생성되는 것을 특징으로 하는 폰트 라이브러리 구축 방법.
  17. 소스 도메인 샘플 문자 및 상기 소스 도메인 샘플 문자의 타겟 도메인 관련 문자를 폰트 생성 모델의 폰트 생성 네트워크에 입력하여 타겟 도메인 생성 문자를 획득하는데 사용되는 생성 문자 결정 모듈;
    타겟 도메인 샘플 문자 및 상기 타겟 도메인 관련 문자 중의 적어도 하나, 및 상기 타겟 도메인 생성 문자를 상기 폰트 생성 모델의 손실 분석 네트워크에 입력하여 제1 손실을 획득하고, 상기 제1 손실에 따라 상기 폰트 생성 모델의 파라미터를 조정하는데 사용되는 모델 훈련 모듈; 을 포함하며,
    상기 생성 문자 결정 모듈은 상기 소스 도메인 샘플 문자 및 랜덤 벡터를 상기 폰트 생성 네트워크에 입력하여 랜덤 도메인 생성 문자를 획득하는데 더 사용되고;
    상기 모델 훈련 모듈은 상기 랜덤 도메인 생성 문자 및 랜덤 도메인 샘플 문자를 상기 손실 분석 네트워크에 입력하여 제2 손실을 획득하고, 상기 제2 손실에 따라 상기 폰트 생성 모델의 파라미터를 다시 조정하는데 더 사용되는 것을 특징으로 하는 폰트 생성 모델의 훈련 장치.
  18. 소스 도메인 입력 문자를 폰트 생성 모델에 입력하여, 타겟 도메인 새 문자를 획득하는 새 문자 생성 모듈; 및
    상기 타겟 도메인 새 문자에 기반하여 폰트 라이브러리를 구축하는 폰트 라이브러리 구축 모듈; 을 포함하며,
    여기서, 상기 폰트 생성 모델은 제 1 항 내지 제 15 항 중 어느 한 항의 방법에 따라 훈련하여 획득되는 것을 특징으로 하는 폰트 라이브러리 구축 장치.
  19. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결하는 메모리; 를 포함하고, 여기서,
    상기 메모리는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령을 저장하고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제 1 항 내지 제 15 항 중 어느 한 항에 따른 폰트 생성 모델의 훈련 방법 및/또는 제 16 항에 따른 폰트 라이브러리 구축 방법을 수행하도록 하는 것을 특징으로 하는 전자 설비.
  20. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독가능 저장매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제 1 항 내지 제 15 항 중 어느 한 항에 따른 폰트 생성 모델의 훈련 방법 및/또는 제 16 항에 따른 폰트 라이브러리 구축 방법을 실행하도록 하는 것을 특징으로 하는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독가능 저장매체.
  21. 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램 중의 컴퓨터 명령이 프로세서에 의해 실행될 경우, 제 1 항 내지 제 15 항 중 어느 한 항에 따른 폰트 생성 모델의 훈련 방법 및/또는 제 16 항에 따른 폰트 라이브러리 구축 방법을 실현되는 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020220025908A 2021-09-09 2022-02-28 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체 KR20220034070A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111057881.7A CN113792855B (zh) 2021-09-09 2021-09-09 一种模型训练及字库建立方法、装置、设备和存储介质
CN202111057881.7 2021-09-09

Publications (1)

Publication Number Publication Date
KR20220034070A true KR20220034070A (ko) 2022-03-17

Family

ID=78879829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220025908A KR20220034070A (ko) 2021-09-09 2022-02-28 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체

Country Status (5)

Country Link
US (1) US20220148239A1 (ko)
EP (1) EP4044127A3 (ko)
JP (1) JP2023039888A (ko)
KR (1) KR20220034070A (ko)
CN (1) CN113792855B (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114386370A (zh) * 2022-01-14 2022-04-22 北京有竹居网络技术有限公司 一种字体生成方法、装置及设备
CN114970447A (zh) * 2022-05-26 2022-08-30 华侨大学 一种汉字字体转换方法、装置、设备和存储介质
CN114973279B (zh) * 2022-06-17 2023-02-17 北京百度网讯科技有限公司 手写文本图像生成模型的训练方法、装置和存储介质
CN115147850B (zh) * 2022-06-30 2023-05-05 北京百度网讯科技有限公司 文字生成模型的训练方法、文字生成方法及其装置
CN115620307B (zh) * 2022-12-02 2023-04-18 杭州实在智能科技有限公司 用于扩充ocr训练集的随机字体样式生成方法及系统
CN115983140B (zh) * 2023-03-16 2023-06-09 河北工业大学 一种基于大数据深度学习的电磁场数值预测方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515295B2 (en) * 2017-10-27 2019-12-24 Adobe Inc. Font recognition using triplet loss neural network training
JP7482783B2 (ja) * 2018-09-20 2024-05-14 富士フイルム株式会社 フォント作成装置、フォント作成方法及びフォント作成プログラム
US11216658B2 (en) * 2018-11-14 2022-01-04 Adobe Inc. Utilizing glyph-based machine learning models to generate matching fonts
CN112329803B (zh) * 2019-08-05 2022-08-26 北京大学 一种基于标准字形生成的自然场景文字识别方法
JP2021026191A (ja) * 2019-08-08 2021-02-22 ブラザー工業株式会社 学習済みの機械学習モデル、画像データ生成装置、および、方法
CN113011337B (zh) * 2021-03-19 2022-08-30 山东大学 一种基于深度元学习的汉字字库生成方法及系统
CN113140017B (zh) * 2021-04-30 2023-09-15 北京百度网讯科技有限公司 训练对抗网络模型的方法、建立字库的方法、装置和设备
CN113140018B (zh) * 2021-04-30 2023-06-20 北京百度网讯科技有限公司 训练对抗网络模型的方法、建立字库的方法、装置和设备

Also Published As

Publication number Publication date
JP2023039888A (ja) 2023-03-22
EP4044127A2 (en) 2022-08-17
CN113792855A (zh) 2021-12-14
CN113792855B (zh) 2023-06-23
EP4044127A3 (en) 2022-09-07
US20220148239A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
KR20220034069A (ko) 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체
KR20220034070A (ko) 모델 훈련 및 폰트 라이브러리 구축 방법, 장치, 설비 및 저장 매체
KR102541306B1 (ko) 텍스트 생성 모델의 트레이닝 방법, 장치 및 전자기기
US20210390943A1 (en) Method And Apparatus For Training Model, Method And Apparatus For Synthesizing Speech, Device And Storage Medium
CN107705784B (zh) 文本正则化模型训练方法和装置、文本正则化方法和装置
JP2022180519A (ja) 画像処理方法、画像処理モデルのトレーニング方法、装置及び記憶媒体
KR20210154705A (ko) 시맨틱 매칭 방법, 장치, 기기 및 저장 매체
US20220189189A1 (en) Method of training cycle generative networks model, and method of building character library
KR20220034081A (ko) 적대적 네트워크 모델을 트레이닝하는 방법 및 장치, 문자 라이브러리를 구축하는 방법 및 장치, 전자장비, 저장매체 및 컴퓨터 프로그램
US11875584B2 (en) Method for training a font generation model, method for establishing a font library, and device
KR20220034075A (ko) 폰트 생성 모델 트레이닝 방법, 폰트 라이브러리 구축 방법, 장치 및 설비
CN114841274B (zh) 语言模型的训练方法、装置、电子设备和存储介质
KR20210036875A (ko) 사전훈련된 시맨틱 모델에 기반하는 모델 개량 방법, 장치, 전자 기기, 저장 매체 및 프로그램
KR102606514B1 (ko) 유사도 처리 방법, 장치, 서버, 저장 매체 및 컴퓨터 프로그램
KR102517927B1 (ko) 언어 생성 방법, 장치 및 전자 기기
CN113468857A (zh) 风格转换模型的训练方法、装置、电子设备以及存储介质
CN112507705A (zh) 一种位置编码的生成方法、装置及电子设备
CN108920560B (zh) 生成方法、训练方法、装置、计算机可读介质及电子设备
CN115357710A (zh) 表格描述文本生成模型的训练方法、装置及电子设备
JP2023012541A (ja) テーブルに基づく質問応答方法、装置及び電子機器
KR20220034077A (ko) 문자 생성 모델의 트레이닝 방법, 문자 생성 방법, 장치 및 설비
CN114282552B (zh) 非自回归翻译模型的训练方法及其装置
US20230095352A1 (en) Translation Method, Apparatus and Storage Medium
CN117668187A (zh) 图像生成、自动问答以及条件控制模型训练方法
CN117574894A (zh) 一种实体关系识别的方法和装置