KR20220063380A - 텍스트 전사장치 및 텍스트 전사방법 - Google Patents

텍스트 전사장치 및 텍스트 전사방법 Download PDF

Info

Publication number
KR20220063380A
KR20220063380A KR1020200149160A KR20200149160A KR20220063380A KR 20220063380 A KR20220063380 A KR 20220063380A KR 1020200149160 A KR1020200149160 A KR 1020200149160A KR 20200149160 A KR20200149160 A KR 20200149160A KR 20220063380 A KR20220063380 A KR 20220063380A
Authority
KR
South Korea
Prior art keywords
text
word
misrecognized
recognition
target image
Prior art date
Application number
KR1020200149160A
Other languages
English (en)
Inventor
강지홍
유승운
Original Assignee
대한민국(국가기록원)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(국가기록원) filed Critical 대한민국(국가기록원)
Priority to KR1020200149160A priority Critical patent/KR20220063380A/ko
Publication of KR20220063380A publication Critical patent/KR20220063380A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • G06V30/133Evaluation of quality of the acquired characters

Abstract

본 출원은 텍스트 전사방법 및 텍스트 전사장치에 관한 것으로서, 본 발명의 일 실시예에 의한 텍스트 전사 방법은, 대상 이미지를 입력받는 단계; 상기 대상 이미지에 OCR(Optical Character Recognition)을 적용하여, 상기 대상이미지에 포함된 원본텍스트를 인식하고, 인식결과로 인식텍스트를 생성하는 단계; 상기 인식텍스트에 대한 맞춤법 검사를 수행하여, 상기 인식텍스트에 포함된 오인식단어를 검색하는 단계; 및 상기 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공하는 단계를 포함할 수 있다.

Description

텍스트 전사장치 및 텍스트 전사방법 {Apparatus and method for text annotation}
본 출원은 텍스트 전사장치 및 텍스트 전사방법에 관한 것으로, 특히 정확하고 신속하게 이미지 형태의 문서를 텍스트화할 수 있는 텍스트 전사장치 및 텍스트 전사방법에 관한 것이다.
이미지 형태로 존재하는 정보에 포함되는 문자 정보를 인식하여 이를 기계적으로 판독 가능한 정보로 변환시켜 사용자들이 이를 이용할 수 있도록 하기 위한 노력이 진행되고 있다. 즉, 이미지 형태의 문자를 해독하여 이를 기계적으로 판독 가능한 텍스트 정보로 변환시키는 여러 문자 인식 기술이 개발되어 사용되고 있으며, 그 중에서도 광학 문자 인식(OCR: Optical Character Recognition) 기술이 널리 이용되고 있다.
광학 문자 인식은 이미지에 대해 문자가 포함되는 영역을 분석하고, 이러한 영역으로부터 기계적으로 판독이 가능한 문자를 인식할 수 있다. 이와 같은 문자 인식 기술에 의해 사용자는 편집 또는 수정이 가능한 텍스트 정보를 얻을 수 있게 되는 것이다.
대한민국 등록특허공보 제10-1081310호 (2011.11.01)
본 출원은 광학문자인식과 맞춤법 검사를 이용하여, 신속하고 정확하게 텍스트 전사를 수행할 수 있는 텍스트 전사장치 및 텍스트 전사방법을 제공하고자 한다.
본 출원은 사용자가 편리하게 텍스트 전사된 결과물에 대한 검수를 수행할 수 있는 다양한 인터페이스를 제공할 수 있는 전사장치 및 텍스트 전사방법을 제공하고자 한다.
본 발명의 일 실시예에 의한 텍스트 전사방법은, 대상 이미지를 입력받는 단계; 상기 대상 이미지에 OCR(Optical Character Recognition)을 적용하여, 상기 대상이미지에 포함된 원본텍스트를 인식하고, 인식결과로 인식텍스트를 생성하는 단계; 상기 인식텍스트에 대한 맞춤법 검사를 수행하여, 상기 인식텍스트에 포함된 오인식단어를 검색하는 단계; 및 상기 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공하는 단계를 포함할 수 있다.
여기서 상기 인식텍스트를 생성하는 단계는, 상기 원본텍스트를 어절단위로 구분하여 복수의 원본 세그먼트를 생성하고, 상기 원본 세그먼트에 각각 OCR을 수행하여 대응하는 인식 세그먼트를 생성할 수 있다.
여기서 상기 인식텍스트를 생성하는 단계는, 상기 원본 세그먼트에 각각 경계상자(boundary box)를 표시하여 상기 대상 이미지 내의 상기 경계박스의 위치에 대응하는 위치정보를 생성하고, 상기 인식 세그먼트에 상기 위치정보를 포함시킬 수 있다.
여기서 상기 인식텍스트를 생성하는 단계는, 상기 원본텍스트가 상기 대상 이미지 내에 복수의 텍스트 라인을 형성하는 경우, 상기 텍스트 라인 내에 대응하여 생성된 상기 인식세그먼트들의 리스트를 생성하고, 상기 리스트에 상기 텍스트 라인에 대응하는 라인 ID를 부여할 수 있다.
여기서 상기 인터페이스를 제공하는 단계는, 상기 대상 이미지 내의 원본텍스트에 대응하는 위치에, 상기 인식텍스트 및 오인식단어가 위치하도록 표시하는 인터페이스를 제공할 수 있다.
여기서 상기 인터페이스를 제공하는 단계는, 상기 원본텍스트를 어절단위로 구분한 복수의 원본 세그먼트에 각각 경계상자를 표시하고, 상기 경계상자에 접하는 위치에 상기 인식텍스트 및 오인식단어를 표시할 수 있다.
여기서 상기 인터페이스는, 사용자의 입력에 따라, 상기 인식텍스트 및 오인식단어의 상기 대상 이미지 내 표시여부를 선택하는 선택객체를 포함할 수 있다.
여기서 상기 인터페이스를 제공하는 단계는, 상기 오인식단어를 상기 인식텍스트 내에 포함된 다른 단어들과 시각적으로 구분되도록 표시할 수 있다.
여기서 상기 오인식단어를 검색하는 단계는, 상기 맞춤법 검사에 따라 상기 오인식단어를 포함하는 인식 세그먼트에 오류태그를 설정하여, 오인식 세그먼트로 표시할 수 있다.
여기서 상기 인터페이스를 제공하는 단계는, 사용자의 입력에 따라 상기 오류태그를 추가 또는 삭제하여, 상기 오인식 세그먼트 또는 인식 세그먼트로 변환할 수 있다.
여기서 상기 오인식단어를 검색하는 단계는, 미리 저장된 단어사전과 상기 인식텍스트에 포함된 단어들을 비교하여, 상기 단어사전에 포함되지 않은 단어들은 상기 오인식단어로 추출할 수 있다.
여기서 상기 오인식단어를 검색하는 단계는, 상기 오인식단어 추출시, 상기 오인식단어 판별에 대한 신뢰도값을 생성하여, 상기 오인식단어와 상기 신뢰도값을 함께 제공할 수 있다.
여기서 상기 오인식단어를 검색하는 단계는, 대체단어사전으로부터 상기 오인식단어을 대신하여 적용가능한 대체단어를 적어도 1개 이상 추출하며, 상기 대체단어사전은 상기 오인식단어와 상기 오인식단어에 대응하는 대체단어들이 미리 저장되어 있는 것일 수 있다.
여기서 상기 인터페이스를 제공하는 단계는, 상기 오인식단어가 포함되는 경우 상기 대체단어들의 리스트를 제공하고, 사용자로부터 선택받은 대체단어로 상기 오인식단어를 치환하는 인터페이스를 제공할 수 있다.
여기서 상기 인터페이스를 제공하는 단계는, 상기 사용자가 상기 대체단어를 직접 입력하여, 상기 오인식단어를 치환하도록 하는 인터페이스를 제공할 수 있다.
본 발명의 일 실시예에 의하면, 하드웨어와 결합되어 상술한 텍스트 전사방법을 수행하기 위하여 매체에 저장된 컴퓨터 프로그램이 존재할 수 있다.
본 발명의 일 실시예에 의한 텍스트 전사장치는, 대상 이미지를 입력받는 수신부; 상기 대상 이미지에 OCR(Optical Character Recognition)을 적용하여, 상기 대상이미지에 포함된 원본텍스트를 인식하고, 인식결과로 인식텍스트를 생성하는 OCR부; 상기 인식텍스트에 대한 맞춤법 검사를 수행하여, 상기 인식텍스트에 포함된 오인식단어를 검색하는 맞춤법 검사부; 및 상기 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공하는 표시제어부를 포함할 수 있다.
덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 의한 텍스트 전사장치 및 텍스트 전사방법에 의하면, 광학문자인식과 맞춤법 검사를 동시에 적용할 수 있으므로, 광학문자인식시 발생하는 오인식을 정확하게 검수하는 것이 가능하다. 따라서, 전사작업에 소요되는 작업 비용 및 작업 소요시간을 줄이는 동시에 신속한 텍스트 전사를 수행할 수 있다.
본 발명의 일 실시예에 의한 텍스트 전사장치 및 텍스트 전사방법에 의하면, 텍스트 전사된 결과물에 대한 검수를 수행할 수 있는 인터페이스를 제공할 수 있으므로, 사용자는 신속하고 정확하게 텍스트 전사물에 대한 검수를 수행할 수 있다.
다만, 본 발명의 실시예들에 따른 텍스트 전사장치 및 텍스트 전사방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도1은 본 발명의 일 실시예에 의한 텍스트 전사장치의 동작을 나타내는 개략도이다.
도2는 본 발명의 일 실시예에 의한 텍스트 전사장치를 나타내는 블록도이다.
도3은 본 발명의 일 실시예에 의한 텍스트 전사장치가 대상 이미지로부터 인식한 원본 세그먼트 및 경계상자를 나타내는 예시도이다.
도4는 본 발명의 일 실시예에 의한 텍스트 전사장치가 대상 이미지를 인식하여 생성한 인식텍스트를 나타내는 예시도이다.
도5는 본 발명의 일 실시예에 의한 텍스트 전사장치가 인식한 인식텍스트 및 오인식단어를 나타내는 예시도이다.
도6은 본 발명의 일 실시예에 의한 텍스트 전사장치가 대상 이미지의 원본 세그먼트를 이용하여 인식 세그먼트를 생성하는 것을 나타내는 개략도이다.
도7은 본 발명의 일 실시예에 의한 텍스트 전사장치가 생성한 인식 세그먼트를 나타내는 개략도이다.
도8은 본 발명의 일 실시예에 의한 텍스트 전사장치가 수행하는 맞춤법 검사를 나타내는 개략도이다.
도9는 본 발명의 일 실시예에 의한 텍스트 전사장치의 대체단어 제공을 나타내는 개략도이다.
도10은 본 발명의 일 실시예에 의한 텍스트 전사방법을 나타내는 순서도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 즉, 본 발명에서 사용되는 '부'라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도1은 본 발명의 일 실시예에 의한 텍스트 전사장치의 동작을 나타내는 개략도이다.
도1을 참조하면, 텍스트 전사장치(100)는 대상 이미지(1)를 입력받을 수 있으며, 입력받은 대상 이미지(1) 내에 포함된 원본 텍스트를 인식할 수 있다. 여기서, 대상 이미지(1)는 카메라(camera) 등으로 촬영하거나, 스캐너(scanner) 등에 의하여 스캔된 이미지일 수 있으며, jpg, gif, tif, png 등 다양한 종류의 이미지 포맷으로 압축된 것일 수 있다.
텍스트 전사장치(100)는 OCR(Optical Character Recognition) 등의 기법을 이용하여 원본 텍스트를 인식할 수 있으며, 인식결과로 원본 텍스트에 대응하는 인식 텍스트를 생성할 수 있다. 이후, 전체 대상 이미지(1)에 포함된 원본 텍스트에 대한 인식을 완료하여, 대상이미지(1)에 대응하는 텍스트 전사물(2)을 생성할 수 있다.
실시예에 따라서는, 텍스트 전사장치(100)가 스캐너, 카메라 등과 같은 화상 데이터 생성장치에 포함되거나 연결될 수 있으며, 스캐너, 카메라 등으로부터 대상 이미지(1)를 직접 입력받을 수 있다. 또한, 본 발명의 다른 실시예에 의하면, 텍스트 전사장치(100)는 컴퓨터(예를들어, 데스크탑 컵퓨터, 노트북 컴퓨터, 테블릿 컴퓨터 등), 워크스테이션, PDA, 스마트폰, 웹 패드 등과 같은 디지털 기기에 포함되거나 연결될 수 있으며, 유선 또는 무선의 통신망으로부터 대상 이미지(1)를 전송받을 수 있다. 이 경우, 통신 네트워크는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN: Local Area Network), 도시권 통신망(MAN: Metropolitan Area Network), 광역 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다.
여기서, 텍스트 전사장치(100)는 대상 이미지와 텍스트 전사물(2) 등을 시각적으로 표시하기 위한 디스플레이부(미도시)와, 사용자의 입력을 인가받기 위한 키보드, 터치패널, 마우스 등의 입력부(미도시)를 더 포함할 수 있다.
도1을 참조하면, 텍스트 전사장치(100)는 이미지 파일 형태로 존재하는 문서, 사진 등을 인식하여 텍스트를 추출하는 텍스트 전사(Text Annotation)를 수행할 수 있으며, 이를 통하여 대상 이미지(1)에 대한 검색이나 색인 기능 등을 제공하도록 할 수 있다. 나아가, 텍스트 전사물(2)에 대한 자연어 처리를 수행한 후, 학습시켜 이를 바탕으로 QA 시스템(Question Answering System) 등을 구성하는 등의 응용도 가능하다.
이와 같이 텍스트 전사를 이용하면, 국가기관이나 기업 등이 소장하고 있는 비전자기록물들을 보다 용이하게 활용하는 것이 가능하다. 예를들어, "조례"과 "서울특별시"이 동시에 언급된 문헌을 찾아보고자 하는 경우가 있을 수 있다. 이 경우 텍스트 전사를 이용하면 신속하고 정확하게 해당 문헌들을 검색하는 것이 가능하다. 즉, 이미 문헌들에 대한 텍스트 전사가 완료된 경우에는, 사용자가 "조례"과 "서울특별시"의 검색어를 검색엔진에 입력하여 텍스트 전사물(2)에 대한 검색을 수행할 수 있으며, 해당 검색어가 포함된 구체적인 면수, 문장 위치까지 신속하게 찾아내는 것이 가능하다. 또한, 특정 문장이나 문단에 대한 발췌가 필요한 경우에는, 텍스트 전사물(2)로부터 직접 복사하는 방식으로 용이하게 발췌하는 것이 가능하다.
반면에, 텍스트 전사가 되어 있지 않은 경우라면, 사용자가 직접 각각의 문헌들의 제목 등을 이용하여 관련된 문서를 추린 후, 해당 문서의 모든 면을 직접 읽어서 관련된 문장들을 찾아야 한다. 또한, 발췌시에는 사용자가 직접 해당 문장이나 문단을 타이핑하여야 한다. 따라서, 텍스트 전사가 되어 있지 않은 경우에는, 필요한 문헌에 대한 검색에 오랜 시간이 소요되며, 검색의 정확성도 보장하기 어렵고, 발췌시에도 어려움이 존재한다.
이와 같이, 텍스트 전사에 대한 필요성은 점차 높아지고 있으나, 사람이 직접 대상 이미지(1)에 포함된 원본 텍스트를 전사하는 등의 경우에는 시간과 비용이 지나치게 많이 소요되는 등의 문제점이 존재한다. 또한, OCR 장치 등을 이용하는 경우에도, 오래전에 생성된 문헌이나, 인쇄 또는 타자 품질이 좋지 않은 문헌에 대한 대상 이미지(1)의 경우에는, 생성한 텍스트 전사물(2)의 정확도가 떨어져 활용하기 어려운 문제점이 존재한다.
여기서, 본 발명의 일 실시예에 의한 텍스트 전사장치의 경우, 기존의 OCR 장치 등의 정확도가 떨어지는 등의 문제를 해결하면서도, 신속하게 텍스트 전사를 수행하는 것이 가능하다. 이하, 본 발명의 일 실시예에 의한 텍스트 전사장치를 설명한다.
도2는 본 발명의 일 실시예에 의한 텍스트 전사장치를 나타내는 블록도이다.
도2를 참조하면 본 발명의 일 실시예에 의한 텍스트 전사장치(100)는, 수신부(110), OCR부(120), 맞춤법 검사부(130) 및 표시제어부(140)를 포함할 수 있다.
수신부(110)는 대상 이미지(1)를 입력받을 수 있다. 수신부(110)는 텍스트 전사장치(100)에 직접 연결된 카메라나 스캐너 등으로부터 대상 이미지(1)를 직접 수신하거나, 유선 또는 무선 통신망을 통하여 연결된 별도의 장치로부터 대상 이미지(1)를 입력받을 수 있다. 대상 이미지(1)는 카메라(camera) 등으로 촬영하거나, 스캐너(scanner) 등에 의하여 스캔된 이미지일 수 있으며, jpg, gif, tif, png 등 다양한 종류의 이미지 포맷으로 압축된 것일 수 있다.
OCR부(120)는 대상 이미지(1)에 OCR을 적용할 수 있다. OCR을 이용하여 대상이미지(1)에 포함된 원본텍스트를 인식할 수 있으며, 인식결과로 인식텍스트를 생성할 수 있다.
도3을 참조하면, 도3(a)의 대상 이미지(1)를 OCR부(120)가 인식할 수 있으며, 이 경우 OCR부(120)는 도3(b)에 도시한 바와 같이 대상 이미지(1)에 포함된 원본텍스트(T1)를 어절단위로 구분하여 인식할 수 있다. 여기서, OCR부(120)는 각각의 어절단위에 대응하는 원본 세그먼트(s1)들을 구분할 수 있으며, 각각의 원본 세그먼트(s1)를 둘러싸는 경계상자(B: boundary box)를 생성할 수 있다. 경계상자(B)는 볼록한 사각형(convex quadragle)의 형상을 가질 수 있으며, OCR부(120)는 각각의 경계상자(B)에 대응하는 위치정보를 생성할 수 있다.
예를들어, 도6에 도시한 바와 같이, OCR부(120)는 "인천에는"을 원본세그먼트(seg0)로 인식할 수 있으며, 해당 원본세그먼트(seg0)의 주위에는 경계상자(B)가 생성될 수 있다. 이 경우, OCR부(120)는 도7(a)에 도시한 바와 같이 OCR을 수행할 수 있다. 즉, OCR부(120)가 생성한 인식세그먼트에는 제1 영역(P1)과 제2 영역(P2)이 포함될 수 있으며, 제1 영역(P1)에는 경계상자(B)에 대한 x축 좌표정보(x: 430), y축 좌표정보(y: 282), 경계상자의 너비(width: 129), 높이(height: 43) 등을 포함하는 위치정보가 저장되고, 제2 영역(P2)에는 원본세그먼트(seg0)에 대한 OCR 결과인 "인천에는"이 저장될 수 있다.
이후, OCR부(120)는 도4에 도시한 바와 같이, 각각의 원본 세그먼트(S1) 내에 포함된 문자를 인식하여 대응하는 인식 세그먼트(S2)를 생성할 수 있다. 예를들어, 원본 세그먼트(S1) 내에 포함된 픽셀값의 분포를 전기적 신호인 형상패턴으로 표현할 수 있으며, 문자모델 데이터베이스(미도시) 등에는 각각의 문자에 대응하는 표준형상패턴이 저장되어 있을 수 있다. 따라서, OCR부(120)는 입력되는 형상패턴을 문자모델 데이터베이스에 저장된 표준형상패턴과 비교할 수 있으며 각각의 형상패턴에 대응하는 표준형상패턴을 추출할 수 있다. 이후, 추출한 표준형상패턴에 대응하는 문자로 각각 변환하여 인식 세그먼트(S2)를 생성할 수 있다.
한편, 도3 등에 도시한 바와 같이, 원본텍스트(T1)가 대상 이미지(1) 내에 복수의 텍스트 라인을 형성하는 경우, OCR부(120)는 각각의 텍스트 라인에 대응하는 라인 ID를 설정할 수 있다. 예를들어, 도6에 도시한 바와 같이, 대상이미지(1) 내의 원본텍스트(T1)는 10번째 라인에 "무궁화 꽃이 피었습니다."를 포함할 수 있다. 이 경우, "무궁화", "꽃이", "피었습니다."로 각각의 원본 세그먼트(seg1, seg2, seg3)를 구분할 수 있으며, 10번째 라인에 대한 라인 ID는 "라인 10"으로 설정할 수 있다.
이후, OCR부(120)는 도7(b)에 도시한 바와 같이, 텍스트 라인 내에 대응하여 생성된 인식세그먼트(seg1, seg2, seg3)들의 리스트를 생성할 수 있으며, 해당 리스트에 포함되는 인식세그먼트(seg1, seg2, seg3)들에 대하여는 동일한 라인 ID(라인 10)를 부여할 수 있다.
맞춤법 검사부(130)는 인식텍스트에 대한 맞춤법 검사를 수행하여, 인식텍스트에 포함된 오인식단어를 검색할 수 있다. 여기서, 맞춤법 검사부(130)는 텍스트 전사장치(100) 내에 저장된 맞춤법 검사 알고리즘에 따라 수행하도록 구성될 수 있으며, 실시예에 따라서는 외부엔진에서 제공하는 맞춤법 검사 알고리즘을 API 형태로 실행하도록 구현하는 것도 가능하다.
구체적으로, 맞춤법 검사부(130)는, 미리 저장된 단어사전과 인식텍스트에 포함된 단어들을 비교할 수 있으며, 해당 단어사전에 포함되지 않은 단어들은 오인식단어로 추출할 수 있다. 여기서, 단어사전은 시중에서 일반적으로 구할 수 있는 국어대사전이나 맞춤법 검사를 위해 고안된 별도의 사전 등일 수 있으며, 실시예에 따라 다양하게 선택가능하다.
또한, 실시예에 따라서는, 맞춤법 검사부(130)가 각각의 오인식단어 판별에 대한 신뢰도값을 생성하는 것도 가능하다. 즉, 각각의 오인식단어와, 판별의 정확도를 나타내는 신뢰도값을 함께 제공할 수 있으므로, 사용자는 각각의 신뢰도값에 따라 우선순위를 정하여 해당 오인식단어에 대한 검수를 수행할 수 있다. 여기서, 신뢰도값은 일반적인 방식으로 생성할 수 있는 것이므로, 구체적인 설명을 생략한다.
추가적으로, 맞춤법 검사부(130)는 오인식단어를 대신하여 적용할수 있는 대체단어를 제공하는 것도 가능하다. 예를들어, 각각의 오인식단어와 오인식단어에 대응하는 대체단어들이 저장된 대체단어사전이 미리 구비되어 있을 수 있으며, 맞춤법 검사부(130)는 오인식단어로 판별되는 경우 대체단어사전을 참조하여 해당 오인식단어에 대응하는 대체단어들을 추출할 수 있다. 여기서, 대체단어사전은, 오인식이 발생하기 쉬운 각각의 단어들을 미리 선정한 후, 각각의 오인식단어들에 대응하는 대체단어들을 저장하는 방식으로 구현할 수 있다.
한편, 도8을 참조하면, 맞춤법 검사부(130)는 각각의 텍스트 라인들에 대한 맞춤법 검사를 수행할 수 있으며, 각각의 텍스트 라인에 포함된 인식세그먼트별로 오인식단어가 포함되는지 여부를 판별할 수 있다.
구체적으로, 도8의 라인 10의 경우 "무궁화", "꽃이", "피었습니다."의 인식세그먼트들을 포함하며, 각각의 인식세그먼트들은 오인식 단어를 포함하지 않으므로, 모두 "정상"으로 판별할 수 있다.
반면에, 라인 15에 포함된 "한국어는", "부착어라는", "틈성이", "있더."의 인식세그먼트의 경우, "틈성이"와 "있더."는 단어사전 내에 포함되지 않는 단어에 해당한다. 따라서, 맞춤법 검사부(130)는 라인 15의 seg3 및 seg4에 대응하는 인식세그먼트에 대해 "오인식"으로 판별할 수 있다. 이 경우, 맞춤법 검사부(130)는 맞춤법 검사에 따라 오인식단어를 포함하는 인식 세그먼트에 오류태그를 설정할 수 있으며, 해당 오류태그가 포함된 인식세그먼트는 오인식 세그먼트로 표시할 수 있다. 즉, 라인 15의 seg3 및 seg4에 각각 오류태그를 설정하여 오인식 세그먼트로 표시할 수 있다. 또한, "틈성이"에 대응하는 대체단어로 "특성이"와 "틈새에" 등을 제안할 수 있으며, "있더"에 대응하는 대체단어로 "있다"와 "있어"를 각각 제안할 수 있다.
라인 21의 경우, "문장", 데에서의", "각", "단어를", "파생시리거나,"의 인식세그먼트를 포함하고, 여기서 "데에서의", "파생시리거나"는 단어사전에 포함되지 않는 단어에 해당한다. 따라서, 맞춤법검사부(130)는 라인 21의 seg2 및 seg5에 대해 오류태그를 설정하여, 오인식단어를 포함함을 나타낼 수 있다. 또한, "데에서의"에 대응하는 대체단어로 "내에서의"를 제안하고, "파생시리거나"에 대응하는 대체단어로 "파생시키거나"를 제안할 수 있다.
표시제어부(140)는 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공할 수 있다. 표시제어부(140)는 생성한 텍스트 전사물(2)을 디스플레이부 등에 표시하도록 제어할 수 있으며, 이때 사용자가 용이하게 텍스트 전사물(2)을 확인하고 검수할 수 있도록 다양한 인터페이스를 제공할 수 있다.
구체적으로, 표시제어부(140)는 대상 이미지(1) 내의 원본텍스트에 대응하는 위치에, 인식텍스트 및 오인식단어가 위치하도록 표시하는 인터페이스를 제공할 수 있다. 예를들어, 도4(a)에 도시한 바와 같이, 원본텍스트(T1)를 어절단위로 구분한 복수의 원본 세그먼트(s1)에 각각 경계상자(B)를 표시하고, 경계상자(B)에 접하는 위치에 인식텍스트(s2)를 표시할 수 있다. 실시예에 따라서는, 도4(b)에 도시한 바와 같이, 대상 이미지(1)와는 별도로 인식텍스트(T2)를 포함하는 텍스트 전사물(2)을 생성하는 것도 가능하다.
이 경우, 실시예에 따라서는, 표시제어부(140)가 사용자의 입력에 따라, 인식텍스트 및 오인식단어를 대상 이미지 내의 표시여부를 선택할 수 있는 인터페이스를 제공하는 것도 가능하다. 예를들어, 표시제어부(140)는 인터페이스 내에 별도의 선택객체(미도시)를 추가로 표시할 수 있으며, 해당 선택객체에 대한 사용자의 입력에 따라, 도3(a)와 같이 대상 이미지(1)만 표시하거나, 도4(a)에 도시한 바와 같이 대상 이미지(1) 내에 각각의 인식텍스트와 오인식단어를 모두 표시하도록 할 수 있다.
또한, 표시제어부(140)는 각각의 인식텍스트와 오인식단어를 구분하여 표시할 수 있다. 즉, 도5(a)와 같은 대상 이미지(1)가 입력되는 경우, 표시제어부(140)는 도5(b)와 같이 텍스트 전사물(2)을 표시할 수 있다. 여기서, 텍스트 전사물(2)에는 경계상자가 표시된 각각의 원본세그먼트(s1)가 표시될 수 있으며, 원본세그먼트(s1)에 대응하는 인식세그먼트(s2)들이 원본세그먼트(s1)의 상단에 접하여 표시될 수 있다. 여기서, 오인식단어를 포함하는 오인식세그먼트(w)들은 다른 인식세그먼트(s2)들과는 시각적으로 구분되도록 표시될 수 있다. 즉, 도5(b)와 같이, 오인식세그먼트(w)에 대응하는 경계상자의 두께를 굵게 표시할 수 있으며, 이외에도 오인식세그먼트(w) 내의 문자들의 색상을 빨간색으로 표시하거나, 오인식세그먼트(w)의 경계상자 내부를 형광색으로 채우는 등의 방식으로 표시할 수 있다. 다만, 이에 한정되는 것은 아니며, 이외에도 다양한 방식으로 오인식세그먼트(w)를 표시하는 것이 가능하다.
또한, 실시예에 따라서는, 오인식 단어가 아니지만 오인식 단어로 잘못 표시하거나, 실제 오인식 단어를 포함하지만 오인식 단어로 표시되지 않는 경우가 존재할 수 있다. 이 경우, 표시제어부(140)는 사용자의 입력에 따라 오인식 단어에서 제외시키거나 오인식 단어로 추가하는 인터페이스를 제공할 수 있다. 즉, 표시제어부(140)는 사용자의 입력에 따라 오인식단어를 포함하는 오인식 세그먼트에 설정된 오류태그를 삭제하거나, 인식세그먼트에 오류태그를 추가하여, 인식 세그먼트와 오인식 세그먼트 사이의 변환을 수행할 수 있다.
한편, 표시제어부(140)는 오인식단어가 포함되는 경우 대체단어들의 리스트를 제공할 수 있으며, 사용자로부터 선택받은 대체단어로 오인식단어를 치환하는 인터페이스를 제공할 수 있다. 예를들어, 도9에 도시한 바와 같이, "소잠기록물"로 인식된 경우, 맞춤법 검사부(130)는 "소잠기록물"에 오류태그를 설정하여 오인식 세그먼트(w)로 설정할 수 있다. 이 경우, 표시제어부(140)는 사용자가 오인식단어를 수정할 수 있는 인터페이스를 제공할 수 있으며, 도9에 도시한 바와 같이 오인식 세그먼트(w)를 선택하면, 사용자가 선택할 수 있는 복수의 대체단어(r1, r2, r3, r4)들을 포함하는 리스트(L)를 제공할 수 있다. 이 후, 사용자가 대체단어(r1, r2, r3, r4) 어느 하나를 선택하면, 해당 대체단어로 오인식 세그먼트(w)를 치환하도록 제어할 수 있다.
또한, 실시예에 따라서는, 사용자가 대체단어를 직접 입력하여, 오인식단어를 치환하도록 하는 인터페이스를 제공하는 것도 가능하다. 예를들어, 도9에서 소장기록문(r4)의 하단에 "직접 입력"의 항목을 추가할 수 있으며, 사용자가 "직접 입력"을 선택하는 경우, "소잠기록문" 내에 커서를 표시하여 사용자가 "소잠기록문"의 기재를 수정하도록 제공하는 실시예도 가능하다.
도10은 본 발명의 일 실시예에 의한 텍스트 전사방법을 나타내는 순서도이다. 여기서, 도10에 나타난 각각의 단계들은 본 발명의 일 실시예에 의한 텍스트 전사장치가 실시하는 것일 수 있다.
텍스트 전사장치는 대상 이미지를 입력받을 수 있다(S10). 텍스트 전사장치에 직접 연결된 카메라나 스캐너 등으로부터 대상 이미지를 직접 수신할 수 있으며, 실시예에 따라서는 유선 또는 무선 통신망을 통하여 연결된 별도의 장치로부터 대상 이미지를 입력받을 수 있다.
텍스트 전사장치는 대상 이미지에 OCR을 적용하여 대상이미지에 포함된 원본텍스트를 인식할 수 있으며, 인식결과로 인식텍스트를 생성할 수 있다(S20). 여기서, 텍스트 전사장치는 대상 이미지에 포함된 원본텍스트를 어절단위로 구분하여 인식할 수 있으며, 각각의 어절단위에 대응하는 원본 세그먼트들을 둘러싸는 경계상자를 생성할 수 있다. 경계상자는 볼록한 사각형의 형상을 가질 수 있으며, 텍스트 전사장치는 각각의 경계상자에 대응하는 위치정보를 생성할 수 있다.
이후, 텍스트 전사장치는 각각의 원본 세그먼트 내에 포함된 문자를 인식하여 대응하는 인식 세그먼트를 생성할 수 있다. 예를들어, 원본 세그먼트 내에 포함된 픽셀값의 분포를 전기적 신호인 형상패턴으로 표현할 수 있으며, 문자모델 데이터베이스 등에는 각각의 문자에 대응하는 표준형상패턴이 저장되어 있을 수 있다. 따라서, 텍스트 전사장치는 입력되는 형상패턴을 문자모델 데이터베이스에 저장된 표준형상패턴과 비교할 수 있으며 각각의 형상패턴에 대응하는 표준형상패턴을 추출할 수 있다. 텍스트 전사장치는 추출한 표준형상패턴에 대응하는 문자로 각각 변환하여 인식 세그먼트를 생성할 수 있다. 이때, 인식 세그먼트는 경계상자에 대응하는 위치정보를 더 포함할 수 있다.
한편, 원본텍스트가 대상 이미지 내에 복수의 텍스트 라인을 형성하는 경우, 텍스트 전사장치는 각각의 텍스트 라인에 대응하는 라인 ID를 설정할 수 있다. 이후, 각각 텍스트 라인 내에 포함되는 인식세그먼트들의 리스트를 생성할 수 있으며, 해당 리스트에 포함되는 인식세그먼트들에 대하여는 동일한 라인 ID(라인 10)를 부여할 수 있다. 즉, 라인 ID를 이용하여 각각의 인식세그먼트들의 위치정보를 설정하는 것도 가능하다.
텍스트 전사장치는 인식텍스트에 대한 맞춤법 검사를 수행하여, 인식텍스트에 포함된 오인식단어를 검색할 수 있다(S30). 여기서, 텍스트 전사장치는 내부에 저장된 맞춤법 검사 알고리즘에 따라 오인식단어에 대한 검색을 수행할 수 있으며, 실시예에 따라서는 외부엔진에서 제공하는 맞춤법 검사 알고리즘을 API 형태로 실행하도록 구현하는 것도 가능하다.
구체적으로, 텍스트 전사장치는 미리 저장된 단어사전과 인식텍스트에 포함된 단어들을 비교할 수 있으며, 해당 단어사전에 포함되지 않은 단어들은 오인식단어로 추출할 수 있다. 또한, 실시예에 따라서는, 각각의 오인식단어 판별에 대한 신뢰도값을 생성하는 것도 가능하다. 즉, 각각의 오인식단어와, 판별의 정확도를 나타내는 신뢰도값을 함께 제공할 수 있으므로, 사용자는 각각의 신뢰도값에 따라 우선순위를 정하여 해당 오인식단어에 대한 검수를 수행할 수 있다.
이때, 텍스트 전사장치는 오인식단어를 대신하여 적용할 수 있는 대체단어를 제공할 수 있다. 예를들어, 각각의 오인식단어와 오인식단어에 대응하는 대체단어들이 저장된 대체단어사전이 미리 구비되어 있을 수 있으며, 텍스트 전사장치는 오인식단어로 판별되는 경우 대체단어사전을 참조하여 해당 오인식단어에 대응하는 대체단어들을 추출할 수 있다. 여기서, 대체단어사전은, 오인식이 발생하기 쉬운 각각의 단어들을 미리 선정한 후, 각각의 오인식단어들에 대응하는 대체단어들을 저장하는 방식으로 구현할 수 있다.
여기서, 텍스트 전사장치는 맞춤법 검사에 의해 오인식단어를 포함하는 것으로 판별된 인식 세그먼트에 오류태그를 설정할 수 있으며, 해당 오류태그가 포함된 인식세그먼트는 오인식 세그먼트로 표시할 수 있다.
텍스트 전사장치는, 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공할 수 있다(S40). 텍스트 전사장치는 생성한 텍스트 전사물을 디스플레이부 등에 표시하도록 제어할 수 있으며, 이때 사용자가 용이하게 텍스트 전사물을 확인하고 검수할 수 있도록 다양한 인터페이스를 제공할 수 있다.
구체적으로, 텍스트 전사장치는 대상 이미지 내의 원본텍스트에 대응하는 위치에, 인식텍스트 및 오인식단어가 위치하도록 표시하는 인터페이스를 제공할 수 있다. 예를들어, 원본텍스트를 어절단위로 구분한 복수의 원본 세그먼트에 각각 경계상자를 표시하고, 경계상자에 접하는 위치에 인식텍스트를 표시할 수 있다. 또한, 대상 이미지와는 별도로 인식텍스트를 포함하는 텍스트 전사물을 생성하는 것도 가능하다.
나아가, 실시예에 따라서는, 사용자의 입력에 따라, 인식텍스트 및 오인식단어를 대상 이미지 내의 표시여부를 선택할 수 있는 인터페이스를 제공하는 것도 가능하다. 즉, 인터페이스 내에 별도의 선택객체를 추가로 표시한 후, 해당 선택객체에 대한 사용자의 입력에 따라, 대상 이미지만 표시하거나, 대상 이미지 내에 각각의 인식텍스트와 오인식단어를 모두 표시하도록 할 수 있다.
또한, 텍스트 전사장치는 각각의 인식텍스트와 오인식단어를 구분하여 표시할 수 있다. 즉, 오인식단어를 포함하는 오인식세그먼트들은 다른 인식세그먼트들과는 시각적으로 구분되도록 표시될 수 있다. 예를들어, 오인식세그먼트에 대응하는 경계상자의 두께를 굵게 표시하거나, 오인식세그먼트 내의 문자들의 색상을 빨간색으로 표시할 수 있으며, 오인식세그먼트의 경계상자 내부를 형광색으로 채우는 등의 방식으로 구현할 수 있다. 다만, 이에 한정되는 것은 아니며, 이외에도 다양한 방식으로 오인식세그먼트를 표시할 수 있다.
이외에도, 실시예에 따라서는, 오인식 단어가 아니지만 오인식 단어로 잘못 표시하거나, 실제 오인식 단어를 포함하지만 오인식 단어로 표시되지 않는 경우가 존재할 수 있다. 이 경우, 텍스트 전사장치는 사용자의 입력에 따라 오인식 단어에서 제외시키거나 오인식 단어로 추가하는 인터페이스를 제공할 수 있다. 즉, 사용자의 입력에 따라 오인식단어를 포함하는 오인식 세그먼트에 설정된 오류태그를 삭제하거나, 인식세그먼트에 오류태그를 추가하여, 인식 세그먼트와 오인식 세그먼트 사이의 변환을 수행하도록 할 수 있다.
한편, 텍스트 전사장치는 오인식단어에 대한 대체단어들의 리스트를 제공할 수 있으며, 사용자로부터 선택받은 대체단어로 오인식단어를 치환하는 인터페이스를 제공할 수 있다. 예를들어, 사용자가 오인식 단어를 선택하면, 사용자가 선택할 수 있는 복수의 대체단어들을 포함하는 리스트를 제공할 수 있으며, 이후 사용자가 대체단어 어느 하나를 선택하면, 해당 대체단어로 오인식 단어를 치환시킬 수 있다. 또한, 실시예에 따라서는, 사용자가 대체단어를 직접 입력하여, 오인식단어를 치환하도록 하는 인터페이스를 제공하는 것도 가능하다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.
100: 텍스트 전사장치 110: 수신부
120: OCR부 130: 맞춤법 검사부
140: 표시제어부

Claims (17)

  1. 대상 이미지를 입력받는 단계;
    상기 대상 이미지에 OCR(Optical Character Recognition)을 적용하여, 상기 대상이미지에 포함된 원본텍스트를 인식하고, 인식결과로 인식텍스트를 생성하는 단계;
    상기 인식텍스트에 대한 맞춤법 검사를 수행하여, 상기 인식텍스트에 포함된 오인식단어를 검색하는 단계; 및
    상기 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공하는 단계를 포함하는 텍스트 전사방법.
  2. 제1항에 있어서, 상기 인식텍스트를 생성하는 단계는
    상기 원본텍스트를 어절단위로 구분하여 복수의 원본 세그먼트를 생성하고, 상기 원본 세그먼트에 각각 OCR을 수행하여 대응하는 인식 세그먼트를 생성하는 것을 특징으로 하는 텍스트 전사방법.
  3. 제2항에 있어서, 상기 인식텍스트를 생성하는 단계는
    상기 원본 세그먼트에 각각 경계상자(boundary box)를 표시하여 상기 대상 이미지 내의 상기 경계박스의 위치에 대응하는 위치정보를 생성하고, 상기 인식 세그먼트에 상기 위치정보를 포함시키는 것을 특징으로 하는 텍스트 전사방법.
  4. 제3항에 있어서, 상기 인식텍스트를 생성하는 단계는
    상기 원본텍스트가 상기 대상 이미지 내에 복수의 텍스트 라인을 형성하는 경우, 상기 텍스트 라인 내에 대응하여 생성된 상기 인식세그먼트들의 리스트를 생성하고, 상기 리스트에 상기 텍스트 라인에 대응하는 라인 ID를 부여하는 것을 특징으로 하는 텍스트 전사방법.
  5. 제1항에 있어서, 상기 인터페이스를 제공하는 단계는
    상기 대상 이미지 내의 원본텍스트에 대응하는 위치에, 상기 인식텍스트 및 오인식단어가 위치하도록 표시하는 인터페이스를 제공하는 것을 특징으로 하는 텍스트 전사방법.
  6. 제5항에 있어서, 상기 인터페이스를 제공하는 단계는
    상기 원본텍스트를 어절단위로 구분한 복수의 원본 세그먼트에 각각 경계상자를 표시하고, 상기 경계상자에 접하는 위치에 상기 인식텍스트 및 오인식단어를 표시하는 것을 특징으로 하는 텍스트 전사방법.
  7. 제5항에 있어서, 상기 인터페이스는
    사용자의 입력에 따라, 상기 인식텍스트 및 오인식단어의 상기 대상 이미지 내 표시여부를 선택하는 선택객체를 포함하는 것을 특징으로 하는 텍스트 전사방법.
  8. 제1항에 있어서, 상기 인터페이스를 제공하는 단계는
    상기 오인식단어를 상기 인식텍스트 내에 포함된 다른 단어들과 시각적으로 구분되도록 표시하는 것을 특징으로 하는 텍스트 전사방법.
  9. 제2항에 있어서, 상기 오인식단어를 검색하는 단계는
    상기 맞춤법 검사에 따라 상기 오인식단어를 포함하는 인식 세그먼트에 오류태그를 설정하여, 오인식 세그먼트로 표시하는 것을 특징으로 하는 텍스트 전사방법.
  10. 제9항에 있어서, 상기 인터페이스를 제공하는 단계는
    사용자의 입력에 따라 상기 오류태그를 추가 또는 삭제하여, 상기 오인식 세그먼트 또는 인식 세그먼트로 변환하는 것을 특징으로 하는 텍스트 전사방법.
  11. 제1항에 있어서, 상기 오인식단어를 검색하는 단계는
    미리 저장된 단어사전과 상기 인식텍스트에 포함된 단어들을 비교하여, 상기 단어사전에 포함되지 않은 단어들은 상기 오인식단어로 추출하는 것을 특징으로 하는 텍스트 전사방법.
  12. 제11항에 있어서, 상기 오인식단어를 검색하는 단계는
    상기 오인식단어 추출시, 상기 오인식단어 판별에 대한 신뢰도값을 생성하여, 상기 오인식단어와 상기 신뢰도값을 함께 제공하는 것을 특징으로 하는 텍스트 전사방법.
  13. 제11항에 있어서, 상기 오인식단어를 검색하는 단계는
    대체단어사전으로부터 상기 오인식단어을 대신하여 적용가능한 대체단어를 적어도 1개 이상 추출하며,
    상기 대체단어사전은
    상기 오인식단어와 상기 오인식단어에 대응하는 대체단어들이 미리 저장된 것을 특징으로 하는 텍스트 전사방법.
  14. 제11항에 있어서, 상기 인터페이스를 제공하는 단계는
    상기 오인식단어가 포함되는 경우 상기 대체단어들의 리스트를 제공하고, 사용자로부터 선택받은 대체단어로 상기 오인식단어를 치환하는 인터페이스를 제공하는 것을 특징으로 하는 텍스트 전사방법.
  15. 제11항에 있어서, 상기 인터페이스를 제공하는 단계는
    상기 사용자가 상기 대체단어를 직접 입력하여, 상기 오인식단어를 치환하도록 하는 인터페이스를 제공하는 것을 특징으로 하는 텍스트 전사방법.
  16. 하드웨어와 결합되어 제1항 내지 제15항 중 어느 한 항의 텍스트전사방법을 수행하기 위하여 매체에 저장된 컴퓨터 프로그램.
  17. 대상 이미지를 입력받는 수신부;
    상기 대상 이미지에 OCR(Optical Character Recognition)을 적용하여, 상기 대상이미지에 포함된 원본텍스트를 인식하고, 인식결과로 인식텍스트를 생성하는 OCR부;
    상기 인식텍스트에 대한 맞춤법 검사를 수행하여, 상기 인식텍스트에 포함된 오인식단어를 검색하는 맞춤법 검사부; 및
    상기 인식텍스트 및 오인식단어를 표시하는 인터페이스를 제공하는 표시제어부를 포함하는 텍스트 전사장치.
KR1020200149160A 2020-11-10 2020-11-10 텍스트 전사장치 및 텍스트 전사방법 KR20220063380A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200149160A KR20220063380A (ko) 2020-11-10 2020-11-10 텍스트 전사장치 및 텍스트 전사방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200149160A KR20220063380A (ko) 2020-11-10 2020-11-10 텍스트 전사장치 및 텍스트 전사방법

Publications (1)

Publication Number Publication Date
KR20220063380A true KR20220063380A (ko) 2022-05-17

Family

ID=81803158

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200149160A KR20220063380A (ko) 2020-11-10 2020-11-10 텍스트 전사장치 및 텍스트 전사방법

Country Status (1)

Country Link
KR (1) KR20220063380A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101081310B1 (ko) 2009-07-24 2011-11-08 공현식 네트워크를 이용한 폰트타입 판별 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101081310B1 (ko) 2009-07-24 2011-11-08 공현식 네트워크를 이용한 폰트타입 판별 시스템 및 방법

Similar Documents

Publication Publication Date Title
TWI475406B (zh) 取決於上下文之輸入方法
US8504350B2 (en) User-interactive automatic translation device and method for mobile device
US8015203B2 (en) Document recognizing apparatus and method
JP5018459B2 (ja) インタラクティブシステムおよび画像検索性能を高めるプログラム
US20090226090A1 (en) Information processing system, information processing apparatus, information processing method, and storage medium
US11550995B2 (en) Extracting structured data from handwritten and audio notes
US8768241B2 (en) System and method for representing digital assessments
US11379690B2 (en) System to extract information from documents
US20220222292A1 (en) Method and system for ideogram character analysis
US11763588B2 (en) Computing system for extraction of textual elements from a document
US20150073779A1 (en) Method of converting user handwriting into text information and electronic device for performing the same
JP4868224B2 (ja) 追記情報処理方法、追記情報処理装置、およびプログラム
US20200311059A1 (en) Multi-layer word search option
KR20220063380A (ko) 텍스트 전사장치 및 텍스트 전사방법
JPH08263587A (ja) 文書入力方法および文書入力装置
JP2019057137A (ja) 情報処理装置及び情報処理プログラム
JP2021002287A (ja) 情報処理装置、及び情報処理プログラム
TWI648685B (zh) 自動化辨識表單並建立動態表單之系統及其方法
JP5482018B2 (ja) 電子辞書及びプログラム
JP4101345B2 (ja) 文字認識装置
US20220319216A1 (en) Image reading systems, methods and storage medium for performing geometric extraction
JP7467314B2 (ja) 辞書編集装置、辞書編集方法、及びプログラム
US20210056301A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP2024003769A (ja) 文字認識システム、コンピュータによる文字の認識方法、および文字検索システム
CN114721528A (zh) 字符输入装置、字符输入方法以及记录介质