KR101292563B1 - 자막 출력 기반의 프레젠테이션 장치 및 방법 - Google Patents

자막 출력 기반의 프레젠테이션 장치 및 방법 Download PDF

Info

Publication number
KR101292563B1
KR101292563B1 KR1020120127984A KR20120127984A KR101292563B1 KR 101292563 B1 KR101292563 B1 KR 101292563B1 KR 1020120127984 A KR1020120127984 A KR 1020120127984A KR 20120127984 A KR20120127984 A KR 20120127984A KR 101292563 B1 KR101292563 B1 KR 101292563B1
Authority
KR
South Korea
Prior art keywords
text
queue
buffer
electronic document
unit
Prior art date
Application number
KR1020120127984A
Other languages
English (en)
Inventor
이종욱
Original Assignee
주식회사 한글과컴퓨터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한글과컴퓨터 filed Critical 주식회사 한글과컴퓨터
Priority to KR1020120127984A priority Critical patent/KR101292563B1/ko
Application granted granted Critical
Publication of KR101292563B1 publication Critical patent/KR101292563B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

자막 출력 기반의 프레젠테이션 장치 및 방법이 개시된다. 본 발명의 실시예들은 사용자의 음성을 인식하여 인식된 음성에 대응되는 텍스트를 생성한 후 생성된 텍스트를 전자 문서의 출력 화면 상에 자막으로 출력함으로써, 청중들에게 발표자의 발표 내용이 좀 더 정확하게 전달될 수 있도록 보조할 수 있다.

Description

자막 출력 기반의 프레젠테이션 장치 및 방법{PRESENTATION APPARATUS AND METHOD FOR DISPLAYING SUBTITLE}
본 발명의 실시예들은 전자 문서를 통한 프레젠테이션시 발표자의 음성을 텍스트로 변환해서 자막으로 출력해 줄 수 있는 프레젠테이션 장치 및 방법에 대한 것이다.
최근, 회의나 세미나 등에서 발표자가 워드프로세서나 프레젠테이션 프로그램 등이 탑재된 프레젠테이션 장치를 이용하여 다양한 전자 문서에 포함된 내용에 대해 발표를 수행하는 일이 많아지고 있다.
이러한, 프레젠테이션 장치는 데스크탑 PC, 노트북, 태블릿 PC나 모바일 단말기 등을 통해 구현 가능하고, 기기 내에 설치된 워드프로세서나 프레젠테이션 프로그램 등을 구동하여 전자 문서를 발표에 적합하도록 디스플레이함으로써, 발표자의 발표를 보조하는데 사용된다.
보통, 회의나 세미나 등에서 발표자가 프레젠테이션 장치를 이용하여 발표를 수행할 때, 청중들은 발표자가 발표하는 내용을 충분히 이해하고, 중요한 내용을 메모하는 경우가 종종 있다.
이 경우, 발표자의 발표 내용이 잘 들리지 않는다면, 청중들은 중요한 내용을 메모하지 못할 수 있다. 또한 음성으로만 발표자의 의도를 전달하는 경우, 특정인에 한해서만 정보를 전달하는 것이므로, 불특정 다수에게 의미를 전달하기에는 한계가 있다. 이에 만약, 발표장에서 발표자의 발표 내용을 실시간으로 자막으로 보여줄 수 있다면, 청중들은 자신이 원하는 내용을 손쉽게 메모할 수 있을 것이고, 이와 더불어 청중들이 발표자의 발표 내용을 정확하게 이해할 수 있을 뿐만 아니라, 청중들의 집중도 향상에도 도움이 될 수 있을 것이다.
따라서, 발표자의 발표 내용을 자막으로 출력해 줄 수 있는 프레젠테이션 장치에 대한 연구의 필요성이 증대되고 있다.
본 발명의 실시예들은 사용자의 음성을 인식하여 인식된 음성에 대응되는 텍스트를 생성한 후 생성된 텍스트를 프레젠테이션 장치의 전자 문서의 출력 화면 상에 자막으로 출력함으로써, 청중들에게 발표자의 발표 내용이 좀 더 정확하게 전달될 수 있도록 하는 기법을 제공하고자 한다.
본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치는 프레젠테이션 용 전자 문서를 로드하여 상기 전자 문서를 화면 상에 출력하는 디스플레이부, 마이크로폰을 통해 사용자로부터 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석하여 상기 음성 신호에 대응되는 텍스트를 생성하는 텍스트 생성부, 상기 생성된 텍스트를 버퍼에 저장하는 텍스트 저장부 및 상기 버퍼로부터 상기 버퍼에 저장되어 있는 텍스트를 추출하여 상기 디스플레이부로 전달하는 텍스트 추출부를 포함하고, 상기 디스플레이부는 상기 전자 문서의 출력 화면 상에 상기 추출된 텍스트를 자막으로 출력한다.
또한, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 방법은 프레젠테이션 용 전자 문서를 로드하여 상기 전자 문서를 화면 상에 출력하는 단계, 마이크로폰을 통해 사용자로부터 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석하여 상기 음성 신호에 대응되는 텍스트를 생성하는 단계, 상기 생성된 텍스트를 버퍼에 저장하는 단계, 상기 버퍼로부터 상기 버퍼에 저장되어 있는 텍스트를 추출하는 단계 및 상기 추출된 텍스트를 전달 받아 상기 전자 문서의 출력 화면 상에 상기 추출된 텍스트를 자막으로 출력하는 단계를 포함한다.
본 발명의 실시예들은 사용자의 음성을 인식하여 인식된 음성에 대응되는 텍스트를 생성한 후 생성된 텍스트를 전자 문서의 출력 화면 상에 자막으로 출력함으로써, 단순이 음성으로만 발표 내용을 전달하는 방식보다 발표자의 발표 내용이 불특정 다수의 청중들에게 좀 더 정확하게 전달될 수 있도록 보조할 수 있다.
도 1은 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치의 구조를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치가 전자 문서의 출력 화면 상에 자막을 출력하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 방법을 도시한 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치의 구조를 도시한 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치(110)는 디스플레이부(111), 텍스트 생성부(112), 텍스트 저장부(113) 및 텍스트 추출부(114)를 포함한다.
여기서, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치(110)는 데스크탑 PC, 모바일 단말, PDA, 노트북, 태블릿 PC 등 워드프로세서나 프레젠테이션 프로그램 등을 구동하여 전자 문서에 대한 출력, 편집 또는 수정 등의 기능을 제공할 수 있는 다양한 종류의 마이크로프로세서 기반의 장치를 기반으로 구현될 수 있다.
디스플레이부(111)는 프레젠테이션 용 전자 문서를 로드하여 상기 전자 문서를 화면 상에 출력한다.
텍스트 생성부(112)는 마이크로폰을 통해 사용자로부터 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석하여 상기 음성 신호에 대응되는 텍스트를 생성한다.
이때, 본 발명의 일실시예에 따르면, 텍스트 생성부(112)는 상기 음성 신호의 패턴을 음절 단위로 구분하여 상기 구분된 음절 단위의 패턴에 대응되는 문자를 생성함으로써, 상기 음성 신호에 대응되는 텍스트를 생성할 수 있다.
보통, 음성 인식 기술은 사용자의 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석한 후 분석된 패턴에 대응되는 텍스트를 추출하는 방식으로 구현될 수 있다.
이때, 일반적인 음성 인식 기술은 사용자의 음성 신호의 패턴을 하나의 단어 단위로 분석한 후 소정의 사전 데이터베이스로부터 상기 단어 단위로 분석된 음성 신호의 패턴에 대응되는 단어를 추출하는 방식이 사용된다.
예컨대, 사용자가 '컴퓨터'라는 음성을 인가한 경우, 기존의 음성 인식 기법은 '컴퓨터'라는 단어에 대한 음성 신호의 패턴을 전체적으로 분석하여 사전 데이터베이스로부터 '컴퓨터'라는 단어에 대한 음성 신호의 패턴에 대응되는 단어를 추출하는 방식이 사용되었다.
하지만, 이러한 방식은 음성 신호의 패턴을 단어 단위로 분석하여 사전 데이터베이스로부터 분석된 패턴에 대응되는 단어를 추출하기 때문에 인식된 음성을 텍스트로 변환하는데 다소 시간이 소요될 수 있다.
따라서, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치(110)는 특정 단어의 사전적인 의미를 전달하는 것이 목적이 아니라, 발표 내용을 신속하고 빠르게 시각적으로 전달하는 것이 목적이므로, 사용자의 음성을 좀 더 빠르게 텍스트로 변환할 수 있도록 하기 위해, 텍스트 생성부(112)가 사용자로부터 입력받은 음성에 대한 음성 신호의 패턴을 단어 단위가 아닌 음절 단위로 구분하여 상기 구분된 음절 단위의 패턴에 대응되는 문자를 생성함으로써, 상기 음성 신호에 대응되는 텍스트를 생성할 수 있다.
예컨대, 사용자가 마이크로폰을 통해 '컴퓨터'라는 음성을 인가한 경우, 텍스트 생성부(112)는 '컴퓨터'라는 음성에 대한 음성 신호의 패턴을 '컴', '퓨', '터'라는 음절 단위의 패턴으로 구분한 후 상기 구분된 음절 단위의 패턴에 대응되는 문자인 '컴', '퓨', '터'를 각각 생성함으로써, 상기 음성 신호에 대응되는 텍스트를 생성할 수 있다.
이렇게, 텍스트 생성부(112)에서 사용자가 입력한 음성 신호에 대응되는 텍스트의 생성이 완료되면, 텍스트 저장부(113)는 상기 생성된 텍스트를 버퍼에 저장한다.
텍스트 추출부(114)는 상기 버퍼로부터 상기 버퍼에 저장되어 있는 텍스트를 추출하여 디스플레이부(111)로 전달한다.
이때, 디스플레이부(111)는 상기 전자 문서의 출력 화면 상에 상기 추출된 텍스트를 자막으로 출력한다.
본 발명의 일실시예에 따르면, 텍스트 저장부(113)는 상기 생성된 텍스트를 구성하는 적어도 하나의 문자에 대해 각 문자의 생성 순서에 따라 한 문자씩 상기 버퍼의 큐(queue)에 저장할 수 있다.
이때, 텍스트 추출부(114)는 상기 버퍼의 큐로부터 상기 버퍼의 큐에 문자 단위로 저장되어 있는 텍스트를 상기 버퍼의 큐에 저장된 순서에 따라 한 문자씩 추출한 후 상기 문자의 추출에 대응하여 상기 버퍼의 큐에 저장되어 있는 나머지 문자들을 시프트(shift)할 수 있다.
이때, 디스플레이부(111)는 상기 버퍼의 큐로부터 한 문자씩 추출된 텍스트를 전달 받아 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
관련하여, 이하에서는 텍스트 저장부(113), 텍스트 추출부(114) 및 디스플레이부(111)에 대한 상기 동작에 대해 예를 들어 상세히 설명하기로 한다.
보통, 음성 신호를 텍스트로 변환할 경우, 변환되는 텍스트의 양이 불규칙적이기 때문에, 한 번에 많은 문자를 자막으로 출력하게 되면, 시스템 부하가 증가할 수 있고, 아울러, 자막의 출력 속도가 사용자의 발표 음성보다 뒤쳐질 가능성이 존재한다.
이에, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치(110)는 사용자의 음성에 따라 생성된 텍스트를 한 문자씩 버퍼의 큐에 저장해 놓은 후 상기 버퍼의 큐로부터 한 문자씩 추출하여 화면 상에 자막으로 출력함으로써, 시스템 부하를 줄일 수 있고, 자막의 출력 속도를 증가시킬 수 있다.
관련하여, 텍스트 생성부(112)가 사용자로부터 입력받은 음성에 대한 텍스트의 생성을 완료하면, 텍스트 저장부(113)는 상기 텍스트를 구성하는 적어도 하나의 문자에 대해 각 문자의 생성 순서에 따라 한 문자씩 상기 버퍼의 큐에 저장할 수 있다.
이와 관련하여, 우선, 상기 버퍼에는 데이터가 큐 형태의 자료 구조로 저장될 수 있다.
이때, 텍스트 생성부(112)에서 '컴', '퓨', '터'라는 문자가 '컴', '퓨', '터'의 순서로 생성된 경우, 텍스트 저장부(113)는 '컴', '퓨', '터'라는 문자를 상기 버퍼의 큐에 '컴', '퓨', '터'의 순서로 저장할 수 있다.
관련하여, 하기의 표 1은 '컴', '퓨', '터'라는 문자가 우측 방향에서 좌측 방향으로 큐에 입력되어 저장되는 형태를 개략적으로 나타낸 것이다.
출력 1 2 3 입력
상기 버퍼의 큐에 텍스트가 한 문자씩 저장된 이후, 텍스트 추출부(114)는 상기 버퍼의 큐로부터 상기 버퍼의 큐에 문자 단위로 저장되어 있는 텍스트를 상기 버퍼의 큐에 저장된 순서에 따라 한 문자씩 추출한 후 상기 문자의 추출에 대응하여 상기 버퍼의 큐에 저장되어 있는 나머지 문자들을 시프트할 수 있다.
관련하여, '컴', '퓨', '터'라는 문자가 상기 표 1의 형태로 상기 버퍼의 큐에 저장된 경우, 텍스트 추출부(114)는 상기 버퍼의 큐로부터 '컴', '퓨', '터'라는 문자가 상기 버퍼의 큐에 저장된 순서인 '컴', '퓨', '터'의 순으로 한 문자씩 추출할 수 있다.
이때, 텍스트 추출부(114)는 상기 버퍼의 큐로부터 '컴', '퓨', '터'의 순으로 한 문자씩 추출이 완료되면, 나머지 문자들을 상기 버퍼의 큐에서 우측으로부터 좌측으로 시프트시킬 수 있다.
예컨대, 상기 버퍼의 큐로부터 '컴'이라는 문자의 추출이 완료된 경우, 텍스트 추출부(114)는 나머지 문자들인 '퓨'와 '터'를 우측에서 좌측으로 시프트시킬 수 있다.
즉, '퓨'는 상기 버퍼의 큐의 '1'의 위치로 시프트되고, '터'는 상기 버퍼의 큐의 '2'의 위치로 시프트될 수 있다.
이렇게, 문자의 추출이 완료되면, 디스플레이부(111)는 상기 버퍼의 큐로부터 한 문자씩 추출된 텍스트를 전달 받아 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
이때, 디스플레이부(111)는 상기 한 문자씩 추출된 텍스트를 상기 전자 문서의 출력 화면 상에서 우측에서 좌측방향으로 한 문자씩 자막으로 출력할 수 있다.
이때, 본 발명의 일실시예에 따르면, 자막 출력 기반의 프레젠테이션 장치(110)는 선정된(predetermined) 개수의 문자로 구성된 복수의 선정된 오탈자들에 대해 상기 복수의 선정된 오탈자들 각각에 대한 정자가 대응되어 저장되어 있는 사전 데이터베이스(115)를 더 포함할 수 있다.
이때, 디스플레이부(111)는 상기 버퍼의 큐로부터 상기 선정된 개수의 문자가 추출되어 전달될 때마다, 사전 데이터베이스(115)를 참조하여 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는지 여부를 판단하고, 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는 경우, 사전 데이터베이스(115)를 참조하여 상기 전달된 문자로 구성된 문자열을 정자로 변환한 후 상기 변환된 정자를 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
이와 관련하여, 디스플레이부(111)의 상기 동작에 대해 예를 들어 설명하면 다음과 같다.
먼저, 사전 데이터베이스(115)에는 하기의 표 2와 같이, 3개의 문자로 구성된 복수의 선정된 오탈자들에 대해 상기 복수의 선정된 오탈자들 각각에 대한 정자가 대응되어 저장되어 있다고 가정하자.
오탈자 정자
특허빕 특허법
컴퓨토 컴퓨터
마우사 마우스
이때, 디스플레이부(111)는 상기 버퍼의 큐로부터 3개의 문자가 추출되어 전달될 때마다, 사전 데이터베이스(115)를 참조하여 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는지 여부를 판단하고, 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는 경우, 사전 데이터베이스(115)를 참조하여 상기 전달된 문자로 구성된 문자열을 정자로 변환한 후 상기 변환된 정자를 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
예컨대, 상기 버퍼의 큐로부터 '마', '우', '사'라고 하는 3개의 문자가 추출되어 전달된 경우, 디스플레이부(111)는 '마', '우', '사'라고 하는 3개의 문자로 구성된 문자열인 '마우사'가 사전 데이터베이스(115)에 저장되어 있는 복수의 선정된 오탈자들 중에 포함되어 있는지 여부를 판단할 수 있다.
이때, '마우사'라는 문자열은 사전 데이터베이스(115)에 저장되어 있는 복수의 선정된 오탈자들 중에 포함되어 있기 때문에, 디스플레이부(111)는 사전 데이터베이스(115)로부터 '마우사'라는 문자열에 대응되어 저장되어 있는 정자인 '마우스'라는 문자열을 추출한 후 '마우사'라는 문자열 대신 '마우스'라는 정자를 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
결국, 본 발명의 일실시예에 따른 디스플레이부(111)는 버퍼의 큐로부터 한 문자씩 추출되어 전달될 때마다, 전달된 문자를 그대로 자막으로 출력하는 것이 아니라, 음성 인식이 잘못되었을 가능성이 있기 때문에 자막 출력 전에 사전 데이터베이스(115)를 참조하여 오탈자가 존재하는 경우, 오탈자를 정자로 변환한 후 자막으로 출력함으로써, 청중들에게 좀 더 정확한 내용이 전달되도록 보조할 수 있다.
보통, 프레젠테이션의 특성상 여러 가지 화면 전환 효과나 애니메이션 효과 등이 발생하게 되는데, 하나의 화면 상에 도형, 이미지 등의 개체와 자막이 동시에 출력된다면, 화면에 자막이 불규칙적으로 표시될 수 있고, 화면 전환 효과나 애니메이션 효과가 자막에 의해 가려지는 등 부자연스럽게 발생할 수 있다.
특히, 전자 문서의 출력 화면에 자막이 출력되는 화면을 하나의 화면으로 구성하여 그래픽 렌더링(rendering)을 수행하는 경우, 한 화면에 이미지나 도형 등과 같은 개체가 다수 존재한다면, 렌더링이 수행되어야 할 대상이 증가함에 따라 화면에 왜곡이 발생할 가능성이 높아질 수 있다.
이에, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치(110)는 자막의 출력 화면과 전자 문서의 출력 화면을 하나의 화면으로 구성하여 그래픽 렌더링을 수행하는 것이 아니라, 각각 별개의 가상 화면으로 구분하여 렌더링을 수행한 후 각각 렌더링이 완료된 화면을 하나의 화면으로 단순히 겹쳐서 출력함으로써, 전술한 자막이 출력됨으로 인해 발생할 수 있는 화면 출력의 오류를 방지할 수 있다.
이와 관련하여, 본 발명의 일실시예에 따르면, 디스플레이부(111)는 계층(layer) 구성부(116), 제1 렌더링부(117), 제2 렌더링부(118) 및 화면 조합 출력부(119)를 포함할 수 있다.
계층 구성부(116)는 상기 전자 문서의 출력 화면에 대한 그래픽 렌더링과 연관된 가상의 제1 계층과 상기 자막의 출력 화면에 대한 그래픽 렌더링과 연관된 가상의 제2 계층을 구성한다.
제1 렌더링부(117)는 상기 가상의 제1 계층을 통해 상기 전자 문서의 출력 화면에 대한 그래픽 렌더링을 수행한다.
제2 렌더링부(118)는 상기 가상의 제2 계층을 통해 상기 자막의 출력 화면에 대한 그래픽 렌더링을 수행한다.
그리고 나서, 화면 조합 출력부(119)는 상기 그래픽 렌더링이 완료된 전자 문서의 출력 화면 상에 상기 그래픽 렌더링이 완료된 자막의 출력 화면을 겹쳐서 하나의 화면으로 출력한다.
이와 관련하여, 도 2에는 디스플레이부(111)가 전자 문서의 출력 화면 상에 자막을 출력하는 과정을 설명하기 위한 도면이 도시되어 있다.
도 2에 도시된 바와 같이, 계층 구성부(116)는 전자 문서의 출력 화면(211)에 대한 그래픽 렌더링을 수행하기 위한 가상의 제1 계층(210)과 자막의 출력 화면(221)에 대한 그래픽 렌더링을 수행하기 위한 가상의 제2 계층(220)을 구성할 수 있다.
그리고 나서, 제1 렌더링부(117)는 가상의 제1 계층(210)을 통해 전자 문서의 출력 화면(211)을 렌더링하고, 제2 렌더링부(118)는 가상의 제2 계층(220)을 통해 자막의 출력 화면(221)을 렌더링할 수 있다.
그리고, 화면 조합 출력부(119)는 그래픽 렌더링이 완료된 전자 문서의 출력 화면 상에 그래픽 렌더링이 완료된 자막의 출력 화면을 단순히 겹쳐서 하나의 화면(230)으로 출력할 수 있다.
결국, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 장치(110)는 전자 문서의 출력 화면 상에 자막이 정상적으로 출력될 수 있도록 하기 위해, 전자 문서의 출력 화면에 대한 그래픽 렌더링과 자막의 출력 화면에 대한 그래픽 렌더링을 각각 별도로 수행한 후 렌더링이 완료된 두 화면을 단순히 겹쳐서 출력함으로써, 전자 문서의 출력 화면에 자막이 출력되는 화면을 하나의 화면으로 구성하여 그래픽 렌더링을 수행함으로 인해 발생하는 화면 출력의 오류를 방지할 수 있다.
도 3은 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 방법을 도시한 순서도이다.
단계(S310)에서는 프레젠테이션 용 전자 문서를 로드하여 상기 전자 문서를 화면 상에 출력한다.
단계(S320)에서는 마이크로폰을 통해 사용자로부터 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석하여 상기 음성 신호에 대응되는 텍스트를 생성한다.
단계(S330)에서는 상기 생성된 텍스트를 버퍼에 저장한다.
단계(S340)에서는 상기 버퍼로부터 상기 버퍼에 저장되어 있는 텍스트를 추출한다.
단계(S350)에서는 상기 추출된 텍스트를 전달 받아 상기 전자 문서의 출력 화면 상에 상기 추출된 텍스트를 자막으로 출력한다.
이때, 본 발명의 일실시예에 따르면, 단계(S330)에서는 상기 생성된 텍스트를 구성하는 적어도 하나의 문자에 대해 각 문자의 생성 순서에 따라 한 문자씩 상기 버퍼의 큐에 저장할 수 있다.
이때, 단계(S340)에서는 상기 버퍼의 큐로부터 상기 버퍼의 큐에 문자 단위로 저장되어 있는 텍스트를 상기 버퍼의 큐에 저장된 순서에 따라 한 문자씩 추출한 후 상기 문자의 추출에 대응하여 상기 버퍼의 큐에 저장되어 있는 나머지 문자들을 시프트할 수 있다.
이때, 단계(S350)에서는 상기 버퍼의 큐로부터 한 문자씩 추출된 텍스트를 전달 받아 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
또한, 본 발명의 일실시예에 따르면, 단계(S320)에서는 상기 음성 신호의 패턴을 음절 단위로 구분하여 상기 구분된 음절 단위의 패턴에 대응되는 문자를 생성함으로써, 상기 음성 신호에 대응되는 텍스트를 생성할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 자막 출력 기반의 프레젠테이션 방법은 단계(S310)이전에 선정된 개수의 문자로 구성된 복수의 선정된 오탈자들에 대해 상기 복수의 선정된 오탈자들 각각에 대한 정자가 대응되어 저장되어 있는 사전 데이터베이스를 유지하는 단계를 더 포함할 수 있다.
이때, 단계(S350)에서는 상기 버퍼의 큐로부터 상기 선정된 개수의 문자가 추출되어 전달될 때마다, 상기 사전 데이터베이스를 참조하여 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는지 여부를 판단하고, 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는 경우, 상기 사전 데이터베이스를 참조하여 상기 전달된 문자로 구성된 문자열을 정자로 변환한 후 상기 변환된 정자를 상기 전자 문서의 출력 화면 상에 자막으로 출력할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 자막 출력 기반의 프레젠테이션 방법은 단계(S310)이전에 상기 전자 문서의 출력 화면에 대한 그래픽 렌더링과 연관된 가상의 제1 계층과 상기 자막의 출력 화면에 대한 그래픽 렌더링과 연관된 가상의 제2 계층을 구성하는 단계를 더 포함할 수 있다.
이때, 단계(S310)에서는 상기 가상의 제1 계층을 통해 상기 전자 문서의 출력 화면에 대한 그래픽 렌더링을 수행하여 상기 전자 문서를 화면 상에 출력하고, 단계(S350)에서는 상기 가상의 제2 계층을 통해 상기 자막의 출력 화면에 대한 그래픽 렌더링을 수행한 후 상기 전자 문서의 출력 화면 상에 상기 그래픽 렌더링이 완료된 자막의 출력 화면을 겹쳐서 하나의 화면으로 출력할 수 있다.
이상, 도 3을 참조하여 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 방법에 대해 설명하였다. 여기서, 본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 방법은 도 1을 이용하여 설명한 자막 출력 기반의 프레젠테이션 장치(110)의 동작에 대한 구성과 대응될 수 있으므로, 이에 대한 보다 상세한 설명은 생략하기로 한다.
본 발명의 일실시예에 따른 자막 출력 기반의 프레젠테이션 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
110: 자막 출력 기반의 프레젠테이션 장치
111: 디스플레이부 112: 텍스트 생성부
113: 텍스트 저장부 114: 텍스트 추출부
115: 사전 데이터베이스 116: 계층 구성부
117: 제1 렌더링부 118: 제2 렌더링부
119: 화면 조합 출력부

Claims (11)

  1. 프레젠테이션 용 전자 문서를 로드하여 상기 전자 문서를 화면 상에 출력하는 디스플레이부;
    마이크로폰을 통해 사용자로부터 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석하여 상기 음성 신호에 대응되는 텍스트를 생성하는 텍스트 생성부;
    상기 생성된 텍스트를 구성하는 적어도 하나의 문자에 대해 각 문자의 생성 순서에 따라 한 문자씩 버퍼의 큐(queue)에 저장하는 텍스트 저장부; 및
    상기 버퍼의 큐로부터 상기 버퍼의 큐에 문자 단위로 저장되어 있는 텍스트를 상기 버퍼의 큐에 저장된 순서에 따라 한 문자씩 추출하여 상기 디스플레이부로 전달하고, 상기 문자의 추출에 대응하여 상기 버퍼의 큐에 저장되어 있는 나머지 문자들을 시프트(shift)하는 텍스트 추출부
    를 포함하고,
    상기 디스플레이부는
    상기 전자 문서의 출력 화면에 대한 그래픽 렌더링(rendering)과 연관된 가상의 제1 계층(layer)과 자막의 출력 화면에 대한 그래픽 렌더링과 연관된 가상의 제2 계층을 구성하는 계층 구성부;
    상기 가상의 제1 계층을 통해 상기 전자 문서의 출력 화면을 생성하기 위한 그래픽 렌더링을 수행하는 제1 렌더링부;
    상기 버퍼의 큐로부터 한 문자씩 추출된 텍스트를 전달 받아, 상기 가상의 제2 계층을 통해, 상기 한 문자씩 추출된 텍스트에 기초한 자막의 출력 화면을 생성하기 위한 그래픽 렌더링을 수행하는 제2 렌더링부; 및
    상기 그래픽 렌더링이 완료된 전자 문서의 출력 화면 상에 상기 그래픽 렌더링이 완료된 자막의 출력 화면을 한 문자씩 표시하는 화면 조합 출력부
    를 포함하는 자막 출력 기반의 프레젠테이션 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 텍스트 생성부는
    상기 음성 신호의 패턴을 음절 단위로 구분하여 상기 구분된 음절 단위의 패턴에 대응되는 문자를 생성함으로써, 상기 음성 신호에 대응되는 텍스트를 생성하는 자막 출력 기반의 프레젠테이션 장치.
  4. 제1항에 있어서,
    선정된(predetermined) 개수의 문자로 구성된 복수의 선정된 오탈자들에 대해 상기 복수의 선정된 오탈자들 각각에 대한 정자가 대응되어 저장되어 있는 사전 데이터베이스
    를 더 포함하고,
    상기 디스플레이부는
    상기 버퍼의 큐로부터 상기 선정된 개수의 문자가 추출되어 전달될 때마다, 상기 사전 데이터베이스를 참조하여 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는지 여부를 판단하고, 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는 경우, 상기 사전 데이터베이스를 참조하여 상기 전달된 문자로 구성된 문자열을 정자로 변환한 후 상기 변환된 정자를 상기 전자 문서의 출력 화면 상에 자막으로 출력하는 자막 출력 기반의 프레젠테이션 장치.
  5. 삭제
  6. 디스플레이부가 프레젠테이션 용 전자 문서를 로드하여 상기 전자 문서의 출력 화면에 대한 그래픽 렌더링(rendering)과 연관된 가상의 제1 계층(layer)과 자막의 출력 화면에 대한 그래픽 렌더링과 연관된 가상의 제2 계층을 구성하는 단계;
    상기 디스플레이부가 상기 가상의 제1 계층을 통해 상기 전자 문서의 출력 화면을 생성하기 위한 그래픽 렌더링을 수행하여 상기 전자 문서를 화면 상에 출력하는 단계;
    텍스트 생성부가 마이크로폰을 통해 사용자로부터 음성을 입력받아 상기 입력받은 음성에 대한 음성 신호의 패턴을 분석하여 상기 음성 신호에 대응되는 텍스트를 생성하는 단계;
    텍스트 저장부가 상기 생성된 텍스트를 구성하는 적어도 하나의 문자에 대해 각 문자의 생성 순서에 따라 한 문자씩 버퍼의 큐(queue)에 저장하는 단계;
    텍스트 추출부가 상기 버퍼의 큐로부터 상기 버퍼의 큐에 문자 단위로 저장되어 있는 텍스트를 상기 버퍼의 큐에 저장된 순서에 따라 한 문자씩 추출한 후 상기 문자의 추출에 대응하여 상기 버퍼의 큐에 저장되어 있는 나머지 문자들을 시프트(shift)하는 단계; 및
    상기 디스플레이부가 상기 버퍼의 큐로부터 한 문자씩 추출된 텍스트를 전달 받아, 상기 가상의 제2 계층을 통해, 상기 한 문자씩 추출된 텍스트에 기초한 자막의 출력 화면을 생성하기 위한 그래픽 렌더링을 수행한 후 상기 전자 문서의 출력 화면 상에 상기 그래픽 렌더링이 완료된 자막의 출력 화면을 한 문자씩 표시하는 단계
    를 포함하는 자막 출력 기반의 프레젠테이션 방법.
  7. 삭제
  8. 제6항에 있어서,
    상기 텍스트를 생성하는 단계는
    상기 텍스트 생성부가 상기 음성 신호의 패턴을 음절 단위로 구분하여 상기 구분된 음절 단위의 패턴에 대응되는 문자를 생성함으로써, 상기 음성 신호에 대응되는 텍스트를 생성하는 자막 출력 기반의 프레젠테이션 방법.
  9. 제6항에 있어서,
    사전 데이터베이스 유지부가 선정된(predetermined) 개수의 문자로 구성된 복수의 선정된 오탈자들에 대해 상기 복수의 선정된 오탈자들 각각에 대한 정자가 대응되어 저장되어 있는 사전 데이터베이스를 유지하는 단계
    를 더 포함하고,
    상기 표시하는 단계는
    상기 디스플레이부가 상기 버퍼의 큐로부터 상기 선정된 개수의 문자가 추출되어 전달될 때마다, 상기 사전 데이터베이스를 참조하여 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는지 여부를 판단하고, 상기 전달된 문자로 구성된 문자열이 상기 복수의 선정된 오탈자들 중에 포함되어 있는 경우, 상기 사전 데이터베이스를 참조하여 상기 전달된 문자로 구성된 문자열을 정자로 변환한 후 상기 변환된 정자를 상기 전자 문서의 출력 화면 상에 자막으로 출력하는 자막 출력 기반의 프레젠테이션 방법.
  10. 삭제
  11. 제6항 또는 제8항 내지 제9항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
KR1020120127984A 2012-11-13 2012-11-13 자막 출력 기반의 프레젠테이션 장치 및 방법 KR101292563B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120127984A KR101292563B1 (ko) 2012-11-13 2012-11-13 자막 출력 기반의 프레젠테이션 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120127984A KR101292563B1 (ko) 2012-11-13 2012-11-13 자막 출력 기반의 프레젠테이션 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101292563B1 true KR101292563B1 (ko) 2013-08-09

Family

ID=49219729

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120127984A KR101292563B1 (ko) 2012-11-13 2012-11-13 자막 출력 기반의 프레젠테이션 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101292563B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016206A (ja) * 2017-07-07 2019-01-31 株式会社富士通ソーシアルサイエンスラボラトリ 音声認識文字表示プログラム、情報処理装置、及び、音声認識文字表示方法
KR101992829B1 (ko) * 2018-09-19 2019-06-25 (주)비디오몬스터 클라우드 기반 영상 렌더링 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141538A (ja) * 1997-07-17 1999-02-12 Nec Home Electron Ltd 音声認識文字表示装置
JP2007256714A (ja) * 2006-03-24 2007-10-04 Internatl Business Mach Corp <Ibm> 字幕修正装置
US7296218B2 (en) * 2006-02-08 2007-11-13 Dittrich William A Instant note capture/presentation apparatus, system and method
JP2011043716A (ja) * 2009-08-21 2011-03-03 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141538A (ja) * 1997-07-17 1999-02-12 Nec Home Electron Ltd 音声認識文字表示装置
US7296218B2 (en) * 2006-02-08 2007-11-13 Dittrich William A Instant note capture/presentation apparatus, system and method
JP2007256714A (ja) * 2006-03-24 2007-10-04 Internatl Business Mach Corp <Ibm> 字幕修正装置
JP2011043716A (ja) * 2009-08-21 2011-03-03 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019016206A (ja) * 2017-07-07 2019-01-31 株式会社富士通ソーシアルサイエンスラボラトリ 音声認識文字表示プログラム、情報処理装置、及び、音声認識文字表示方法
KR101992829B1 (ko) * 2018-09-19 2019-06-25 (주)비디오몬스터 클라우드 기반 영상 렌더링 시스템 및 방법

Similar Documents

Publication Publication Date Title
World Wide Web Consortium Web content accessibility guidelines (WCAG) 2.0
Caldwell et al. Web content accessibility guidelines (WCAG) 2.0
US9317500B2 (en) Synchronizing translated digital content
CA2833656C (en) System and method for enhancing comprehension and readability of text
US11443646B2 (en) E-Reader interface system with audio and highlighting synchronization for digital books
US20170169822A1 (en) Dialog text summarization device and method
US20190196675A1 (en) Platform for educational and interactive ereaders and ebooks
US20160259827A1 (en) Preserving emotion of user input
CN100524213C (zh) 用于在接口内构造语音单元的方法和系统
CN101998107B (zh) 信息处理装置、会议系统和信息处理方法
US8799774B2 (en) Translatable annotated presentation of a computer program operation
EP2932403A2 (en) Appending content with annotation
CN102959496A (zh) 系统级文本查看器
US9684641B1 (en) Presenting content in multiple languages
US20130100161A1 (en) Digital comic editor, method and non-transitory computer-readable medium
KR101746052B1 (ko) 휴대단말에서 전자책 서비스 제공 방법 및 장치
JP7199061B2 (ja) 翻訳装置
CN104156164A (zh) 终端
US10628526B2 (en) Providing suggested diagrammatic representations of user entered textual information
US10276150B2 (en) Correction system, method of correction, and computer program product
US10824790B1 (en) System and method of extracting information in an image containing file for enhanced utilization and presentation
US20150006174A1 (en) Information processing device, information processing method and program
KR101292563B1 (ko) 자막 출력 기반의 프레젠테이션 장치 및 방법
CN112513922A (zh) 使用出版平台经由学习插页广告为书籍提供伴随增强的系统和方法
WO2018198807A1 (ja) 翻訳装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160630

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190704

Year of fee payment: 7