KR102523829B1 - Visual presenter and method for producing contents using the same - Google Patents

Visual presenter and method for producing contents using the same Download PDF

Info

Publication number
KR102523829B1
KR102523829B1 KR1020210062717A KR20210062717A KR102523829B1 KR 102523829 B1 KR102523829 B1 KR 102523829B1 KR 1020210062717 A KR1020210062717 A KR 1020210062717A KR 20210062717 A KR20210062717 A KR 20210062717A KR 102523829 B1 KR102523829 B1 KR 102523829B1
Authority
KR
South Korea
Prior art keywords
image
content
text
voice recognition
captured
Prior art date
Application number
KR1020210062717A
Other languages
Korean (ko)
Other versions
KR20220155012A (en
Inventor
김성원
Original Assignee
(주)오맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)오맥스 filed Critical (주)오맥스
Priority to KR1020210062717A priority Critical patent/KR102523829B1/en
Publication of KR20220155012A publication Critical patent/KR20220155012A/en
Application granted granted Critical
Publication of KR102523829B1 publication Critical patent/KR102523829B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/06Projectors or projection-type viewers; Accessories therefor affording only episcopic projection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 실물화상기 및 이를 이용한 콘텐츠 제작 방법으로서, 특히, 카메라를 통해 촬영된 실물을 화상으로 변환하고, 음성인식엔진에서 인식한 음성을 문자로 변환하며, 상기한 화상과 문자를 동기화하여 디스플레이에 실시간 표시할 수 있고, 상기한 화상과 문자를 이용하여 쉽게 콘텐츠를 제작할 수 있는 실물화상기 및 이를 이용한 콘텐츠 제작 방법에 관한 것이다.The present invention relates to a video presenter and a content production method using the same, in particular, converting a real object photographed through a camera into an image, converting a voice recognized by a voice recognition engine into text, and synchronizing the image and text to display the image. It relates to a real-time presenter capable of displaying in real time and easily producing content using the above images and text, and a content production method using the same.

Figure R1020210062717
Figure R1020210062717

Description

실물화상기 및 이를 이용한 콘텐츠 제작 방법{VISUAL PRESENTER AND METHOD FOR PRODUCING CONTENTS USING THE SAME}Visual presenter and content production method using the same {VISUAL PRESENTER AND METHOD FOR PRODUCING CONTENTS USING THE SAME}

본 발명은 실물화상기 및 이를 이용한 콘텐츠 제작 방법으로서, 특히, 카메라를 통해 촬영된 실물을 화상으로 변환하는 실물화상기 및 이를 이용한 콘텐츠 제작 방법에 관한 것이다.The present invention relates to a video presenter and a content production method using the same, and more particularly, to a video presenter that converts a real object photographed through a camera into an image and a content production method using the same.

회의, 교육, 발표 등에서 주로 사용되는 실물화상기는 구비된 카메라를 통해, 촬영 대상 실물을 촬영하고 화상으로 변환하여 모니터 또는 프로젝터 등의 디스플레이에 표시한다.A real presenter, which is mainly used in conferences, education, presentations, etc., captures a real object to be photographed through a camera, converts it into an image, and displays it on a display such as a monitor or projector.

이러한 실물화상기로는 한국등록특허 제10-1512407호(이하, '특허문헌 1'이라 한다)에 기재된 것이 공지되어 있다.As such a real presenter, one described in Korean Patent Registration No. 10-1512407 (hereinafter, referred to as 'Patent Document 1') is known.

특허문헌 1의 경우, 영상촬영부, 제1회전암, 제2회전암, 수평회전부, 본체, 위치유지가이드부로 구성된다.In the case of Patent Document 1, it is composed of an image capturing unit, a first rotating arm, a second rotating arm, a horizontal rotation unit, a main body, and a position holding guide unit.

특허문헌 1은 본체와 제2회전암 사이에 회전가능하게 연결되는 수평회전부를 구비함으로써, 제2회전암이 어느방향으로도 회전가능하게 되어 촬영매체가 본체를 중심으로 어느 평면에 있더라도 촬영할 수 있고, 제2회전암 내부에 위치유지가이드부를 구비함으로써, 소정 위치에서 제2회전암을 정지시킬 수 있다.Patent Document 1 is provided with a horizontal rotation unit rotatably connected between the body and the second rotation arm, so that the second rotation arm is rotatable in any direction, so that the recording medium can be photographed even if it is on any plane with the main body as the center. , By providing a position holding guide inside the second rotary arm, it is possible to stop the second rotary arm at a predetermined position.

최근 실물화상기는 강의실, 회의실 등에서 실물화상기의 카메라를 통해 촬영된 화상을 디스플레이로 표시하고 강사 또는 발표자가 화상을 청중에게 보여주면서 설명하거나, 화상을 확대하여 청중에게 보여주며 이를 설명하는 용도로 사용된다.Recently, a video presenter displays an image captured by a camera of a visual presenter in a lecture room, conference room, etc. on a display, and a lecturer or presenter shows and explains the image to the audience, or enlarges the image and shows it to the audience, and is used for the purpose of explaining it. .

그러나, 종래의 실물화상기는 단순히 화상을 디스플레이로 표시하거나, 확대된 화상을 보여주는 기능을 하므로, 화상에 관련된 강사 또는 발표자의 설명에 대한 내용은 강사 또는 발표자가 별도로 문서화된 자료를 준비하거나, 청중이 따로 필기해야 하는 번거로움이 있다.However, since conventional visual presenters simply display images or show enlarged images, the lecturer or presenter prepares a separate documented material for the lecturer or presenter's explanation related to the image, or the audience There is the hassle of having to write separately.

또한, 강사 또는 발표자가 설명하는 화상에 대한 내용을 모두 문서화된 자료로 만들거나, 별도로 필기하기에는 한계가 있으므로, 청중은 녹음기 등과 같은 필기를 위한 추가적인 수단을 준비하여 내용을 기록해야 한다는 문제점이 있다.In addition, since there is a limit to making all the contents of the video explained by the lecturer or presenter into documented data or taking notes separately, the audience has a problem in that they have to prepare an additional means for taking notes such as a recorder to record the contents.

또한, 디스플레이에는 실물화상기가 촬영한 화상만이 표시되므로, 표시된 화상을 보면서 필기를 할 경우, 청중은 들은 내용을 필기하는 것에 집중력이 분산되어 강의 또는 회의에 대한 집중도가 떨어질 수 있다.In addition, since only images captured by a visual presenter are displayed on the display, when taking notes while viewing the displayed images, the audience's concentration on writing down what they hear is dispersed, and their concentration on the lecture or meeting may decrease.

또한, 강의 또는 회의에 청각 장애를 가진 사람이 참석할 수 있다. 이 경우, 강사 또는 발표자가 별도의 문서화된 자료를 준비하지 않고 종래의 실물화상기를 이용해 구두로 설명하는 방식의 강의 또는 회의를 진행한다면, 별도의 속기사를 섭외해야 한다는 번거로움이 있고, 속기사가 미섭외될 경우, 청각 장애를 가진 사람은 강의 또는 회의에 참석하기 어렵다는 문제점이 있다.Also, a person with a hearing impairment may attend a lecture or conference. In this case, if the lecturer or presenter conducts a lecture or meeting in the form of verbal explanation using a conventional video presenter without preparing a separate documented material, there is the inconvenience of having to hire a separate stenographer, and When invited, there is a problem that it is difficult for people with hearing impairments to attend lectures or conferences.

또한, 강사 또는 발표자는 강의나 회의를 준비하기 위해 실물화상기와 화상을 표시할 디스플레이 뿐만 아니라, 강의 또는 회의에서 설명할 화상에 대한 문서화된 자료까지 별도로 준비해야 하므로, 시간이 많이 소요되어 강의 또는 회의 준비가 비효율적으로 이루어질 수 있다는 문제점이 있다.In addition, in order to prepare for a lecture or meeting, the lecturer or presenter must separately prepare not only a video presenter and a display to display images, but also documented data about the images to be explained in the lecture or conference, which is time-consuming. There is a problem that preparation can be made inefficiently.

한국등록특허 제10-1512407호Korean Patent Registration No. 10-1512407

본 발명은 전술한 문제를 해결하기 위해 안출된 것으로, 실물화상기에 음성을 문자로 변환할 수 있는 음성인식엔진을 구비하여, 실물화상기가 촬영하는 실물과, 음성인식엔진이 변환한 문자를 동기화하여 시각적으로 실시간 표시할 수 있고, 이를 저장하여 쉽고 빠르게 콘텐츠화할 수 있는 실물화상기 및 이를 이용한 콘텐츠 제작 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems, by providing a voice recognition engine capable of converting voice into text in a visual presenter, and synchronizing the real image captured by the visual presenter with the character converted by the voice recognition engine. An object of the present invention is to provide a real-time presenter capable of visually displaying in real time, storing it and converting it into content easily and quickly, and a method for producing content using the same.

본 발명의 일 특징에 따른 실물화상기는 카메라를 구비하여 실물을 화상으로 변환하고, 음성인식엔진을 구비하여 음성을 문자로 변환하며, 변환된 화상 및 문자를 실시간으로 저장하거나 외부로 전송하는 것을 특징으로 한다.A real presenter according to one feature of the present invention is equipped with a camera to convert real objects into images, has a voice recognition engine to convert voices into texts, and stores or transmits the converted images and texts in real time. to be

또한, 상기 음성인식엔진에서 변환된 문자와, 상기 카메라에서 촬영된 화상으로 콘텐츠를 제작하는 콘텐츠 제작부;를 포함하는 것을 특징으로 한다.In addition, it is characterized in that it includes; a content production unit for producing content with the text converted by the voice recognition engine and the image captured by the camera.

또한, 상기 콘텐츠 제작부는 상기 음성인식엔진에서 변환된 문자와, 상기 카메라에서 촬영된 화상을 실시간으로 동기화하는 동기화부를 포함하는 것을 특징으로 한다.The content production unit may include a synchronization unit that synchronizes the text converted by the voice recognition engine with the image captured by the camera in real time.

또한, 상기 콘텐츠 제작부에서 제작된 콘텐츠를 디스플레이부에 실시간으로 전송하는 통신부;를 더 포함하는 것을 특징으로 한다.In addition, it is characterized in that it further comprises; a communication unit for transmitting the contents produced by the content production unit to the display unit in real time.

또한, 카메라 및 음성인식엔진은 좌대에 결합된 지지암의 단부에 구비되는 것을 특징으로 한다.In addition, the camera and voice recognition engine are characterized in that they are provided at the end of the support arm coupled to the pedestal.

또한, 상기 음성인식엔진은 1인의 음성만을 필터링하여 문자로 변환하는 것을 특징으로 한다.In addition, the voice recognition engine is characterized in that only the voice of one person is filtered and converted into text.

또한, 상기 음성인식엔진은 다수의 음성을 개별화하여 각각 문자로 변환하는 것을 특징으로 한다.In addition, the voice recognition engine is characterized in that it individualizes a plurality of voices and converts them into text.

또한, 상기 화상은 정지화상인 것을 특징으로 한다.Also, the image is characterized in that it is a still image.

또한, 상기 화상은 동화상인 것을 특징으로 한다.Further, the image is characterized in that it is a moving image.

본 발명의 다른 특징에 따른 실물화상기를 이용한 콘텐츠 제작 방법은 음성인식엔진이 음성인식부를 통해 인식된 음성을 추출하여 실시간으로 문자로 변환하는 문자변환단계; 상기 문자변환단계에서 변환된 문자와 카메라에서 촬영된 화상을 동기화하여 콘텐츠로 제작하는 콘텐츠 제작단계;를 포함하는 것을 특징으로 한다.A content production method using a video presenter according to another feature of the present invention includes a text conversion step in which a voice recognition engine extracts a voice recognized through a voice recognition unit and converts it into text in real time; and a content creation step of synchronizing the character converted in the character conversion step with the image captured by the camera to create content.

또한, 상기 콘텐츠를 편집하는 콘텐츠 편집단계;를 포함하는 것을 특징으로 한다.In addition, it is characterized in that it comprises a; content editing step of editing the content.

이상에서 살펴본 바와 같은 본 발명의 실물화상기 및 이를 이용한 콘텐츠 제작 방법에 따르면 다음과 같은 효과가 있다.According to the video presenter of the present invention and the content production method using the same as described above, the following effects are obtained.

본 발명은 실물화상기에 음성인식엔진을 구비함으로써, 본 발명의 실물화상기를 이용하는 강의 또는 회의 등에서, 실물화상기로 촬영된 화상과 함께 사용자의 음성을 문자로 변환하여 실시간으로 디스플레이부에 표시할 수 있다.According to the present invention, by providing a voice recognition engine in a visual presenter, in a lecture or conference using the visual presenter, the user's voice can be converted into text along with images captured by the visual presenter and displayed on the display unit in real time. .

이로 인해, 강사 또는 발표자와 같은 사용자가 별도로 시각적 보조 자료를 준비할 필요가 없으므로, 강의 또는 회의 등을 위한 사전 준비 작업 시간을 단축할 수 있고, 강의 또는 회의 등에 보충이 필요한 부분을 보강하는 등 사전 준비 시간을 효율적으로 활용할 수 있다.As a result, users such as instructors or presenters do not need to prepare visual aids separately, so time for preparation work in advance for lectures or conferences can be shortened, and for lectures or conferences, etc. You can use your preparation time effectively.

또한, 본 발명은 촬영된 화상과 변환된 문자를 실시간으로 디스플레이부에 표시할 수 있으므로, 강의 또는 회의 등에 참석하는 청중 중 청각 장애를 가진 사람이 있을 경우, 속기사를 섭외할 필요없이 본 발명이 시각적 보조 기능을 할 수 있으므로, 편리함을 제공할 수 있다.In addition, since the present invention can display the captured image and the converted text on the display unit in real time, if there is a person with a hearing impairment among the audience attending a lecture or conference, the present invention provides visual Since it can perform an auxiliary function, it can provide convenience.

또한, 본 발명은 사용자의 음성이 변환된 문자와, 화상을 이용하여 강의 또는 회의 등에서 설명한 내용으로 즉시 콘텐츠를 제작할 수 있으므로, 미리 제작된 콘텐츠에 오류가 있을 경우, 본 발명을 이용하여 제작된 콘텐츠로 바로 대체가 가능하여 강의 또는 회의 등을 차질없이 진행할 수 있는 효과가 있다.In addition, since the present invention can immediately produce content with the content explained in a lecture or conference using text and images converted from the user's voice, if there is an error in the pre-produced content, the content produced using the present invention It can be replaced immediately, so lectures or meetings can be held without a hitch.

도 1은 본 발명의 바람직한 실시 예에 따른 실물화상기의 사시도.
도 2는 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용한 강의 모습을 예시적으로 구현한 도.
도 3은 본 발명의 바람직한 실시 예에 따른 실물화상기의 구성 블럭도.
도 4는 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용한 콘텐츠 제작 방법의 순서도.
도 5는 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용하여 변환된 문자와 촬영된 화상이 실시간으로 동기화되어 디스플레이부에 표시된 형태를 예시적으로 도시한 도.
도 6은 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용한 콘텐츠 제작 방법에서 콘텐츠 편집단계를 예시적으로 도시한 도.
1 is a perspective view of a visual presenter according to a preferred embodiment of the present invention.
2 is a diagram exemplarily implementing the appearance of a river using a visual presenter according to a preferred embodiment of the present invention.
3 is a block diagram of a physical presenter according to a preferred embodiment of the present invention.
Figure 4 is a flow chart of a content production method using a video presenter according to a preferred embodiment of the present invention.
FIG. 5 exemplarily shows a form in which a character converted using a real-time presenter and a photographed image are synchronized in real time and displayed on a display unit according to a preferred embodiment of the present invention.
6 is a diagram exemplarily illustrating a content editing step in a content production method using a video presenter according to a preferred embodiment of the present invention.

본 발명의 바람직한 실시 예에 따른 실물화상기 및 이를 이용한 콘텐츠 제작 방법에 대해 설명하기에 앞서, 이하에서 언급되는 '화상'은 정지화상과 동화상을 통칭하여 의미하거나, 문장의 의미에 따라 정지화상과 동화상 각각을 의미할 수 있고, 촬영된 화상의 캡쳐 전 상태를 의미하거나, 캡쳐 후 상태를 의미할 수 있다.Prior to describing a video presenter and a content production method using the same according to a preferred embodiment of the present invention, 'image' referred to below means a collective term for a still image and a moving image, or a still image and a moving image depending on the meaning of a sentence. It may mean each, and may mean a state before capture of a photographed image or a state after capture.

또한, 이하에서 언급되는 '콘텐츠'는 종이 문서, 전자 문서 등의 문서화된 형태를 포함하여 의미할 수 있고, 종이 문서 또는 전자 문서 각각을 의미할 수 있다.In addition, 'content' referred to below may mean including documented forms such as paper documents and electronic documents, and may mean paper documents and electronic documents, respectively.

이하, 도면을 참조하여 본 발명의 바람직한 실시 예에 따른 실물화상기 및 이를 이용한 콘텐츠 제작 방법에 대해 설명한다.Hereinafter, a video presenter according to a preferred embodiment of the present invention and a content production method using the same will be described with reference to the drawings.

도 1은 본 발명의 바람직한 실시 예에 따른 실물화상기의 사시도이고, 도 1은 본 발명의 바람직한 실시 예에 따른 실물화상기의 사시도이고, 도 2는 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용한 강의 모습을 예시적으로 구현한 도이고, 도 3은 본 발명의 바람직한 실시 예에 따른 실물화상기의 구성 블럭도이고, 도 4는 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용한 콘텐츠 제작 방법의 순서도이고, 도 5는 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용하여 변환된 문자와 촬영된 화상이 실시간으로 동기화되어 디스플레이부에 표시된 형태를 예시적으로 도시한 도이고, 도 6은 본 발명의 바람직한 실시 예에 따른 실물화상기를 이용한 콘텐츠 제작 방법에서 콘텐츠 편집단계를 예시적으로 도시한 도이다.1 is a perspective view of a visual presenter according to a preferred embodiment of the present invention, FIG. 1 is a perspective view of a visual presenter according to a preferred embodiment of the present invention, and FIG. 2 is a lecture using a visual presenter according to a preferred embodiment of the present invention. FIG. 3 is a block diagram of a physical presenter according to a preferred embodiment of the present invention, and FIG. 4 is a flow chart of a content production method using a physical presenter according to a preferred embodiment of the present invention. , FIG. 5 exemplarily shows a form in which the converted text and the captured image are synchronized in real time and displayed on the display unit using a real-time presenter according to a preferred embodiment of the present invention. FIG. It is a diagram exemplarily illustrating the content editing step in the content production method using a video presenter according to an embodiment.

도 1 및 도 2에 도시된 바와 같이, 본 발명의 실물화상기(1)는 조작스위치부(21)가 구비된 좌대(20)와, 좌대(20)에 굴절 가능하게 결합된 지지암(10)과, 좌대(20)에 결합된 지지암(10)의 단부에 구비된 카메라(40) 및 음성인식엔진(30), 콘텐츠 제작부(50), 통신부(60)를 포함하여 구성된다.As shown in FIGS. 1 and 2, the visual presenter 1 of the present invention includes a pedestal 20 equipped with an operation switch 21 and a support arm 10 refractively coupled to the pedestal 20. And, it is configured to include a camera 40 provided at the end of the support arm 10 coupled to the pedestal 20, a voice recognition engine 30, a content production unit 50, and a communication unit 60.

본 발명의 실물화상기(1)는 카메라(40)를 구비하여 실물(R)을 화상(I)으로 변환하고, 변환된 화상(I) 및 문자(T)를 실시간으로 저장하거나 외부로 전송할 수 있다.The physical presenter 1 of the present invention includes a camera 40 to convert a real object R into an image I, and the converted image I and text T can be stored in real time or transmitted to the outside. .

좌대(20)는 지지암(10)과, 지지암(10)의 단부에 구비된 카메라(40) 및 음성인식 엔진을 지지하는 역할을 한다. 좌대(20)는 사용자(P)가 실물화상기(1)를 조작할 수 있도록 각종의 버튼으로 구성된 조작스위치부(21)를 구비할 수 있고, 디스플레이부(D)와 연결을 위한 출력 단자를 구비할 수 있다.The seat 20 serves to support the support arm 10, the camera 40 provided at the end of the support arm 10, and the voice recognition engine. The pedestal 20 may include an operation switch unit 21 composed of various buttons so that the user P can operate the video presenter 1, and an output terminal for connection with the display unit D. can do.

지지암(10)은 좌대(20)에 굴절 가능하게 결합되고, 좌대(20)와 결합되는 측의 반대측 단부에 카메라(40) 및 음성인식엔진(30)을 구비할 수 있다.The support arm 10 is refractively coupled to the seat 20, and may have a camera 40 and a voice recognition engine 30 at an end opposite to the side coupled to the seat 20.

카메라(40)는 실물(R)을 촬영하기 위한 것으로, 지지암(10)의 단부에 구비될 수 있다. 카메라(40)는 촬영된 실물(R)을 화상(I)으로 변환하여 준다. The camera 40 is for photographing the real object R and may be provided at an end of the support arm 10 . The camera 40 converts the photographed real object R into an image I.

카메라(40)가 변환하는 화상(I)은 정지화상일 수 있다. 카메라(40)는 촬영된 실물(R)을 정지화상으로 변환할 경우, 실물화상기(1)의 적합한 위치에 내장된 캡쳐 기능으로 촬영된 실물(R)을 정지화상으로 변환할 수 있다. 캡쳐 기능은 실물화상기(1)에 별도로 내장될 수 있고, 카메라(40)에 기능을 부여할 수도 있다.The image I converted by the camera 40 may be a still image. When converting the photographed real object R into a still image, the camera 40 may convert the captured real object R into a still image using a capture function built in a suitable location of the real image presenter 1 . The capture function may be separately built into the visual presenter 1, and the function may be given to the camera 40.

정지화상으로 변환된 실물(R)은 후술할 콘텐츠 제작부(50)의 동기화부에 의해 음성인식엔진(30)에서 변환된 문자(T)와 함께 동기화 되어 디스플레이부(D)에 실시간 표시될 수 있고, 콘텐츠 제작부(50)의 저장부에 저장되어 콘텐츠 제작에 이용될 수 있다. The real object (R) converted into a still image can be synchronized with the character (T) converted in the voice recognition engine 30 by the synchronization unit of the content production unit 50 to be described later and displayed on the display unit (D) in real time. , may be stored in the storage unit of the content production unit 50 and used for content production.

또한, 카메라(40)가 변환하는 화상(I)은 동화상일 수 있다. 이 경우, 실물화상기(1)는 적합한 위치에 촬영하는 실물(R)의 움직임을 녹화할 수 있는 별도의 기능을 내장할 수 있고, 카메라(40)에 기능을 부여할 수도 있다. 변환된 동화상은 후술할 콘텐츠 제작부(50)의 저장부에 저장되어 전자 문서 형태의 콘텐츠 제작에 용이하게 이용될 수 있다.Also, the image I converted by the camera 40 may be a moving image. In this case, the real presenter 1 may have a built-in function for recording the movement of the real object R being photographed at an appropriate location, and the camera 40 may be provided with the function. The converted moving image is stored in the storage unit of the content production unit 50 to be described later, and can be easily used for content creation in the form of an electronic document.

음성인식엔진(30)은 마이크와 같은 음성인식부를 포함하여 구성될 수 있고, 이를 통해 음성을 전기신호로 변환하여 인식하고, 인식된 음성을 문자(T)로 변환할 수 있다. The voice recognition engine 30 may include a voice recognition unit such as a microphone, through which the voice is converted into an electrical signal for recognition, and the recognized voice may be converted into a character (T).

음성인식엔진(30)은 카메라(40)와 같이 좌대(20)에 결합된 지지암(10)의 단부에 구비되는 것이 바람직할 수 있다.The voice recognition engine 30 may be preferably provided at an end of the support arm 10 coupled to the pedestal 20 like the camera 40 .

도 2에 도시된 바와 같이, 본 발명의 실물화상기(1)를 이용하여 강의 또는 회의 등을 진행할 경우, 강사 또는 발표자(이하, 사용자(P)라 한다)가 실물화상기(1)의 카메라(40)와 근접한 위치에서 실물(R)을 보거나 만지면서 설명할 확률이 높기 때문에, 음성인식엔진(30)이 사용자(P)의 음성을 선명하게 인식하여 인식된 음성을 정확하게 문자(T)로 변환하기 위해서는 실물(R)을 촬영하는 카메라(40)와 같은 위치인 지지암(10)의 단부에 구비되는 것이 바람직할 수 있다.As shown in FIG. 2, when a lecture or conference is conducted using the video presenter 1 of the present invention, a lecturer or a presenter (hereinafter, referred to as a user P) uses a camera 40 of the video presenter 1. ) Since there is a high probability of explaining while seeing or touching the real object R at a location close to the user P, the voice recognition engine 30 clearly recognizes the voice of the user P and accurately converts the recognized voice into text T For this purpose, it may be preferable to be provided at the end of the support arm 10 at the same position as the camera 40 for photographing the real object R.

음성인식엔진(30)은 음성인식부를 통해 인식된 음성 중 1인의 음성만을 필터링하여 문자(T)로 변환할 수 있다. 이 경우, 음성인식엔진(30)는 주변 소음 제거부를 포함하여 구성될 수 있고, 주변 소음 제거부를 통해 주변 소음을 제거하여 1인의 음성만을 필터링할 수 있다.The voice recognition engine 30 may filter only one person's voice among the voices recognized through the voice recognition unit and convert the voice into a character (T). In this case, the voice recognition engine 30 may include an ambient noise canceling unit, and may filter out only one person's voice by removing ambient noise through the ambient noise canceling unit.

이와 같은 음성인식엔진(30)은 주변 소음을 제거하고 사용자(P)의 음성만을 필터링하여 문자(T)로 변환할 수 있으므로, 후술할 콘텐츠 제작부(50)에서 본 발명의 실물화상기(1)를 사용하는 사용자(P)의 음성만을 변환한 문자(T)와 촬영된 화상(I)으로 종이문서 또는 전자 문서 등과 같은 형태의 콘텐츠를 제작할 경우, 사용자(P) 음성 중심의 콘텐츠 제작을 용이하게 할 수 있게 한다.Since the voice recognition engine 30 can remove ambient noise and filter only the voice of the user P and convert it into text T, the video presenter 1 of the present invention can be used in the content production unit 50 to be described later. When producing content in the form of a paper document or electronic document with only the converted text (T) and the captured image (I) of the user (P), it is possible to facilitate the creation of content centered on the user (P)'s voice. make it possible

또한, 음성인식엔진(30)은 다수의 음성을 개별화하여 각각 문자(T)로 변환할 수 있다.In addition, the voice recognition engine 30 may individualize a plurality of voices and convert each into a letter (T).

예컨대, 실물화상기(1)를 이용하여 강의 또는 회의를 진행할 경우, 강사 또는 발표자와 같은 사용자(P)의 설명 내용 뿐만 아니라, 사용자(P)의 설명에 대한 질의응답 과정이 있을 수 있다. 이 경우, 음성인식엔진(30)은 음성인식부를 통해 다수의 음성에 대한 음성신호를 전기신호로 변환하고, 이를 개별화하여 각각 문자(T)로 변환할 수 있으므로, 강의 또는 회의 도중 다수에 의해 이루어지는 질의응답 음성을 음성별로 개별화하여 각각 문자(T)로 변환할 수 있다.For example, when a lecture or conference is conducted using the video presenter 1, there may be a question-and-answer process for the user P's explanation as well as the user P's explanation, such as a lecturer or presenter. In this case, the voice recognition engine 30 converts voice signals for a plurality of voices into electrical signals through the voice recognition unit, individualizes them, and converts them into letters (T). Q&A voices may be individualized for each voice and converted into letters (T).

음성인식엔진(30)의 이와 같은 기능은 후술할 콘텐츠 제작부(50)가 카메라(40)를 통해 촬영된 화상(I)과 음성인식엔진(30)을 통해 변환된 문자(T)를 이용하여 콘텐츠를 제작할 경우, 강의 또는 회의 내용 뿐만 아니라 이에 관련한 주요한 질의응답도 포함된 다양한 내용을 담은 콘텐츠를 제작할 수 있게 할 수 있다.Such a function of the voice recognition engine 30 is performed by the content production unit 50, which will be described later, using an image I captured through the camera 40 and a character T converted through the voice recognition engine 30 to obtain content. , it is possible to produce contents containing various contents including not only lectures or conference contents but also major questions and answers related thereto.

콘텐츠 제작부(50)는 음성인식엔진(30)에서 변환된 문자(T)와, 카메라(40)에서 촬영된 화상(I)으로 콘텐츠를 제작할 수 있다.The content production unit 50 may produce content with the character T converted by the voice recognition engine 30 and the image I captured by the camera 40 .

콘텐츠 제작부(50)에는 저장부가 포함될 수 있고, 저장부는 음성인식엔진(30)에서 변환된 문자(T)와, 카메라(40)에서 촬영된 화상(I)을 저장할 수 있다. 이로 인해, 콘텐츠 제작부(50)는 음성인식엔진(30)에서 변환된 문자(T)와, 카메라(40)에서 촬영된 화상(I)을 이용하여 용이하게 콘텐츠로 제작할 수 있다.The content production unit 50 may include a storage unit, and the storage unit may store the character T converted by the voice recognition engine 30 and the image I captured by the camera 40 . Due to this, the content production unit 50 can easily produce content using the character T converted by the voice recognition engine 30 and the image I captured by the camera 40.

콘텐츠는 교과서와 같은 종이 문서나, 전자 파일 형태의 전자 문서 등을 의미할 수 있으나, 이에 한정된 것은 아니다.Content may refer to a paper document such as a textbook or an electronic document in the form of an electronic file, but is not limited thereto.

본 발명의 실물화상기(1)는 콘텐츠 제작부(50)로 인해, 강의 또는 회의 등에서 사용자(P)가 별도의 문서화된 자료를 준비하지 않아도 변환된 문자(T)와, 촬영된 화상(I)을 이용하여 즉시 콘텐츠 제작을 가능하게 할 수 있다. The presenter (1) of the present invention, due to the content production unit (50), converts the text (T) and the captured image (I) without the user (P) preparing a separate documented material at a lecture or meeting. You can use it to enable immediate content creation.

또한, 콘텐츠 제작부(50)는 음성인식엔진(30)에서 변환된 문자(T)와, 카메라(40)에서 촬영된 화상(I)을 실시간으로 동기화하는 동기화부를 포함할 수 있다.In addition, the content production unit 50 may include a synchronization unit that synchronizes the character T converted by the voice recognition engine 30 and the image I taken by the camera 40 in real time.

도 5를 참조하여 설명하면, 동기화부에서 실시간 동기화된 변환된 문자(T)와, 촬영된 화상(I)은 도 5와 같은 형태로 디스플레이부(D)에 표시될 수 있다.Referring to FIG. 5 , the converted character T synchronized in real time by the synchronization unit and the captured image I may be displayed on the display unit D in the form shown in FIG. 5 .

본 발명에서는 동기화부로 인해 변환된 문자(T)와, 촬영된 화상(I)이 한장의 페이지 형태로 도 5와 같이 동기화되는 것으로 도시하였지만, 이는 한정된 것이 아니다.In the present invention, it is shown that the character T converted by the synchronization unit and the captured image I are synchronized as shown in FIG. 5 in the form of a single page, but this is not limited.

본 발명의 실물화상기(1)는 이와 같은 콘텐츠 제작부(50)의 동기화부로 인해, 변환 문자(T)와, 촬영된 화상(I)의 실시간 동기화가 가능하여 디스플레이부(D)에 실시간으로 동기화된 형태를 표시할 수 있다. The real-time presenter 1 of the present invention is capable of real-time synchronization of the converted character T and the captured image I due to the synchronization unit of the content production unit 50, so that the display unit D is synchronized in real time. form can be displayed.

이로 인해, 강사 또는 발표자와 같은 사용자(P)는 사전에 별도의 PPT(Power point)자료 등과 같은 시각적 보조 자료의 번거로운 준비 작업을 생략할 수 있어, 보충이 필요한 부분을 추가 준비하는 등 사전 준비 작업 시간을 효율적으로 사용할 수 있게 된다.As a result, users (P) such as instructors or presenters can omit cumbersome preparation work for visual aids such as separate PPT (Power point) materials in advance, and preparatory work such as additionally preparing parts that need to be supplemented. You will be able to use your time efficiently.

또한, 갑작스럽게 청각 장애를 가진 사람을 포함한 강의 또는 회의를 진행해야 할 경우, 속기사를 섭외할 필요가 없으므로, 어려운 환경에서도 강의 또는 회의 등을 매끄럽게 진행할 수 있다.In addition, when a lecture or conference including a hearing-impaired person is to be held suddenly, there is no need to hire a stenographer, so the lecture or conference can be held smoothly even in a difficult environment.

통신부(60)는 콘텐츠 제작부(50)에서 제작된 콘텐츠를 디스플레이부(D)에 실시간으로 전송할 수 있다. 이로 인해, 전술한 동기화부에서 동기화된 변환 문자(T)와, 촬영 화상(I)이 실시간으로 디스플레이부(D)에 용이하게 전송될 수 있다.The communication unit 60 may transmit the content produced by the content production unit 50 to the display unit D in real time. Due to this, the converted character T synchronized by the synchronization unit described above and the captured image I can be easily transmitted to the display unit D in real time.

또한, 콘텐츠 제작부(50)에서 제작된 콘텐츠도 통신부(60)를 통해 디스플레이부(D)에 전송될 수 있다.In addition, content produced by the content production unit 50 may also be transmitted to the display unit D through the communication unit 60 .

이하, 본 발명의 바람직한 실시 예에 따른 실물화상기(1)를 이용한 콘텐츠 제작 방법에 대해 설명한다.Hereinafter, a content production method using the video presenter 1 according to a preferred embodiment of the present invention will be described.

본 발명의 바람직한 실시 예에 따른 실물화상기(1)를 이용한 콘텐츠 제작 방법은 음성인식엔진(30)에서 인식된 음성을 문자(T)로 변환하는 문자변환단계(S100), 변환된 문자(T)와, 카메라를 통해 촬영된 화상(I)을 동기화하여 콘텐츠로 제작하는 콘텐츠 제작단계(S200), 콘텐츠를 편집하는 콘텐츠 편집단계(S300)로 구성될 수 있다.In the content production method using the video presenter 1 according to a preferred embodiment of the present invention, the text conversion step of converting the voice recognized by the voice recognition engine 30 into text T (S100), the converted text T And, it may be composed of a content creation step (S200) of synchronizing the image (I) captured by the camera to create content, and a content editing step (S300) of editing the content.

이와 같은 본 발명의 바람직한 실시 예에 따른 실물화상기(1)를 이용한 콘텐츠 제작 방법은 실물화상기(1)와 유선 또는 무선으로 연결되는 시스템에 의해 수행될 수 있고, PC 등에 설치되는 프로그램으로 구현될 수 있다. The method for producing contents using the video presenter 1 according to a preferred embodiment of the present invention can be performed by a system connected to the video presenter 1 by wire or wirelessly, and can be implemented as a program installed on a PC or the like. there is.

본 발명의 실물화상기(1)를 이용한 콘텐츠 제작 방법은 문자변환단계(S100)와, 콘텐츠 제작단계(S200)가 실물화상기(1)에서 수행되고, 통신부(60)에 의해 상기한 시스템으로 전송되어 콘텐츠 편집단계(S300)가 수행되는 것과 같이, 특정 단계는 실물화상기에서 수행되고, 특정 단계는 시스템에서 수행될 수 있다. 또한, 실물화상기(1)를 이용한 콘텐츠 제작 방법을 수행하는 시스템은 문자변환단계(S100), 콘텐츠 제작단계(S200), 콘텐츠 편집단계(S300)와 같은 모든 단계를 순차적으로 수행할 수 있고, 상황에 따라 일부 단계 및 과정의 순서가 변동되어 수행될 수 있다.In the content production method using the video presenter 1 of the present invention, the character conversion step (S100) and the content production step (S200) are performed in the video presenter 1, and transmitted to the above system by the communication unit 60 As the content editing step (S300) is performed, a specific step may be performed in a video presenter and a specific step may be performed in a system. In addition, the system performing the content production method using the video presenter 1 can sequentially perform all steps such as the character conversion step (S100), the content creation step (S200), and the content editing step (S300). Depending on, the order of some steps and processes may be changed and performed.

문자변환단계(S100)에서는 음성인식엔진(30)이 음성인식부를 통해 인식된 음성을 추출하여 실시간으로 문자(T)로 변환하는 과정이 수행된다.In the text conversion step (S100), the voice recognition engine 30 extracts the voice recognized through the voice recognition unit and converts it into text T in real time.

문자변환단계(S100)에서 변환된 문자(T)는 카메라(40)에서 촬영된 화상(I)과 동기화되어 콘텐츠로 제작하는 과정인 콘텐츠 제작단계(S200)가 수행된다.The character (T) converted in the character conversion step (S100) is synchronized with the image (I) captured by the camera 40, and the content production step (S200), which is a process of producing content, is performed.

이 경우, 시스템은 콘텐츠로 제작단계(S200) 이전에 동기화된 변환 문자(T)와, 촬영된 화상(I)이 디스플레이부(D)로 전송되는 과정을 수행할 수 있다.In this case, the system may perform a process of transmitting the converted text (T) synchronized and the captured image (I) to the display unit (D) before the content creation step (S200).

동기화된 콘텐츠는 콘텐츠를 편집하는 콘텐츠 편집단계(S300)가 수행되어 종이 문서 또는 전자 문서 등과 같은 문서화된 형태로 콘텐츠 제작이 완료될 수 있다.For the synchronized content, a content editing step (S300) of editing the content may be performed, and content production may be completed in a documented form such as a paper document or an electronic document.

시스템은 제작이 완료된 콘텐츠를 디스플레이부(D)로 전송하여 표시하는 과정을 수행할 수 있다.The system may perform a process of transmitting and displaying the content that has been produced to the display unit (D).

도 4에 도시된 바와 같이, 본 발명의 바람직한 실시 예에 따른 실물화상기(1)를 이용한 콘텐츠 제작 방법은 다음과 같이 수행될 수 있다.As shown in FIG. 4 , a content creation method using the video presenter 1 according to a preferred embodiment of the present invention can be performed as follows.

실물화상기(1)에 구비된 음성인식엔진(30)의 작동 상태가 ON상태가 되면, 음성인식엔진(30)은 음성인식부를 통해 인식된 음성을 문자(T)로 변환하는 문자변환단계(S100)를 수행한다. When the operating state of the voice recognition engine 30 provided in the visual presenter 1 is in an ON state, the voice recognition engine 30 converts the voice recognized through the voice recognition unit into a character T (S100). ) is performed.

문자변환단계(S100)는 1인의 음성만을 필터링하여 문자(T)로 변환하거나, 다수의 음성을 개별화하여 각각 문자(T)를 변환하는 등 사전 설정에 따라 적합하게 음성을 문자(T)로 변환할 수 있다.In the text conversion step (S100), the voice is appropriately converted into text (T) according to preset settings, such as filtering only one person's voice and converting it into text (T) or individualizing a plurality of voices and converting each text (T). can do.

문자변환단계(S100)가 수행되고 나면, 카메라(40)를 통해 촬영된 화상(I)의 캡쳐 과정이 수행될 수 있다. 이 경우, 본 발명에서는 화상(I) 캡쳐 과정을 문자변환단계(S100) 이후에 도시하였지만, 화상(I) 캡쳐 과정은 문자변환단계(S100) 이전에 수행되거나, 문자변환단계(S100)와 동시에 수행되어도 무방하다.After the character conversion step (S100) is performed, a process of capturing the image (I) photographed through the camera 40 may be performed. In this case, although the image (I) capture process is shown after the character conversion step (S100) in the present invention, the image (I) capture process is performed before the character conversion step (S100) or simultaneously with the character conversion step (S100). It is free even if it is performed.

카메라(40)를 통해 화상(I)이 캡쳐되면, 시스템은 촬영된 화상(I)의 캡쳐가 정지화상인지 동화상인지 판단하는 과정이 수행될 수 있다.When the image I is captured through the camera 40, the system may perform a process of determining whether the capture of the captured image I is a still image or a moving image.

캡쳐된 화상(I)이 정지화상일 경우, 시스템은 문자변환단계(S100)에서 변환된 문자(T)와 정지화상을 동기화하는 과정을 수행할 수 있다.If the captured image (I) is a still image, the system may perform a process of synchronizing the still image with the character (T) converted in the character conversion step (S100).

캡쳐된 화상(I)이 정지화상이 아닐 경우, 시스템은 동화상으로 판단되는 캡쳐되는 화상(I)과 변환된 문자(T)를 동기화하는 과정을 수행할 수 있다.When the captured image (I) is not a still image, the system may perform a process of synchronizing the captured image (I) determined to be a moving image and the converted text (T).

시스템은 캡쳐된 화상(I)이 정지화상 또는 동화상이 아닐 경우, 촬영된 화상(I)의 캡쳐 기능에 에러가 발생한 것으로 판단하여 다시 화상(I)을 캡쳐하는 과정으로 돌아가 캡쳐 기능을 정상적으로 수행할 수 있다.If the captured image (I) is not a still image or a moving image, the system determines that an error has occurred in the capture function of the captured image (I) and returns to the process of capturing the image (I) to perform the capture function normally. can

시스템은 화상(I) 캡쳐 기능을 사용하지 않을 경우, 변환된 문자(T)만으로 콘텐츠 제작단계(S200) 및 콘텐츠 편집단계(S300)를 수행할 수 있다.When the image (I) capture function is not used, the system may perform the content creation step (S200) and the content editing step (S300) only with the converted letter (T).

도 4에 도시되지 않았지만, 시스템은 화상(I)과 문자(T)를 동기화하여 디스플레이부(D)에 실시간 표시할 수 있다. 또한, 캡쳐된 화상(I)이 없을 경우, 변환된 문자(T)만을 디스플레이부(D)에 실시간 표시할 수 있다.Although not shown in FIG. 4 , the system can synchronize the image I and the text T and display them on the display unit D in real time. In addition, when there is no captured image (I), only the converted character (T) can be displayed on the display unit (D) in real time.

문자변환단계(S100)에서부터 촬영된 화상(I)이 캡쳐되는 과정을 거쳐, 화상(I)과 문자(T)가 동기화되는 과정은 음성인식엔진(30)의 작동 상태가 OFF상태가 되기 전까지 반복적으로 수행될 수 있다.From the character conversion step (S100) through the process of capturing the photographed image (I), the process of synchronizing the image (I) and the character (T) is repeated until the operating state of the voice recognition engine 30 turns OFF. can be performed with

이 경우, 시스템에서 반복적으로 수행되는 과정은 문자변환단계(S100)에서부터, 화상(I) 캡쳐 과정, 화상(I) 및 문자(T) 동기화 과정까지 수행되고 난 뒤, 다시 문자변환단계(S100)로 돌아가는 과정을 의미할 수 있다.In this case, the process repeatedly performed in the system is performed from the character conversion step (S100), the image (I) capture process, the image (I) and character (T) synchronization process, and then the character conversion step (S100) It can mean the process of returning to

음성인식엔진(30)의 작동 상태가 OFF상태가 되면, 시스템은 동기화된 화상(I)과 문자(T)를 콘텐츠로 제작하여 콘텐츠화 하는 콘텐츠 제작단계(S200)를 수행할 수 있다.When the operating state of the voice recognition engine 30 is in the OFF state, the system may perform a content creation step (S200) of creating content from the synchronized image (I) and text (T).

콘텐츠 제작단계(S200)에서 콘텐츠로 제작되는 화상(I)과 문자(T)는 도 5에 도시된 바와 같이, 한장의 페이지 형태로 화상(I)과 문자(T)가 동기화되어 디스플레이부(D)에 표시되는 형태와 같을 수 있다.As shown in FIG. 5, the image (I) and text (T) produced as content in the content production step (S200) are synchronized with the image (I) and text (T) in the form of a page, and the display unit (D) ).

콘텐츠 제작단계(S200)에서는 음성인식엔진(30)에서 변환한 문자(T)와, 카메라(40)를 통해 촬영된 화상(I)을 이용하여 콘텐츠가 제작되므로, 오탈자 수정이나, 캡쳐된 화상 외에 다른 정지화상 또는 동화상 삽입 등의 편집이 필요한 일종의 초안와 같은 형태의 콘텐츠가 제작될 수 있다. In the content production step (S200), content is created using the character (T) converted by the voice recognition engine 30 and the image (I) captured through the camera 40, so correction of typos or captured images Content in the form of a kind of draft that requires editing such as inserting other still images or moving images can be produced.

따라서, 시스템은 콘텐츠를 수정하는 콘텐츠 편집단계(S300)를 수행할 수 있다.Accordingly, the system may perform a content editing step (S300) of modifying the content.

도 6에 도시된 바와 같이, 콘텐츠 제작단계에서 제작된 콘텐츠 초안에 캡쳐된 화상(I)과 다른 화상을 삽입하여 콘텐츠를 편집하는 과정이 수행될 수 있다.As shown in FIG. 6 , a process of editing the content by inserting an image different from the captured image I into the draft content produced in the content creation step may be performed.

도 5에 도시된 형태가 디스플레이부(D)에 한장의 페이지 형태로 실시간 표시된 콘텐츠 초안이라고 한다면, 도 6에 도시된 형태는 콘텐츠 편집단계(S300)에서 순차적으로 편집을 대기하는 여러장의 콘텐츠 초안일 수 있다.If the form shown in FIG. 5 is a content draft displayed in real time in the form of a single page on the display unit D, the form shown in FIG. can

이와 같은 문자변환단계(S100), 콘텐츠 제작단계(S200) 및 콘텐츠 편집단계(S300)까지 수행한 후, 실물화상기(1)를 이용한 콘텐츠 제작 방법의 수행이 완료될 수 있다.After performing the character conversion step (S100), the content creation step (S200), and the content editing step (S300), the content creation method using the video presenter 1 can be completed.

본 발명은 실물화상기(1)에 음성인식엔진(30)을 구비함으로써, 본 발명의 실물화상기(1)를 이용하는 강의 또는 회의 등에서, 실물화상기(1)로 촬영된 화상(I)과 함께 사용자(P)의 음성을 문자(T)로 변환하여 실시간으로 디스플레이부(D)에 표시할 수 있다.In the present invention, by providing the voice recognition engine 30 in the visual presenter 1, in a lecture or conference using the visual presenter 1 of the present invention, the user ( The voice of P) can be converted into text (T) and displayed on the display unit (D) in real time.

이로 인해, 강사 또는 발표자와 같은 사용자(P)가 별도로 시각적 보조 자료를 준비할 필요가 없으므로, 강의 또는 회의 등을 위한 사전 준비 작업 시간을 단축할 수 있고, 강의 또는 회의 등에 보충이 필요한 부분을 보강하는 등 사전 준비 시간을 효율적으로 활용할 수 있다.As a result, users (P), such as instructors or presenters, do not need to prepare visual aids separately, so the time required for pre-preparation work for lectures or conferences can be shortened, and parts that need to be supplemented for lectures or conferences can be reinforced. You can use your preparation time effectively.

또한, 본 발명은 촬영된 화상(I)과 변환된 문자(T)를 실시간으로 디스플레이부(D)에 표시할 수 있으므로, 강의 또는 회의 등에 참석하는 청중 중 청각 장애를 가진 사람이 있을 경우, 속기사를 섭외할 필요없이 본 발명이 시각적 보조 기능을 할 수 있으므로, 편리함을 제공할 수 있다.In addition, the present invention can display the captured image (I) and the converted text (T) on the display unit (D) in real time. Since the present invention can perform a visual auxiliary function without the need to recruit, it can provide convenience.

또한, 본 발명은 사용자(P)의 음성이 변환된 문자(T)와, 화상(I)을 이용하여 강의 또는 회의 등에서 설명한 내용으로 즉시 콘텐츠를 제작할 수 있으므로, 미리 제작된 콘텐츠에 오류가 있을 경우, 본 발명을 이용하여 제작된 콘텐츠로 바로 대체가 가능하여 강의 또는 회의 등을 차질없이 진행할 수 있는 효과가 있다.In addition, since the present invention can immediately produce content with the content explained in a lecture or conference using the text (T) converted from the user (P)'s voice and the image (I), if there is an error in the pre-produced content , content produced using the present invention can be directly replaced, so that lectures or conferences can proceed without problems.

전술한 바와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술분야의 통상의 기술자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있다.As described above, although it has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. Or it can be carried out by modifying.

1: 실물화상기 10: 지지암
20: 좌대 21: 조작스위치
30: 음성인식엔진 40: 카메라
50: 콘텐츠 제작부 60: 통신부
R: 실물 D: 디스플레이부
P: 사용자 I: 화상
T: 문자
S100: 문자변환단계 S200: 콘텐츠 제작단계
S300: 콘텐츠 편집단계
1: visual presenter 10: support arm
20: seat 21: operation switch
30: voice recognition engine 40: camera
50: content production department 60: communication department
R: real D: display part
P: User I: Image
T: letter
S100: Character conversion step S200: Content creation step
S300: content editing step

Claims (11)

카메라를 구비하여 실물을 화상으로 변환하고, 음성인식엔진을 구비하여 음성을 문자로 변환하며, 변환된 화상 및 문자를 실시간으로 저장하거나 외부로 전송하고,
상기 음성인식엔진에서 변환된 문자와, 상기 카메라에서 촬영된 화상으로 콘텐츠를 제작하는 콘텐츠 제작부를 포함하고,
상기 콘텐츠 제작부는 상기 음성인식엔진에서 변환된 문자와, 상기 카메라에서 촬영된 화상을 실시간으로 동기화하는 동기화부를 포함하고,
상기 음성인식엔진의 작동 상태가 OFF 상태가 되기 전까지 문자변환단계에서부터 화상 캡쳐 과정, 상기 화상 및 문자 동기화 과정까지 수행하고 난 뒤 다시 상기 문자변환단계로 돌아가는 과정을 반복적으로 수행하되,
상기 카메라를 통해 촬영된 상기 화상이 캡쳐되면, 시스템은 촬영된 상기 화상의 캡쳐가 정지화상인지 동화상인지 판단하는 과정을 수행하고,
캡쳐된 상기 화상이 상기 정지화상일 경우, 상기 시스템은 상기 문자변환단계에서 변화된 문자와 상기 정지화상을 동기화하는 과정을 수행하고,
캡쳐된 상기 화상이 상기 정지화상이 아닐 경우, 상기 시스템은 상기 동화상으로 판단되는 캡쳐된 상기 화상과 상기 문자변환단계에서 변환된 문자를 동기화하는 과정을 수행하고,
상기 시스템은 캡쳐된 상기 화상이 상기 정지화상 또는 상기 동화상이 아닐 경우, 촬영된 상기 화상의 캡쳐 기능에 에러가 발생한 것으로 판단하여 다시 상기 화상을 캡쳐하는 과정으로 돌아가 상기 캡쳐 기능을 수행하고,
상기 음성인식엔진의 작동 상태가 OFF상태가 되면, 동기화된 상기 화상과 문자를 콘텐츠로 제작하고,
상기 시스템에서 상기 콘텐츠의 오탈자를 수정하는 것을 특징으로 하는 실물화상기.
A camera is provided to convert real objects into images, a voice recognition engine is provided to convert voices into texts, and the converted images and texts are stored in real time or transmitted to the outside,
A content production unit for producing content with the text converted by the voice recognition engine and the image captured by the camera;
The content production unit includes a synchronization unit that synchronizes the text converted by the voice recognition engine and the image captured by the camera in real time,
The process of returning to the text conversion step after performing the text conversion step, the image capture process, the image and text synchronization process until the operating state of the voice recognition engine is turned OFF is repeatedly performed,
When the image taken by the camera is captured, the system performs a process of determining whether the capture of the captured image is a still image or a moving image,
If the captured image is the still image, the system performs a process of synchronizing the still image with the character changed in the character conversion step,
If the captured image is not the still image, the system performs a process of synchronizing the captured image determined to be the moving image and the character converted in the character conversion step,
If the captured image is not the still image or the moving image, the system determines that an error has occurred in the capture function of the captured image, returns to the process of capturing the image again, and performs the capture function,
When the operating state of the voice recognition engine is in an OFF state, the synchronized image and text are produced as content,
A real presenter characterized in that the system corrects misspellings in the content.
삭제delete 삭제delete 제1항에 있어서,
상기 콘텐츠 제작부에서 제작된 콘텐츠를 디스플레이부에 실시간으로 전송하는 통신부;를 더 포함하는 것을 특징으로 하는 실물화상기.
According to claim 1,
The video presenter, characterized in that it further comprises; a communication unit for transmitting the content produced by the content production unit to a display unit in real time.
제1항에 있어서,
상기 카메라 및 음성인식엔진은 좌대에 결합된 지지암의 단부에 구비되는 것을 특징으로 하는 실물화상기.
According to claim 1,
The camera and the voice recognition engine are provided at the end of the support arm coupled to the pedestal.
제1항에 있어서,
상기 음성인식엔진은 1인의 음성만을 필터링하여 문자로 변환하는 것을 특징으로 하는 실물화상기.
According to claim 1,
The voice recognition engine filters only the voice of one person and converts it into text.
제1항에 있어서,
상기 음성인식엔진은 다수의 음성을 개별화하여 각각 문자로 변환하는 것을 특징으로 하는 실물화상기.
According to claim 1,
The voice recognition engine individualizes a plurality of voices and converts them into text.
삭제delete 삭제delete 음성인식엔진이 음성인식부를 통해 인식된 음성을 추출하여 실시간으로 문자로 변환하는 문자변환단계;
상기 문자변환단계에서 변환된 문자와 카메라에서 촬영된 화상을 동기화하여 콘텐츠로 제작하는 콘텐츠 제작단계;를 포함하고,
상기 음성인식엔진의 작동 상태가 OFF 상태가 되기 전까지, 상기 문자변환단계에서부터 화상 캡쳐 과정, 상기 화상 및 문자 동기화 과정까지 수행하고 난 뒤 다시 상기 문자변환단계로 돌아가는 과정을 반복적으로 수행하되,
상기 카메라를 통해 촬영된 상기 화상이 캡쳐되면, 시스템은 촬영된 상기 화상의 캡쳐가 정지화상인지 동화상인지 판단하는 과정을 수행하고,
캡쳐된 상기 화상이 상기 정지화상일 경우, 상기 시스템은 상기 문자변환단계에서 변화된 문자와 상기 정지화상을 동기화하는 과정을 수행하고,
캡쳐된 상기 화상이 상기 정지화상이 아닐 경우, 상기 시스템은 상기 동화상으로 판단되는 캡쳐된 상기 화상과 상기 문자변환단계에서 변환된 문자를 동기화하는 과정을 수행하고,
상기 시스템은 캡쳐된 상기 화상이 상기 정지화상 또는 상기 동화상이 아닐 경우, 촬영된 상기 화상의 캡쳐 기능에 에러가 발생한 것으로 판단하여 다시 상기 화상을 캡쳐하는 과정으로 돌아가 상기 캡쳐 기능을 수행하고,
상기 음성인식엔진의 작동 상태가 OFF상태가 되면, 동기화된 상기 화상과 문자를 콘텐츠로 제작하여 콘텐츠화하는 상기 콘텐츠 제작 단계를 수행하고,
상기 시스템에서 상기 콘텐츠 제작 단계에서 제작된 상기 콘텐츠의 오탈자를 수정하는 콘텐츠 편집 단계를 수행하는 것을 특징으로 하는 실물화상기를 이용한 콘텐츠 제작 방법.
A text conversion step in which the voice recognition engine extracts the voice recognized through the voice recognition unit and converts it into text in real time;
A content production step of synchronizing the character converted in the character conversion step with the image captured by the camera and producing content;
Until the operating state of the voice recognition engine turns OFF, the text conversion step, the image capture process, the image and text synchronization process, and then the process of returning to the text conversion step are repeatedly performed,
When the image taken by the camera is captured, the system performs a process of determining whether the capture of the captured image is a still image or a moving image,
If the captured image is the still image, the system performs a process of synchronizing the still image with the character changed in the character conversion step,
If the captured image is not the still image, the system performs a process of synchronizing the captured image determined to be the moving image and the character converted in the character conversion step,
If the captured image is not the still image or the moving image, the system determines that an error has occurred in the capture function of the captured image, returns to the process of capturing the image again, and performs the capture function,
When the operating state of the voice recognition engine is in an OFF state, performing the content production step of producing content and converting the synchronized image and text into content;
A content production method using a video presenter, characterized in that the system performs a content editing step of correcting typos in the content produced in the content production step.
삭제delete
KR1020210062717A 2021-05-14 2021-05-14 Visual presenter and method for producing contents using the same KR102523829B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210062717A KR102523829B1 (en) 2021-05-14 2021-05-14 Visual presenter and method for producing contents using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210062717A KR102523829B1 (en) 2021-05-14 2021-05-14 Visual presenter and method for producing contents using the same

Publications (2)

Publication Number Publication Date
KR20220155012A KR20220155012A (en) 2022-11-22
KR102523829B1 true KR102523829B1 (en) 2023-04-20

Family

ID=84236525

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210062717A KR102523829B1 (en) 2021-05-14 2021-05-14 Visual presenter and method for producing contents using the same

Country Status (1)

Country Link
KR (1) KR102523829B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240166B1 (en) * 2012-09-05 2013-03-18 유환아이텍(주) Combination-separating camera type visual presenter based on wusb, and method for real-time transmitting image using combination-separating camera type visual presenter based on wusb
KR102196199B1 (en) * 2017-12-05 2020-12-30 라이브픽쳐스(주) Photograph sharing method, apparatus and system based on voice recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101632174B1 (en) * 2012-05-22 2016-06-21 주식회사 성우모바일 Method for producing educational material and educational material system
KR101512407B1 (en) 2014-11-21 2015-04-16 주식회사 이베스트 Visual presenter
KR20160144104A (en) * 2015-06-08 2016-12-16 김경태 Educational terminal based voice recognition, education system based voice recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101240166B1 (en) * 2012-09-05 2013-03-18 유환아이텍(주) Combination-separating camera type visual presenter based on wusb, and method for real-time transmitting image using combination-separating camera type visual presenter based on wusb
KR102196199B1 (en) * 2017-12-05 2020-12-30 라이브픽쳐스(주) Photograph sharing method, apparatus and system based on voice recognition

Also Published As

Publication number Publication date
KR20220155012A (en) 2022-11-22

Similar Documents

Publication Publication Date Title
CN101180877B (en) Remote distribution system and remote distribution method
JP6433073B2 (en) Audio noise reduction circuit, smart terminal using the audio noise reduction circuit, and teaching method
KR101270780B1 (en) Virtual classroom teaching method and device
US6388654B1 (en) Method and apparatus for processing, displaying and communicating images
van Es et al. Making the most of teacher self-captured video
US20020171746A1 (en) Template for an image capture device
JP4761568B2 (en) Conversation support device
KR101351085B1 (en) Physical picture machine
CN110401810A (en) Processing method, device, system, electronic equipment and the storage medium of virtual screen
JP2022020703A (en) Handwriting device and speech and handwriting communication system
CN106875968B (en) Information acquisition method, client and system
KR102523829B1 (en) Visual presenter and method for producing contents using the same
Budkov et al. Event-driven content management system for smart meeting room
CN110505405A (en) Video capture system and method based on body-sensing technology
JP7361612B2 (en) Information processing method, information processing device, and program
CN210402777U (en) Virtual reality teaching equipment
JP2005295017A (en) Video conference system
JP2006229592A (en) Content creating device, image/sound output device, and control program
US20220101743A1 (en) Studio Arrangement and Playing Devices Whereby Online Students Worldwide Can Learn Mathematics from an Outstanding Teacher by Watching Videos Showing the Teachers Face Body Language and Clearly Legible Writing
JP2003333561A (en) Monitor screen displaying method, terminal, and video conference system
CN109167986A (en) A kind of teaching projection method and system
CN113794824B (en) Indoor visual document intelligent interactive acquisition method, device, system and medium
JP4179082B2 (en) Visual information recording method and recording apparatus
US20240073369A1 (en) Personal meeting notes assistant and methods of its use
CN209070530U (en) It is a kind of to assist fill in a form equipment and system

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant