KR20220081215A - AI Studio for Online Lectures - Google Patents
AI Studio for Online Lectures Download PDFInfo
- Publication number
- KR20220081215A KR20220081215A KR1020200170865A KR20200170865A KR20220081215A KR 20220081215 A KR20220081215 A KR 20220081215A KR 1020200170865 A KR1020200170865 A KR 1020200170865A KR 20200170865 A KR20200170865 A KR 20200170865A KR 20220081215 A KR20220081215 A KR 20220081215A
- Authority
- KR
- South Korea
- Prior art keywords
- subject
- studio
- image
- processing unit
- unit
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/75—Chroma key
Abstract
본 발명은 온라인 강의를 위한 AI 스튜디오에 관한 것으로서, 더욱 상세하게는 온라인 강의를 진행하는 촬영대상자를 촬영한 영상을 처리장치부에서 촬영대상자와 배경을 분리하여 가상의 스튜디오를 제공하며, 가상의 스튜디오에 출력하는 출력물의 크기 및 위치를 제어단말부를 통하여 조절 가능한 온라인 강의를 위한 AI 스튜디오에 관한 것이다.The present invention relates to an AI studio for an online lecture, and more particularly, a virtual studio is provided by separating an image of a subject to be photographed during an online lecture in a processing device unit, and the background is separated from the subject to be photographed. It relates to an AI studio for online lectures in which the size and position of the output output can be adjusted through the control terminal.
Description
본 발명은 온라인 강의를 위한 AI 스튜디오에 관한 것으로서, 더욱 상세하게는 온라인 강의를 진행하는 촬영대상자를 촬영한 영상을 처리장치부에서 촬영대상자와 배경을 분리하여 가상의 스튜디오를 제공하며, 가상 스튜디오에 출력하는 출력물의 크기 및 위치를 제어단말부를 통하여 조절 가능한 온라인 강의를 위한 AI 스튜디오에 관한 것이다.The present invention relates to an AI studio for online lectures, and more particularly, a virtual studio is provided by separating an image of a subject to be photographed during an online lecture in a processing unit, and the background is output to the virtual studio. It relates to an AI studio for online lectures that can control the size and position of the printed output through the control terminal.
2020년도의 학교 교육 현장은 코로나 바이러스 감염증의 대유행이라는 위중한 상황을 겪으면서, 초유의 온라인 개학이라는 도전적인 현실과 마주하게 되었다.The school education field in 2020 is faced with the challenging reality of the unprecedented online school opening as it faces the critical situation of the coronavirus pandemic.
이러한 상황에서 학교 뿐 아니라 각종 학회, 회의, 미팅 등을 위해서는 온라인을 이용한 원격강의 및 원격회의를 진행할 수밖에 없다.In this situation, not only schools, but also various academic societies, conferences, and meetings have no choice but to conduct remote lectures and teleconferences using online.
이와 같은 급작스러운 환경의 변화는 기존에 오프라인으로 대면하여 진행되었던 많은 부분들이 온라인을 이용한 비대면화 방향으로 전환하게 하는 기폭제가 되었다. Such a sudden change in the environment served as a catalyst for many parts that were previously conducted face-to-face offline to be switched to non-face-to-face use online.
기존의 온라인 강의는 프레젠테이션을 이용하는 방식들로서 단순히 발표화면을 있는 그대로 촬영하여 중계하며, 발표자와 발표자료를 서로 다른 화면에 배치하여 발표를 듣는 사람이 발표자와 발표자료를 번갈아 봐야 하는 불편함이 있으며, 한 화면에 발표자료만 보이고 발표자의 모습 없이 발표자의 목소리만 들리게 되는 등 발표를 듣는 사람이 시청하기에 번거로움이 있었다.Existing online lectures are methods of using presentations, and they simply film and relay the presentation screen as it is, and place the presenter and presentation material on different screens, which is inconvenient for those who listen to the presentation to alternate between the presenter and the presentation material. It was cumbersome for listeners to watch the presentation, such as showing only the presentation material on one screen and only hearing the presenter's voice without the presenter's appearance.
따라서 발표를 듣는 사람들의 집중도가 떨어져 수업 또는 행사의 흥미를 떨어뜨려 결국은 수업 또는 행사의 효과를 반감시키는 문제점을 가지고 있었다.Therefore, there was a problem in that the concentration of those who listened to the presentation decreased, which lowered the interest of the class or event, and eventually halved the effect of the class or event.
더불어, 발표를 듣는 사람들과 발표자가 서로 토론 또는 질의응답을 수행할 때에 한쪽의 화면만이 표시되어 발표를 듣는 사람도 발표자도 서로가 집중도가 떨어져 제대로 된 토론 또는 질의응답이 진행되기 어려웠다.In addition, when people listening to the presentation and the presenter conduct a discussion or question and answer with each other, only one screen is displayed, so both the listener and the presenter have low concentration, making it difficult to conduct a proper discussion or question-and-answer.
이와 같은 문제를 해결하기 위해 안출된 본 발명은 온라인 강의를 위한 AI 스튜디오에 관한 것으로서, 더욱 상세하게는 온라인 강의를 진행하는 촬영대상자를 촬영한 영상을 처리장치부에서 촬영대상자와 배경을 분리하여 가상의 스튜디오를 제공하며, 가상 스튜디오에 출력하는 출력물의 크기를 제어단말부를 통하여 조절 가능한 온라인 강의를 위한 AI 스튜디오에 관한 것이다.The present invention devised to solve such a problem relates to an AI studio for online lectures, and more particularly, by separating the subject and the background of the subject in the processing unit for the image captured by the subject conducting the online lecture, virtual It provides a studio and relates to an AI studio for online lectures that can control the size of the output output to the virtual studio through the control terminal.
또한 본 발명은 발표자, 발표자료 및 시청자를 하나의 가상화면에 보이게 하고, 발표자, 발표자료 또는 시청자의 크기, 위치 및 움직임을 조절할 수 있으며, 화면을 역동적으로 구성함으로써 시청자의 집중력을 높일 수 있는, 온라인 강의를 위한 AI 스튜디오를 제공하는 것을 목적으로 한다. In addition, the present invention can display the presenter, presentation material and viewer on one virtual screen, adjust the size, position and movement of the presenter, presentation material or viewer, and dynamically configure the screen to increase the viewer's concentration, It aims to provide an AI studio for online lectures.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 온라인 강의를 위한 AI 스튜디오는, The AI studio for the online lecture of the present invention for achieving the above object is,
촬영대상자를 촬영하는 촬영장치부(110),A photographing
상기 촬영장치부(110)에서 촬영된 영상을 전달받아 처리하는 처리장치부(120),
상기 처리장치부(120)를 제어하기 위한 단말로 구성되는 제어단말부(130),A
촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 제1모니터부(140) 및a
현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150)로 구성될 수 있다.It may be composed of a
또한 상기 처리장치부(120)는 상기 촬영장치부(110)를 통하여 촬영된 영상에서 촬영대상자와 배경을 구분하여 인식할 수 있다.In addition, the
이때, 상기 촬영장치부(110)는 음파 및 광선을 통하여 촬영대상자와 배경의 거리를 각각 확인할 수 있는 거리측정수단을 더 포함하여 구성될 수 있다.In this case, the
더불어, 상기 처리장치부(120)는 출력영상에 적어도 하나 이상의 새로운 레이어를 입힐 수 있다.In addition, the
이때, 사용자는 상기 제어단말부(130)를 통하여 상기 처리장치부(120)의 출력영상에 입혀지는 레이어의 크기, 위치 및 움직임을 조절할 수 있다.In this case, the user can adjust the size, position, and movement of the layer applied to the output image of the
더불어, 본 발명의 온라인 강의를 위한 AI 스튜디오는 촬영대상자 뒤에 배경으로 구성되는 크로마키 스크린(200) 및 촬영대상자를 비추기 위한 적어도 하나 이상의 조명(300)을 더 포함하여 구성될 수 있다.In addition, the AI studio for the online lecture of the present invention may be configured to further include a chroma
또한, 상기 처리장치부(120)는 외부중계수단을 더 포함하여 구성될 수 있다.In addition, the
본 발명의 온라인 강의를 위한 AI 스튜디오는,The AI studio for the online lecture of the present invention is,
발표자인 촬영대상과 배경화면을 각각 인식하여 배경부분에 발표자료 및/또는 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표 자료 및 시청자를 함께 볼 수 있어 발표, 강의 또는 회의의 몰입을 극대화 시킬 수 있다.By recognizing the subject of the presenter and the background screen, respectively, the screen of the presentation material and/or the viewer listening to the presentation is output in the background so that the presenter, the presentation material, and the viewer can be viewed together, thereby maximizing the immersion of the presentation, lecture or meeting. have.
더불어, 발표자, 발표자료 및 시청자의 화상은 촬영대상자의 조작을 통해 크기, 위치 및 움직임을 조절하여 출력할 수 있다. 이를 통하여 촬영대상자가 필요에 따라 선택하여 발표자, 발표자료 및 발표를 듣는 사람의 화상을 확대 또는 축소하거나 위치를 변화시키거나 움직임을 주어 출력할 수 있으므로, 발표자인 촬영대상자의 의도가 반영된 화면을 만들어 낼 수 있다. 이를 통하여 발표 또는 강의를 진행하는 촬영대상자의 의도가 반영된 영상을 만들 수 있어 보다 효과적인 발표 또는 강의를 진행할 수 있다.In addition, the image of the presenter, presentation material, and viewer can be output by adjusting the size, position, and movement of the subject to be photographed. Through this, the subject to be photographed can select as needed and enlarge or reduce the image of the presenter, the presentation material and the person who listens to the presentation, change the position, or give movement to output the image, so a screen reflecting the intention of the presenter, can pay Through this, it is possible to create a video reflecting the intention of the subject of the presentation or lecture, so that the presentation or lecture can be conducted more effectively.
또한, 크로마키 스크린 및 촬영대상자를 비추기 위한 적어도 하나 이상 조명을 통하여 촬영대상자가 있는 실제 환경이 아니라 촬영대상자가 지정한 영상을 배경으로 사용할 수 있어, 제한적인 환경에서 촬영을 진행해야 하는 촬영대상자에게도 보다 집중할 수 있는 환경을 제공함으로써, 보다 나은 영상을 촬영할 수 있어, 영상 발표 또는 강의를 촬영함에 있어 양질의 결과물을 얻을 수 있다는 장점을 갖는다.In addition, through the chroma key screen and at least one or more lights to illuminate the subject, the image designated by the subject can be used as the background rather than the actual environment in which the subject is being filmed, so it is more convenient for subjects who need to proceed with shooting in a limited environment. By providing an environment in which to focus, it is possible to shoot a better image, which has the advantage of obtaining high-quality results in video presentations or recording lectures.
도 1은 본 발명의 온라인 강의를 위한 AI 스튜디오 실시예
도 2는 본 발명의 처리장치부의 촬영대상자 및 배경 인식 실시예
도 3은 본 발명의 출력화면 조절 실시예1 is an embodiment of an AI studio for an online lecture of the present invention;
Figure 2 is an embodiment of the subject and background recognition of the processing unit of the present invention
3 is an example of adjusting an output screen of the present invention;
이하, 첨부된 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다. Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, if there is no other definition in the technical terms and scientific terms used, it has the meaning commonly understood by those of ordinary skill in the art to which this invention belongs, and the summary of the present invention in the following description and accompanying drawings Descriptions of known functions and configurations that may be unnecessarily obscure will be omitted.
도 1은 본 발명의 온라인 강의를 위한 AI 스튜디오 실시예이고, 도 2는 본 발명의 처리장치부의 촬영대상자 및 배경 인식 실시예이며, 도 3은 본 발명의 출력화면 조절 실시예이다.Fig. 1 is an embodiment of an AI studio for an online lecture of the present invention, Fig. 2 is an embodiment of recognizing a subject and a background of the processing unit of the present invention, and Fig. 3 is an embodiment of adjusting an output screen of the present invention.
본 발명의 온라인 강의를 위한 AI 스튜디오는, 도 1에서 도시하고 있는 바와 같이, The AI studio for the online lecture of the present invention, as shown in FIG. 1,
촬영대상자를 촬영하는 촬영장치부(110)와, 상기 촬영장치부(110)에서 촬영된 영상을 전달받아 처리하는 처리장치부(120)와, 상기 처리장치부(120)를 제어하기 위한 단말로 구성되는 제어단말부(130)와, 촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 제1모니터부(140)와, 현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150)로 구성될 수 있다.A control terminal comprising a photographing
즉, 촬영대상자를 상기 촬영장치부(110)의 촬영장치가 촬영하여 해당 영상을 상기 처리장치부(120)로 전송하게 된다.That is, the photographing device of the photographing
이때 도 2에서 도시하고 있는 바와 같이, 상기 처리장치부(120)는 상기 촬영장치부(110)를 통하여 촬영된 영상에서 촬영대상자와 배경을 구분하여 인식할 수 있다. 이를 통하여 상기 처리장치부(120)는 촬영대상자와 배경을 각각 처리할 수 있다.In this case, as shown in FIG. 2 , the
보다 쉽게 설명하여, 도 2에서 도시하고 있는 바와 같이, 상기 촬영장치부(110)를 통해 촬영된 영상은 상기 처리장치부(120)로 전달되며, 상기 처리장치부(120)는 영상을 인식하여 영상 내의 객체와 배경 2가지로 구분하게 된다. 이러한 인식을 통하여 촬영대상자와 배경을 각각 독립적으로 인지하여 분할하게 된다.To explain more easily, as shown in FIG. 2 , the image photographed through the photographing
이때 분할을 위한 영상처리 방법은 아래와 같은 방법을 사용할 수 있다.In this case, the image processing method for segmentation may use the following method.
먼저, 색상의 정보를 이용한 분할 방법이다.First, it is a segmentation method using color information.
색상 정보를 이용하는 분할 방법은 각각의 픽셀값을 계산하여 처리하며, 객체의 픽셀들은 서로 유사한 색상 값을 갖는다는 특성에 근거하여 객체를 효율적으로 추출해 낼 수 있다. 이러한 색상의 정보를 이용한 분할 방법 중 대표적인 방법으로는 색상 값을 갖는 픽셀 데이터 들을 군집화 하는 방법인 Mean Shift 알고리즘이 있다. Mean Shift 알고리즘은 영상 내의 유사한 색상을 갖는 픽셀들을 하나로 묶어 영역 별로 그룹화 하는 알고리즘이다. 하지만 색상 정보를 이용하는 경우에는 객체와 배경 영역의 색상이 유사할 때 객체와 배경의 일부가 통합된 영역으로 처리되는 등 불완전한 추출 결과를 보인다는 단점이 있다.In the segmentation method using color information, each pixel value is calculated and processed, and the object can be efficiently extracted based on the characteristic that the pixels of the object have similar color values. A representative method among the division methods using color information is the Mean Shift algorithm, which is a method for clustering pixel data having color values. The Mean Shift algorithm is an algorithm that groups pixels with similar colors in an image by region. However, when color information is used, when the color of the object and the background area is similar, a part of the object and the background is processed as an integrated area, and thus, an incomplete extraction result is shown.
이러한 문제를 해결하기 위해 색상 정보와 영상의 깊이 정보를 이용하는 방법을 이용할 수 있다. 영상의 색상 정보와 3D 입체 변환에서 사용되는 깊이 지도를 이용하여 객체와 배경 영역이 유사한 색상일지라도 깊이의 정도에 따라 세밀하게 분할할 수 있도록 할 수 있다. In order to solve this problem, a method using color information and depth information of an image may be used. By using the color information of the image and the depth map used in 3D stereoscopic conversion, even if the object and the background area have similar colors, it can be divided into detail according to the degree of depth.
더불어, 배경에 그림자와 밝기의 변화가 나타나는 동영상을 HSV 색 공간으로 변환한 뒤 밝기의 변화에 영향을 받지 않고 주요 객체를 추출하는 방법으로 분할할 수 있다.In addition, it is possible to divide a video in which shadows and changes in brightness appear in the background by converting it to an HSV color space and extracting main objects without being affected by changes in brightness.
또한, 객체의 경계를 이용한 분할 방법을 사용할 수 있다.Also, a segmentation method using the boundary of an object may be used.
영상 분할에서 객체 또는 영역의 경계선은 분할 작업에 있어서 주요한 단서가 된다. 영상의 경계선은 객체 또는 영역의 형상대로 추출이 가능하기 때문에 형태학적인 분할이 가능하다. 영상에서 경계를 추출하는 작업은 컬러 영상을 그레이스케일로 변환한 뒤 2차 미분 함수를 이용하여 영상에서 밝기 값이 급격하게 변하는 곳을 검출하는 것이다.In image segmentation, the boundary of an object or region becomes a major clue in segmentation. Since the boundary line of the image can be extracted according to the shape of an object or region, morphological division is possible. The task of extracting a boundary from an image is to convert a color image to grayscale and then use a second derivative function to detect a place where the brightness value changes rapidly in the image.
기존의 경계를 검출하기 위한 방법은 여러 가지가 있으며 라플라시안 필터, 소벨 마스크, 캐니 엣지 검출기 등이 있다. 그레이 스케일 영상에서는 픽셀 당 밝기 값 하나로 처리하기 때문에 경계의 특징을 구분하여 처리하여야 한다. 이때, 영역 확장 방법을 이용하여 영상을 과분할한 뒤 경계의 굵기, 연속성, 곧음의 정보 등을 판별하여 영상에서 중요한 영역을 분할할 수 있다.There are several methods for detecting the existing boundary, such as a Laplacian filter, a Sobel mask, and a Canny edge detector. In the gray scale image, since one brightness value per pixel is processed, the characteristics of the boundary must be distinguished and processed. In this case, after the image is over-segmented using the region extension method, an important region in the image can be divided by determining the thickness, continuity, and straightness of the boundary.
상기 촬영장치부(110)는 음파 및 광선을 통하여 촬영대상자와 배경의 거리를 각각 확인할 수 있는 거리측정수단을 더 포함하여 구성될 수 있다.The photographing
즉, TOF 센서와 같이 거리를 측정하는 별도의 수단이 상기 촬영장치부(110)에 더 포함되고, 이와 같은 상기 거리측정수단을 통해 획득한 인식 대상 물체의 거리 정보 이미지 및 카메라로 촬영한 영상 이미지에서 추출된 에지(Edge) 이미지를 연산하여 실효성 있는 특징점(Constrained Feature)들로 이루어진 3차원 점군 데이터(3D Point Cloud)를 획득하고, 이를 인식 대상 물체 전체의 3차원 점군 데이터와 정합을 통해 촬영대상자와 배경을 분할하여 인식할 수 있다.That is, a separate means for measuring a distance, such as a TOF sensor, is further included in the photographing
또한, 상기 처리장치부(120)는 출력영상에 적어도 하나 이상의 새로운 레이어를 입힐 수 있다. 즉, 상기 처리장치부(120)는 발표자인 촬영대상과 배경화면을 각각 인식하여 배경부분에 발표자료 및/또는 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표 자료 및 시청자를 함께 볼 수 있어 발표, 회의 또는 강의의 몰입을 극대화 시킬 수 있다.Also, the
이때, 사용자는 상기 제어단말부(130)를 통하여 상기 처리장치부(120)의 출력영상에 입혀지는 레이어의 크기, 위치 및 움직임을 조절할 수 있다. In this case, the user can adjust the size, position, and movement of the layer applied to the output image of the
즉, 도 3에서 도시하고 있는 바와 같이, 시청자가 발표자료에 집중하도록 하기 위해, 촬영대상자는 발표자료의 출력되는 크기 및 위치를 조절하거나, 또는 발표자료의 동적인 움직임을 생성할 수 있다. 또한 발표자 및 발표를 듣는 시청자의 화상은 촬영대상자의 조작을 통해 위치, 크기 및 움직임이 조절되어 출력될 수 있다. 이를 통하여 촬영대상자가 필요에 따라 선택하여 발표자, 발표자료 또는 발표를 듣는 사람의 화상을 확대 또는 축소하거나 위치를 조절하거나 또는 움직임을 부여하여 출력할 수 있어 발표자인 촬영대상자의 의도가 반영된 화면을 만들어 낼 수 있다. That is, as shown in FIG. 3 , in order for the viewer to focus on the presentation material, the subject to be photographed may adjust the output size and position of the presentation material or generate a dynamic movement of the presentation material. In addition, the image of the presenter and the viewer who listens to the presentation may be output by adjusting the position, size, and movement of the subject to be photographed. Through this, the subject to be photographed can select as needed and enlarge or reduce the image of the presenter, the presentation material, or the person who listens to the presentation, adjust the position, or give motion to output the image, thereby creating a screen reflecting the intention of the presenter, the subject of photography. can pay
보다 쉽게 예를 들어 설명하자면, 도 3의 (A)에서 도시하고 있는 바와 같이, 촬영대상자가 발표자료를 보여주며 발표를 진행할 때에는 촬영대상자 외에 발표자료의 크기가 크게 출력되며 위치 또한 중앙 부분으로 조절될 수 있으며, 도 3의 (B)에서 도시하고 있는 바와 같이, 발표를 듣는 사람과의 토론 또는 질의를 진행할 때에는 발표를 듣는 사람의 화상을 확대하고 발표자료의 출력 크기를 줄여서 진행할 수 있다. To explain more easily with an example, as shown in (A) of FIG. 3 , when the subject to be photographed shows the presentation material and proceeds with the presentation, the size of the presentation material other than the subject to be photographed is output large, and the position is also adjusted to the central part. As shown in (B) of FIG. 3 , when conducting a discussion or query with a person listening to the presentation, the image of the person listening to the presentation can be enlarged and the output size of the presentation material can be reduced.
이를 통하여 발표 또는 강의를 진행하는 촬영대상자의 의도가 반영된 영상을 만들어 내 보다 효과적인 발표 또는 강의를 만들 수 있다.Through this, it is possible to make a more effective presentation or lecture by creating a video reflecting the intention of the subject who is conducting a presentation or lecture.
또한, 본 발명은 촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 상기 제1모니터부(140)와, 현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150)를 포함할 수 있다. In addition, the present invention provides the
즉, 촬영대상자가, 상기 제1모니터부(140)와 상기 제2모니터부(150)를 통하여 실시간으로 현재 촬영상태를 확인할 수 있어, 촬영대상자가 이를 실시간으로 참고하여 강의, 회의, 발표와 같은 행사를 보다 효율적으로 진행할 수 있다. 이때, 상기 제1모니터부(140) 및 상기 제2모니터부(150)는 가상의 모니터로 구성될 수 있다.That is, the subject to be photographed can check the current shooting state in real time through the
더불어, 본 발명의 온라인 강의를 위한 AI 스튜디오는 촬영대상자 뒤에 배경으로 구성되는 크로마키 스크린(200) 및 촬영대상자를 비추기 위한 적어도 하나 이상의 조명(300)을 더 포함하여 구성될 수 있다.In addition, the AI studio for the online lecture of the present invention may be configured to further include a
즉, 크로마키 스크린 및 촬영대상자를 비추기 위한 적어도 하나 이상의 조명을 통하여 촬영대상자가 있는 실제 환경이 아니라 촬영대상자가 지정한 영상을 배경으로 사용할 수 있어, 제한적인 환경에서 촬영을 진행해야 하는 촬영대상자에게 보다 집중할 수 있는 환경을 제공함으로써, 보다 나은 영상을 촬영할 수 있어, 영상 발표 또는 강의를 촬영함에 있어 양질의 결과물을 얻을 수 있다는 장점을 갖는다.That is, through the chroma key screen and at least one or more lights to illuminate the subject, the image specified by the subject can be used as the background rather than the actual environment where the subject is, so it is more effective for subjects who need to proceed with shooting in a limited environment. By providing an environment in which to focus, it is possible to shoot a better image, which has the advantage of obtaining high-quality results in video presentations or recording lectures.
또한, 상기 처리장치부(120)는 외부중계수단을 더 포함하여 구성될 수 있다. 촬영대상자는 상기 외부중계수단을 통하여 기존의 영상 플랫폼을 이용한 시간 송출에 대응하여 실시간으로 영상을 송출할 수 있으며, 해당 영상들은 영상 플렛폼이나 다양한 디바이스를 지원하는 만큼 다양한 디바이스를 통해 영상을 시청할 수 있다.In addition, the
본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 청구범위뿐 아니라 이 청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.The spirit of the present invention should not be limited to the described embodiments, and not only the claims to be described below, but also all those with equivalent or equivalent modifications to the claims will fall within the scope of the spirit of the present invention.
110: 촬영장치부
120: 처리장치부
130: 제어단말부
140: 제1모니터부
150: 제2모니터부
200: 크로마키 스크린
300: 조명110: photographing device unit
120: processing unit
130: control terminal unit
140: first monitor unit
150: second monitor unit
200: chroma key screen
300: light
Claims (6)
상기 촬영장치부(110)에서 촬영된 영상을 전달받아 처리하는 처리장치부(120);
상기 처리장치부(120)를 제어하기 위한 단말로 구성되는 제어단말부(130);
촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 제1모니터부(140); 및
현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150);
를 포함하는 온라인 강의를 위한 AI 스튜디오.
a photographing device unit 110 for photographing a subject;
a processing unit 120 for receiving and processing the image captured by the photographing unit 110;
a control terminal unit 130 configured as a terminal for controlling the processing unit 120;
a first monitor unit 140 for receiving and displaying at least one viewer's image from the processing unit 120 so that a subject to be photographed can check; and
a second monitor unit 150 that receives the currently output screen from the processing unit 120 and displays it so that a subject to be photographed can check;
AI studio for online lectures, including
상기 처리장치부(120)는
상기 촬영장치부(110)를 통하여 촬영된 영상에서 촬영대상자와 배경을 구분하여 인식하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.
According to claim 1,
The processing unit 120 is
AI studio for online lecture, characterized in that the photographing target and the background are distinguished and recognized in the image photographed through the photographing device unit 110 .
상기 처리장치부(120)는
출력영상에 적어도 하나 이상의 새로운 레이어를 입힐 수 있는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.
3. The method of claim 2,
The processing unit 120 is
AI studio for online lectures, characterized in that at least one new layer can be applied to the output image.
상기 처리장치부(120)는
출력영상에 입혀지는 레이어의 크기 및 위치를 사용자가 상기 제어단말부(130)를 통하여 조절하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.
4. The method of claim 3,
The processing unit 120 is
AI studio for online lecture, characterized in that the user adjusts the size and position of the layer applied to the output image through the control terminal unit (130).
상기 처리장치부(120)는 발표자인 촬영대상과 배경화면을 각각 인식하고,
상기 배경화면에 발표자료 및 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표자료 및 시청자를 함께 표시하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.
5. The method of claim 4,
The processing unit 120 recognizes the subject of the presenter and the background screen, respectively,
AI studio for online lecture, characterized in that by outputting the screen of the presentation material and the viewer listening to the presentation on the background screen, the presenter, the presentation material and the viewer are displayed together.
촬영대상자 뒤에 배경으로 구성되는 크로마키 스크린(200); 및
촬영대상자를 비추기 위한 적어도 하나 이상의 조명(300)을 더 포함하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.
6. The method of claim 5,
a chroma key screen 200 configured as a background behind the subject; and
AI studio for online lecture, characterized in that it further comprises at least one or more lights 300 for illuminating the subject to be photographed.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200170865A KR102571677B1 (en) | 2020-12-08 | 2020-12-08 | AI Studio for Online Lectures |
PCT/KR2020/017829 WO2022124436A1 (en) | 2020-12-08 | 2020-12-09 | Ai studio for online lecture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200170865A KR102571677B1 (en) | 2020-12-08 | 2020-12-08 | AI Studio for Online Lectures |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220081215A true KR20220081215A (en) | 2022-06-15 |
KR102571677B1 KR102571677B1 (en) | 2023-08-28 |
Family
ID=81973603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200170865A KR102571677B1 (en) | 2020-12-08 | 2020-12-08 | AI Studio for Online Lectures |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102571677B1 (en) |
WO (1) | WO2022124436A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970058060A (en) * | 1995-12-14 | 1997-07-31 | 김광호 | 3D stereoscopic image synthesis method |
KR20090028674A (en) * | 2007-09-15 | 2009-03-19 | 김영대 | 3d virtual studio teaching and conference apparatus |
KR20110032131A (en) * | 2009-09-22 | 2011-03-30 | 주식회사 케이티 | Method for providing two-way remote lecture and apparatus |
KR20120092921A (en) * | 2011-02-14 | 2012-08-22 | 김영대 | Virtual classroom teaching method and device |
KR20160126731A (en) | 2015-04-24 | 2016-11-02 | 주식회사 유니와이즈솔루션즈 | On-line lecture contents providing system possible to authenticate learner terminals and method of providing on-line lecture contents using the system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101367260B1 (en) * | 2012-06-19 | 2014-02-25 | 김영대 | A virtual lecturing apparatus for configuring a lecture picture during a lecture by a lecturer |
KR101669635B1 (en) * | 2013-11-14 | 2016-10-26 | 주식회사 다림비젼 | Method and system for providing virtual space lecture, virtual studio contents |
KR20200024441A (en) * | 2018-08-28 | 2020-03-09 | 김영대 | Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies |
-
2020
- 2020-12-08 KR KR1020200170865A patent/KR102571677B1/en active IP Right Grant
- 2020-12-09 WO PCT/KR2020/017829 patent/WO2022124436A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970058060A (en) * | 1995-12-14 | 1997-07-31 | 김광호 | 3D stereoscopic image synthesis method |
KR20090028674A (en) * | 2007-09-15 | 2009-03-19 | 김영대 | 3d virtual studio teaching and conference apparatus |
KR20110032131A (en) * | 2009-09-22 | 2011-03-30 | 주식회사 케이티 | Method for providing two-way remote lecture and apparatus |
KR20120092921A (en) * | 2011-02-14 | 2012-08-22 | 김영대 | Virtual classroom teaching method and device |
KR20160126731A (en) | 2015-04-24 | 2016-11-02 | 주식회사 유니와이즈솔루션즈 | On-line lecture contents providing system possible to authenticate learner terminals and method of providing on-line lecture contents using the system |
Also Published As
Publication number | Publication date |
---|---|
KR102571677B1 (en) | 2023-08-28 |
WO2022124436A1 (en) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10880582B2 (en) | Three-dimensional telepresence system | |
US6454415B1 (en) | Interactive teleconferencing display system | |
US8208002B2 (en) | Distance learning via instructor immersion into remote classroom | |
US7855726B2 (en) | Apparatus and method for presenting audio in a video teleconference | |
US7916165B2 (en) | Systems and method for enhancing teleconferencing collaboration | |
AU2014331622B2 (en) | Image blur with preservation of detail | |
US9679369B2 (en) | Depth key compositing for video and holographic projection | |
US11076127B1 (en) | System and method for automatically framing conversations in a meeting or a video conference | |
JPH1124603A (en) | Information display device and information collecting device | |
CN114827517A (en) | Projection video conference system and video projection method | |
EP1368705B1 (en) | Interactive teleconferencing display system | |
US11051376B2 (en) | Lighting method and system to improve the perspective colour perception of an image observed by a user | |
AU2002255556A1 (en) | Interactive teleconferencing display system | |
US20140085402A1 (en) | Conference terminal and method for processing videos from other conference terminals | |
CN108268847B (en) | Method and system for analyzing movie montage language | |
KR102571677B1 (en) | AI Studio for Online Lectures | |
CN111093028A (en) | Information processing method and electronic equipment | |
US20170324921A1 (en) | Method and device for displaying multi-channel video | |
WO2021226821A1 (en) | Systems and methods for detection and display of whiteboard text and/or an active speaker | |
KR102034277B1 (en) | The system of conference live streaming broadcasting | |
Komiya et al. | Image-based attention level estimation of interaction scene by head pose and gaze information | |
Sivaprsad et al. | Tutoring and Communication Prototype Device For Blind, Deaf and Mute | |
CN109862419B (en) | Intelligent digital laser television interaction method and system | |
JP4479414B2 (en) | Video distribution system and video receiver | |
JP2003256842A (en) | Device and method for detecting position of moving object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |