WO2022124436A1 - Ai studio for online lecture - Google Patents

Ai studio for online lecture Download PDF

Info

Publication number
WO2022124436A1
WO2022124436A1 PCT/KR2020/017829 KR2020017829W WO2022124436A1 WO 2022124436 A1 WO2022124436 A1 WO 2022124436A1 KR 2020017829 W KR2020017829 W KR 2020017829W WO 2022124436 A1 WO2022124436 A1 WO 2022124436A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
studio
image
unit
processing unit
Prior art date
Application number
PCT/KR2020/017829
Other languages
French (fr)
Korean (ko)
Inventor
김하나
Original Assignee
(주)와이즈업
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)와이즈업 filed Critical (주)와이즈업
Publication of WO2022124436A1 publication Critical patent/WO2022124436A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key

Abstract

The present invention relates to an AI studio for an online lecture and, more particularly, an AI studio for an online lecture which provides a virtual studio by separating an image of a subject to be photographed during an online lecture from a background by means of a processing device unit, and is capable of controlling the size and position of an output outputted from the virtual studio by means of a control terminal unit.

Description

온라인 강의를 위한 AI 스튜디오AI Studio for Online Teaching
본 발명은 온라인 강의를 위한 AI 스튜디오에 관한 것으로서, 더욱 상세하게는 온라인 강의를 진행하는 촬영대상자를 촬영한 영상을 처리장치부에서 촬영대상자와 배경을 분리하여 가상의 스튜디오를 제공하며, 가상 스튜디오에 출력하는 출력물의 크기 및 위치를 제어단말부를 통하여 조절 가능한 온라인 강의를 위한 AI 스튜디오에 관한 것이다.The present invention relates to an AI studio for an online lecture, and more specifically, a virtual studio is provided by separating an image of a subject to be photographed during an online lecture in a processing unit, and a virtual studio is provided, and output to the virtual studio It relates to an AI studio for online lectures that can control the size and position of the printed output through the control terminal.
2020년도의 학교 교육 현장은 코로나 바이러스 감염증의 대유행이라는 위중한 상황을 겪으면서, 초유의 온라인 개학이라는 도전적인 현실과 마주하게 되었다.The school education field in 2020 is faced with the challenging reality of the unprecedented online school opening as it faces the critical situation of the coronavirus pandemic.
이러한 상황에서 학교 뿐 아니라 각종 학회, 회의, 미팅 등을 위해서는 온라인을 이용한 원격강의 및 원격회의를 진행할 수밖에 없다.In this situation, not only schools, but also various academic societies, conferences, and meetings have no choice but to conduct remote lectures and teleconferences using online.
이와 같은 급작스러운 환경의 변화는 기존에 오프라인으로 대면하여 진행되었던 많은 부분들이 온라인을 이용한 비대면화 방향으로 전환하게 하는 기폭제가 되었다. Such a sudden change in the environment served as a catalyst for many parts that were previously conducted face-to-face offline to be switched to non-face-to-face use online.
기존의 온라인 강의는 프레젠테이션을 이용하는 방식들로서 단순히 발표화면을 있는 그대로 촬영하여 중계하며, 발표자와 발표자료를 서로 다른 화면에 배치하여 발표를 듣는 사람이 발표자와 발표자료를 번갈아 봐야 하는 불편함이 있으며, 한 화면에 발표자료만 보이고 발표자의 모습 없이 발표자의 목소리만 들리게 되는 등 발표를 듣는 사람이 시청하기에 번거로움이 있었다.Existing online lectures are methods of using presentations, and they simply film and relay the presentation screen as it is, and place the presenter and presentation material on different screens, which is inconvenient for those who listen to the presentation to alternate between the presenter and the presentation material. It was cumbersome for listeners to watch the presentation, such as showing only the presentation material on one screen and only hearing the presenter's voice without the presenter's appearance.
따라서 발표를 듣는 사람들의 집중도가 떨어져 수업 또는 행사의 흥미를 떨어뜨려 결국은 수업 또는 행사의 효과를 반감시키는 문제점을 가지고 있었다.Therefore, there was a problem in that the concentration of those who listened to the presentation decreased, which lowered the interest of the class or event, and eventually halved the effect of the class or event.
더불어, 발표를 듣는 사람들과 발표자가 서로 토론 또는 질의응답을 수행할 때에 한쪽의 화면만이 표시되어 발표를 듣는 사람도 발표자도 서로가 집중도가 떨어져 제대로 된 토론 또는 질의응답이 진행되기 어려웠다.In addition, when people listening to the presentation and the presenter conduct a discussion or question and answer with each other, only one screen is displayed, so both the listener and the presenter have low concentration, making it difficult to conduct a proper discussion or question-and-answer.
한국공개특허공보 제10-2016-0126731호(2016.11.02.)Korean Patent Publication No. 10-2016-0126731 (2016.11.02.)
이와 같은 문제를 해결하기 위해 안출된 본 발명은 온라인 강의를 위한 AI 스튜디오에 관한 것으로서, 더욱 상세하게는 온라인 강의를 진행하는 촬영대상자를 촬영한 영상을 처리장치부에서 촬영대상자와 배경을 분리하여 가상의 스튜디오를 제공하며, 가상 스튜디오에 출력하는 출력물의 크기를 제어단말부를 통하여 조절 가능한 온라인 강의를 위한 AI 스튜디오에 관한 것이다.The present invention devised to solve such a problem relates to an AI studio for online lectures, and more particularly, by separating the subject and the background of the subject in the processing unit for the image captured by the subject conducting the online lecture, virtual It provides a studio and relates to an AI studio for online lectures that can control the size of the output output to the virtual studio through the control terminal.
또한 본 발명은 발표자, 발표자료 및 시청자를 하나의 가상화면에 보이게 하고, 발표자, 발표자료 또는 시청자의 크기, 위치 및 움직임을 조절할 수 있으며, 화면을 역동적으로 구성함으로써 시청자의 집중력을 높일 수 있는, 온라인 강의를 위한 AI 스튜디오를 제공하는 것을 목적으로 한다. In addition, the present invention can display the presenter, presentation material, and viewer on a single virtual screen, adjust the size, position and movement of the presenter, presentation material or viewer, and increase the viewer's concentration by dynamically configuring the screen, It aims to provide an AI studio for online lectures.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 온라인 강의를 위한 AI 스튜디오는, The AI studio for the online lecture of the present invention for achieving the above object is,
촬영대상자를 촬영하는 촬영장치부(110),A photographing device unit 110 for photographing a subject to be photographed;
상기 촬영장치부(110)에서 촬영된 영상을 전달받아 처리하는 처리장치부(120), processing unit 120 for receiving and processing the image captured by the photographing unit 110;
상기 처리장치부(120)를 제어하기 위한 단말로 구성되는 제어단말부(130),A control terminal unit 130 consisting of a terminal for controlling the processing unit 120,
촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 제1모니터부(140) 및a first monitor unit 140 that receives images of at least one viewer from the processing unit 120 and displays them so that the subject to be photographed can check;
현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150)로 구성될 수 있다.It may be composed of a second monitor unit 150 that receives the currently output screen from the processing unit 120 and displays it so that a subject to be photographed can check it.
또한 상기 처리장치부(120)는 상기 촬영장치부(110)를 통하여 촬영된 영상에서 촬영대상자와 배경을 구분하여 인식할 수 있다.In addition, the processing unit 120 may recognize the subject and the background by distinguishing them from the image captured by the photographing unit 110 .
이때, 상기 촬영장치부(110)는 음파 및 광선을 통하여 촬영대상자와 배경의 거리를 각각 확인할 수 있는 거리측정수단을 더 포함하여 구성될 수 있다.In this case, the photographing device unit 110 may further include a distance measuring means capable of confirming the distance between the photographing subject and the background through sound waves and light rays, respectively.
더불어, 상기 처리장치부(120)는 출력영상에 적어도 하나 이상의 새로운 레이어를 입힐 수 있다.In addition, the processing unit 120 may apply at least one new layer to the output image.
이때, 사용자는 상기 제어단말부(130)를 통하여 상기 처리장치부(120)의 출력영상에 입혀지는 레이어의 크기, 위치 및 움직임을 조절할 수 있다.In this case, the user can adjust the size, position, and movement of the layer applied to the output image of the processing unit 120 through the control terminal unit 130 .
더불어, 본 발명의 온라인 강의를 위한 AI 스튜디오는 촬영대상자 뒤에 배경으로 구성되는 크로마키 스크린(200) 및 촬영대상자를 비추기 위한 적어도 하나 이상의 조명(300)을 더 포함하여 구성될 수 있다.In addition, the AI studio for the online lecture of the present invention may be configured to further include a chroma key screen 200 configured as a background behind the subject to be photographed and at least one or more lights 300 for illuminating the subject to be photographed.
또한, 상기 처리장치부(120)는 외부중계수단을 더 포함하여 구성될 수 있다.In addition, the processing unit 120 may be configured to further include an external relay means.
본 발명의 온라인 강의를 위한 AI 스튜디오는,The AI studio for the online lecture of the present invention is,
발표자인 촬영대상과 배경화면을 각각 인식하여 배경부분에 발표자료 및/또는 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표 자료 및 시청자를 함께 볼 수 있어 발표, 강의 또는 회의의 몰입을 극대화 시킬 수 있다.By recognizing the subject of the presenter and the background screen, respectively, the screen of the presentation material and/or the viewer listening to the presentation is output in the background so that the presenter, the presentation material, and the viewer can be viewed together, thereby maximizing the immersion of the presentation, lecture or meeting. have.
더불어, 발표자, 발표자료 및 시청자의 화상은 촬영대상자의 조작을 통해 크기, 위치 및 움직임을 조절하여 출력할 수 있다. 이를 통하여 촬영대상자가 필요에 따라 선택하여 발표자, 발표자료 및 발표를 듣는 사람의 화상을 확대 또는 축소하거나 위치를 변화시키거나 움직임을 주어 출력할 수 있으므로, 발표자인 촬영대상자의 의도가 반영된 화면을 만들어 낼 수 있다. 이를 통하여 발표 또는 강의를 진행하는 촬영대상자의 의도가 반영된 영상을 만들 수 있어 보다 효과적인 발표 또는 강의를 진행할 수 있다.In addition, the image of the presenter, presentation material, and viewer can be output by adjusting the size, position, and movement of the subject to be photographed. Through this, the subject to be photographed can select as needed and enlarge or reduce the image of the presenter, the presentation material and the person who listens to the presentation, change the position, or give movement to output the image, so a screen reflecting the intention of the presenter, can pay Through this, it is possible to create a video reflecting the intention of the subject of the presentation or lecture, so that the presentation or lecture can be conducted more effectively.
또한, 크로마키 스크린 및 촬영대상자를 비추기 위한 적어도 하나 이상 조명을 통하여 촬영대상자가 있는 실제 환경이 아니라 촬영대상자가 지정한 영상을 배경으로 사용할 수 있어, 제한적인 환경에서 촬영을 진행해야 하는 촬영대상자에게도 보다 집중할 수 있는 환경을 제공함으로써, 보다 나은 영상을 촬영할 수 있어, 영상 발표 또는 강의를 촬영함에 있어 양질의 결과물을 얻을 수 있다는 장점을 갖는다.In addition, through the chroma key screen and at least one or more lights to illuminate the subject, the image designated by the subject can be used as the background rather than the actual environment in which the subject is being filmed, so it is more convenient for subjects who need to proceed with shooting in a limited environment. By providing an environment in which to focus, it is possible to shoot a better image, which has the advantage of obtaining high-quality results in video presentations or recording lectures.
도 1은 본 발명의 온라인 강의를 위한 AI 스튜디오 실시예1 is an embodiment of an AI studio for an online lecture of the present invention;
도 2는 본 발명의 처리장치부의 촬영대상자 및 배경 인식 실시예Figure 2 is an embodiment of the subject and background recognition of the processing unit of the present invention
도 3은 본 발명의 출력화면 조절 실시예3 is an example of adjusting an output screen of the present invention;
이하, 첨부된 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다. Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings. Prior to this, the terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings, and the inventor should properly understand the concept of the term in order to best describe his invention. Based on the principle that can be defined, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, unless there are other definitions in the technical and scientific terms used, it has the meaning commonly understood by those of ordinary skill in the art to which this invention belongs, and in the following description and accompanying drawings, the gist of the present invention Descriptions of known functions and configurations that may be unnecessarily obscure will be omitted.
도 1은 본 발명의 온라인 강의를 위한 AI 스튜디오 실시예이고, 도 2는 본 발명의 처리장치부의 촬영대상자 및 배경 인식 실시예이며, 도 3은 본 발명의 출력화면 조절 실시예이다.Fig. 1 is an embodiment of an AI studio for an online lecture of the present invention, Fig. 2 is an embodiment of recognizing a subject and a background of the processing unit of the present invention, and Fig. 3 is an embodiment of adjusting an output screen of the present invention.
본 발명의 온라인 강의를 위한 AI 스튜디오는, 도 1에서 도시하고 있는 바와 같이, The AI studio for the online lecture of the present invention, as shown in FIG. 1,
촬영대상자를 촬영하는 촬영장치부(110)와, 상기 촬영장치부(110)에서 촬영된 영상을 전달받아 처리하는 처리장치부(120)와, 상기 처리장치부(120)를 제어하기 위한 단말로 구성되는 제어단말부(130)와, 촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 제1모니터부(140)와, 현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150)로 구성될 수 있다.A control terminal comprising a photographing apparatus unit 110 for photographing a subject to be photographed, a processing apparatus unit 120 for receiving and processing the image captured by the photographing apparatus unit 110 , and a terminal for controlling the processing apparatus unit 120 . The unit 130, the first monitor unit 140 for receiving and displaying at least one viewer image received from the processing unit 120 so that the subject to be photographed can check, and the processing unit 120 for the screen currently being output It may be composed of a second monitor unit 150 that is received from and displayed so that the subject to be photographed can check it.
즉, 촬영대상자를 상기 촬영장치부(110)의 촬영장치가 촬영하여 해당 영상을 상기 처리장치부(120)로 전송하게 된다.That is, the photographing device of the photographing apparatus unit 110 captures the subject to be photographed, and transmits the corresponding image to the processing apparatus unit 120 .
이때 도 2에서 도시하고 있는 바와 같이, 상기 처리장치부(120)는 상기 촬영장치부(110)를 통하여 촬영된 영상에서 촬영대상자와 배경을 구분하여 인식할 수 있다. 이를 통하여 상기 처리장치부(120)는 촬영대상자와 배경을 각각 처리할 수 있다.In this case, as shown in FIG. 2 , the processing unit 120 may distinguish and recognize a subject and a background from the image captured by the image capturing unit 110 . Through this, the processing unit 120 may process the subject and the background, respectively.
보다 쉽게 설명하여, 도 2에서 도시하고 있는 바와 같이, 상기 촬영장치부(110)를 통해 촬영된 영상은 상기 처리장치부(120)로 전달되며, 상기 처리장치부(120)는 영상을 인식하여 영상 내의 객체와 배경 2가지로 구분하게 된다. 이러한 인식을 통하여 촬영대상자와 배경을 각각 독립적으로 인지하여 분할하게 된다.To explain more easily, as shown in FIG. 2 , the image photographed through the photographing device 110 is transmitted to the processing device 120 , and the processing device 120 recognizes the image and an object in the image. and background are divided into two categories. Through this recognition, the subject and the background are independently recognized and divided.
이때 분할을 위한 영상처리 방법은 아래와 같은 방법을 사용할 수 있다.In this case, the image processing method for segmentation may use the following method.
먼저, 색상의 정보를 이용한 분할 방법이다.First, it is a segmentation method using color information.
색상 정보를 이용하는 분할 방법은 각각의 픽셀값을 계산하여 처리하며, 객체의 픽셀들은 서로 유사한 색상 값을 갖는다는 특성에 근거하여 객체를 효율적으로 추출해 낼 수 있다. 이러한 색상의 정보를 이용한 분할 방법 중 대표적인 방법으로는 색상 값을 갖는 픽셀 데이터 들을 군집화 하는 방법인 Mean Shift 알고리즘이 있다. Mean Shift 알고리즘은 영상 내의 유사한 색상을 갖는 픽셀들을 하나로 묶어 영역 별로 그룹화 하는 알고리즘이다. 하지만 색상 정보를 이용하는 경우에는 객체와 배경 영역의 색상이 유사할 때 객체와 배경의 일부가 통합된 영역으로 처리되는 등 불완전한 추출 결과를 보인다는 단점이 있다.In the segmentation method using color information, each pixel value is calculated and processed, and the object can be efficiently extracted based on the characteristic that the pixels of the object have similar color values. Among the division methods using color information, a representative method is the Mean Shift algorithm, which is a method for clustering pixel data having color values. The Mean Shift algorithm is an algorithm that groups pixels with similar colors in an image by region. However, when color information is used, when the color of the object and the background area is similar, a part of the object and the background is processed as an integrated area, and thus, an incomplete extraction result is shown.
이러한 문제를 해결하기 위해 색상 정보와 영상의 깊이 정보를 이용하는 방법을 이용할 수 있다. 영상의 색상 정보와 3D 입체 변환에서 사용되는 깊이 지도를 이용하여 객체와 배경 영역이 유사한 색상일지라도 깊이의 정도에 따라 세밀하게 분할할 수 있도록 할 수 있다. In order to solve this problem, a method using color information and depth information of an image may be used. By using the color information of the image and the depth map used in 3D stereoscopic conversion, even if the object and the background area have similar colors, it can be divided into detail according to the degree of depth.
더불어, 배경에 그림자와 밝기의 변화가 나타나는 동영상을 HSV 색 공간으로 변환한 뒤 밝기의 변화에 영향을 받지 않고 주요 객체를 추출하는 방법으로 분할할 수 있다.In addition, it is possible to divide a video in which shadows and changes in brightness appear in the background by converting it to an HSV color space and extracting main objects without being affected by changes in brightness.
또한, 객체의 경계를 이용한 분할 방법을 사용할 수 있다.Also, a segmentation method using the boundary of an object may be used.
영상 분할에서 객체 또는 영역의 경계선은 분할 작업에 있어서 주요한 단서가 된다. 영상의 경계선은 객체 또는 영역의 형상대로 추출이 가능하기 때문에 형태학적인 분할이 가능하다. 영상에서 경계를 추출하는 작업은 컬러 영상을 그레이스케일로 변환한 뒤 2차 미분 함수를 이용하여 영상에서 밝기 값이 급격하게 변하는 곳을 검출하는 것이다.In image segmentation, the boundary of an object or region becomes a major clue in segmentation. Since the boundary line of the image can be extracted according to the shape of an object or region, morphological division is possible. The task of extracting a boundary from an image is to convert a color image to grayscale and then use a second derivative function to detect a place where the brightness value changes rapidly in the image.
기존의 경계를 검출하기 위한 방법은 여러 가지가 있으며 라플라시안 필터, 소벨 마스크, 캐니 엣지 검출기 등이 있다. 그레이 스케일 영상에서는 픽셀 당 밝기 값 하나로 처리하기 때문에 경계의 특징을 구분하여 처리하여야 한다. 이때, 영역 확장 방법을 이용하여 영상을 과분할한 뒤 경계의 굵기, 연속성, 곧음의 정보 등을 판별하여 영상에서 중요한 영역을 분할할 수 있다.There are several methods for detecting the existing boundary, such as a Laplacian filter, a Sobel mask, and a Canny edge detector. In the gray scale image, since one brightness value per pixel is processed, the characteristics of the boundary must be distinguished and processed. In this case, after the image is over-segmented using the region extension method, an important region in the image can be divided by determining the thickness, continuity, and straightness of the boundary.
상기 촬영장치부(110)는 음파 및 광선을 통하여 촬영대상자와 배경의 거리를 각각 확인할 수 있는 거리측정수단을 더 포함하여 구성될 수 있다.The photographing device unit 110 may further include a distance measuring means capable of confirming the distance between the photographing subject and the background through sound waves and light rays, respectively.
즉, TOF 센서와 같이 거리를 측정하는 별도의 수단이 상기 촬영장치부(110)에 더 포함되고, 이와 같은 상기 거리측정수단을 통해 획득한 인식 대상 물체의 거리 정보 이미지 및 카메라로 촬영한 영상 이미지에서 추출된 에지(Edge) 이미지를 연산하여 실효성 있는 특징점(Constrained Feature)들로 이루어진 3차원 점군 데이터(3D Point Cloud)를 획득하고, 이를 인식 대상 물체 전체의 3차원 점군 데이터와 정합을 통해 촬영대상자와 배경을 분할하여 인식할 수 있다.That is, a separate means for measuring a distance, such as a TOF sensor, is further included in the photographing device unit 110, and from the distance information image of the object to be recognized and the video image photographed by the camera obtained through the distance measurement means. By calculating the extracted edge image, 3D point cloud data (3D point cloud) consisting of effective constrained features is acquired, and it is matched with the 3D point cloud data of the entire object to be recognized. It can be recognized by dividing the background.
또한, 상기 처리장치부(120)는 출력영상에 적어도 하나 이상의 새로운 레이어를 입힐 수 있다. 즉, 상기 처리장치부(120)는 발표자인 촬영대상과 배경화면을 각각 인식하여 배경부분에 발표자료 및/또는 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표 자료 및 시청자를 함께 볼 수 있어 발표, 회의 또는 강의의 몰입을 극대화 시킬 수 있다.Also, the processing unit 120 may apply at least one new layer to the output image. That is, the processing unit 120 recognizes the subject and the background screen as the presenter, respectively, outputs the presentation material and/or the screen of the viewer who listens to the presentation in the background, so that the presenter, the presentation material, and the viewer can be viewed together to present, It can maximize the immersion of a meeting or lecture.
이때, 사용자는 상기 제어단말부(130)를 통하여 상기 처리장치부(120)의 출력영상에 입혀지는 레이어의 크기, 위치 및 움직임을 조절할 수 있다. In this case, the user can adjust the size, position, and movement of the layer applied to the output image of the processing unit 120 through the control terminal unit 130 .
즉, 도 3에서 도시하고 있는 바와 같이, 시청자가 발표자료에 집중하도록 하기 위해, 촬영대상자는 발표자료의 출력되는 크기 및 위치를 조절하거나, 또는 발표자료의 동적인 움직임을 생성할 수 있다. 또한 발표자 및 발표를 듣는 시청자의 화상은 촬영대상자의 조작을 통해 위치, 크기 및 움직임이 조절되어 출력될 수 있다. 이를 통하여 촬영대상자가 필요에 따라 선택하여 발표자, 발표자료 또는 발표를 듣는 사람의 화상을 확대 또는 축소하거나 위치를 조절하거나 또는 움직임을 부여하여 출력할 수 있어 발표자인 촬영대상자의 의도가 반영된 화면을 만들어 낼 수 있다. That is, as shown in FIG. 3 , in order for the viewer to focus on the presentation material, the subject to be photographed may adjust the output size and position of the presentation material or generate a dynamic movement of the presentation material. In addition, the image of the presenter and the viewer who listens to the presentation may be output by adjusting the position, size, and movement of the subject to be photographed. Through this, the subject to be photographed can select as needed and enlarge or reduce the image of the presenter, the presentation material, or the person who listens to the presentation, adjust the position, or give motion to output the image, thereby creating a screen reflecting the intention of the presenter, the subject of photography. can pay
보다 쉽게 예를 들어 설명하자면, 도 3의 (A)에서 도시하고 있는 바와 같이, 촬영대상자가 발표자료를 보여주며 발표를 진행할 때에는 촬영대상자 외에 발표자료의 크기가 크게 출력되며 위치 또한 중앙 부분으로 조절될 수 있으며, 도 3의 (B)에서 도시하고 있는 바와 같이, 발표를 듣는 사람과의 토론 또는 질의를 진행할 때에는 발표를 듣는 사람의 화상을 확대하고 발표자료의 출력 크기를 줄여서 진행할 수 있다. To explain more easily with an example, as shown in (A) of FIG. 3 , when the subject to be photographed shows the presentation material and proceeds with the presentation, the size of the presentation material other than the subject to be photographed is output large, and the position is also adjusted to the central part. As shown in (B) of FIG. 3 , when conducting a discussion or query with a person listening to the presentation, the image of the person listening to the presentation can be enlarged and the output size of the presentation material can be reduced.
이를 통하여 발표 또는 강의를 진행하는 촬영대상자의 의도가 반영된 영상을 만들어 내 보다 효과적인 발표 또는 강의를 만들 수 있다.Through this, it is possible to make a more effective presentation or lecture by creating a video reflecting the intention of the subject who is conducting a presentation or lecture.
또한, 본 발명은 촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 상기 제1모니터부(140)와, 현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150)를 포함할 수 있다. In addition, the present invention provides the first monitor unit 140 for receiving and displaying at least one viewer's images from the processing unit 120 so that the subject to be photographed can check, and the processing unit 120 for the currently output screen. It may include a second monitor unit 150 that is received from and displayed so that the subject to be photographed can check it.
즉, 촬영대상자가, 상기 제1모니터부(140)와 상기 제2모니터부(150)를 통하여 실시간으로 현재 촬영상태를 확인할 수 있어, 촬영대상자가 이를 실시간으로 참고하여 강의, 회의, 발표와 같은 행사를 보다 효율적으로 진행할 수 있다. 이때, 상기 제1모니터부(140) 및 상기 제2모니터부(150)는 가상의 모니터로 구성될 수 있다.That is, the subject to be photographed can check the current shooting state in real time through the first monitor unit 140 and the second monitor unit 150, so that the subject to be photographed can refer to it in real time to perform such tasks as lectures, conferences, and presentations. Events can be run more efficiently. In this case, the first monitor unit 140 and the second monitor unit 150 may be configured as virtual monitors.
더불어, 본 발명의 온라인 강의를 위한 AI 스튜디오는 촬영대상자 뒤에 배경으로 구성되는 크로마키 스크린(200) 및 촬영대상자를 비추기 위한 적어도 하나 이상의 조명(300)을 더 포함하여 구성될 수 있다.In addition, the AI studio for the online lecture of the present invention may be configured to further include a chroma key screen 200 configured as a background behind the subject to be photographed and at least one or more lights 300 for illuminating the subject to be photographed.
즉, 크로마키 스크린 및 촬영대상자를 비추기 위한 적어도 하나 이상의 조명을 통하여 촬영대상자가 있는 실제 환경이 아니라 촬영대상자가 지정한 영상을 배경으로 사용할 수 있어, 제한적인 환경에서 촬영을 진행해야 하는 촬영대상자에게 보다 집중할 수 있는 환경을 제공함으로써, 보다 나은 영상을 촬영할 수 있어, 영상 발표 또는 강의를 촬영함에 있어 양질의 결과물을 얻을 수 있다는 장점을 갖는다.That is, through the chroma key screen and at least one or more lights to illuminate the subject, the image specified by the subject can be used as the background rather than the actual environment where the subject is, so it is more effective for subjects who need to proceed with shooting in a limited environment. By providing an environment in which to focus, it is possible to shoot a better image, which has the advantage of obtaining high-quality results in video presentations or recording lectures.
또한, 상기 처리장치부(120)는 외부중계수단을 더 포함하여 구성될 수 있다. 촬영대상자는 상기 외부중계수단을 통하여 기존의 영상 플랫폼을 이용한 시간 송출에 대응하여 실시간으로 영상을 송출할 수 있으며, 해당 영상들은 영상 플렛폼이나 다양한 디바이스를 지원하는 만큼 다양한 디바이스를 통해 영상을 시청할 수 있다.In addition, the processing unit 120 may be configured to further include an external relay means. Through the external relay means, the subject can transmit images in real time in response to time transmission using the existing image platform, and the images can be viewed through various devices as long as the image platform or various devices are supported. .
본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 청구범위뿐 아니라 이 청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.The spirit of the present invention should not be limited to the described embodiments, and not only the claims to be described below, but also all those with equivalent or equivalent modifications to the claims will fall within the scope of the spirit of the present invention.
110: 촬영장치부110: photographing device unit
120: 처리장치부120: processing unit
130: 제어단말부130: control terminal unit
140: 제1모니터부140: first monitor unit
150: 제2모니터부150: second monitor unit
200: 크로마키 스크린200: chroma key screen
300: 조명300: light
본 발명의 온라인 강의를 위한 AI 스튜디오는,The AI studio for the online lecture of the present invention is,
발표자인 촬영대상과 배경화면을 각각 인식하여 배경부분에 발표자료 및/또는 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표 자료 및 시청자를 함께 볼 수 있어 발표, 강의 또는 회의의 몰입을 극대화 시킬 수 있다.By recognizing the subject of the presenter and the background screen, respectively, the screen of the presentation material and/or the viewer listening to the presentation is output in the background so that the presenter, the presentation material, and the viewer can be viewed together, thereby maximizing the immersion of the presentation, lecture or meeting. have.
더불어, 발표자, 발표자료 및 시청자의 화상은 촬영대상자의 조작을 통해 크기, 위치 및 움직임을 조절하여 출력할 수 있다. 이를 통하여 촬영대상자가 필요에 따라 선택하여 발표자, 발표자료 및 발표를 듣는 사람의 화상을 확대 또는 축소하거나 위치를 변화시키거나 움직임을 주어 출력할 수 있으므로, 발표자인 촬영대상자의 의도가 반영된 화면을 만들어 낼 수 있다. 이를 통하여 발표 또는 강의를 진행하는 촬영대상자의 의도가 반영된 영상을 만들 수 있어 보다 효과적인 발표 또는 강의를 진행할 수 있다.In addition, the image of the presenter, presentation material, and viewer can be output by adjusting the size, position, and movement of the subject to be photographed. Through this, the subject to be photographed can select as needed and enlarge or reduce the image of the presenter, the presentation material and the person who listens to the presentation, change the position, or give movement to output the image, so a screen reflecting the intention of the presenter, can pay Through this, it is possible to create a video reflecting the intention of the subject of the presentation or lecture, so that the presentation or lecture can be conducted more effectively.
또한, 크로마키 스크린 및 촬영대상자를 비추기 위한 적어도 하나 이상 조명을 통하여 촬영대상자가 있는 실제 환경이 아니라 촬영대상자가 지정한 영상을 배경으로 사용할 수 있어, 제한적인 환경에서 촬영을 진행해야 하는 촬영대상자에게도 보다 집중할 수 있는 환경을 제공함으로써, 보다 나은 영상을 촬영할 수 있어, 영상 발표 또는 강의를 촬영함에 있어 양질의 결과물을 얻을 수 있다는 장점을 갖는다.In addition, through the chroma key screen and at least one or more lights to illuminate the subject, the image designated by the subject can be used as the background rather than the actual environment in which the subject is being filmed, so it is more convenient for subjects who need to proceed with shooting in a limited environment. By providing an environment in which to focus, it is possible to shoot a better image, which has the advantage of obtaining high-quality results in video presentations or recording lectures.

Claims (6)

  1. 촬영대상자를 촬영하는 촬영장치부(110);a photographing device unit 110 for photographing a subject;
    상기 촬영장치부(110)에서 촬영된 영상을 전달받아 처리하는 처리장치부(120);a processing unit 120 for receiving and processing the image captured by the photographing unit 110;
    상기 처리장치부(120)를 제어하기 위한 단말로 구성되는 제어단말부(130);a control terminal unit 130 configured as a terminal for controlling the processing unit 120;
    촬영대상자가 확인 가능하도록 적어도 하나 이상의 시청자의 화상을 상기 처리장치부(120)에서 전달받아 표시하는 제1모니터부(140); 및a first monitor unit 140 for receiving and displaying at least one viewer's image from the processing unit 120 so that a subject to be photographed can check; and
    현재 출력중인 화면을 상기 처리장치부(120)에서 전달받아 촬영대상자가 확인할 수 있도록 표시하는 제2모니터부(150);a second monitor unit 150 that receives the currently output screen from the processing unit 120 and displays it so that a subject to be photographed can check;
    를 포함하는 온라인 강의를 위한 AI 스튜디오.AI studio for online lectures, including
  2. 제1항에 있어서,According to claim 1,
    상기 처리장치부(120)는The processing unit 120 is
    상기 촬영장치부(110)를 통하여 촬영된 영상에서 촬영대상자와 배경을 구분하여 인식하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.AI studio for online lecture, characterized in that the photographing target and the background are distinguished and recognized in the image photographed through the photographing device unit 110 .
  3. 제2항에 있어서,3. The method of claim 2,
    상기 처리장치부(120)는The processing unit 120 is
    출력영상에 적어도 하나 이상의 새로운 레이어를 입힐 수 있는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.AI studio for online lectures, characterized in that at least one new layer can be applied to the output image.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 처리장치부(120)는The processing unit 120 is
    출력영상에 입혀지는 레이어의 크기 및 위치를 사용자가 상기 제어단말부(130)를 통하여 조절하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.AI studio for online lecture, characterized in that the user adjusts the size and position of the layer applied to the output image through the control terminal unit (130).
  5. 제4항에 있어서,5. The method of claim 4,
    상기 처리장치부(120)는 발표자인 촬영대상과 배경화면을 각각 인식하고,The processing unit 120 recognizes the subject of the presenter and the background screen, respectively,
    상기 배경화면에 발표자료 및 발표를 듣는 시청자의 화면을 출력하여 발표자, 발표자료 및 시청자를 함께 표시하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.AI studio for online lecture, characterized in that by outputting the screen of the presentation material and the viewer listening to the presentation on the background screen, the presenter, the presentation material and the viewer are displayed together.
  6. 제5항에 있어서,6. The method of claim 5,
    촬영대상자 뒤에 배경으로 구성되는 크로마키 스크린(200); 및 a chroma key screen 200 configured as a background behind the subject; and
    촬영대상자를 비추기 위한 적어도 하나 이상의 조명(300)을 더 포함하는 것을 특징으로 하는 온라인 강의를 위한 AI 스튜디오.AI studio for online lecture, characterized in that it further comprises at least one or more lights 300 for illuminating the subject to be photographed.
PCT/KR2020/017829 2020-12-08 2020-12-09 Ai studio for online lecture WO2022124436A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0170865 2020-12-08
KR1020200170865A KR102571677B1 (en) 2020-12-08 2020-12-08 AI Studio for Online Lectures

Publications (1)

Publication Number Publication Date
WO2022124436A1 true WO2022124436A1 (en) 2022-06-16

Family

ID=81973603

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/017829 WO2022124436A1 (en) 2020-12-08 2020-12-09 Ai studio for online lecture

Country Status (2)

Country Link
KR (1) KR102571677B1 (en)
WO (1) WO2022124436A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090028674A (en) * 2007-09-15 2009-03-19 김영대 3d virtual studio teaching and conference apparatus
KR20110032131A (en) * 2009-09-22 2011-03-30 주식회사 케이티 Method for providing two-way remote lecture and apparatus
KR20130142458A (en) * 2012-06-19 2013-12-30 김영대 A virtual lecturing apparatus for configuring a lecture picture during a lecture by a lecturer
KR20150055862A (en) * 2013-11-14 2015-05-22 주식회사 다림비젼 Method and system for providing virtual space lecture, virtual studio contents
KR20200024441A (en) * 2018-08-28 2020-03-09 김영대 Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100335617B1 (en) * 1995-12-14 2002-10-31 삼성전자 주식회사 Method for synthesizing three-dimensional image
KR101270780B1 (en) * 2011-02-14 2013-06-07 김영대 Virtual classroom teaching method and device
KR20160126731A (en) 2015-04-24 2016-11-02 주식회사 유니와이즈솔루션즈 On-line lecture contents providing system possible to authenticate learner terminals and method of providing on-line lecture contents using the system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090028674A (en) * 2007-09-15 2009-03-19 김영대 3d virtual studio teaching and conference apparatus
KR20110032131A (en) * 2009-09-22 2011-03-30 주식회사 케이티 Method for providing two-way remote lecture and apparatus
KR20130142458A (en) * 2012-06-19 2013-12-30 김영대 A virtual lecturing apparatus for configuring a lecture picture during a lecture by a lecturer
KR20150055862A (en) * 2013-11-14 2015-05-22 주식회사 다림비젼 Method and system for providing virtual space lecture, virtual studio contents
KR20200024441A (en) * 2018-08-28 2020-03-09 김영대 Smart Realtime Lecture, Lecture Capture and Tele-Presentation-Webinar, VR Class room, VR Conference method using Virtual/Augmented Reality Class Room and Artificial Intelligent Virtual Camera Switching technologies

Also Published As

Publication number Publication date
KR102571677B1 (en) 2023-08-28
KR20220081215A (en) 2022-06-15

Similar Documents

Publication Publication Date Title
US6454415B1 (en) Interactive teleconferencing display system
US5990931A (en) Automatic display update of still frame images for videoconferencing
US20110050842A1 (en) Distance learning via instructor immersion into remote classroom
US10771694B1 (en) Conference terminal and conference system
WO2015030307A1 (en) Head mounted display device and method for controlling the same
US20120077172A1 (en) Presentation system
US20130215214A1 (en) System and method for managing avatarsaddressing a remote participant in a video conference
CN108924469B (en) Display picture switching transmission system, intelligent interactive panel and method
WO2017057926A1 (en) Display device and method for controlling same
WO2023096392A1 (en) System for automatically producing video
US10979666B2 (en) Asymmetric video conferencing system and method
WO2016190493A1 (en) Interaction-based remote video communication and lecturing system using transparent display
CA2438739C (en) Interactive teleconferencing display system
WO2022124436A1 (en) Ai studio for online lecture
WO2017043945A1 (en) Method and apparatus for recognizing detailed facial expressions
WO2022203212A2 (en) Apparatus and method for filming video using projector
WO2020116740A1 (en) Real-time broadcasting editing system and editing method
WO2018018357A1 (en) Vr image photographing device and mobile terminal-based vr image photographing system thereof
WO2017209468A1 (en) Chroma-key synthesizing system and method for providing three dimensional stereoscopic effects
JPH0962444A (en) Indication information input device
WO2021033811A1 (en) Half-mirror self-photographing system and psychological counseling method using same
WO2022101451A3 (en) Video processing systems, computing systems and methods
WO2023224154A1 (en) Video recording system and method for compositing
WO2023074999A1 (en) System for acquiring 3d ar object image in real time, and operating method therefor
CN205946041U (en) A mobile terminal for taking VR image and VR image imaging system thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20965192

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20965192

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20965192

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23-10-2023)