KR102446970B1 - An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function - Google Patents

An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function Download PDF

Info

Publication number
KR102446970B1
KR102446970B1 KR1020210117425A KR20210117425A KR102446970B1 KR 102446970 B1 KR102446970 B1 KR 102446970B1 KR 1020210117425 A KR1020210117425 A KR 1020210117425A KR 20210117425 A KR20210117425 A KR 20210117425A KR 102446970 B1 KR102446970 B1 KR 102446970B1
Authority
KR
South Korea
Prior art keywords
voice
data
user
unit
touch
Prior art date
Application number
KR1020210117425A
Other languages
Korean (ko)
Inventor
구기도
Original Assignee
(주) 아하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 아하 filed Critical (주) 아하
Priority to KR1020210117425A priority Critical patent/KR102446970B1/en
Priority to KR1020220118864A priority patent/KR102494752B1/en
Application granted granted Critical
Publication of KR102446970B1 publication Critical patent/KR102446970B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47BTABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
    • A47B19/00Reading-desks; Lecterns; Pulpits, i.e. free-standing
    • A47B19/02Church pulpits ; Stands for lecturers
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47BTABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
    • A47B19/00Reading-desks; Lecterns; Pulpits, i.e. free-standing
    • A47B19/10Reading-desks; Lecterns; Pulpits, i.e. free-standing characterised by association with auxiliary devices, e.g. paper clamps, line indicators
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47BTABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
    • A47B21/00Tables or desks for office equipment, e.g. typewriters, keyboards
    • A47B21/007Tables or desks for office equipment, e.g. typewriters, keyboards with under-desk displays, e.g. displays being viewable through a transparent working surface of the table or desk
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/02Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
    • A61L2/08Radiation
    • A61L2/10Ultra-violet radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Agricultural Chemicals And Associated Chemicals (AREA)

Abstract

The present invention relates to an electronic teaching desk, which includes a video camera for continuously photographing and storing the motion of a user for each unit time and a voice sensor for recognizing the voice of the user, comprising: a microphone array for receiving voice signals through the voice sensor from the user, separating sound and canceling noise; a voice recognition engine for receiving the voice signals, which are analog signal having noise removed therefrom, from the microphone array and converting the same into digital data, which are text signals; a database for repeatedly storing the received voice signals and converted text signals; a command interpretation part for receiving the converted text signals from the speech recognition engine and interpreting the same as a command through machine learning using the database; and a control part for performing a query search or internal/external control functions with an external cloud service according to the interpreted command, wherein the voice recognition engine includes a deep learning-based correction timing determining software for determining the correction timing of the voice signals inputted from the user.

Description

클라우드 환경에서 인공지능 제어기술을 수행하며 자체 살균기능을 포함하는 전자 교탁 시스템{An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function}An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function}

본 발명은 전자 교탁에 관한 것으로서, 보다 상세하게는 음성 인식 데이터의 인공지능(AI) 기반의 내부 기능 제어 처리 및 사물인터넷(IoT)으로 연결된 외부 디바이스의 제어가 가능한 전자 교탁 시스템으로서, 영상 카메라 및 소리 센서를 활용하여, 화자의 움직임과 소리를 탐지하고, 딥러닝 기술을 통해 화자의 음성의 이상여부를 자동 판단하고 보정 시점을 계산하는 시스템에 관한 기술이며, 자체 살균기능을 포함하면서 또한 다양한 IoT 주변 외부기기들을 제어함에 있어서 연결된 디바이스들을 최적의 경로를 통해 제어하거나 모니터링 하고, 클라우드 환경에서 사용자 프라이버시 보호를 위해 모사 데이터를 이용하여 데이터베이스를 구축하고 화자를 인증함으로서 보안을 강화하는 전자 교탁 시스템에 관한 것이다.The present invention relates to an electronic classroom, and more particularly, to an electronic classroom system capable of artificial intelligence (AI)-based internal function control processing of voice recognition data and control of external devices connected to the Internet of Things (IoT), an image camera and It is a technology related to a system that detects the movement and sound of the speaker by using a sound sensor, automatically determines whether the speaker’s voice is abnormal through deep learning technology, and calculates the correction time. It relates to an electronic classroom system that controls or monitors connected devices through an optimal path in controlling peripheral external devices, builds a database using simulated data to protect user privacy in a cloud environment, and strengthens security by authenticating the speaker will be.

근래 들어 강의실 또는 회의실에서 디지털 환경으로의 변화에 따라 여러 가지 수업 또는 회의 도구들이 디지털 장비로 대체되고 그에 따라 의사소통 방식도 양방향 디지털 소통으로 변화하게 되었다. 예를 들어 디지털 교과서가 보급되고 여러 가지 멀티미디어 기기를 활용한 교육 환경이 보급화 되면서, 전자 교탁의 경우에 화면상에 강의 내용 또는 발표 내용의 문서를 띄우고 판서 및 글쓰기 기능을 제공하는 등 강의에 필요한 각종 기능을 수행할 수 있으며 이때 사람의 손으로 직접 터치하거나 전용 터치펜으로 터치를 감지하게 할 수 있게 되었다.In recent years, as the classroom or meeting room changes to a digital environment, various classroom or meeting tools are replaced with digital equipment, and the communication method has also changed to two-way digital communication. For example, with the spread of digital textbooks and the spread of educational environments using various multimedia devices, in the case of an electronic classroom, documents of lecture contents or presentation contents are displayed on the screen, and various kinds of lectures necessary for lectures are provided, such as writing and writing functions. It is possible to perform a function, and at this time, it is possible to directly touch a human hand or to detect a touch with a dedicated touch pen.

아울러 최근에는 인공지능(AI)의 장비와 프로세스의 발달로 전통적인 입력 장치(예를 들어, 키보드 또는 마우스 등)이 아닌 사용자의 오디오 음성 인식에 의해 해당 디바이스에 특정한 명령어를 전달하고 장치의 여러 가지 검색 및 제어기능을 컨트롤하는 기술이 등장하였다. In addition, recently, with the development of artificial intelligence (AI) equipment and processes, a specific command is transmitted to the device by the user's audio voice recognition instead of a traditional input device (eg, keyboard or mouse, etc.), and various searches of the device are performed. And the technology to control the control function appeared.

아래의 선행기술1(KR 2015-0087687 A)은 대화형 시스템, 디스플레이 장치 및 그 제어 방법(interactive system, display apparatus and controlling method thereof)으로서, 개시된 디스플레이 장치는 사용자의 발화 음성을 입력받는 입력부, 발화 음성에 대한 음성 신호를 음성 인식 장치로 전송하는 통신부, 발화 음성에 대한 음성 인식을 수행하는 음성 인식부 및 음성 인식부를 통해 인식된 제1 음성 정보에 대한 신뢰도 값과 음성 인식 장치를 통해 인식된 제2 음성 정보에 대한 신뢰도 값 중 기설정된 임계값 이상의 신뢰도 값을 가지는 음성 정보를 상기 발화 음성에 대한 실행 명령으로 결정하는 제어부를 포함한다. 이에 따라, 디스플레이 장치는 디스플레이 장치 및 외부 장치에서 사용자의 발화 음성을 동시에 인식할 경우, 두 음성 인식 결과 중 사용자의 의도에 근접한 음성 인식 결과를 선택하는 것이 가능할 것이다. 한편, 아래의 다른 선행기술2(US 10198246 B2)은 인터랙티브 디스플레이에서 활성화된 음성 제어 방법 및 장치(Methods and apparatus for voice-activated control of an interactive display)으로서, 본 기술에서는 인터랙티브 디스플레이 장치에 통신이 가능하게 결합된 음성 입력 장치를 통해 사용자의 음성 데이터 수신이 가능하나, 터치센서를 구비한 터치패널 스크린을 포함하는 양방향 전자 교탁의 기술적인 요소는 개시하고 있지 않다.The following prior art 1 (KR 2015-0087687 A) is an interactive system, a display apparatus, and a controlling method thereof, and the disclosed display apparatus includes an input unit for receiving a user's utterance voice, an utterance A communication unit that transmits a voice signal for a voice to the voice recognition device, a voice recognition unit that performs voice recognition on the spoken voice, and a reliability value for the first voice information recognized through the voice recognition unit and the second value recognized through the voice recognition device and a controller for determining, as an execution command for the spoken voice, voice information having a reliability value greater than or equal to a preset threshold among reliability values for the second voice information. Accordingly, when the display device and the external device simultaneously recognize the user's spoken voice, the display device may select a voice recognition result that is close to the user's intention among the two voice recognition results. On the other hand, another prior art 2 (US 10198246 B2) below is a method and apparatus for voice-activated control of an interactive display, in which communication is possible with an interactive display device. Although it is possible to receive the user's voice data through the coupled voice input device, the technical elements of the interactive electronic classroom including a touch panel screen having a touch sensor are not disclosed.

따라서, 본 발명에서는 정전용량(PCAP), 전자기유도(EMR) 또는 적외선(IR) 방식을 이용한 터치 센서 전자 교탁에서 영상 카메라 및 소리 센서를 활용하여, 화자의 움직임과 소리를 탐지하고, 딥러닝 기술을 통해 화자의 음성의 이상여부를 자동 판단하고 보정 시점을 계산하는 시스템을 포함하며, 자체 살균기능을 포함하는 전자 교탁을 제안하고자 한다.Therefore, in the present invention, a video camera and a sound sensor are used in a touch sensor electronic classroom using a capacitive (PCAP), electromagnetic induction (EMR) or infrared (IR) method to detect the movement and sound of the speaker, and deep learning technology It is intended to propose an electronic classroom that includes a system that automatically determines whether the speaker's voice is abnormal and calculates the correction time, and includes a self-sterilization function.

선행특허1: 대한민국 특허공개공보 제10-20152015-0087687호 (대화형 시스템, 디스플레이 장치 및 그 제어 방법(interactive system, display apparatus and controlling method thereof))Prior Patent 1: Korean Patent Publication No. 10-20152015-0087687 (interactive system, display apparatus and controlling method thereof) 선행특허2: 미국 특허등록공보 제10198246호 (Methods and apparatus for voice-activated control of an interactive display)Prior Patent 2: US Patent Registration Publication No. 10198246 (Methods and apparatus for voice-activated control of an interactive display) 선행기술3: 대한민국 특허등록공보 제10-0919680호 (센서네트워크 기반의 데이터 전달장치 및 방법 (Apparatus and method for delivering data based sensor network))Prior Art 3: Republic of Korea Patent Registration Publication No. 10-0919680 (Apparatus and method for delivering data based sensor network)

본 발명의 목적은 강단에서 전자 교탁을 활용한 대면 또는 비대면 강의 또는 연설을 진행함에 있어서, 화자의 음성을 일정한 밸런스의 오디오로 출력하기 위해 별도의 믹싱 시스템을 이용할 때 각각의 화자 또는 연사에 대하여 직접 기술자가 화자의 음성 반응을 직접적으로 관찰하면서 그에 따라 볼륨의 고저, 주파수의 조절 등 음성 신호의 구성요소를 적절한 조합으로 믹스해야 하는데, 이때 숙련된 기술자와 초보자의 기술수준 차이가 매우 크기 때문에 일정한 품질의 음성 보정이 보장되지 않는다는 문제점을 해결하는 것이 목적이다.It is an object of the present invention for each speaker or speaker when using a separate mixing system to output the speaker's voice as audio of a certain balance in conducting a face-to-face or non-face-to-face lecture or speech using an electronic classroom at the pulpit The technician directly observes the speaker's voice response and accordingly mixes the components of the voice signal, such as adjusting the volume and frequency, in an appropriate combination. The purpose is to solve the problem that quality voice correction is not guaranteed.

또한, 사람이 특정 구간의 음성 신호의 이상 여부는 발견하더라도 정확한 보정 시점을 판단하는데 실수를 일으킬 수도 있고, 여러 시행착오를 통해 최적의 밸런스를 갖는 오디오 신호를 잡기 위한 사람의 노동력이 필요하다는 문제점을 해결하기 위한 것이 목적이다.In addition, even if a person detects an abnormality in the voice signal in a specific section, a mistake may occur in determining the correct correction time, and human labor is required to catch an audio signal with an optimal balance through various trials and errors. The purpose is to solve

본 발명의 또 다른 목적은 대면적 터치스크린을 포함하는 전자 교탁에서 사용자의 음성 인식 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 기기의 제어 기능을 수행하는 것이 목적이다.Another object of the present invention is to perform an artificial intelligence (AI)-based cloud search or device control function by processing a user's voice recognition information in an electronic classroom including a large-area touch screen.

본 발명의 또 다른 목적은 대면적 터치스크린을 포함하는 전자 교탁에서 사물인터넷(IoT) 네트워크로 연결된 외부 기기를 음성 인식 정보에 따라 유무선으로 제어하는 기능을 수행하는 것이 목적이다.Another object of the present invention is to perform a function of controlling an external device connected to an Internet of Things (IoT) network by wire or wireless according to voice recognition information in an electronic classroom including a large-area touch screen.

본 발명의 또 다른 목적은 다양한 IoT 주변 외부기기들을 제어함에 있어서 연결된 디바이스들을 최적의 경로를 통해 제어하거나 모니터링 하며, 클라우드 환경에서 사용자 프라이버시 보호를 위해 데이터베이스를 구축하고 사용자를 인증함으로서 보안을 강화하는 기능을 수행하는 것이 목적이다.Another object of the present invention is to control or monitor connected devices through an optimal path in controlling various external devices around IoT, and to build a database to protect user privacy in a cloud environment and to strengthen security by authenticating the user The purpose is to perform

본 발명은 터치 인식이 가능한 패널부와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치인식을 수행하는 센서부를 포함하고, 사용자의 움직임을 단위 시간별로 계속하여 촬영하고 저장하는 영상 카메라 및 상기 사용자의 음성을 인식하는 음성 센서를 포함하는 전자 교탁에 있어서, 상기 사용자로부터 상기 음성 센서를 통해 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이; 상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진; 상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스; 상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부; 상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하며, 상기 음성 인식 엔진에는 상기 사용자로부터 입력받은 음성 신호의 보정적기를 판단하기 위한 딥러닝 기반의 보정적기 판단 소프트웨어가 포함될 수 있다.The present invention includes a panel unit capable of touch recognition and a sensor unit that determines a touch method when the panel unit is touched and performs touch recognition according to the touch method, and continuously captures and stores the user's movement for each unit time. An electronic classroom comprising a camera and a voice sensor for recognizing the user's voice, the electronic classroom comprising: a microphone array that receives a voice signal from the user through the voice sensor, separates a sound source, and removes noise; a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal; a database for repeatedly storing the received voice signal and the converted text signal; a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database; and a control unit that performs a query search or internal/external control function with an external cloud service according to the interpreted command, wherein the voice recognition engine includes a deep learning-based correction timing for determining the correct timing of the voice signal input from the user. Software may be included.

상기 명령어 해석부에서 해석된 명령어를 내부의 명령어 리스트와 비교하여 상기 음성 신호의 패턴을 검색하는 음성 패턴 매칭부를 더 포함하며, 상기 음성 패턴 매칭부는 최초 슬립 모드에서 소정의 음성 패턴에 의해 상기 음성 인식 엔진을 웨이크업 모드로 변화시키는 내부 제어 신호를 상기 제어부로 보내는 것을 특징으로 한다.and a voice pattern matching unit that compares the command interpreted by the command interpretation unit with an internal command list to search for a pattern of the voice signal, wherein the voice pattern matching unit recognizes the voice by a predetermined voice pattern in the first sleep mode An internal control signal for changing the engine to a wake-up mode is transmitted to the control unit.

한편, 상기 딥러닝 기반의 보정적기 판단 소프트웨어는, 상기 사용자인 화자의 움직임 및 음성 데이터를 수집하는 데이터 취득 모듈; 상기 취득된 데이터에서 영상 및 소리 신호를 분할하는 알고리즘을 통해 데이터의 노이즈를 제거하는 데이터 전처리 모듈; 딥러닝 학습을 통해 학습데이터에서 설정된 기준에서 일정 범위를 벗어나는 분석값을 나타낼 때 이상상황으로 탐지하고 상기 화자의 음성에 대한 보정적기 판단에 활용하는 이상상황 탐지 모듈; 상기 보정적기 판단 소프트웨어를 통해 산출된 결과값을 출력하는 인터페이스를 구비한 후처리 모듈를 포함하는 것을 특징으로 한다.On the other hand, the deep learning-based corrective timing determination software may include: a data acquisition module for collecting movement and voice data of a speaker who is the user; a data pre-processing module for removing noise from data through an algorithm that divides image and sound signals from the acquired data; an abnormal situation detection module that detects an abnormal situation when an analysis value that is out of a certain range from a standard set in the learning data through deep learning learning is detected and uses the abnormal situation to determine the right time to correct the speaker's voice; and a post-processing module having an interface for outputting the result calculated through the corrective timing determination software.

상기 이상상황 탐지 모듈은, 인공지능 신경망 모델을 사용하되, 신경망 학습에 있어서 부족한 데이터를 사전 제작된 페이크 영상데이터 및 페이크 소리데이터로 대체하고, 비지도 학습 신경망 모델의 GAN(Generative Adversarial Nets)을 학습에 적용하여 상기 딥러닝 학습데이터 기준에서 소정의 수치 범위를 벗어나는 분석값으로 판단될 때 상기 화자의 음성 신호의 이상시점으로 판단하는 것을 특징으로 한다.The abnormal situation detection module uses an artificial intelligence neural network model, but replaces insufficient data in neural network learning with pre-made fake image data and fake sound data, and learns Generative Adversarial Nets (GAN) of an unsupervised learning neural network model. It is characterized in that it is determined as an abnormal point of the speaker's voice signal when it is determined as an analysis value out of a predetermined numerical range in the deep learning learning data standard.

상기 딥러닝 기반의 수정적기 판단 소프트웨어는 상기 이상상황 탐지 모듈에서 상기 화자의 음성 신호의 이상시점으로 판단되면, 상기 이상시점으로부터 상기 음성 신호의 보정적기를 판단하는 계산 단계를 더 포함하며, 상기 계산된 보정적기의 결과값을 다음 유사한 이상상황과 비교하여 오차데이터를 피드백하여 학습하는 수정 단계를 더 포함한다.The deep learning-based corrective timing determination software further comprises a calculation step of determining a corrective timing of the voice signal from the abnormal timing when the abnormal situation detection module determines that the speaker's voice signal is an abnormal timing, the calculation Comparing the result value of the corrected correction bandit with the next similar abnormal situation, the method further includes a correction step of learning by feeding back the error data.

상기 연결된 외부 주변 기기들의 제어 기능을 수행하는 경우에는, 상기 제어부는 최적 루트 추천 AI 알고리즘을 통해 상기 제어 기능을 수행하며, 상기 알고리즘은 데이터 수집 모듈이 데이터 셋을 입력 받는 데이터 수집 단계, 전처리 모듈이 상기 입력된 데이터 셋을 전처리 하는 전처리 단계, ANN(Artificial Neural Network)의 머신 러닝을 통하여 구성된 예측 모듈이 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하는 예측 계산 단계, 최적화 모듈이 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾는 최적 루트 추천 단계로 이루어진다.When performing a control function of the connected external peripheral devices, the control unit performs the control function through an optimal route recommendation AI algorithm, the algorithm includes a data collection step in which the data collection module receives a data set, a preprocessing module A preprocessing step of preprocessing the input data set, a prediction calculation step in which a prediction module configured through machine learning of an artificial neural network (ANN) applies the preprocessed data set to a prediction algorithm, and an optimization module predicts a model according to an objective function It consists of an optimal route recommendation step that finds an optimal route using and constraints.

상기 음성 신호 및 변환된 텍스트 신호는 각각의 원본 신호의 데이터와 k-1개의 모사 데이터를 이용하여, 상기 데이터의 발생 시간인 타임스탬프에 근거하여 해쉬함수 프로세스를 처리한 결과값에 따라 데이터베이스를 저장함으로써 상기 사용자와 관련된 민감정보를 보호할 수 있다.The voice signal and the converted text signal are stored in a database according to the result of processing the hash function process based on the timestamp, which is the generation time of the data, using the data of each original signal and k-1 copies of the simulated data. By doing so, it is possible to protect sensitive information related to the user.

상기 해쉬함수는 Hash-based Message Authentication Code 알고리즘(HMAC)을 이용하며, 아래 수학식 1에 의해 결과값 Q가 생성될 수 있다.The hash function uses a Hash-based Message Authentication Code algorithm (HMAC), and a result value Q may be generated by Equation 1 below.

<수학식 1><Equation 1>

Figure 112021102170413-pat00001
Figure 112021102170413-pat00001

(TS는 타임스탬프 정보이며, K_CNT는 상기 k값에 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보)(TS is timestamp information, K_CNT is a count number based on the k value, and PK is previously shared secret key information)

상기 시스템은 상기 사용자가 상기 시스템에 로그인 하는 환경정보인 IP 대역 또는 사용자 에이전트가 변환된 변환정보를 이진 선형 분류 모델인 서포트 벡터 머신(SVM)을 이용하여 2-클래스 사용자 모델을 생성함으로써 상기 사용자가 본인인지 여부를 판단한다.The system generates a two-class user model by using a support vector machine (SVM), which is a binary linear classification model, from the conversion information converted by the IP band or user agent, which is environmental information that the user logs into the system, so that the user can Decide whether you are

상기 전자 교탁 시스템은 터치디스플레이가 배치된 본체, 상기 터치디스플레이를 덮고 있으며 상기 본체에 이동할 수 있게 배치된 덮개, 상기 터치디스플레이와 마주하고 있는 상기 덮개의 일면에 배치되어 상기 터치디스플레이에 자외선을 조사하는 유브이 엘이디(UV LED)를 포함하는 살균부 및 상기 살균부의 작동을 설정하는 제어부를 더 포함하며, 상기 제어부는, 상기 덮개가 상기 터치디스플레이를 덮으면 상기 살균부로 전원을 인가하여 기설정된 시간동안 상기 터치디스플레이에 자외선이 조사되도록 동작하며, 상기 유브이 엘이디는 상기 일면에 간격을 두고 복수 배치되어 있으며, 상기 유브이 엘이디들은 상기 터치디스플레이와 35 내지 45mm 이격되어 110 내지 130°각도로 자외선을 조사하며, 이웃한 유브이 엘이디들의 간격은 60 내지 80mm인 것을 특징으로 한다.The electronic classroom system includes a main body on which a touch display is disposed, a cover that covers the touch display and is arranged to be movable on the main body, and is disposed on one side of the cover facing the touch display to irradiate the touch display with ultraviolet rays Further comprising a sterilization unit including a UV LED and a control unit for setting the operation of the sterilization unit, wherein the control unit applies power to the sterilization unit when the cover covers the touch display to apply power to the touch display for a preset time The display operates to irradiate UV rays, and the UV LEDs are arranged at intervals on the one surface, and the UV LEDs are separated from the touch display by 35 to 45 mm and irradiate the UV LEDs at an angle of 110 to 130 degrees. It is characterized in that the interval between the UV LEDs is 60 to 80 mm.

본 발명의 전자 교탁은 음성 센서 및 영상 카메라를 통하여 화자의 음성 신호의 이상 여부를 실시간으로 탐지하고 음성 신호의 보정 적기를 판단함으로써, 음성 신호의 불규칙적인 떨림이나 비정상적인 소리의 유입에 따른 이질감의 위험을 최소화하여 강의 또는 연설의 오디오 음질의 퀄리티를 높일 수 있다. The electronic classroom of the present invention detects abnormalities in the speaker's voice signal in real time through a voice sensor and a video camera and determines the appropriate time to correct the voice signal, thereby risking a sense of heterogeneity due to irregular tremors of the voice signal or the introduction of abnormal sound It is possible to increase the quality of audio quality of lectures or speeches by minimizing the

또한, 실시간으로 음성 이상여부를 자동으로 탐지함으로써, 사람이 행하는 교정의 성공여부에 따른 불안정성 및 모니터링을 위한 인력의 투입으로 생기는 인건비의 부담을 줄일 수 있다.In addition, by automatically detecting voice abnormalities in real time, it is possible to reduce instability according to the success or failure of calibration performed by humans and the burden of labor costs caused by the input of manpower for monitoring.

본 발명은 터치 센서를 포함하는 전자 교탁에서 사용자의 음성 인식 정보를 학습, 해석, 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 효과가 있다.The present invention has the effect of performing an artificial intelligence (AI)-based cloud search or control function by learning, interpreting, and processing the user's voice recognition information in an electronic classroom including a touch sensor.

또한 본 발명은 대면적 터치스크린을 포함하는 전자 교탁에서 사용자의 음성 명령을 통해 사물인터넷(IoT) 네트워크로 연결된 외부 기기를 제어할 수 있는 효과가 있다.In addition, the present invention has an effect of controlling an external device connected to an Internet of Things (IoT) network through a user's voice command in an electronic classroom including a large-area touch screen.

아울러, 이러한 인공지능 기반의 입출력 처리 및 사물인터넷 제어 기능을 수행함에 있어서 제3의 인터넷 서비스 공급자(통신사)의 전용 서버에 종속되지 않고 자체의 독립적인 프로세싱 알고리즘을 통해 음성 데이터 처리가 가능하여 국내/해외를 불문하고 독립적인 설치 사용이 용이하다는 효과가 있다.In addition, in performing these AI-based input/output processing and IoT control functions, voice data processing is possible through its own independent processing algorithm without being dependent on the dedicated server of a third-party Internet service provider (communication company). It has the effect of being easy to install and use independently regardless of overseas.

한편, 다양한 IoT 주변 외부기기들을 제어함에 있어서, 연결된 수많은 디바이스를 최적의 경로를 통해 제어하거나 모니터링 할 수 있다.On the other hand, in controlling various external devices around the IoT, it is possible to control or monitor a number of connected devices through an optimal path.

한편, 클라우드 환경에서 프라이버시 보호를 위해 모사 데이터를 이용하여 데이터베이스를 구축하고 SVM을 이용하여 발화 사용자를 인증함으로서 한층 보안을 강화할 수 있다.On the other hand, to protect privacy in the cloud environment, security can be further strengthened by building a database using simulated data and authenticating the speaking user using SVM.

도 1은 본 발명의 일 실시예로 터치스크린의 전자 교탁(300)에서 사용자의 음성 명령(200) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 구조를 나타낸 도면이다.
도 2는 기존의 통신사의 전용 스피커(210), 통신망(250), AI서버(230)를 이용하여 클라우드 서비스(240)를 이용하는 상황을 나타낸 도면이다.
도 3은 본 발명의 일 실시예로 통신사와 무관하게 자체 개별 스피커(310)를 이용하여 클라우드 서비스(330)를 이용하는 상황을 나타낸 도면이다.
도 4는 본 발명의 일 실시예로 전자 교탁에서 사용자의 터치입력 또는 음성 입력(400, 410) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색(450) 또는 제어 기능(480, 490)을 수행하는 플로우 차트를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따라 딥러닝 기반의 보정적기 판단 소프트웨어에서 페이크 영상 데이터를 제작하기 위한 신경망 모델의 블록도이다.
도 6은 본 발명의 일 실시예로 AI 기반의 제어 기능 등의 메뉴 구성을 포함한 UI 화면이 표시된 전자 교탁을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따라 화자와의 위치, 거리에 관한 영상 카메라 및 음성 센서를 활용한 음성의 이상여부 및 보정 적기의 판단 프로세스를 적용한 예시를 나타내는 플로우 차트이다.
도 8은 본 발명의 일 실시예에 따라 살균 기능을 포함하는 덮개가 있는 전자교탁을 나타낸 개략적인 사시도 도면이다.
도 9는 상기 도 8의 전자교탁의 내부를 개략적으로 나타내며, 특히 살균부의 측면의 단면도를 투시하여 나타낸 도면이다.
1 shows a structure in which an artificial intelligence (AI)-based cloud search or control function can be performed by processing a user's voice command 200 information in an electronic classroom 300 of a touch screen according to an embodiment of the present invention. It is a drawing.
FIG. 2 is a diagram illustrating a situation in which the cloud service 240 is used using the existing communication company's dedicated speaker 210 , the communication network 250 , and the AI server 230 .
3 is a diagram illustrating a situation in which the cloud service 330 is used by using its own individual speaker 310 regardless of a communication company according to an embodiment of the present invention.
4 is an artificial intelligence (AI)-based cloud search 450 or control function 480, 490 by processing the user's touch input or voice input (400, 410) information in the electronic classroom as an embodiment of the present invention. It is a diagram showing a flow chart to perform.
5 is a block diagram of a neural network model for producing fake image data in deep learning-based corrective timing judgment software according to an embodiment of the present invention.
6 is a diagram illustrating an electronic classroom in which a UI screen including a menu configuration such as an AI-based control function is displayed according to an embodiment of the present invention.
7 is a flowchart illustrating an example of applying a process for determining whether a voice is abnormal and correcting timing using a video camera and an audio sensor regarding a location and distance from a speaker according to an embodiment of the present invention.
8 is a schematic perspective view showing an electronic classroom with a cover including a sterilization function according to an embodiment of the present invention.
9 is a view schematically showing the inside of the electronic classroom of FIG. 8, and in particular, a cross-sectional view showing the side of the sterilization unit through a perspective view.

본 발명의 이점 및 특징 그리고 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 보다 명확해질 것이다.Advantages and features of the present invention and a method of achieving it will become more apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 한정된 몇몇의 실시예로 제한되는 것이 아니라 목적, 효과가 실질적으로 동일한 범위내에서는 서로 다른 다양한 형태로 구현될 수 있으며 이러한 실시예 역시 본 발명의 기술적 사항에 포함된다고 볼 수 있을 것이다.However, the present invention is not limited to some limited embodiments disclosed below, but may be implemented in various different forms within substantially the same scope, and these embodiments are also considered to be included in the technical matters of the present invention. will be able

본 명세서에서 실시예는 본 발명의 개시가 보다 명확해지도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 이해 시켜주기 위해 제공되는 것이다. Examples in the present specification are provided to make the disclosure of the present invention clearer, and to fully understand the scope of the invention to those of ordinary skill in the art to which the present invention pertains.

그리고 본 발명의 권리범위는 후술되는 특허청구의 범위에 의해 정의될 것이다.And the scope of the present invention will be defined by the claims to be described later.

따라서 몇몇 실시예에서 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 세부기술들은 본 발명이 모호하게 해석되는 것을 피하기 위해 구체적으로 설명하지는 않는다.Accordingly, in some embodiments, well-known components, well-known operations, and well-known details are not specifically described to avoid obscuring the present invention.

또한 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하고 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것일 뿐이며 본 발명을 한정시키고자 하는 것은 아니다.In addition, the same reference numerals refer to the same elements throughout the specification, and the terms used herein are for the purpose of describing the embodiments only and are not intended to limit the present invention.

본 명세서에서 단수형은 문구에서 특별히 언급하지 않는한 복수형도 포함하는 것으로 해석해야할 것이며, 포함(또는 구비)하는 것으로 언급된 구성 요소 또는 동작은 하나 이상의 다른 구성 요소 또는 동작의 존재 및 추가를 배제하지 않는다.In this specification, the singular shall be construed to include the plural as well, unless the phrase specifically states otherwise, and elements or operations referred to as including (or having) do not exclude the presence and addition of one or more other elements or operations. .

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어 포함)은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs.

또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 별도로 정의되어 있지 않는한 과도하게 또는 이상적으로 해석되지 않는 것으로 한다.In addition, terms defined in general used dictionary shall not be interpreted excessively or ideally unless otherwise defined.

이하, 첨부된 도면을 참고로 본 발명의 바람직한 실시예에 대하여 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예로 터치스크린의 전자 교탁(300)에서 사용자의 음성 명령(200) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 구조를 나타낸 도면이다.1 shows a structure in which an artificial intelligence (AI)-based cloud search or control function can be performed by processing a user's voice command 200 information in an electronic classroom 300 of a touch screen according to an embodiment of the present invention. It is a drawing.

터치 인식이 가능한 패널부(미도시)와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치 인식을 수행하는 센서부(미도시)를 포함하는 전자 교탁(300)은 외부의 소스(100, 200)로부터 터치 입력 신호(100) 또는 음성 명령 신호(200)를 입력받는다.The electronic classroom 300 including a panel unit (not shown) capable of touch recognition and a sensor unit (not shown) that performs touch recognition according to the touch method by determining a touch method when the panel unit is touched is an external source A touch input signal 100 or a voice command signal 200 is received from (100, 200).

이때 입력된 터치 방식에 따라, 터치 센서(310)에서 인식된 터치의 패턴으로 전자 교탁(300) 화면에 표시하고 기타 UI 입력에 따른 응답을 출력한다.At this time, according to the input touch method, a pattern of a touch recognized by the touch sensor 310 is displayed on the screen of the electronic classroom 300 and a response according to other UI input is output.

만약 음성 명령(200) 신호가 입력되는 경우에는 음원을 분리하고 노이즈를 제거하는 어레이 타입의 마이크 모듈(320)에 의해 입력된 아날로그 음성 시그널의 신호를 품질을 향상시킨다. 이때 마이크 어레이(320)는 복수의 마이크를 이용하여 이득(gain) 보상 또는 에코(echo) 제거 기능을 구현하고 왜곡된 상기 음성 신호를 보상하는 음향 모델 기계학습을 수행할 수 있다. 이를 통해 마이크에서 다소 떨어진 원거리에서도 음성 인식이 원활하게 처리될 수 있으며, 전자 교탁에서 다른 오디오 기능(예를 들어 발표자료의 오디오 재생)이 있는 경우라도 상기 음성 인식 기능이 동작되어야 한다.If the voice command 200 signal is input, the quality of the analog voice signal signal input by the array type microphone module 320 that separates the sound source and removes noise is improved. In this case, the microphone array 320 may implement a gain compensation or echo cancellation function using a plurality of microphones and perform acoustic model machine learning for compensating for the distorted voice signal. Through this, voice recognition can be smoothly processed even at a distance from the microphone, and the voice recognition function must be operated even when there is another audio function (eg, audio reproduction of presentation materials) in the electronic classroom.

그런 다음 마이크 어레이(320)로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 음성 인식 엔진(340)에서 텍스트 신호인 디지털 데이터로 변환(Speech to Text)하고, 음성 신호 및 변환된 텍스트 신호는 데이터베이스(360)에 반복하여 저장된다. 이렇게 저장된 데이터들은 자체 스피커를 이용한 음성 인식 엔진(340)과 명령어 해석부(350)를 포함하는 음성 인식 시스템에서 S/W의 지속적인 업그레이드를 위하여 인공지능 기반의 기계학습을 위한 학습 데이터로 활용된다.Then, a voice signal, which is an analog signal from which noise has been removed, is received from the microphone array 320 and converted into digital data, which is a text signal, in the voice recognition engine 340 (Speech to Text), and the voice signal and the converted text signal are converted into a database. It is stored repeatedly at 360. The data stored in this way are used as learning data for machine learning based on artificial intelligence for continuous upgrade of S/W in the voice recognition system including the voice recognition engine 340 and the command interpretation unit 350 using its own speaker.

한편 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스(360)를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부(350)에서는 알고리즘에는 음성 명령 패턴을 분석하는 알고리즘, 패턴에 따른 명령어 제어 프로토콜 매칭 알고리즘, 음성 패턴 어레이 매칭 알고리즘, 이종언어의 동일 의미부여 매칭 패턴 알고리즘 등이 함께 진행될 수 있다. Meanwhile, in the command interpretation unit 350 that receives the converted text signal from the speech recognition engine and interprets it as a command through machine learning using the database 360, the algorithm includes an algorithm for analyzing a voice command pattern, and command control according to the pattern. A protocol matching algorithm, a voice pattern array matching algorithm, and a matching pattern algorithm for granting the same meaning in heterogeneous languages may be performed together.

이렇게 해석된 명령어(command)에 따라 제어부(330)에서는 인터넷 검색과 같은 외부 클라우드 서비스로의 쿼리검색 기능을 수행하거나 또는 내부/외부의 제어기능을 수행할 수 있다.According to the command interpreted in this way, the control unit 330 may perform a query search function to an external cloud service, such as an Internet search, or perform an internal/external control function.

이때 내부/외부 제어기능의 예를 들어보면, 먼저 내부 기능 제어로서 전자 교탁(300)의 전원을 온오프 시키거나 전자 교탁(300)의 볼륨을 조절하거나 화면상 제어 컨트롤(발표 화면 크기조절, 발표 페이지 이동 등) 또는 입력 소스(USB, HDMI 등)의 변환 등 전자 교탁(300) 내부적인 제어 기능을 수행할 수 있다.At this time, taking an example of an internal/external control function, first, as an internal function control, the power of the electronic classroom 300 is turned on or off, the volume of the electronic classroom 300 is adjusted, or an on-screen control control (announcement screen size adjustment, announcement) Page movement, etc.) or an input source (USB, HDMI, etc.) conversion, the electronic classroom 300 can perform an internal control function.

그리고 외부 기능 제어를 예로 들면, 전자 교탁(300)과 유무선으로 연결된 사물 인터넷(IoT) 망에 위치한 주변기기(예를 들어 강의실 램프, 도어락, 다른 전자 교탁 등)를 제어하는 상황이 있을 수 있다. 즉, IoT 관련 릴레이(relay) 및 IR 컨트롤러를 이용하여 주변의 램프 불을 스위치하여 껐다 켰다 할 수 있는 것이다.And, taking the external function control as an example, there may be a situation in which the electronic classroom 300 and peripheral devices (eg, classroom lamps, door locks, other electronic classrooms, etc.) located in the Internet of Things (IoT) network connected by wire or wireless are controlled. That is, by using an IoT-related relay and an IR controller, it is possible to switch the lamp lights around and turn them on and off.

한편 명령어 해석부(350)에서 해석된 명령어는 내부의 명령어 리스트(370)와 비교하여 상기 음성 신호의 패턴을 검색하는 음성 패턴 매칭부(미도시)를 더 포함하며 음성 패턴 매칭부는 최초 슬립 모드(sleep mode)에서 소정의 음성 패턴에 의해 음성 인식 엔진(340)을 웨이크업 모드(wake-up)로 변화시키는 내부 제어 신호를 발생시킨다. 아울러, 웨이크업 모드에서 소정의 시간동안 추가적인 음성 명령 입력이 없을 시에는 다시 슬립 모드로 전환되어 전원과 기타 리소스 소비를 최소화 시킬 수 있다.On the other hand, the command interpreted by the command interpretation unit 350 further includes a voice pattern matching unit (not shown) that searches for the pattern of the voice signal by comparing it with the internal command list 370, and the voice pattern matching unit is in the first sleep mode ( In the sleep mode), an internal control signal for changing the voice recognition engine 340 to a wake-up mode according to a predetermined voice pattern is generated. In addition, when there is no additional voice command input for a predetermined time in the wake-up mode, it is switched back to the sleep mode to minimize power and other resource consumption.

아울러, 본 발명은 클라우드로 연결된 외부기기들에 대하여 데이터 전달 비용을 절감하고 IoT 데이터(입력, 센싱, 모니터링) 수집을 최대화할 수 있는 제어 프로세스의 최적 경로를 제공하고자 한다.In addition, the present invention aims to provide an optimal path for a control process that can reduce data transmission costs for external devices connected to the cloud and maximize IoT data (input, sensing, monitoring) collection.

최적 경로(루트) 추천 알고리즘은 데이터 수집 모듈(data acquisition), 전처리 모듈(system processes), 예측 모듈(prediction), 예측 모델 구성부(learning module) 및 최적화 모듈(optimization module)을 포함하여 구성될 수 있으며, 상기 수집 모듈은 실제 주변기기의 사용데이터인 데이터 셋(input dataset)을 입력 받으며, 상기 전처리 모듈은 상기 입력된 데이터 셋을 전처리 할 수 있다. 또한, 상기 전처리 모듈은 상기 데이터 셋을 훈련 데이터 셋과 테스트 데이터 셋으로 분할하고 상기 예측 모듈은 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하여, 보다 구체적으로 상기 예측 모듈은 상기 테스트 데이터 셋을 예측 알고리즘에 적용하여 예측할 수 있다.The optimal path (root) recommendation algorithm can be configured including data acquisition module (data acquisition), preprocessing module (system processes), prediction module (prediction), predictive model learning module (learning module) and optimization module (optimization module) In addition, the collection module receives an input dataset that is actual usage data of the peripheral device, and the preprocessing module may preprocess the inputted data set. In addition, the preprocessing module divides the data set into a training data set and a test data set, and the prediction module applies the preprocessed data set to a prediction algorithm, more specifically, the prediction module converts the test data set into a prediction algorithm can be predicted by applying

한편, 예측 모델 구성부는 상기 훈련 데이터 셋을 이용해 ANN(Artificial Neural Network)에 머신 러닝하여 상기 예측 모듈을 구성할 수 있으며, 상기 최적화 모듈은 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾을 수 있다. On the other hand, the predictive model configuration unit can configure the prediction module by machine learning in an artificial neural network (ANN) using the training data set, and the optimization module uses the prediction model and constraints according to the objective function to determine the optimal route can be found

전처리 모듈에서는 입력된 데이터 셋을 전처리 하며, 이때 전처리 시에는 널(null) 입력을 제거하고 예측에 필요한 필드를 도출할 수 있으며, 이와 같이 전처리 된 데이터는 예측 모듈에 공급될 수 있다. 따라서, 예측 모듈에서는 다양한 예측 알고리즘 중에서 가장 높은 정확도를 갖는 예측 알고리즘을 데이터에 적용하여 사용량 예측 모델을 계산할 수 있으며, 이때 가장 성능이 좋은 예측 알고리즘이 저장되어 다음 단계에 적용될 수 있다. 그에 따라, 최적화 모듈은 일부 제약 조건과 예측 모델을 사용하고 목적 함수에 따라 가장 적합한 경로(루트)를 찾을 수 있다.The preprocessing module preprocesses the input data set. In this case, null input can be removed and fields necessary for prediction can be derived during preprocessing, and the preprocessed data can be supplied to the prediction module. Therefore, in the prediction module, the usage prediction model can be calculated by applying the prediction algorithm having the highest accuracy among various prediction algorithms to the data, and at this time, the prediction algorithm with the best performance is stored and applied to the next step. Accordingly, the optimization module can use some constraints and predictive models and find the most suitable path (root) according to the objective function.

실제 주변기기의 사용빈도량 및 전력소모량을 기준으로 데이터 셋(data set)을 만들 수 있으며, 목적 함수를 사용해 예측된 모델과 제약 조건을 통해 주변기기의 통신 비용(기기간 거리 및 데이터량)에 따른 cost를 최소화하고 특정 그리드(grid)의 IoT 데이터 수집을 최대화할 수 있다.A data set can be created based on the actual peripheral usage frequency and power consumption, and the cost according to the communication cost of peripheral devices (distance between devices and data amount) can be calculated through the model and constraints predicted using the objective function. Minimize and maximize IoT data collection for a specific grid.

도 2는 기존의 통신사의 전용 스피커(210), 통신망(250), AI서버(230)를 이용하여 클라우드 서비스(240)를 이용하는 상황을 나타낸 도면이다. FIG. 2 is a diagram illustrating a situation in which the cloud service 240 is used using the existing communication company's dedicated speaker 210 , the communication network 250 , and the AI server 230 .

이하 후술할 도 3과 달리 도 2에서는 스마트폰(200), 컴퓨터(220) 외에 인터넷 서비스 공급자(통신사)가 개발하여 제공하는 전용 스피커(210)을 통해 통신사 전용 통신망(250)을 통해 클라우드 서비스(240)를 이용할 수 있다. Unlike FIG. 3, which will be described later, in FIG. 2, in addition to the smartphone 200 and the computer 220, the cloud service ( 240) can be used.

즉, 특정 통신사에 가입하여 통신사 전용 AI 스피커를 사용하여야 하며, 특화된 인공지능 서비스 역시 각 통신사가 개발하여야 하므로, 전자 교탁과 같은 특수 목적용으로 사용하기에는 부적합하다. 아울러 전자 교탁과 같은 특화성이 있는 AI 기능에서는 타 서비스 대비 빈번하고 많은 여러 신호의 요청으로 인해 리소스가 소모되며, 타 통신사 사용시 적용이 불가하다는 한계점도 있다. 그리고 통신사의 AI 서버가 다운되거나 하는 예외 상황에서는 전체 AI 기능을 사용하지 못하게 될 수도 있다. 그리고 외국어 기반의 해외 수출용으로도 단점이 있으며, 타국가 통신 사업자간의 이해관계(언어구현, 통신서비스 방식 등의 차이)로 국제화가 힘들다는 단점이 있다. 이와 비교하여 도 3의 본 발명의 클라우드 서비스 이용방식을 살펴보도록 한다.That is, it is necessary to subscribe to a specific communication company and use the AI speaker dedicated to the communication company, and the specialized artificial intelligence service must also be developed by each communication company, so it is not suitable for use for special purposes such as electronic classrooms. In addition, AI functions with specialized characteristics such as electronic tutoring consume resources due to frequent and many signal requests compared to other services. And in exceptional circumstances, such as when the telecommunication company's AI server goes down, the entire AI function may not be available. Also, foreign language-based export has disadvantages, and internationalization is difficult due to the interests (differences in language implementation, communication service methods, etc.) between telecommunication operators in other countries. In comparison with this, the cloud service usage method of the present invention of FIG. 3 will be described.

도 3은 본 발명의 일 실시예로 통신사와 무관하게 자체 개별 스피커(310)를 이용하여 클라우드 서비스(330)를 이용하는 상황을 나타낸 도면이다. 3 is a diagram illustrating a situation in which the cloud service 330 is used by using its own individual speaker 310 regardless of a communication company according to an embodiment of the present invention.

도 3에서는 스마트폰(300), 컴퓨터(320) 외에 인터넷 서비스 공급자(통신사)가 개발하여 제공하는 전용 스피커(210)가 없고, 통신사 전용 통신망(250)도 아닌 통신사와 무관한 인터넷 통신망(340)을 이용하는 상황을 가정하고 있다. 아울러 음성 인식 엔진이 구비된 개별 스피커(310)를 이용하여 직접 클라우드 서비스(240)를 이용할 수 있다. 즉, 특정 통신사에 가입하여 통신사 전용 AI 스피커를 사용할 필요가 없으며, 특화된 인공지능 서비스 역시 각 통신사가 개발하지 않아도 되므로 개별 기업이 전용성으로 맞춤형 AI 제작하는 것이 가능하다. 따라서 전자 교탁과 같은 특수 목적용으로 사용하기에 적합하다. 아울러 전자 교탁과 같은 특화성이 있는 AI 기능에서는 타 서비스 대비 빈번하고 많은 신호 요청이 있으므로 이를 처리하는 전용 S/W를 설치함으로써 보다 적은 리소스를 소비할 수 있다. 타 통신사 사용시 적용이 불가하다는 한계점도 없으므로 통신사 여부를 신경쓰지 않아도 되며, 통신사의 AI 서버가 다운되거나 하는 예외 상황도 고려할 필요가 없어지게 된다. In FIG. 3 , there is no dedicated speaker 210 developed and provided by an Internet service provider (communication company) in addition to the smartphone 300 and the computer 320 , and an Internet communication network 340 independent of the communication company that is not the communication company dedicated communication network 250 . We assume the situation of using . In addition, the cloud service 240 can be directly used by using the individual speaker 310 equipped with the voice recognition engine. In other words, there is no need to subscribe to a specific telecommunication company and use an AI speaker dedicated to the telecommunication company. Therefore, it is suitable for use for special purposes such as electronic teaching tables. In addition, specialized AI functions such as electronic classrooms can consume fewer resources by installing dedicated S/W to handle frequent and many signal requests compared to other services. Since there is no limitation that it cannot be applied when using other carriers, there is no need to worry about whether the carrier is a carrier or not, and there is no need to consider exceptions such as a downfall of the telecommunication company's AI server.

그리고 한국어가 아닌 외국어 기반의 해외 수출용으로도 사용하기에도 필요에 따라 수출 국가별 맞춤 서비스로 개발할 수 있고 전자 교탁 전용 AI 특화 기능으로 개발, 유지, 보수가 가능하여 타 국가의 AI와 호환이 가능해진다. In addition, even if it is used for overseas export based on a foreign language other than Korean, it can be developed as a customized service for each exporting country as needed. .

도 3과 같이 클라우드 서비스(330)를 이용할때 제어부는 명령어 해석부에서 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS(Software as a Service) 기반의 클라우드 데이터를 쿼리(query) 검색하여 전자 교탁의 화면에 해당 컨텐츠를 표시해 줄 수 있다.As shown in FIG. 3 , when using the cloud service 330 , the control unit connects communication to an external cloud server according to the command interpreted by the command interpretation unit, and searches for SaaS (Software as a Service)-based cloud data by querying. The corresponding content can be displayed on the screen of the electronic classroom.

한편, 전자 교탁이 연결되는 클라우드 플랫폼에서는 다양한 형태의 서비스 제공이 가능하며, 이 가운데 스토리지 기반의 클라우드 서비스가 가장 널리 사용되는 서비스 유형이며 현재 많은 클라우드 스토리지 환경에서는 클라우드 환경의 특성상 대용량의 스토리지 서버관리를 위해 기존 데이터와 동일한 데이터는 저장하지 않는 중복제거 기능을 적용하고 있는데, 중복제거 기술을 사용하면 구조적으로 프라이버시 문제를 안게 된다. On the other hand, various types of services can be provided on the cloud platform to which the electronic classroom is connected. Among them, the storage-based cloud service is the most widely used service type. For this purpose, a deduplication function is applied that does not store the same data as the existing data. However, if the deduplication technology is used, there is a structural privacy problem.

즉, 중복제거 기술이 적용되려면, 사용자와 파일의 매핑구조를 메타정보로 저장하게 되며, 이 과정에서 서버상의 메타 분석을 통하여 특정 파일을 업로드한 사용자의 리스트를 확보할 수 있기 때문이다. That is, in order to apply the deduplication technology, the mapping structure between users and files is stored as meta information, and in this process, a list of users who uploaded a specific file can be secured through meta-analysis on the server.

또한, 빅데이터 기술이 발달되면서 특정 개인이나 장치의 민감정보를 추적하는 기술도 중요해지고 있다. 개인이나 장치의 특정한 민감 정보는 GPS 좌표(위도/경도)로 표시되는 위치 정보, 연설이나 발표에 사용되는 발표자료의 저작권 등의 지식재산권 정보, 기타 화자를 특정할 수 있는 사적인 개인 정보 등을 활용하는 어플리케이션의 경우 이러한 어플리케이션이 클라우드에 접속해 다양한 민감정보 데이터를 송수신하고 다양한 민감정보 출력값을 지속적으로 보관하는 경우 심각한 프라이버시 침해 문제가 발생할 수 있다.In addition, with the development of big data technology, the technology for tracking sensitive information of a specific individual or device is also becoming important. Specific sensitive information of individuals or devices uses location information expressed in GPS coordinates (latitude/longitude), intellectual property rights information such as copyright of presentation materials used for speeches or presentations, and other private personal information that can identify the speaker. In the case of applications that do this, if these applications access the cloud, send and receive various sensitive information data, and continuously store various sensitive information output values, serious privacy violations may occur.

이러한 여러 경우에 사용할 수 있는 보안 기법으로서 K-익명성 모델 및 데이터 교란화를 이용하여 해쉬함수값인 Q값은 수학식 1에 의하여 산출될 수 있다. K-익명화를 위해 미리 설정된 k값(ex. k=3)을 기초로 시간 정보에 대한 HMAC 값인 Q값들을 산출할 수 있다.As a security technique that can be used in such a number of cases, a hash function value of Q can be calculated by Equation 1 using the K-anonymity model and data perturbation. For K-anonymization, Q values that are HMAC values for time information may be calculated based on a preset k value (eg, k=3).

<수학식 1><Equation 1>

Figure 112021102170413-pat00002
Figure 112021102170413-pat00002

(HMAC는 해시 기반 메시지 인증 코드 Hash-based Message Authentication Code 알고리즘이며, TS는 시간 정보의 타임스탬프 정보이며, K_CNT는 k값이 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보이다)(HMAC is a Hash-based Message Authentication Code algorithm, TS is the timestamp information of time information, K_CNT is the count number based on the k value, and PK is the previously shared secret key information)

K-익명성은 데이터 비식별화의 프라이버시 보호 모델 중 하나로 특정 단일 데이터만 저장할 경우 개인의 식별 가능성의 위험이 있으므로 데이터 저장시 k값 이상의 데이터를 동시에 저장하여 식별 가능성을 낮추는 방식이다. 예를 들어, k가 3이라면 IoT 데이터 1개를 저장할 때 동시에 3 개의 데이터를 저장한다. 이 때, 한 개의 데이터는 실제 데이터이고 나머지 두 개의 데이터는 가상의 모조 데이터가 된다. 이때 인가된 관리자 등에 사전 공유된 비밀키에 해당하는 PK를 알고 있어야 어느 것이 진짜 데이터인지 파악할 수 있게 된다.K-anonymity is one of the privacy protection models of data de-identification, and since there is a risk of individual identification when only specific single data is stored, it is a method of lowering the possibility of identification by simultaneously storing data with a value of k or more when storing data. For example, if k is 3, when saving 1 IoT data, 3 data are stored at the same time. At this time, one piece of data is real data, and the other two pieces of data are virtual fake data. At this time, you need to know the PK corresponding to the pre-shared secret key, such as an authorized administrator, so that you can determine which one is the real data.

TS는 타임스탬프(Time Stamp)를 의미하며 위에서 언급한 바와 같이 미리 설정된 주기로 데이터가 입력되는 경우 데이터가 입력되는 특정 시각을 의미하거나 IoT 데이터가 발생한 시간을 의미한다. K_CNT는 미리 설정된 k값에 따라서 카운트되는 숫자에 해당하며 예를 들어, k가 3인 경우 K_CNT 값은 1, 2, 3 값을 가지게 된다. 이때, K_CNT 값이 1일 경우 원본 데이터이고, 2나 3일 경우에는 가짜(모조) 데이터로 취급할 수 있다.TS means a time stamp, and as mentioned above, when data is input at a preset period, it means a specific time at which data is input or the time at which IoT data is generated. K_CNT corresponds to a number counted according to a preset value of k. For example, when k is 3, the value of K_CNT has values of 1, 2, and 3. In this case, when the K_CNT value is 1, it is original data, and when it is 2 or 3, it can be treated as fake (imitation) data.

상기 수학식 1에서와 같이 PK 정보를 기초로 특정 타임스탬프(TS) 정보를 HMAC 알고리즘을 이용하여 문자형 데이터의 Q값으로 변환시킴과 동시에 k개의 K_CNT 값에 해당하는 출력값을 모두 계산하여 k개의 Q값을 산출할 수 있다. 이러한 방식으로 저장되는 데이터베이스에는 시간 정보는 포함되지 않으며, k개의 Q값들만이 저장된다. 따라서, 데이터베이스가 해킹이 되는 경우에도 시간 정보는 노출되지 않고, Q값 정보들이 해킹된다고 하더라도 비밀키(PK) 정보를 모르는 경우 어떤 값들이 원본 데이터인지 알 수가 없어 원본 데이터에 대한 해킹이 실질적으로 불가능하게 된다.As in Equation 1 above, specific timestamp (TS) information is converted into Q values of character data using the HMAC algorithm based on PK information, and at the same time, all output values corresponding to k K_CNT values are calculated and k number of Q value can be calculated. Time information is not included in the database stored in this way, and only k Q values are stored. Therefore, even if the database is hacked, the time information is not exposed, and even if the Q-value information is hacked, if the secret key (PK) information is not known, it is impossible to know which values are the original data, so it is practically impossible to hack the original data. will do

도 4는 본 발명의 일 실시예로 전자 교탁에서 사용자의 터치입력 또는 음성 입력(400, 410) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색(450) 또는 제어 기능(480, 490)을 수행하는 플로우 차트를 나타낸 도면이다.4 is an artificial intelligence (AI)-based cloud search 450 or control function 480, 490 by processing the user's touch input or voice input (400, 410) information in the electronic classroom as an embodiment of the present invention. It is a diagram showing a flow chart to perform.

도 4를 참조하면, 먼저 터치입력 또는 음성입력의 입력(400)이 있을 이를 판단하여(410), 음성 신호의 입력일 때는 전자 교탁 내부에 구비된 음성 인식 엔진이 아날로그 신호인 음성 신호를 디지털 신호인 텍스트 신호로 변환(speech to text)한다(420).Referring to FIG. 4, first, it is determined whether there is an input 400 of a touch input or a voice input (410), and when a voice signal is input, the voice recognition engine provided in the electronic classroom converts the voice signal, which is an analog signal, to a digital signal. Converts to a text signal (speech to text) (420).

그런 다음 변환된 텍스트 데이터를 해석함에 있어서(430) 기계학습을 통해 기존의 해석했던 데이터, 기존의 분류했던 음성 신호 등을 데이터베이스에서 불러와 반복 비교함으로써 시간이 지나고 처리하는 데이터양이 많아질수록 보다 정교한 해석이 가능해진다. 이렇게 인공지능 기반의 학습 및 해석을 이용하여 음성 인식률을 90% 이상으로 높일 수 있으며, 음성 인식에 따른 동작을 기능구현 할 수 있다.Then, in interpreting the converted text data (430), the previously analyzed data and the previously classified voice signal through machine learning are called from the database and compared repeatedly, so that as time passes and the amount of data to be processed increases, more Sophisticated interpretation is possible. In this way, by using AI-based learning and interpretation, the speech recognition rate can be increased to more than 90%, and the operation according to the speech recognition can be implemented.

다음으로 해석된 명령어(command)가 클라우드 서비스를 이용하는 인터넷 검색과 같은 요청인지 아니면 기기를 제어하는 요청인지를 판단하여(440), 인터넷 검색의 요청의 경우에는(450) 해당 검색 결과인 컨텐츠 화면을 전자 교탁에 표시할 수 있다(460).Next, it is determined whether the interpreted command is a request such as an Internet search using a cloud service or a request to control a device (440), and in the case of an Internet search request (450), the content screen corresponding to the search result is displayed (450). The electronic classroom may be marked (460).

또는 기기를 제어하는 요청인 경우에는(470) 전자 교탁의 내부 기능(전원, 볼륨, 화면, 소스 등)을 제어하는 명령인지 아니면 유무선으로 연결된 외부 기기의 제어기능(강의실 램프, 커튼, 도어락, 다른 전자 교탁 등)을 수행하고자 하는 명령인지에 따라 외부기기를 제어하거나(480) 전자 교탁의 내부기능을 실행한다(490).Or, in the case of a request to control a device (470), is it a command to control the internal functions (power, volume, screen, source, etc.) of the electronic classroom or control functions of external devices connected by wire or wireless (classroom lamps, curtains, door locks, etc.) The external device is controlled (480) or an internal function of the electronic classroom is executed (490) depending on whether the command is to be performed (e.g., electronic classroom, etc.).

한편, 전자 교탁이 음성 신호를 발화한 사용자를 인증하는 방법으로 아래와 같은 단계를 거칠 수 있다.On the other hand, as a method for the electronic classroom to authenticate the user who has uttered the voice signal, the following steps may be performed.

먼저, 사용자의 로그인 환경정보를 추출한다. 사용자의 로그인 환경정보는 사용자가 인터넷 사이트 로그인 시 IP 대역과 사용자 에이전트(User-Agent)가 될 수 있다. 다음으로, 추출된 로그인 환경정보를 One-Hot-Encoding 방식으로 변환하여 변환정보를 생성하여 환경정보 별로 고유한 값들에 1부터 번호를 부여하여 라벨 인코딩(Label Encoding)한다.First, the user's login environment information is extracted. The user's login environment information may be an IP band and a user-agent when the user logs in to an Internet site. Next, the extracted log-in environment information is converted into a One-Hot-Encoding method to generate conversion information, and a number is assigned to unique values for each environment information from 1 to label encoding.

다음으로, 변환 정보를 SVM(Support Vector Machine)을 이용하여 2-클래스 사용자 모델을 생성한다. SVM(Support Vector Machine)은 기계 학습 알고리즘 중 하나로 패턴 인식에 주로 사용된다.Next, a two-class user model is generated using the conversion information using a support vector machine (SVM). SVM (Support Vector Machine) is one of the machine learning algorithms and is mainly used for pattern recognition.

SVM(Support Vector Machine)은 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 상기 사용자 인증 방법에서는 시스템 전체 사용자의 변환 정보를 SVM을 이용하여 2-클래스 사용자 모델을 생성하고, 사용자가 로그인 시 2-클래스 사용자 모델을 적용하여 사용자가 본인지 여부를 판단한다. 따라서, 부정 사용자가 원 소유자의 아이디와 비밀번호를 도용하여 전자 교탁에 연결된 IoT 주변기기 또는 전자 교탁을 통한 인터넷 사이트를 로그인 할 경우에 적발하여 접속 거부할 수 있어 보안을 향상시킬 수 있다.SVM (Support Vector Machine) creates a non-stochastic binary linear classification model that determines which category the new data belongs to based on the given data set when a set of data belonging to one of two categories is given. In the user authentication method, a two-class user model is generated using SVM based on conversion information of the entire system user, and when a user logs in, the two-class user model is applied to determine whether the user is the user. Therefore, when an illegal user steals the ID and password of the original owner to log in to an IoT peripheral device connected to the electronic classroom or to an Internet site through the electronic classroom, it is possible to detect and deny access, thereby improving security.

도 5는 본 발명의 일 실시예에 따라 전자 교탁에서 딥러닝 기반의 보정적기 판단 프로세스를 수행하는 중에 페이크 영상 및 음성 데이터를 제작하기 위한 신경망 모델의 블록도이다.5 is a block diagram of a neural network model for producing fake image and voice data while performing a deep learning-based corrective timing determination process in an electronic classroom according to an embodiment of the present invention.

영상 신호와 음성 신호를 입력받은 전자 기기에서 인공지능 기반으로 출력신호 특히 음성과 같은 오디오 신호의 보정적기를 판단하고 더 나아가 예측하기 위한 신경망 학습을 위해서는 많은 양의 데이터가 필요하다.A large amount of data is required for neural network learning to determine and further predict the corrective timing of output signals, especially audio signals, such as voice, based on artificial intelligence from electronic devices that have received video and audio signals.

따라서, 본 발명의 일 실시예에서는 영상 카메라와 음성 인식 센서가 포함된 전자 교탁으로서 인공지능 모델로 신경망 모델을 사용하되, 신경망 학습을 위해 부족한 영상 데이터를 미리 제작된 페이크(fake) 영상 및 음성 데이터로 대체하고, 비지도 학습 신경망 모델인 GAN(Generative Adversarial Nets) 모델을 신경망 학습에 적용하여 음성신호의 보정적기의 판단 및 예측에 대한 정확도를 높이고자 한다.Therefore, in an embodiment of the present invention, a neural network model is used as an artificial intelligence model as an electronic classroom including an image camera and a voice recognition sensor, but image data insufficient for neural network learning is pre-fabricated as fake image and voice data , and apply the Generative Adversarial Nets (GAN) model, an unsupervised learning neural network model, to neural network learning to increase the accuracy of judgment and prediction of the corrective timing of speech signals.

즉, 인공지능 신경망 모델을 사용하되, 신경망 학습에 있어서 부족한 데이터를 사전 제작된 페이크 영상데이터 및 페이크 음성 소리데이터로 대체하고, 비지도 학습 신경망 모델의 GAN을 학습에 적용하여 딥러닝 학습데이터 기준에서 소정의 수치 범위를 벗어나는 분석값으로 판단될 때 상기 화자의 음성에서 이상상황이 발생한 시점으로 판단할 수 있는 것이다.That is, an artificial intelligence neural network model is used, but the data lacking in neural network learning is replaced with pre-made fake image data and fake voice sound data, and the GAN of the unsupervised learning neural network model is applied to the learning in the deep learning data standard. When it is determined that the analysis value is out of a predetermined numerical range, it can be determined as the time when an abnormal situation occurs in the speaker's voice.

보다 구체적으로 설명하면, 음성의 보정적기의 예측 및 판단에 대한 정확도를 높이고자 VAE(Variational Auto Encoder)의 장점과 GAN 모델의 특징을 이용하는데, 이를 위하여 모델의 평가 기준이 명확한 VAE를 앞단에 배치하고, 비교 기준이 명확하지 않아서 결과를 시각화해서 판단하는 경우가 많은 GAN을 뒷단에 배치하여 정확도가 높은 신경망 모델을 사용할 수 있도록 한다.More specifically, in order to increase the accuracy of the prediction and judgment of the corrective timing of speech, the advantages of the Variational Auto Encoder (VAE) and the characteristics of the GAN model are used. In addition, the GAN, which is often judged by visualizing the results because the comparison criteria are not clear, is placed at the rear so that a high-accuracy neural network model can be used.

도 5를 참조하면, 페이크 영상/음성 데이터를 제작하기 위한 신경망 모델은 크게 필터부(510), VAE부(520), CNN부(530) 및 GAN부(540)를 포함할 수 있으며, 입력(input)으로는 기존에 확보된 화자의 움직임 영상 데이터 및 음성 데이터를 사용할 수 있다. 입력된 데이터는 필터부(510)를 통해 노이즈 제거 등의 전처리 과정이 진행되어 각종 왜곡이 보정될 수 있고, Data Augmentation(Crop, Rotate, Flip, Translate, Resize, 등) 기법을 사용할 수 있다. Referring to FIG. 5 , a neural network model for producing fake image/voice data may largely include a filter unit 510 , a VAE unit 520 , a CNN unit 530 , and a GAN unit 540 , and input ( As input), the previously secured speaker's motion image data and audio data may be used. The input data is subjected to a pre-processing process such as noise removal through the filter unit 510 so that various distortions can be corrected, and a data augmentation (Crop, Rotate, Flip, Translate, Resize, etc.) technique can be used.

왜곡이 보정된 영상/음성 데이터 또는 Augmentation 기법으로 생성된 데이터는 다중 입력으로 이루어진 VAE부(520)로 입력되어 엔코더(Encoder, 521), Latent Space(523) 및 디코더(Decoder, 525)에서의 처리를 거침으로써 복수 개의 잠재적 특징 벡터(Latent Feature Vector) 데이터를 출력할 수 있다.The distortion-corrected image/audio data or data generated by the augmentation technique is input to the VAE unit 520 composed of multiple inputs, and is processed by the encoder (Encoder, 521), the latent space (523) and the decoder (Decoder, 525). By passing through , a plurality of latent feature vector data may be output.

여기서 Augmentation(데이터 변조) 기법은 인공지능으로 음성의 보정적기의 예측 및 판단의 정확도를 높이는 방법으로 다양한 전처리 기법, 적절한 학습모델 선택, 적절한 신경망 선택, 다양한 앙상블 모델 등의 예를 들어 볼 수 있다. Here, the Augmentation (data modulation) technique is a method of increasing the accuracy of prediction and judgment of the corrective timing of speech with artificial intelligence. Examples of various preprocessing techniques, selection of appropriate learning models, selection of appropriate neural networks, and various ensemble models can be seen.

본 발명에서는 인공지능 모델 학습에 필요한 데이터 부족 현상을 해결하기 위함이고, 화자의 움직임 특히 마이크와의 거리 및 위치를 충분히 관찰하고 촬영하여 충분한 데이터가 확보된 경우는 전처리 단계에서 확보된 데이터를 사용하거나, 더욱 높은 정확도를 위한 학습을 위해 다른 알고리즘 방법을 혼용하여 사용할 수 있다. In the present invention, to solve the data shortage phenomenon necessary for learning the AI model, when sufficient data is obtained by sufficiently observing and photographing the movement of the speaker, particularly the distance and position from the microphone, the data obtained in the pre-processing step is used or , other algorithm methods can be mixed to learn for higher accuracy.

복수 개의 잠재적 특징 벡터 데이터는 CNN부(530)를 통과하여 신경망 GAN 모델의 P(x)(541)의 입력 데이터로 사용되고, G(x)(543)의 입력 데이터로는 랜덤 벡터 데이터를 사용할 수 있다. A plurality of potential feature vector data passes through the CNN unit 530 and is used as input data of P(x) 541 of the neural network GAN model, and random vector data can be used as input data of G(x) 543. have.

GAN부(540)의 D(x)(545)에서는 P(x)(541)와 G(x)(543) 간의 상호 차를 통해 로스(Loss) 함수를 구하고, 구해진 로스 함수를 이용하여 백프로퍼게이션 (Backpropagation) 방법을 통해 페이크 영상/음성 데이터와 실제(Real) 영상/음성 데이터를 보정하게 된다. In the D(x) 545 of the GAN unit 540, a loss function is obtained through the mutual difference between the P(x) 541 and the G(x) 543, and a backproper using the obtained loss function The fake image/audio data and the real image/audio data are corrected through the backpropagation method.

이러한 과정을 반복하여 더욱 정밀한 예측이 가능하고, D(x)(545)의 출력 데이터는 최종 학습용 또는 모델 검증용으로도 사용할 수 있다.By repeating this process, more precise prediction is possible, and the output data of D(x) 545 can be used for final training or model validation.

이때, CNN부(530)는 다중의 신경망 층을 구성할 수 있으며, 층 내부에는 지도 학습, 비지도 학습이나 준지도 학습의 다른 신경망을 구성하여 다양한 학습 데이터를 구성할 수도 있다.In this case, the CNN unit 530 may configure multiple neural network layers, and other neural networks of supervised learning, unsupervised learning, or semi-supervised learning may be configured in the layer to configure various learning data.

도 6은 본 발명의 일 실시예로 AI 기반의 제어 기능 등의 메뉴 구성을 포함한 UI 화면이 표시된 전자 교탁을 나타낸 도면이다. 6 is a diagram illustrating an electronic classroom in which a UI screen including a menu configuration such as an AI-based control function is displayed according to an embodiment of the present invention.

전자 교탁의 화면상에 File(610), E-board(620), Internet(630) 등의 기본적인 메뉴와 보다 다양한 어플리케이션 메뉴(640)가 디스플레이 되어 있으며, 사용자는 이러한 UI의 터치 입력, 모션 입력 또는 음성 입력을 통해 전자 교탁의 내부적인 제어 동작 뿐만 아니라 주변에 연결된 다른 디바이스들(강의실 실내 조명, 실내 에어컨, 강의실 빔프로젝터, 창문의 커튼, 출입문 도어락 등)를 제어할 수도 있다. Basic menus such as File (610), E-board (620), Internet (630) and more various application menus (640) are displayed on the screen of the electronic classroom, and the user can use such UI touch input, motion input or Through voice input, it is possible to control not only the internal control operation of the electronic classroom, but also other peripherally connected devices (classroom lighting, indoor air conditioner, classroom beam projector, window curtains, door locks, etc.).

도 7은 본 발명의 일 실시예에 따라 영상 카메라 및 음성 센서를 활용한 음성의 이상여부 및 보정 적기의 판단 프로세스를 적용한 예시를 나타내는 플로우 차트이다.7 is a flowchart illustrating an example of applying a process for determining whether a voice is abnormal and correcting timing using a video camera and an audio sensor according to an embodiment of the present invention.

도 7을 참조하여 각 단계를 세부적으로 설명하면 다음과 같다.Each step will be described in detail with reference to FIG. 7 as follows.

먼저, 준비 단계로서 앞서 설명한 바와 같이 영상 이미지 및 음성 신호를 기반으로 오디오의 보정적기를 판단하고 예측하기 위한 신경망 학습을 위해서는 많은 양의 영상 데이터가 필요하므로 인공지능 모델로서 신경망 모델을 사용하되, 신경망 학습을 위해 부족한 영상 데이터를 미리 제작된 페이크(fake) 영상 및 음성 데이터로 대체하고, 비지도 학습 신경망 모델인 GAN(Generative Adversarial Nets) 모델을 신경망 학습에 적용하여 음성신호의 보정적기의 판단 및 예측에 대한 정확도를 높일 수 있다. First, as a preparation step, as described above, a neural network model is used as an artificial intelligence model because a large amount of image data is required for neural network learning to determine and predict the correct timing of audio based on video images and audio signals. Decision and prediction of corrective timing of voice signals by replacing insufficient image data for learning with pre-made fake image and audio data, and applying Generative Adversarial Nets (GAN) model, an unsupervised learning neural network model, to neural network learning can increase the accuracy of

즉, 인공지능 신경망 모델을 사용하되, 신경망 학습에 있어서 부족한 데이터를 사전 제작된 페이크 영상데이터 및 페이크 음성 소리데이터로 대체하고, 비지도 학습 신경망 모델의 GAN을 학습에 적용하여 딥러닝 학습데이터 기준에서 소정의 수치 범위를 벗어나는 분석값으로 판단될 때 상기 화자의 음성에서 이상상황이 발생한 시점으로 판단하고 즉각적인 음성 보정을 적용할 수 있는 것이다.That is, an artificial intelligence neural network model is used, but the data lacking in neural network learning is replaced with pre-made fake image data and fake voice sound data, and the GAN of the unsupervised learning neural network model is applied to the learning in the deep learning data standard. When it is determined that the analysis value is out of a predetermined numerical range, it is determined that an abnormal situation occurs in the speaker's voice, and immediate voice correction can be applied.

다음으로 전자교탁에 설치된 영상 카메라를 활용하여 단위 시간별로 계속하여 화자의 마이크와의 거리, 위치, 움직임 자세 등의 위치/자세 변화를 측정하여 데이터를 취득한다. Next, by using the video camera installed in the electronic classroom, data is acquired by measuring the position/posture changes such as the distance to the speaker's microphone, position, and movement posture continuously for each unit time.

다음은 데이터 전처리 단계로서, 거리 영상 및 음성 신호를 분할하는 알고리즘을 통해 데이터의 노이즈를 제거하는 데이터 전처리 동작을 수행하고, 그런 다음 이렇게 취득한 영상 또는 음성 소리 데이터를 딥러닝 알고리즘으로 학습하여 반복적인 움직임과 소리로서 보정시기를 판단하는 모델을 형성함으로써 관찰하는 강연자, 화자의 음성 이상상황을 탐지하는 단계를 거쳐서, 딥러닝 학습데이터의 기준에서 일정범위의 수치를 벗어나는 분석값으로 판단될 때 보정 적기로 판단하고, 이에 따라 이상상황 탐지 모듈에서 화자 음성의 이상시점으로 판단되면, 이러한 음성의 보정적기를 계산하는 단계를 거쳐 최종결과값을 도출하고, 화자의 음성 이상상황 탐지결과 및 보정적기 계산결과를 기록한다.The next step is data pre-processing. Data pre-processing is performed to remove noise from data through an algorithm that divides distance images and audio signals, and then, the acquired image or audio and sound data is learned with a deep learning algorithm to perform repetitive movements. By forming a model for judging the correction timing as a sound and a sound, it goes through the steps of detecting abnormal situations in the observer’s and speaker’s voice. If the abnormality detection module determines that it is an abnormal timing of the speaker's voice, the final result value is derived through the step of calculating the corrective time of the voice, and the speaker's voice abnormality detection result and the corrective timing calculation result are calculated. record

한편, 이렇게 계산된 보정시점의 결과값은 추후에 유사한 이상상황과 비교하여 해당 오차데이터를 보정 시점 판단 소프트웨어에 피드백함으로써 이러한 오차의 정도가 점진적으로 보정되며 시간이 지날수록 판단의 정확도가 더욱 높아질 수 있다.On the other hand, the result of the correction time calculated in this way is compared with a similar abnormal situation later, and the error data is fed back to the correction timing judgment software. have.

도 8은 본 발명의 일 실시예에 따라 살균 기능을 포함하는 덮개가 있는 전자교탁을 나타낸 개략적인 사시도 도면이며, 도 9는 상기 도 8의 살균 전자교탁의 내부를 개략적으로 나타내며, 특히 살균부의 측면의 단면도를 투시하여 나타낸 도면이다.8 is a schematic perspective view showing an electronic classroom with a cover including a sterilization function according to an embodiment of the present invention, and FIG. 9 schematically shows the inside of the sterilization electronic classroom of FIG. It is a view showing through a sectional view of the .

도 8 및 도 9를 참고하면, 본 실시예에 따른 살균기능을 포함한 전자교탁(1)은 본체(10), 덮개(20), 살균부(30a) 및 제어부(40)를 포함하며 전자교탁에서 사용자의 손과 비말이 닿기 쉬운 부분을 살균하여 각종 바이러스로부터 사용자를 보호할 수 있다.8 and 9, the electronic classroom 1 including a sterilization function according to the present embodiment includes a main body 10, a cover 20, a sterilization unit 30a, and a control unit 40, and It is possible to protect the user from various viruses by sterilizing the user's hand and the part that is easily touched by splashes.

본체(10)는 살균 전자교탁(1)의 외형을 형성하며 상면에는 터치디스플레이(11)가 배치되어 있고, 본체(10)의 내부에는 사무기기, 컴퓨터 본체 등이 위치하는 보관공간(도시하지 않음)이 형성되어 있으며, 컴퓨터 본체는 터치디스플레이(11)와 연결되어 있다.The main body 10 forms the appearance of the sterilization electronic classroom 1, and the touch display 11 is disposed on the upper surface, and the storage space (not shown) in which the office equipment, the computer main body, etc. are located inside the main body 10 ) is formed, and the computer body is connected to the touch display 11 .

그리고 본체(10)의 내부에는 사용자 방향으로 개방되는 서랍(13)이 위치하는 수납공간(12)이 형성되어 있다. 서랍(13)에는 컴퓨터 본체와 연결된 키보드, 마우스 따위가 배치될 수 있다.In addition, a storage space 12 in which a drawer 13 that is opened toward a user is located is formed inside the main body 10 . A keyboard, a mouse, etc. connected to the computer body may be disposed in the drawer 13 .

덮개(20)는 본체(10)의 상면에 직선 이동할 수 있게 배치되어 있다. 덮개(20)는 본체(10)의 상면을 덮고 있는 상태에서 하면이 터치디스플레이(11)와 마주하고 있으며 충격, 오염물 등의 외부요건으로부터 보호한다. 하지만, 덮개(20)는 직선 이동으로 덮개(20)의 상면에서 벗어나 터치디스플레이(11)를 노출시킬 수 있다. 이때 사용자는 터치디스플레이(11)를 사용할 수 있다.The cover 20 is disposed on the upper surface of the main body 10 to be linearly movable. The cover 20 faces the touch display 11 while covering the upper surface of the main body 10, and protects it from external requirements such as impact and contamination. However, the cover 20 may deviate from the upper surface of the cover 20 by linear movement to expose the touch display 11 . In this case, the user may use the touch display 11 .

이와 같은 살균 전자교탁의 본체(10) 및 덮개(20)의 세부적인 구성은 본 출원인이 기 출원하여 공지된 전자교탁시스템(특허등록 제10-1047040호), 듀얼 모니터 기반의 전자교탁(특허등록 제10-1304520호), 전자교탁시스템(특허등록 제 10-1094193호)의 구성이 적용될 수 있다.The detailed configuration of the main body 10 and the cover 20 of the sterilization electronic classroom is described by the applicant of the known electronic classroom system (Patent Registration No. 10-1047040) and the dual monitor-based electronic classroom (patent registration). No. 10-1304520), the configuration of the electronic tutoring system (Patent Registration No. 10-1094193) can be applied.

살균부(30a)는 덮개(20)의 하면(일면)에 배치되어 있다. 살균부(30a)는 덮개(20)가 본체(10)의 상면을 덮고 있는 상태에서 터치디스플레이(11)와 마주한다. 살균부(30a)는 100㎚ 내지 280㎚ 단파장의 자외선을 조사할 수 있는 유브이 엘이디(UV LED)를 포함한다.The sterilizing part 30a is disposed on the lower surface (one surface) of the cover 20 . The sterilization unit 30a faces the touch display 11 in a state in which the cover 20 covers the upper surface of the main body 10 . The sterilization unit 30a includes a UV LED capable of irradiating ultraviolet rays with a short wavelength of 100 nm to 280 nm.

살균부(30a)의 유브이 엘이디는 덮개(20)의 하면에 간격을 두고 복수 배치되어 있다. 도면을 참고하면 덮개(20)가 터치디스플레이(11)를 덮고 있는 상태에서 유브이 엘이디들은 터치디스플레이(11)와 35 내지 45mm 이격(L1)되어 있다. 유브이 엘이디들은 터치디스플레이(11)로 110 내지 130°각도(D)로 자외선을 조사할 수 있다. 그리고 이웃한 유브이 엘이디들의 간격(L2)은 60 내지 80mm일 수 있다. 이웃한 유브이 엘이디들의 간격은 69.2mm일 수 있으며 자외선 조사 각도는 120°일 수 있다. 이에 살균부(30a)는 터치디스플레이(11)의 표면에 전체적으로 자외선을 조사할 수 있다.A plurality of UV LEDs of the sterilization unit 30a are arranged at intervals on the lower surface of the cover 20 . Referring to the drawings, in a state in which the cover 20 covers the touch display 11, the UV LEDs are spaced apart from the touch display 11 by 35 to 45 mm (L1). UV LEDs may irradiate ultraviolet rays at an angle (D) of 110 to 130° to the touch display 11 . And the interval L2 between the adjacent UV LEDs may be 60 to 80 mm. The interval between adjacent UV LEDs may be 69.2 mm, and the UV irradiation angle may be 120°. Accordingly, the sterilization unit 30a may irradiate the entire surface of the touch display 11 with ultraviolet rays.

살균부(30a)에서 발생한 자외선은 터치디스플레이(11)에 조사되어 터치디스플레이(11)의 표면을 살균한다. 이에 터치디스플레이(11)는 잔류성 물질 없이 99% 이상 바이러스(세균)을 제거할 수 있다.The ultraviolet rays generated by the sterilization unit 30a are irradiated to the touch display 11 to sterilize the surface of the touch display 11 . Accordingly, the touch display 11 can remove 99% or more of viruses (bacteria) without residual substances.

살균부(30a)를 유브이 엘이디로 설명하였으나, 살균부(30a)는 자외선이 발생하는 유브이 램프 따위로 형성될 수도 있다.Although the sterilization unit 30a has been described as a UV LED, the sterilization unit 30a may be formed of a UV lamp that generates ultraviolet rays.

한편, 수납공간(12)에는 서브살균부(30b)가 배치되어 있다. 서브살균부(30b)는 살균부(30a)와 같은 구성으로 이루어져 키보드, 마우스 등으로 자외선을 조사하여 살균한다.On the other hand, a sub-sterilization unit 30b is disposed in the storage space 12 . The sub-sterilization unit 30b has the same configuration as the sterilization unit 30a, and is sterilized by irradiating ultraviolet rays with a keyboard, mouse, or the like.

제어부(40)는 덮개(20)에 배치되어 살균부(30a) 및 서브살균부(30b)와 전기적으로 연결되어 있다. 제어부(40)는 덮개(20)가 본체(10)의 상면을 덮으면 살균부(30a)가 작동하도록 전원을 인가한다. 또한 제어부(40)는 서랍(13)이 닫히면 서브살균부(30b)가 작동하도록 전원을 인가한다.The control unit 40 is disposed on the cover 20 and is electrically connected to the sterilization unit 30a and the sub sterilization unit 30b. The control unit 40 applies power so that the sterilization unit 30a operates when the cover 20 covers the upper surface of the main body 10 . In addition, the control unit 40 applies power to operate the sub-sterilization unit 30b when the drawer 13 is closed.

살균부(30a)와 서브살균부(30b)는 제어부(40)에 설정된 기설정된 시간동안 자외선을 발생시켜 터치디스플레이(11)와 키보드, 마우스 등을 살균한다. 살균 시간은 사용자의 설정에 따라 다양하게 변경될 수 있다.The sterilization unit 30a and the sub sterilization unit 30b sterilize the touch display 11, the keyboard, the mouse, etc. by generating ultraviolet rays for a preset time set in the control unit 40 . The sterilization time may be variously changed according to a user's setting.

살균부(30a)는 제어부(40)와 연결되어 살균부(30a) 및 서브살균부(30b)가 작동하도록 제어부(40)를 작동시키는 작동스위치(32), 살균부(30a)와 서브살균부(30b)의 작동상태를 나타내는 정보표시창(31)을 포함할 수 있다. 작동스위치(32)와 정보표시창(31)은 덮개(20)에 배치되어 사용자가 조작하고 확인할 수 있도록 노출되어 있다.The sterilization unit 30a is connected to the control unit 40 and operates an operation switch 32 that operates the control unit 40 to operate the sterilization unit 30a and the sub sterilization unit 30b, the sterilization unit 30a and the sub sterilization unit 30a. It may include an information display window 31 indicating the operating state of (30b). The operation switch 32 and the information display window 31 are disposed on the cover 20 and are exposed so that the user can operate and check them.

한편, 정보표시창(31)에는 "터치디스플레이 살균 기능 작동 중, 키보드 살균 기능 작동 중 "자외선에 노출될 수 있으니 덮개를 이동시키지 마시오" 등의 안내문구가 표시될 수 있다.On the other hand, the information display window 31 may display a guide phrase such as "Do not move the cover because it may be exposed to UV rays during the operation of the touch display sterilization function and the operation of the keyboard sterilization function".

제어부(40)는 살균부(30a)와 서브살균부(30b) 작동 중 덮개(20) 또는 서랍(13)이 열리면 살균부(30a)와 서브살균부(30b)에 인가되는 전원을 차단하여 자외선이 발생하지 않도록 할 수 있다.When the cover 20 or the drawer 13 is opened during the operation of the sterilization unit 30a and the sub sterilization unit 30b, the control unit 40 cuts off the power applied to the sterilization unit 30a and the sub sterilization unit 30b to prevent ultraviolet rays. You can prevent this from happening.

그리고 본체(10)에는 인체감지센서(도시하지 않음)가 배치되어 있다. 인체감지센서는 살균부(30a) 작동 중 사용자가 살균 전자교탁(1)으로 접근하면 이를 감지한다. 제어부(40)는 인체감지센서의 신호를 받아 살균부(30a) 및 서브살균부(30b)로 인가되는 전원을 차단하여 자외선이 발생하지 않도록 한다. 이에 살균부(30a) 및 서브살균부(30b) 작동 중 살균 전자교탁(1)으로 접근하는 사용자를 자외선으로부터 보호할 수 있다.And a human body detection sensor (not shown) is disposed on the body 10 . The human body detection sensor detects when the user approaches the sterilization electronic classroom 1 during the operation of the sterilization unit 30a. The control unit 40 receives the signal from the human body detection sensor and cuts off the power applied to the sterilization unit 30a and the sub sterilization unit 30b to prevent ultraviolet rays from being generated. Accordingly, it is possible to protect a user approaching the sterilization electronic classroom 1 from ultraviolet rays during the operation of the sterilization unit 30a and the sub-sterilization unit 30b.

이에 본 실시예에 따르면, 살균 전자교탁(1) 사용 후 덮개(20)를 닫고, 서랍(13)을 넣으면 살균부(30a)가 작동하여 기설정된 시간동안 자외선을 방출할 수 있다. 자외선은 사용자의 손과 비말이 닿기 쉬운 터치디스플레이, 컨트롤 패드, 단자 인터페이스, 키보드, 마우스 등에 조사되어 그 표면을 살균할 수 있다. 이에 터치디스플레이 등의 표면에 서식할 수 있는 바이러스를 멸균함으로써 연사, 화자와 같은 사용자를 바이러스로부터 보호할 수 있다.Accordingly, according to the present embodiment, after using the sterilization electronic classroom 1, the cover 20 is closed and the drawer 13 is put in, the sterilization unit 30a is operated to emit ultraviolet rays for a preset time. Ultraviolet rays can be irradiated to touch displays, control pads, terminal interfaces, keyboards, mice, etc. that are easily touched by the user's hands and splashes to sterilize the surface. Accordingly, by sterilizing viruses that can inhabit the surface of the touch display, users such as speakers and speakers can be protected from viruses.

본 발명은 상기한 특정의 바람직한 실시예에 한정되지 아니하며 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고 그와 같은 변경은 청구범위 기재의 범위 내에 있게 되는 것은 자명하다 할 것이다.The present invention is not limited to the specific preferred embodiments described above, and various modifications can be made by anyone with ordinary skill in the art to which the invention pertains without departing from the gist of the invention as claimed in the claims. And it will be apparent that such changes are within the scope of the claims.

100 : 터치 입력
200 : 음성 명령
300 : 전자 교탁
310 : 터치 센서
320 : 마이크 어레이
330 : 제어부
340 : 음성 인식 엔진
350 : 명령어 해석부
360 : 데이터베이스
370 : 명령어 리스트
100: touch input
200 : voice command
300: electronic classroom
310: touch sensor
320: microphone array
330: control unit
340: speech recognition engine
350: command interpretation unit
360: database
370 : command list

Claims (10)

터치 인식이 가능한 패널부와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치인식을 수행하는 센서부를 포함하고, 사용자의 움직임을 단위 시간별로 계속하여 촬영하고 저장하는 영상 카메라 및 상기 사용자의 음성을 인식하는 음성 센서를 포함하는 전자 교탁에 있어서,
상기 사용자로부터 상기 음성 센서를 통해 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이;
상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진;
상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스;
상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부;
상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하며,
상기 음성 인식 엔진에는 상기 사용자로부터 입력받은 음성 신호의 보정적기를 판단하기 위한 딥러닝 기반의 보정적기 판단 소프트웨어를 포함하며,
상기 패널부 및 센서부에서는 입력된 터치 방식에 따라, 터치 센서에서 인식된 터치의 패턴으로 상기 전자 교탁의 화면에 표시하고 다른 UI 입력에 따른 응답을 출력하며,
상기 마이크 어레이는 복수의 마이크를 이용하여 이득 보상 또는 에코 제거 기능을 구현하고, 원거리 음성 인식 및 다른 오디오 신호에 의해 상기 음성 신호에서 왜곡된 부분을 보상하는 기능을 수행하며,
상기 제어부는 실제 주변기기의 사용빈도량 및 전력소모량을 기준으로 데이터 셋을 만들고, 목적 함수를 사용해 예측된 모델과 제약 조건을 통해 주변기기의 기기간 거리 및 데이터량에 따른 비용을 최소화하면서 특정 그리드(grid)의 데이터 수집을 최대화하는 것을 특징으로 하며,
상기 클라우드 서비스를 이용할때 상기 제어부는 명령어 해석부에서 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS 기반의 클라우드 데이터를 쿼리 검색하여 상기 전자 교탁의 화면에 컨텐츠를 표시하며,
상기 클라우드 서비스는 스토리지 기반의 클라우드 서비스이며, 상기 스토리지 기반의 클라우드 서비스는 기존 데이터와 동일한 데이터는 저장하지 않는 중복제거 기능을 적용하고, 이때 사용자를 인증하는 방법으로서 상기 사용자의 로그인 환경정보를 추출하고 추출된 로그인 환경정보를 One-Hot-Encoding 방식으로 변환하여 변환정보를 생성하고 환경정보 별로 고유한 값들에 차례로 번호를 부여하여 라벨 인코딩하는 것을 특징으로 하는 전자 교탁 시스템.
An image camera comprising a panel unit capable of recognizing a touch and a sensor unit performing touch recognition according to the touch method by determining a touch method when the panel unit is touched, and continuously photographing and storing the user's movement for each unit time, and the In the electronic classroom comprising a voice sensor for recognizing a user's voice,
a microphone array that receives a voice signal from the user through the voice sensor, separates a sound source, and removes noise;
a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal;
a database for repeatedly storing the received voice signal and the converted text signal;
a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database;
Includes a control unit that performs a query search or internal and external control function to an external cloud service according to the interpreted command,
The voice recognition engine includes deep learning-based corrective time determination software for determining the correct time to correct the voice signal input from the user,
In the panel unit and the sensor unit, according to the input touch method, a pattern of a touch recognized by the touch sensor is displayed on the screen of the electronic classroom and outputs a response according to another UI input,
The microphone array implements a gain compensation or echo cancellation function using a plurality of microphones, and performs a function of compensating for a distorted portion in the voice signal by far-field voice recognition and other audio signals,
The control unit creates a data set based on the frequency of use and power consumption of the actual peripheral device, and minimizes the cost according to the distance between devices and the data amount of the peripheral device through the model and constraints predicted using the objective function. characterized by maximizing the data collection of
When using the cloud service, the control unit connects the communication to the external cloud server according to the command interpreted by the command interpretation unit, queries the SaaS-based cloud data and displays the contents on the screen of the electronic classroom,
The cloud service is a storage-based cloud service, and the storage-based cloud service applies a deduplication function that does not store the same data as the existing data, and extracts the user's login environment information as a method of authenticating the user, An electronic classroom system, characterized in that the extracted log-in environment information is converted into a One-Hot-Encoding method to generate conversion information, and labels are encoded by assigning numbers to unique values for each environment information in turn.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 전자 교탁 시스템은 터치디스플레이가 배치된 본체, 상기 터치디스플레이를 덮고 있으며 상기 본체에 이동할 수 있게 배치된 덮개, 상기 터치디스플레이와 마주하고 있는 상기 덮개의 일면에 배치되어 상기 터치디스플레이에 자외선을 조사하는 유브이 엘이디(UV LED)를 포함하는 살균부 및 상기 살균부의 작동을 설정하는 제어부를 더 포함하며,
상기 제어부는, 상기 덮개가 상기 터치디스플레이를 덮으면 상기 살균부로 전원을 인가하여 기설정된 시간동안 상기 터치디스플레이에 자외선이 조사되도록 동작하며,
상기 본체에는 인체감지센서가 배치되고, 상기 인체감지센서는 상기 살균부의 작동 중에 사용자가 접근하면 이를 감지하고, 상기 제어부는 상기 인체감지센서의 신호를 받아 상기 살균부로 인가되는 전원을 차단하여 자외선이 발생하지 않도록 하여 접근하는 사용자를 자외선으로부터 보호하는 것을 특징으로 하는 전자 교탁 시스템.
The method according to claim 1,
The electronic classroom system includes a main body on which a touch display is disposed, a cover that covers the touch display and is arranged to be movable on the main body, and is disposed on one side of the cover facing the touch display to irradiate the touch display with ultraviolet rays Further comprising a sterilization unit including a UV LED and a control unit for setting the operation of the sterilization unit,
When the cover covers the touch display, the control unit applies power to the sterilizer and operates to irradiate the touch display with ultraviolet rays for a preset time,
A human body detection sensor is disposed on the main body, and the human body detection sensor detects when a user approaches during the operation of the sterilization unit, and the control unit receives the signal from the human body detection sensor and cuts off the power applied to the sterilization unit to emit ultraviolet rays. Electronic teaching system, characterized in that it does not occur and protects an approaching user from UV rays.
KR1020210117425A 2021-09-03 2021-09-03 An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function KR102446970B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210117425A KR102446970B1 (en) 2021-09-03 2021-09-03 An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function
KR1020220118864A KR102494752B1 (en) 2021-09-03 2022-09-20 Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210117425A KR102446970B1 (en) 2021-09-03 2021-09-03 An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220118864A Division KR102494752B1 (en) 2021-09-03 2022-09-20 Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal

Publications (1)

Publication Number Publication Date
KR102446970B1 true KR102446970B1 (en) 2022-09-23

Family

ID=83446177

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210117425A KR102446970B1 (en) 2021-09-03 2021-09-03 An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function
KR1020220118864A KR102494752B1 (en) 2021-09-03 2022-09-20 Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220118864A KR102494752B1 (en) 2021-09-03 2022-09-20 Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal

Country Status (1)

Country Link
KR (2) KR102446970B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328511A (en) * 2004-04-06 2005-11-24 Fuji Xerox Co Ltd Convertible podium system
KR100919680B1 (en) 2007-11-16 2009-10-06 한국전자통신연구원 Apparatus and method for delivering data based sensor network
KR20150087687A (en) 2014-01-22 2015-07-30 삼성전자주식회사 Interactive system, display apparatus and controlling method thereof
US10198246B2 (en) 2016-08-19 2019-02-05 Honeywell International Inc. Methods and apparatus for voice-activated control of an interactive display
KR102202034B1 (en) * 2020-07-06 2021-01-11 구기도 Sterilization electronic teaching table
KR102262989B1 (en) * 2020-11-24 2021-06-10 주식회사 아하정보통신 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment
KR102296501B1 (en) * 2020-11-30 2021-09-03 농업회사법인 지팜 유한회사 System to determine sows' estrus and the right time to fertilize sows using depth image camera and sound sensor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328511A (en) * 2004-04-06 2005-11-24 Fuji Xerox Co Ltd Convertible podium system
KR100919680B1 (en) 2007-11-16 2009-10-06 한국전자통신연구원 Apparatus and method for delivering data based sensor network
KR20150087687A (en) 2014-01-22 2015-07-30 삼성전자주식회사 Interactive system, display apparatus and controlling method thereof
US10198246B2 (en) 2016-08-19 2019-02-05 Honeywell International Inc. Methods and apparatus for voice-activated control of an interactive display
KR102202034B1 (en) * 2020-07-06 2021-01-11 구기도 Sterilization electronic teaching table
KR102262989B1 (en) * 2020-11-24 2021-06-10 주식회사 아하정보통신 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment
KR102296501B1 (en) * 2020-11-30 2021-09-03 농업회사법인 지팜 유한회사 System to determine sows' estrus and the right time to fertilize sows using depth image camera and sound sensor

Also Published As

Publication number Publication date
KR102494752B1 (en) 2023-02-07

Similar Documents

Publication Publication Date Title
US11031012B2 (en) System and method of correlating mouth images to input commands
US9323912B2 (en) Method and system for multi-factor biometric authentication
US11023754B2 (en) Systems and methods for high fidelity multi-modal out-of-band biometric authentication
KR102351670B1 (en) Method of construction and registration of gates and device therefor
US10303964B1 (en) Systems and methods for high fidelity multi-modal out-of-band biometric authentication through vector-based multi-profile storage
US10146923B2 (en) Audiovisual associative authentication method, related system and device
US20130267204A1 (en) Method and system for multi-factor biometric authentication based on different device capture modalities
KR101055070B1 (en) Computer-implemented methods, systems, and computer readable storage media for controlling access to resources
KR102262989B1 (en) Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment
CN1122965C (en) Vocal identification of devices in home environment
US20220147602A1 (en) System and methods for implementing private identity
CN112997186A (en) Detection system for&#39; viability
WO2018087764A1 (en) Phonetically configurable means of user authentication
US20220147607A1 (en) System and methods for implementing private identity
US20180232512A1 (en) Biometric Interface System and Method
US20220150068A1 (en) System and methods for implementing private identity
US10978078B2 (en) Synthesized voice authentication engine
Thomas et al. A broad review on non-intrusive active user authentication in biometrics
US20220277064A1 (en) System and methods for implementing private identity
KR102262984B1 (en) Interactive flat panel display system performing IoT-based remote control using blockchain
US20180174590A1 (en) Synthesized Voice Authentication Engine
KR102446970B1 (en) An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function
KR20130054131A (en) Display apparatus and control method thereof
Simske Dynamic biometrics: The case for a real-time solution to the problem of access control, privacy and security
CN112420146A (en) Information security management method and system