KR102446970B1 - An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function - Google Patents
An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function Download PDFInfo
- Publication number
- KR102446970B1 KR102446970B1 KR1020210117425A KR20210117425A KR102446970B1 KR 102446970 B1 KR102446970 B1 KR 102446970B1 KR 1020210117425 A KR1020210117425 A KR 1020210117425A KR 20210117425 A KR20210117425 A KR 20210117425A KR 102446970 B1 KR102446970 B1 KR 102446970B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- data
- user
- unit
- touch
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B19/00—Reading-desks; Lecterns; Pulpits, i.e. free-standing
- A47B19/02—Church pulpits ; Stands for lecturers
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B19/00—Reading-desks; Lecterns; Pulpits, i.e. free-standing
- A47B19/10—Reading-desks; Lecterns; Pulpits, i.e. free-standing characterised by association with auxiliary devices, e.g. paper clamps, line indicators
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B21/00—Tables or desks for office equipment, e.g. typewriters, keyboards
- A47B21/007—Tables or desks for office equipment, e.g. typewriters, keyboards with under-desk displays, e.g. displays being viewable through a transparent working surface of the table or desk
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61L—METHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
- A61L2/00—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
- A61L2/02—Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using physical phenomena
- A61L2/08—Radiation
- A61L2/10—Ultra-violet radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H04N5/2257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Acoustics & Sound (AREA)
- Otolaryngology (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Epidemiology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Agricultural Chemicals And Associated Chemicals (AREA)
Abstract
Description
본 발명은 전자 교탁에 관한 것으로서, 보다 상세하게는 음성 인식 데이터의 인공지능(AI) 기반의 내부 기능 제어 처리 및 사물인터넷(IoT)으로 연결된 외부 디바이스의 제어가 가능한 전자 교탁 시스템으로서, 영상 카메라 및 소리 센서를 활용하여, 화자의 움직임과 소리를 탐지하고, 딥러닝 기술을 통해 화자의 음성의 이상여부를 자동 판단하고 보정 시점을 계산하는 시스템에 관한 기술이며, 자체 살균기능을 포함하면서 또한 다양한 IoT 주변 외부기기들을 제어함에 있어서 연결된 디바이스들을 최적의 경로를 통해 제어하거나 모니터링 하고, 클라우드 환경에서 사용자 프라이버시 보호를 위해 모사 데이터를 이용하여 데이터베이스를 구축하고 화자를 인증함으로서 보안을 강화하는 전자 교탁 시스템에 관한 것이다.The present invention relates to an electronic classroom, and more particularly, to an electronic classroom system capable of artificial intelligence (AI)-based internal function control processing of voice recognition data and control of external devices connected to the Internet of Things (IoT), an image camera and It is a technology related to a system that detects the movement and sound of the speaker by using a sound sensor, automatically determines whether the speaker’s voice is abnormal through deep learning technology, and calculates the correction time. It relates to an electronic classroom system that controls or monitors connected devices through an optimal path in controlling peripheral external devices, builds a database using simulated data to protect user privacy in a cloud environment, and strengthens security by authenticating the speaker will be.
근래 들어 강의실 또는 회의실에서 디지털 환경으로의 변화에 따라 여러 가지 수업 또는 회의 도구들이 디지털 장비로 대체되고 그에 따라 의사소통 방식도 양방향 디지털 소통으로 변화하게 되었다. 예를 들어 디지털 교과서가 보급되고 여러 가지 멀티미디어 기기를 활용한 교육 환경이 보급화 되면서, 전자 교탁의 경우에 화면상에 강의 내용 또는 발표 내용의 문서를 띄우고 판서 및 글쓰기 기능을 제공하는 등 강의에 필요한 각종 기능을 수행할 수 있으며 이때 사람의 손으로 직접 터치하거나 전용 터치펜으로 터치를 감지하게 할 수 있게 되었다.In recent years, as the classroom or meeting room changes to a digital environment, various classroom or meeting tools are replaced with digital equipment, and the communication method has also changed to two-way digital communication. For example, with the spread of digital textbooks and the spread of educational environments using various multimedia devices, in the case of an electronic classroom, documents of lecture contents or presentation contents are displayed on the screen, and various kinds of lectures necessary for lectures are provided, such as writing and writing functions. It is possible to perform a function, and at this time, it is possible to directly touch a human hand or to detect a touch with a dedicated touch pen.
아울러 최근에는 인공지능(AI)의 장비와 프로세스의 발달로 전통적인 입력 장치(예를 들어, 키보드 또는 마우스 등)이 아닌 사용자의 오디오 음성 인식에 의해 해당 디바이스에 특정한 명령어를 전달하고 장치의 여러 가지 검색 및 제어기능을 컨트롤하는 기술이 등장하였다. In addition, recently, with the development of artificial intelligence (AI) equipment and processes, a specific command is transmitted to the device by the user's audio voice recognition instead of a traditional input device (eg, keyboard or mouse, etc.), and various searches of the device are performed. And the technology to control the control function appeared.
아래의 선행기술1(KR 2015-0087687 A)은 대화형 시스템, 디스플레이 장치 및 그 제어 방법(interactive system, display apparatus and controlling method thereof)으로서, 개시된 디스플레이 장치는 사용자의 발화 음성을 입력받는 입력부, 발화 음성에 대한 음성 신호를 음성 인식 장치로 전송하는 통신부, 발화 음성에 대한 음성 인식을 수행하는 음성 인식부 및 음성 인식부를 통해 인식된 제1 음성 정보에 대한 신뢰도 값과 음성 인식 장치를 통해 인식된 제2 음성 정보에 대한 신뢰도 값 중 기설정된 임계값 이상의 신뢰도 값을 가지는 음성 정보를 상기 발화 음성에 대한 실행 명령으로 결정하는 제어부를 포함한다. 이에 따라, 디스플레이 장치는 디스플레이 장치 및 외부 장치에서 사용자의 발화 음성을 동시에 인식할 경우, 두 음성 인식 결과 중 사용자의 의도에 근접한 음성 인식 결과를 선택하는 것이 가능할 것이다. 한편, 아래의 다른 선행기술2(US 10198246 B2)은 인터랙티브 디스플레이에서 활성화된 음성 제어 방법 및 장치(Methods and apparatus for voice-activated control of an interactive display)으로서, 본 기술에서는 인터랙티브 디스플레이 장치에 통신이 가능하게 결합된 음성 입력 장치를 통해 사용자의 음성 데이터 수신이 가능하나, 터치센서를 구비한 터치패널 스크린을 포함하는 양방향 전자 교탁의 기술적인 요소는 개시하고 있지 않다.The following prior art 1 (KR 2015-0087687 A) is an interactive system, a display apparatus, and a controlling method thereof, and the disclosed display apparatus includes an input unit for receiving a user's utterance voice, an utterance A communication unit that transmits a voice signal for a voice to the voice recognition device, a voice recognition unit that performs voice recognition on the spoken voice, and a reliability value for the first voice information recognized through the voice recognition unit and the second value recognized through the voice recognition device and a controller for determining, as an execution command for the spoken voice, voice information having a reliability value greater than or equal to a preset threshold among reliability values for the second voice information. Accordingly, when the display device and the external device simultaneously recognize the user's spoken voice, the display device may select a voice recognition result that is close to the user's intention among the two voice recognition results. On the other hand, another prior art 2 (US 10198246 B2) below is a method and apparatus for voice-activated control of an interactive display, in which communication is possible with an interactive display device. Although it is possible to receive the user's voice data through the coupled voice input device, the technical elements of the interactive electronic classroom including a touch panel screen having a touch sensor are not disclosed.
따라서, 본 발명에서는 정전용량(PCAP), 전자기유도(EMR) 또는 적외선(IR) 방식을 이용한 터치 센서 전자 교탁에서 영상 카메라 및 소리 센서를 활용하여, 화자의 움직임과 소리를 탐지하고, 딥러닝 기술을 통해 화자의 음성의 이상여부를 자동 판단하고 보정 시점을 계산하는 시스템을 포함하며, 자체 살균기능을 포함하는 전자 교탁을 제안하고자 한다.Therefore, in the present invention, a video camera and a sound sensor are used in a touch sensor electronic classroom using a capacitive (PCAP), electromagnetic induction (EMR) or infrared (IR) method to detect the movement and sound of the speaker, and deep learning technology It is intended to propose an electronic classroom that includes a system that automatically determines whether the speaker's voice is abnormal and calculates the correction time, and includes a self-sterilization function.
본 발명의 목적은 강단에서 전자 교탁을 활용한 대면 또는 비대면 강의 또는 연설을 진행함에 있어서, 화자의 음성을 일정한 밸런스의 오디오로 출력하기 위해 별도의 믹싱 시스템을 이용할 때 각각의 화자 또는 연사에 대하여 직접 기술자가 화자의 음성 반응을 직접적으로 관찰하면서 그에 따라 볼륨의 고저, 주파수의 조절 등 음성 신호의 구성요소를 적절한 조합으로 믹스해야 하는데, 이때 숙련된 기술자와 초보자의 기술수준 차이가 매우 크기 때문에 일정한 품질의 음성 보정이 보장되지 않는다는 문제점을 해결하는 것이 목적이다.It is an object of the present invention for each speaker or speaker when using a separate mixing system to output the speaker's voice as audio of a certain balance in conducting a face-to-face or non-face-to-face lecture or speech using an electronic classroom at the pulpit The technician directly observes the speaker's voice response and accordingly mixes the components of the voice signal, such as adjusting the volume and frequency, in an appropriate combination. The purpose is to solve the problem that quality voice correction is not guaranteed.
또한, 사람이 특정 구간의 음성 신호의 이상 여부는 발견하더라도 정확한 보정 시점을 판단하는데 실수를 일으킬 수도 있고, 여러 시행착오를 통해 최적의 밸런스를 갖는 오디오 신호를 잡기 위한 사람의 노동력이 필요하다는 문제점을 해결하기 위한 것이 목적이다.In addition, even if a person detects an abnormality in the voice signal in a specific section, a mistake may occur in determining the correct correction time, and human labor is required to catch an audio signal with an optimal balance through various trials and errors. The purpose is to solve
본 발명의 또 다른 목적은 대면적 터치스크린을 포함하는 전자 교탁에서 사용자의 음성 인식 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 기기의 제어 기능을 수행하는 것이 목적이다.Another object of the present invention is to perform an artificial intelligence (AI)-based cloud search or device control function by processing a user's voice recognition information in an electronic classroom including a large-area touch screen.
본 발명의 또 다른 목적은 대면적 터치스크린을 포함하는 전자 교탁에서 사물인터넷(IoT) 네트워크로 연결된 외부 기기를 음성 인식 정보에 따라 유무선으로 제어하는 기능을 수행하는 것이 목적이다.Another object of the present invention is to perform a function of controlling an external device connected to an Internet of Things (IoT) network by wire or wireless according to voice recognition information in an electronic classroom including a large-area touch screen.
본 발명의 또 다른 목적은 다양한 IoT 주변 외부기기들을 제어함에 있어서 연결된 디바이스들을 최적의 경로를 통해 제어하거나 모니터링 하며, 클라우드 환경에서 사용자 프라이버시 보호를 위해 데이터베이스를 구축하고 사용자를 인증함으로서 보안을 강화하는 기능을 수행하는 것이 목적이다.Another object of the present invention is to control or monitor connected devices through an optimal path in controlling various external devices around IoT, and to build a database to protect user privacy in a cloud environment and to strengthen security by authenticating the user The purpose is to perform
본 발명은 터치 인식이 가능한 패널부와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치인식을 수행하는 센서부를 포함하고, 사용자의 움직임을 단위 시간별로 계속하여 촬영하고 저장하는 영상 카메라 및 상기 사용자의 음성을 인식하는 음성 센서를 포함하는 전자 교탁에 있어서, 상기 사용자로부터 상기 음성 센서를 통해 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이; 상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진; 상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스; 상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부; 상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하며, 상기 음성 인식 엔진에는 상기 사용자로부터 입력받은 음성 신호의 보정적기를 판단하기 위한 딥러닝 기반의 보정적기 판단 소프트웨어가 포함될 수 있다.The present invention includes a panel unit capable of touch recognition and a sensor unit that determines a touch method when the panel unit is touched and performs touch recognition according to the touch method, and continuously captures and stores the user's movement for each unit time. An electronic classroom comprising a camera and a voice sensor for recognizing the user's voice, the electronic classroom comprising: a microphone array that receives a voice signal from the user through the voice sensor, separates a sound source, and removes noise; a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal; a database for repeatedly storing the received voice signal and the converted text signal; a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database; and a control unit that performs a query search or internal/external control function with an external cloud service according to the interpreted command, wherein the voice recognition engine includes a deep learning-based correction timing for determining the correct timing of the voice signal input from the user. Software may be included.
상기 명령어 해석부에서 해석된 명령어를 내부의 명령어 리스트와 비교하여 상기 음성 신호의 패턴을 검색하는 음성 패턴 매칭부를 더 포함하며, 상기 음성 패턴 매칭부는 최초 슬립 모드에서 소정의 음성 패턴에 의해 상기 음성 인식 엔진을 웨이크업 모드로 변화시키는 내부 제어 신호를 상기 제어부로 보내는 것을 특징으로 한다.and a voice pattern matching unit that compares the command interpreted by the command interpretation unit with an internal command list to search for a pattern of the voice signal, wherein the voice pattern matching unit recognizes the voice by a predetermined voice pattern in the first sleep mode An internal control signal for changing the engine to a wake-up mode is transmitted to the control unit.
한편, 상기 딥러닝 기반의 보정적기 판단 소프트웨어는, 상기 사용자인 화자의 움직임 및 음성 데이터를 수집하는 데이터 취득 모듈; 상기 취득된 데이터에서 영상 및 소리 신호를 분할하는 알고리즘을 통해 데이터의 노이즈를 제거하는 데이터 전처리 모듈; 딥러닝 학습을 통해 학습데이터에서 설정된 기준에서 일정 범위를 벗어나는 분석값을 나타낼 때 이상상황으로 탐지하고 상기 화자의 음성에 대한 보정적기 판단에 활용하는 이상상황 탐지 모듈; 상기 보정적기 판단 소프트웨어를 통해 산출된 결과값을 출력하는 인터페이스를 구비한 후처리 모듈를 포함하는 것을 특징으로 한다.On the other hand, the deep learning-based corrective timing determination software may include: a data acquisition module for collecting movement and voice data of a speaker who is the user; a data pre-processing module for removing noise from data through an algorithm that divides image and sound signals from the acquired data; an abnormal situation detection module that detects an abnormal situation when an analysis value that is out of a certain range from a standard set in the learning data through deep learning learning is detected and uses the abnormal situation to determine the right time to correct the speaker's voice; and a post-processing module having an interface for outputting the result calculated through the corrective timing determination software.
상기 이상상황 탐지 모듈은, 인공지능 신경망 모델을 사용하되, 신경망 학습에 있어서 부족한 데이터를 사전 제작된 페이크 영상데이터 및 페이크 소리데이터로 대체하고, 비지도 학습 신경망 모델의 GAN(Generative Adversarial Nets)을 학습에 적용하여 상기 딥러닝 학습데이터 기준에서 소정의 수치 범위를 벗어나는 분석값으로 판단될 때 상기 화자의 음성 신호의 이상시점으로 판단하는 것을 특징으로 한다.The abnormal situation detection module uses an artificial intelligence neural network model, but replaces insufficient data in neural network learning with pre-made fake image data and fake sound data, and learns Generative Adversarial Nets (GAN) of an unsupervised learning neural network model. It is characterized in that it is determined as an abnormal point of the speaker's voice signal when it is determined as an analysis value out of a predetermined numerical range in the deep learning learning data standard.
상기 딥러닝 기반의 수정적기 판단 소프트웨어는 상기 이상상황 탐지 모듈에서 상기 화자의 음성 신호의 이상시점으로 판단되면, 상기 이상시점으로부터 상기 음성 신호의 보정적기를 판단하는 계산 단계를 더 포함하며, 상기 계산된 보정적기의 결과값을 다음 유사한 이상상황과 비교하여 오차데이터를 피드백하여 학습하는 수정 단계를 더 포함한다.The deep learning-based corrective timing determination software further comprises a calculation step of determining a corrective timing of the voice signal from the abnormal timing when the abnormal situation detection module determines that the speaker's voice signal is an abnormal timing, the calculation Comparing the result value of the corrected correction bandit with the next similar abnormal situation, the method further includes a correction step of learning by feeding back the error data.
상기 연결된 외부 주변 기기들의 제어 기능을 수행하는 경우에는, 상기 제어부는 최적 루트 추천 AI 알고리즘을 통해 상기 제어 기능을 수행하며, 상기 알고리즘은 데이터 수집 모듈이 데이터 셋을 입력 받는 데이터 수집 단계, 전처리 모듈이 상기 입력된 데이터 셋을 전처리 하는 전처리 단계, ANN(Artificial Neural Network)의 머신 러닝을 통하여 구성된 예측 모듈이 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하는 예측 계산 단계, 최적화 모듈이 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾는 최적 루트 추천 단계로 이루어진다.When performing a control function of the connected external peripheral devices, the control unit performs the control function through an optimal route recommendation AI algorithm, the algorithm includes a data collection step in which the data collection module receives a data set, a preprocessing module A preprocessing step of preprocessing the input data set, a prediction calculation step in which a prediction module configured through machine learning of an artificial neural network (ANN) applies the preprocessed data set to a prediction algorithm, and an optimization module predicts a model according to an objective function It consists of an optimal route recommendation step that finds an optimal route using and constraints.
상기 음성 신호 및 변환된 텍스트 신호는 각각의 원본 신호의 데이터와 k-1개의 모사 데이터를 이용하여, 상기 데이터의 발생 시간인 타임스탬프에 근거하여 해쉬함수 프로세스를 처리한 결과값에 따라 데이터베이스를 저장함으로써 상기 사용자와 관련된 민감정보를 보호할 수 있다.The voice signal and the converted text signal are stored in a database according to the result of processing the hash function process based on the timestamp, which is the generation time of the data, using the data of each original signal and k-1 copies of the simulated data. By doing so, it is possible to protect sensitive information related to the user.
상기 해쉬함수는 Hash-based Message Authentication Code 알고리즘(HMAC)을 이용하며, 아래 수학식 1에 의해 결과값 Q가 생성될 수 있다.The hash function uses a Hash-based Message Authentication Code algorithm (HMAC), and a result value Q may be generated by
<수학식 1><
(TS는 타임스탬프 정보이며, K_CNT는 상기 k값에 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보)(TS is timestamp information, K_CNT is a count number based on the k value, and PK is previously shared secret key information)
상기 시스템은 상기 사용자가 상기 시스템에 로그인 하는 환경정보인 IP 대역 또는 사용자 에이전트가 변환된 변환정보를 이진 선형 분류 모델인 서포트 벡터 머신(SVM)을 이용하여 2-클래스 사용자 모델을 생성함으로써 상기 사용자가 본인인지 여부를 판단한다.The system generates a two-class user model by using a support vector machine (SVM), which is a binary linear classification model, from the conversion information converted by the IP band or user agent, which is environmental information that the user logs into the system, so that the user can Decide whether you are
상기 전자 교탁 시스템은 터치디스플레이가 배치된 본체, 상기 터치디스플레이를 덮고 있으며 상기 본체에 이동할 수 있게 배치된 덮개, 상기 터치디스플레이와 마주하고 있는 상기 덮개의 일면에 배치되어 상기 터치디스플레이에 자외선을 조사하는 유브이 엘이디(UV LED)를 포함하는 살균부 및 상기 살균부의 작동을 설정하는 제어부를 더 포함하며, 상기 제어부는, 상기 덮개가 상기 터치디스플레이를 덮으면 상기 살균부로 전원을 인가하여 기설정된 시간동안 상기 터치디스플레이에 자외선이 조사되도록 동작하며, 상기 유브이 엘이디는 상기 일면에 간격을 두고 복수 배치되어 있으며, 상기 유브이 엘이디들은 상기 터치디스플레이와 35 내지 45mm 이격되어 110 내지 130°각도로 자외선을 조사하며, 이웃한 유브이 엘이디들의 간격은 60 내지 80mm인 것을 특징으로 한다.The electronic classroom system includes a main body on which a touch display is disposed, a cover that covers the touch display and is arranged to be movable on the main body, and is disposed on one side of the cover facing the touch display to irradiate the touch display with ultraviolet rays Further comprising a sterilization unit including a UV LED and a control unit for setting the operation of the sterilization unit, wherein the control unit applies power to the sterilization unit when the cover covers the touch display to apply power to the touch display for a preset time The display operates to irradiate UV rays, and the UV LEDs are arranged at intervals on the one surface, and the UV LEDs are separated from the touch display by 35 to 45 mm and irradiate the UV LEDs at an angle of 110 to 130 degrees. It is characterized in that the interval between the UV LEDs is 60 to 80 mm.
본 발명의 전자 교탁은 음성 센서 및 영상 카메라를 통하여 화자의 음성 신호의 이상 여부를 실시간으로 탐지하고 음성 신호의 보정 적기를 판단함으로써, 음성 신호의 불규칙적인 떨림이나 비정상적인 소리의 유입에 따른 이질감의 위험을 최소화하여 강의 또는 연설의 오디오 음질의 퀄리티를 높일 수 있다. The electronic classroom of the present invention detects abnormalities in the speaker's voice signal in real time through a voice sensor and a video camera and determines the appropriate time to correct the voice signal, thereby risking a sense of heterogeneity due to irregular tremors of the voice signal or the introduction of abnormal sound It is possible to increase the quality of audio quality of lectures or speeches by minimizing the
또한, 실시간으로 음성 이상여부를 자동으로 탐지함으로써, 사람이 행하는 교정의 성공여부에 따른 불안정성 및 모니터링을 위한 인력의 투입으로 생기는 인건비의 부담을 줄일 수 있다.In addition, by automatically detecting voice abnormalities in real time, it is possible to reduce instability according to the success or failure of calibration performed by humans and the burden of labor costs caused by the input of manpower for monitoring.
본 발명은 터치 센서를 포함하는 전자 교탁에서 사용자의 음성 인식 정보를 학습, 해석, 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 효과가 있다.The present invention has the effect of performing an artificial intelligence (AI)-based cloud search or control function by learning, interpreting, and processing the user's voice recognition information in an electronic classroom including a touch sensor.
또한 본 발명은 대면적 터치스크린을 포함하는 전자 교탁에서 사용자의 음성 명령을 통해 사물인터넷(IoT) 네트워크로 연결된 외부 기기를 제어할 수 있는 효과가 있다.In addition, the present invention has an effect of controlling an external device connected to an Internet of Things (IoT) network through a user's voice command in an electronic classroom including a large-area touch screen.
아울러, 이러한 인공지능 기반의 입출력 처리 및 사물인터넷 제어 기능을 수행함에 있어서 제3의 인터넷 서비스 공급자(통신사)의 전용 서버에 종속되지 않고 자체의 독립적인 프로세싱 알고리즘을 통해 음성 데이터 처리가 가능하여 국내/해외를 불문하고 독립적인 설치 사용이 용이하다는 효과가 있다.In addition, in performing these AI-based input/output processing and IoT control functions, voice data processing is possible through its own independent processing algorithm without being dependent on the dedicated server of a third-party Internet service provider (communication company). It has the effect of being easy to install and use independently regardless of overseas.
한편, 다양한 IoT 주변 외부기기들을 제어함에 있어서, 연결된 수많은 디바이스를 최적의 경로를 통해 제어하거나 모니터링 할 수 있다.On the other hand, in controlling various external devices around the IoT, it is possible to control or monitor a number of connected devices through an optimal path.
한편, 클라우드 환경에서 프라이버시 보호를 위해 모사 데이터를 이용하여 데이터베이스를 구축하고 SVM을 이용하여 발화 사용자를 인증함으로서 한층 보안을 강화할 수 있다.On the other hand, to protect privacy in the cloud environment, security can be further strengthened by building a database using simulated data and authenticating the speaking user using SVM.
도 1은 본 발명의 일 실시예로 터치스크린의 전자 교탁(300)에서 사용자의 음성 명령(200) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 구조를 나타낸 도면이다.
도 2는 기존의 통신사의 전용 스피커(210), 통신망(250), AI서버(230)를 이용하여 클라우드 서비스(240)를 이용하는 상황을 나타낸 도면이다.
도 3은 본 발명의 일 실시예로 통신사와 무관하게 자체 개별 스피커(310)를 이용하여 클라우드 서비스(330)를 이용하는 상황을 나타낸 도면이다.
도 4는 본 발명의 일 실시예로 전자 교탁에서 사용자의 터치입력 또는 음성 입력(400, 410) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색(450) 또는 제어 기능(480, 490)을 수행하는 플로우 차트를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따라 딥러닝 기반의 보정적기 판단 소프트웨어에서 페이크 영상 데이터를 제작하기 위한 신경망 모델의 블록도이다.
도 6은 본 발명의 일 실시예로 AI 기반의 제어 기능 등의 메뉴 구성을 포함한 UI 화면이 표시된 전자 교탁을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따라 화자와의 위치, 거리에 관한 영상 카메라 및 음성 센서를 활용한 음성의 이상여부 및 보정 적기의 판단 프로세스를 적용한 예시를 나타내는 플로우 차트이다.
도 8은 본 발명의 일 실시예에 따라 살균 기능을 포함하는 덮개가 있는 전자교탁을 나타낸 개략적인 사시도 도면이다.
도 9는 상기 도 8의 전자교탁의 내부를 개략적으로 나타내며, 특히 살균부의 측면의 단면도를 투시하여 나타낸 도면이다.1 shows a structure in which an artificial intelligence (AI)-based cloud search or control function can be performed by processing a user's
FIG. 2 is a diagram illustrating a situation in which the
3 is a diagram illustrating a situation in which the
4 is an artificial intelligence (AI)-based
5 is a block diagram of a neural network model for producing fake image data in deep learning-based corrective timing judgment software according to an embodiment of the present invention.
6 is a diagram illustrating an electronic classroom in which a UI screen including a menu configuration such as an AI-based control function is displayed according to an embodiment of the present invention.
7 is a flowchart illustrating an example of applying a process for determining whether a voice is abnormal and correcting timing using a video camera and an audio sensor regarding a location and distance from a speaker according to an embodiment of the present invention.
8 is a schematic perspective view showing an electronic classroom with a cover including a sterilization function according to an embodiment of the present invention.
9 is a view schematically showing the inside of the electronic classroom of FIG. 8, and in particular, a cross-sectional view showing the side of the sterilization unit through a perspective view.
본 발명의 이점 및 특징 그리고 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 보다 명확해질 것이다.Advantages and features of the present invention and a method of achieving it will become more apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 한정된 몇몇의 실시예로 제한되는 것이 아니라 목적, 효과가 실질적으로 동일한 범위내에서는 서로 다른 다양한 형태로 구현될 수 있으며 이러한 실시예 역시 본 발명의 기술적 사항에 포함된다고 볼 수 있을 것이다.However, the present invention is not limited to some limited embodiments disclosed below, but may be implemented in various different forms within substantially the same scope, and these embodiments are also considered to be included in the technical matters of the present invention. will be able
본 명세서에서 실시예는 본 발명의 개시가 보다 명확해지도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 이해 시켜주기 위해 제공되는 것이다. Examples in the present specification are provided to make the disclosure of the present invention clearer, and to fully understand the scope of the invention to those of ordinary skill in the art to which the present invention pertains.
그리고 본 발명의 권리범위는 후술되는 특허청구의 범위에 의해 정의될 것이다.And the scope of the present invention will be defined by the claims to be described later.
따라서 몇몇 실시예에서 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 세부기술들은 본 발명이 모호하게 해석되는 것을 피하기 위해 구체적으로 설명하지는 않는다.Accordingly, in some embodiments, well-known components, well-known operations, and well-known details are not specifically described to avoid obscuring the present invention.
또한 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하고 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것일 뿐이며 본 발명을 한정시키고자 하는 것은 아니다.In addition, the same reference numerals refer to the same elements throughout the specification, and the terms used herein are for the purpose of describing the embodiments only and are not intended to limit the present invention.
본 명세서에서 단수형은 문구에서 특별히 언급하지 않는한 복수형도 포함하는 것으로 해석해야할 것이며, 포함(또는 구비)하는 것으로 언급된 구성 요소 또는 동작은 하나 이상의 다른 구성 요소 또는 동작의 존재 및 추가를 배제하지 않는다.In this specification, the singular shall be construed to include the plural as well, unless the phrase specifically states otherwise, and elements or operations referred to as including (or having) do not exclude the presence and addition of one or more other elements or operations. .
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어 포함)은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs.
또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 별도로 정의되어 있지 않는한 과도하게 또는 이상적으로 해석되지 않는 것으로 한다.In addition, terms defined in general used dictionary shall not be interpreted excessively or ideally unless otherwise defined.
이하, 첨부된 도면을 참고로 본 발명의 바람직한 실시예에 대하여 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예로 터치스크린의 전자 교탁(300)에서 사용자의 음성 명령(200) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 구조를 나타낸 도면이다.1 shows a structure in which an artificial intelligence (AI)-based cloud search or control function can be performed by processing a user's
터치 인식이 가능한 패널부(미도시)와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치 인식을 수행하는 센서부(미도시)를 포함하는 전자 교탁(300)은 외부의 소스(100, 200)로부터 터치 입력 신호(100) 또는 음성 명령 신호(200)를 입력받는다.The
이때 입력된 터치 방식에 따라, 터치 센서(310)에서 인식된 터치의 패턴으로 전자 교탁(300) 화면에 표시하고 기타 UI 입력에 따른 응답을 출력한다.At this time, according to the input touch method, a pattern of a touch recognized by the
만약 음성 명령(200) 신호가 입력되는 경우에는 음원을 분리하고 노이즈를 제거하는 어레이 타입의 마이크 모듈(320)에 의해 입력된 아날로그 음성 시그널의 신호를 품질을 향상시킨다. 이때 마이크 어레이(320)는 복수의 마이크를 이용하여 이득(gain) 보상 또는 에코(echo) 제거 기능을 구현하고 왜곡된 상기 음성 신호를 보상하는 음향 모델 기계학습을 수행할 수 있다. 이를 통해 마이크에서 다소 떨어진 원거리에서도 음성 인식이 원활하게 처리될 수 있으며, 전자 교탁에서 다른 오디오 기능(예를 들어 발표자료의 오디오 재생)이 있는 경우라도 상기 음성 인식 기능이 동작되어야 한다.If the
그런 다음 마이크 어레이(320)로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 음성 인식 엔진(340)에서 텍스트 신호인 디지털 데이터로 변환(Speech to Text)하고, 음성 신호 및 변환된 텍스트 신호는 데이터베이스(360)에 반복하여 저장된다. 이렇게 저장된 데이터들은 자체 스피커를 이용한 음성 인식 엔진(340)과 명령어 해석부(350)를 포함하는 음성 인식 시스템에서 S/W의 지속적인 업그레이드를 위하여 인공지능 기반의 기계학습을 위한 학습 데이터로 활용된다.Then, a voice signal, which is an analog signal from which noise has been removed, is received from the
한편 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스(360)를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부(350)에서는 알고리즘에는 음성 명령 패턴을 분석하는 알고리즘, 패턴에 따른 명령어 제어 프로토콜 매칭 알고리즘, 음성 패턴 어레이 매칭 알고리즘, 이종언어의 동일 의미부여 매칭 패턴 알고리즘 등이 함께 진행될 수 있다. Meanwhile, in the
이렇게 해석된 명령어(command)에 따라 제어부(330)에서는 인터넷 검색과 같은 외부 클라우드 서비스로의 쿼리검색 기능을 수행하거나 또는 내부/외부의 제어기능을 수행할 수 있다.According to the command interpreted in this way, the
이때 내부/외부 제어기능의 예를 들어보면, 먼저 내부 기능 제어로서 전자 교탁(300)의 전원을 온오프 시키거나 전자 교탁(300)의 볼륨을 조절하거나 화면상 제어 컨트롤(발표 화면 크기조절, 발표 페이지 이동 등) 또는 입력 소스(USB, HDMI 등)의 변환 등 전자 교탁(300) 내부적인 제어 기능을 수행할 수 있다.At this time, taking an example of an internal/external control function, first, as an internal function control, the power of the
그리고 외부 기능 제어를 예로 들면, 전자 교탁(300)과 유무선으로 연결된 사물 인터넷(IoT) 망에 위치한 주변기기(예를 들어 강의실 램프, 도어락, 다른 전자 교탁 등)를 제어하는 상황이 있을 수 있다. 즉, IoT 관련 릴레이(relay) 및 IR 컨트롤러를 이용하여 주변의 램프 불을 스위치하여 껐다 켰다 할 수 있는 것이다.And, taking the external function control as an example, there may be a situation in which the
한편 명령어 해석부(350)에서 해석된 명령어는 내부의 명령어 리스트(370)와 비교하여 상기 음성 신호의 패턴을 검색하는 음성 패턴 매칭부(미도시)를 더 포함하며 음성 패턴 매칭부는 최초 슬립 모드(sleep mode)에서 소정의 음성 패턴에 의해 음성 인식 엔진(340)을 웨이크업 모드(wake-up)로 변화시키는 내부 제어 신호를 발생시킨다. 아울러, 웨이크업 모드에서 소정의 시간동안 추가적인 음성 명령 입력이 없을 시에는 다시 슬립 모드로 전환되어 전원과 기타 리소스 소비를 최소화 시킬 수 있다.On the other hand, the command interpreted by the
아울러, 본 발명은 클라우드로 연결된 외부기기들에 대하여 데이터 전달 비용을 절감하고 IoT 데이터(입력, 센싱, 모니터링) 수집을 최대화할 수 있는 제어 프로세스의 최적 경로를 제공하고자 한다.In addition, the present invention aims to provide an optimal path for a control process that can reduce data transmission costs for external devices connected to the cloud and maximize IoT data (input, sensing, monitoring) collection.
최적 경로(루트) 추천 알고리즘은 데이터 수집 모듈(data acquisition), 전처리 모듈(system processes), 예측 모듈(prediction), 예측 모델 구성부(learning module) 및 최적화 모듈(optimization module)을 포함하여 구성될 수 있으며, 상기 수집 모듈은 실제 주변기기의 사용데이터인 데이터 셋(input dataset)을 입력 받으며, 상기 전처리 모듈은 상기 입력된 데이터 셋을 전처리 할 수 있다. 또한, 상기 전처리 모듈은 상기 데이터 셋을 훈련 데이터 셋과 테스트 데이터 셋으로 분할하고 상기 예측 모듈은 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하여, 보다 구체적으로 상기 예측 모듈은 상기 테스트 데이터 셋을 예측 알고리즘에 적용하여 예측할 수 있다.The optimal path (root) recommendation algorithm can be configured including data acquisition module (data acquisition), preprocessing module (system processes), prediction module (prediction), predictive model learning module (learning module) and optimization module (optimization module) In addition, the collection module receives an input dataset that is actual usage data of the peripheral device, and the preprocessing module may preprocess the inputted data set. In addition, the preprocessing module divides the data set into a training data set and a test data set, and the prediction module applies the preprocessed data set to a prediction algorithm, more specifically, the prediction module converts the test data set into a prediction algorithm can be predicted by applying
한편, 예측 모델 구성부는 상기 훈련 데이터 셋을 이용해 ANN(Artificial Neural Network)에 머신 러닝하여 상기 예측 모듈을 구성할 수 있으며, 상기 최적화 모듈은 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾을 수 있다. On the other hand, the predictive model configuration unit can configure the prediction module by machine learning in an artificial neural network (ANN) using the training data set, and the optimization module uses the prediction model and constraints according to the objective function to determine the optimal route can be found
전처리 모듈에서는 입력된 데이터 셋을 전처리 하며, 이때 전처리 시에는 널(null) 입력을 제거하고 예측에 필요한 필드를 도출할 수 있으며, 이와 같이 전처리 된 데이터는 예측 모듈에 공급될 수 있다. 따라서, 예측 모듈에서는 다양한 예측 알고리즘 중에서 가장 높은 정확도를 갖는 예측 알고리즘을 데이터에 적용하여 사용량 예측 모델을 계산할 수 있으며, 이때 가장 성능이 좋은 예측 알고리즘이 저장되어 다음 단계에 적용될 수 있다. 그에 따라, 최적화 모듈은 일부 제약 조건과 예측 모델을 사용하고 목적 함수에 따라 가장 적합한 경로(루트)를 찾을 수 있다.The preprocessing module preprocesses the input data set. In this case, null input can be removed and fields necessary for prediction can be derived during preprocessing, and the preprocessed data can be supplied to the prediction module. Therefore, in the prediction module, the usage prediction model can be calculated by applying the prediction algorithm having the highest accuracy among various prediction algorithms to the data, and at this time, the prediction algorithm with the best performance is stored and applied to the next step. Accordingly, the optimization module can use some constraints and predictive models and find the most suitable path (root) according to the objective function.
실제 주변기기의 사용빈도량 및 전력소모량을 기준으로 데이터 셋(data set)을 만들 수 있으며, 목적 함수를 사용해 예측된 모델과 제약 조건을 통해 주변기기의 통신 비용(기기간 거리 및 데이터량)에 따른 cost를 최소화하고 특정 그리드(grid)의 IoT 데이터 수집을 최대화할 수 있다.A data set can be created based on the actual peripheral usage frequency and power consumption, and the cost according to the communication cost of peripheral devices (distance between devices and data amount) can be calculated through the model and constraints predicted using the objective function. Minimize and maximize IoT data collection for a specific grid.
도 2는 기존의 통신사의 전용 스피커(210), 통신망(250), AI서버(230)를 이용하여 클라우드 서비스(240)를 이용하는 상황을 나타낸 도면이다. FIG. 2 is a diagram illustrating a situation in which the
이하 후술할 도 3과 달리 도 2에서는 스마트폰(200), 컴퓨터(220) 외에 인터넷 서비스 공급자(통신사)가 개발하여 제공하는 전용 스피커(210)을 통해 통신사 전용 통신망(250)을 통해 클라우드 서비스(240)를 이용할 수 있다. Unlike FIG. 3, which will be described later, in FIG. 2, in addition to the
즉, 특정 통신사에 가입하여 통신사 전용 AI 스피커를 사용하여야 하며, 특화된 인공지능 서비스 역시 각 통신사가 개발하여야 하므로, 전자 교탁과 같은 특수 목적용으로 사용하기에는 부적합하다. 아울러 전자 교탁과 같은 특화성이 있는 AI 기능에서는 타 서비스 대비 빈번하고 많은 여러 신호의 요청으로 인해 리소스가 소모되며, 타 통신사 사용시 적용이 불가하다는 한계점도 있다. 그리고 통신사의 AI 서버가 다운되거나 하는 예외 상황에서는 전체 AI 기능을 사용하지 못하게 될 수도 있다. 그리고 외국어 기반의 해외 수출용으로도 단점이 있으며, 타국가 통신 사업자간의 이해관계(언어구현, 통신서비스 방식 등의 차이)로 국제화가 힘들다는 단점이 있다. 이와 비교하여 도 3의 본 발명의 클라우드 서비스 이용방식을 살펴보도록 한다.That is, it is necessary to subscribe to a specific communication company and use the AI speaker dedicated to the communication company, and the specialized artificial intelligence service must also be developed by each communication company, so it is not suitable for use for special purposes such as electronic classrooms. In addition, AI functions with specialized characteristics such as electronic tutoring consume resources due to frequent and many signal requests compared to other services. And in exceptional circumstances, such as when the telecommunication company's AI server goes down, the entire AI function may not be available. Also, foreign language-based export has disadvantages, and internationalization is difficult due to the interests (differences in language implementation, communication service methods, etc.) between telecommunication operators in other countries. In comparison with this, the cloud service usage method of the present invention of FIG. 3 will be described.
도 3은 본 발명의 일 실시예로 통신사와 무관하게 자체 개별 스피커(310)를 이용하여 클라우드 서비스(330)를 이용하는 상황을 나타낸 도면이다. 3 is a diagram illustrating a situation in which the
도 3에서는 스마트폰(300), 컴퓨터(320) 외에 인터넷 서비스 공급자(통신사)가 개발하여 제공하는 전용 스피커(210)가 없고, 통신사 전용 통신망(250)도 아닌 통신사와 무관한 인터넷 통신망(340)을 이용하는 상황을 가정하고 있다. 아울러 음성 인식 엔진이 구비된 개별 스피커(310)를 이용하여 직접 클라우드 서비스(240)를 이용할 수 있다. 즉, 특정 통신사에 가입하여 통신사 전용 AI 스피커를 사용할 필요가 없으며, 특화된 인공지능 서비스 역시 각 통신사가 개발하지 않아도 되므로 개별 기업이 전용성으로 맞춤형 AI 제작하는 것이 가능하다. 따라서 전자 교탁과 같은 특수 목적용으로 사용하기에 적합하다. 아울러 전자 교탁과 같은 특화성이 있는 AI 기능에서는 타 서비스 대비 빈번하고 많은 신호 요청이 있으므로 이를 처리하는 전용 S/W를 설치함으로써 보다 적은 리소스를 소비할 수 있다. 타 통신사 사용시 적용이 불가하다는 한계점도 없으므로 통신사 여부를 신경쓰지 않아도 되며, 통신사의 AI 서버가 다운되거나 하는 예외 상황도 고려할 필요가 없어지게 된다. In FIG. 3 , there is no
그리고 한국어가 아닌 외국어 기반의 해외 수출용으로도 사용하기에도 필요에 따라 수출 국가별 맞춤 서비스로 개발할 수 있고 전자 교탁 전용 AI 특화 기능으로 개발, 유지, 보수가 가능하여 타 국가의 AI와 호환이 가능해진다. In addition, even if it is used for overseas export based on a foreign language other than Korean, it can be developed as a customized service for each exporting country as needed. .
도 3과 같이 클라우드 서비스(330)를 이용할때 제어부는 명령어 해석부에서 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS(Software as a Service) 기반의 클라우드 데이터를 쿼리(query) 검색하여 전자 교탁의 화면에 해당 컨텐츠를 표시해 줄 수 있다.As shown in FIG. 3 , when using the
한편, 전자 교탁이 연결되는 클라우드 플랫폼에서는 다양한 형태의 서비스 제공이 가능하며, 이 가운데 스토리지 기반의 클라우드 서비스가 가장 널리 사용되는 서비스 유형이며 현재 많은 클라우드 스토리지 환경에서는 클라우드 환경의 특성상 대용량의 스토리지 서버관리를 위해 기존 데이터와 동일한 데이터는 저장하지 않는 중복제거 기능을 적용하고 있는데, 중복제거 기술을 사용하면 구조적으로 프라이버시 문제를 안게 된다. On the other hand, various types of services can be provided on the cloud platform to which the electronic classroom is connected. Among them, the storage-based cloud service is the most widely used service type. For this purpose, a deduplication function is applied that does not store the same data as the existing data. However, if the deduplication technology is used, there is a structural privacy problem.
즉, 중복제거 기술이 적용되려면, 사용자와 파일의 매핑구조를 메타정보로 저장하게 되며, 이 과정에서 서버상의 메타 분석을 통하여 특정 파일을 업로드한 사용자의 리스트를 확보할 수 있기 때문이다. That is, in order to apply the deduplication technology, the mapping structure between users and files is stored as meta information, and in this process, a list of users who uploaded a specific file can be secured through meta-analysis on the server.
또한, 빅데이터 기술이 발달되면서 특정 개인이나 장치의 민감정보를 추적하는 기술도 중요해지고 있다. 개인이나 장치의 특정한 민감 정보는 GPS 좌표(위도/경도)로 표시되는 위치 정보, 연설이나 발표에 사용되는 발표자료의 저작권 등의 지식재산권 정보, 기타 화자를 특정할 수 있는 사적인 개인 정보 등을 활용하는 어플리케이션의 경우 이러한 어플리케이션이 클라우드에 접속해 다양한 민감정보 데이터를 송수신하고 다양한 민감정보 출력값을 지속적으로 보관하는 경우 심각한 프라이버시 침해 문제가 발생할 수 있다.In addition, with the development of big data technology, the technology for tracking sensitive information of a specific individual or device is also becoming important. Specific sensitive information of individuals or devices uses location information expressed in GPS coordinates (latitude/longitude), intellectual property rights information such as copyright of presentation materials used for speeches or presentations, and other private personal information that can identify the speaker. In the case of applications that do this, if these applications access the cloud, send and receive various sensitive information data, and continuously store various sensitive information output values, serious privacy violations may occur.
이러한 여러 경우에 사용할 수 있는 보안 기법으로서 K-익명성 모델 및 데이터 교란화를 이용하여 해쉬함수값인 Q값은 수학식 1에 의하여 산출될 수 있다. K-익명화를 위해 미리 설정된 k값(ex. k=3)을 기초로 시간 정보에 대한 HMAC 값인 Q값들을 산출할 수 있다.As a security technique that can be used in such a number of cases, a hash function value of Q can be calculated by
<수학식 1><
(HMAC는 해시 기반 메시지 인증 코드 Hash-based Message Authentication Code 알고리즘이며, TS는 시간 정보의 타임스탬프 정보이며, K_CNT는 k값이 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보이다)(HMAC is a Hash-based Message Authentication Code algorithm, TS is the timestamp information of time information, K_CNT is the count number based on the k value, and PK is the previously shared secret key information)
K-익명성은 데이터 비식별화의 프라이버시 보호 모델 중 하나로 특정 단일 데이터만 저장할 경우 개인의 식별 가능성의 위험이 있으므로 데이터 저장시 k값 이상의 데이터를 동시에 저장하여 식별 가능성을 낮추는 방식이다. 예를 들어, k가 3이라면 IoT 데이터 1개를 저장할 때 동시에 3 개의 데이터를 저장한다. 이 때, 한 개의 데이터는 실제 데이터이고 나머지 두 개의 데이터는 가상의 모조 데이터가 된다. 이때 인가된 관리자 등에 사전 공유된 비밀키에 해당하는 PK를 알고 있어야 어느 것이 진짜 데이터인지 파악할 수 있게 된다.K-anonymity is one of the privacy protection models of data de-identification, and since there is a risk of individual identification when only specific single data is stored, it is a method of lowering the possibility of identification by simultaneously storing data with a value of k or more when storing data. For example, if k is 3, when saving 1 IoT data, 3 data are stored at the same time. At this time, one piece of data is real data, and the other two pieces of data are virtual fake data. At this time, you need to know the PK corresponding to the pre-shared secret key, such as an authorized administrator, so that you can determine which one is the real data.
TS는 타임스탬프(Time Stamp)를 의미하며 위에서 언급한 바와 같이 미리 설정된 주기로 데이터가 입력되는 경우 데이터가 입력되는 특정 시각을 의미하거나 IoT 데이터가 발생한 시간을 의미한다. K_CNT는 미리 설정된 k값에 따라서 카운트되는 숫자에 해당하며 예를 들어, k가 3인 경우 K_CNT 값은 1, 2, 3 값을 가지게 된다. 이때, K_CNT 값이 1일 경우 원본 데이터이고, 2나 3일 경우에는 가짜(모조) 데이터로 취급할 수 있다.TS means a time stamp, and as mentioned above, when data is input at a preset period, it means a specific time at which data is input or the time at which IoT data is generated. K_CNT corresponds to a number counted according to a preset value of k. For example, when k is 3, the value of K_CNT has values of 1, 2, and 3. In this case, when the K_CNT value is 1, it is original data, and when it is 2 or 3, it can be treated as fake (imitation) data.
상기 수학식 1에서와 같이 PK 정보를 기초로 특정 타임스탬프(TS) 정보를 HMAC 알고리즘을 이용하여 문자형 데이터의 Q값으로 변환시킴과 동시에 k개의 K_CNT 값에 해당하는 출력값을 모두 계산하여 k개의 Q값을 산출할 수 있다. 이러한 방식으로 저장되는 데이터베이스에는 시간 정보는 포함되지 않으며, k개의 Q값들만이 저장된다. 따라서, 데이터베이스가 해킹이 되는 경우에도 시간 정보는 노출되지 않고, Q값 정보들이 해킹된다고 하더라도 비밀키(PK) 정보를 모르는 경우 어떤 값들이 원본 데이터인지 알 수가 없어 원본 데이터에 대한 해킹이 실질적으로 불가능하게 된다.As in
도 4는 본 발명의 일 실시예로 전자 교탁에서 사용자의 터치입력 또는 음성 입력(400, 410) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색(450) 또는 제어 기능(480, 490)을 수행하는 플로우 차트를 나타낸 도면이다.4 is an artificial intelligence (AI)-based
도 4를 참조하면, 먼저 터치입력 또는 음성입력의 입력(400)이 있을 이를 판단하여(410), 음성 신호의 입력일 때는 전자 교탁 내부에 구비된 음성 인식 엔진이 아날로그 신호인 음성 신호를 디지털 신호인 텍스트 신호로 변환(speech to text)한다(420).Referring to FIG. 4, first, it is determined whether there is an
그런 다음 변환된 텍스트 데이터를 해석함에 있어서(430) 기계학습을 통해 기존의 해석했던 데이터, 기존의 분류했던 음성 신호 등을 데이터베이스에서 불러와 반복 비교함으로써 시간이 지나고 처리하는 데이터양이 많아질수록 보다 정교한 해석이 가능해진다. 이렇게 인공지능 기반의 학습 및 해석을 이용하여 음성 인식률을 90% 이상으로 높일 수 있으며, 음성 인식에 따른 동작을 기능구현 할 수 있다.Then, in interpreting the converted text data (430), the previously analyzed data and the previously classified voice signal through machine learning are called from the database and compared repeatedly, so that as time passes and the amount of data to be processed increases, more Sophisticated interpretation is possible. In this way, by using AI-based learning and interpretation, the speech recognition rate can be increased to more than 90%, and the operation according to the speech recognition can be implemented.
다음으로 해석된 명령어(command)가 클라우드 서비스를 이용하는 인터넷 검색과 같은 요청인지 아니면 기기를 제어하는 요청인지를 판단하여(440), 인터넷 검색의 요청의 경우에는(450) 해당 검색 결과인 컨텐츠 화면을 전자 교탁에 표시할 수 있다(460).Next, it is determined whether the interpreted command is a request such as an Internet search using a cloud service or a request to control a device (440), and in the case of an Internet search request (450), the content screen corresponding to the search result is displayed (450). The electronic classroom may be marked (460).
또는 기기를 제어하는 요청인 경우에는(470) 전자 교탁의 내부 기능(전원, 볼륨, 화면, 소스 등)을 제어하는 명령인지 아니면 유무선으로 연결된 외부 기기의 제어기능(강의실 램프, 커튼, 도어락, 다른 전자 교탁 등)을 수행하고자 하는 명령인지에 따라 외부기기를 제어하거나(480) 전자 교탁의 내부기능을 실행한다(490).Or, in the case of a request to control a device (470), is it a command to control the internal functions (power, volume, screen, source, etc.) of the electronic classroom or control functions of external devices connected by wire or wireless (classroom lamps, curtains, door locks, etc.) The external device is controlled (480) or an internal function of the electronic classroom is executed (490) depending on whether the command is to be performed (e.g., electronic classroom, etc.).
한편, 전자 교탁이 음성 신호를 발화한 사용자를 인증하는 방법으로 아래와 같은 단계를 거칠 수 있다.On the other hand, as a method for the electronic classroom to authenticate the user who has uttered the voice signal, the following steps may be performed.
먼저, 사용자의 로그인 환경정보를 추출한다. 사용자의 로그인 환경정보는 사용자가 인터넷 사이트 로그인 시 IP 대역과 사용자 에이전트(User-Agent)가 될 수 있다. 다음으로, 추출된 로그인 환경정보를 One-Hot-Encoding 방식으로 변환하여 변환정보를 생성하여 환경정보 별로 고유한 값들에 1부터 번호를 부여하여 라벨 인코딩(Label Encoding)한다.First, the user's login environment information is extracted. The user's login environment information may be an IP band and a user-agent when the user logs in to an Internet site. Next, the extracted log-in environment information is converted into a One-Hot-Encoding method to generate conversion information, and a number is assigned to unique values for each environment information from 1 to label encoding.
다음으로, 변환 정보를 SVM(Support Vector Machine)을 이용하여 2-클래스 사용자 모델을 생성한다. SVM(Support Vector Machine)은 기계 학습 알고리즘 중 하나로 패턴 인식에 주로 사용된다.Next, a two-class user model is generated using the conversion information using a support vector machine (SVM). SVM (Support Vector Machine) is one of the machine learning algorithms and is mainly used for pattern recognition.
SVM(Support Vector Machine)은 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 상기 사용자 인증 방법에서는 시스템 전체 사용자의 변환 정보를 SVM을 이용하여 2-클래스 사용자 모델을 생성하고, 사용자가 로그인 시 2-클래스 사용자 모델을 적용하여 사용자가 본인지 여부를 판단한다. 따라서, 부정 사용자가 원 소유자의 아이디와 비밀번호를 도용하여 전자 교탁에 연결된 IoT 주변기기 또는 전자 교탁을 통한 인터넷 사이트를 로그인 할 경우에 적발하여 접속 거부할 수 있어 보안을 향상시킬 수 있다.SVM (Support Vector Machine) creates a non-stochastic binary linear classification model that determines which category the new data belongs to based on the given data set when a set of data belonging to one of two categories is given. In the user authentication method, a two-class user model is generated using SVM based on conversion information of the entire system user, and when a user logs in, the two-class user model is applied to determine whether the user is the user. Therefore, when an illegal user steals the ID and password of the original owner to log in to an IoT peripheral device connected to the electronic classroom or to an Internet site through the electronic classroom, it is possible to detect and deny access, thereby improving security.
도 5는 본 발명의 일 실시예에 따라 전자 교탁에서 딥러닝 기반의 보정적기 판단 프로세스를 수행하는 중에 페이크 영상 및 음성 데이터를 제작하기 위한 신경망 모델의 블록도이다.5 is a block diagram of a neural network model for producing fake image and voice data while performing a deep learning-based corrective timing determination process in an electronic classroom according to an embodiment of the present invention.
영상 신호와 음성 신호를 입력받은 전자 기기에서 인공지능 기반으로 출력신호 특히 음성과 같은 오디오 신호의 보정적기를 판단하고 더 나아가 예측하기 위한 신경망 학습을 위해서는 많은 양의 데이터가 필요하다.A large amount of data is required for neural network learning to determine and further predict the corrective timing of output signals, especially audio signals, such as voice, based on artificial intelligence from electronic devices that have received video and audio signals.
따라서, 본 발명의 일 실시예에서는 영상 카메라와 음성 인식 센서가 포함된 전자 교탁으로서 인공지능 모델로 신경망 모델을 사용하되, 신경망 학습을 위해 부족한 영상 데이터를 미리 제작된 페이크(fake) 영상 및 음성 데이터로 대체하고, 비지도 학습 신경망 모델인 GAN(Generative Adversarial Nets) 모델을 신경망 학습에 적용하여 음성신호의 보정적기의 판단 및 예측에 대한 정확도를 높이고자 한다.Therefore, in an embodiment of the present invention, a neural network model is used as an artificial intelligence model as an electronic classroom including an image camera and a voice recognition sensor, but image data insufficient for neural network learning is pre-fabricated as fake image and voice data , and apply the Generative Adversarial Nets (GAN) model, an unsupervised learning neural network model, to neural network learning to increase the accuracy of judgment and prediction of the corrective timing of speech signals.
즉, 인공지능 신경망 모델을 사용하되, 신경망 학습에 있어서 부족한 데이터를 사전 제작된 페이크 영상데이터 및 페이크 음성 소리데이터로 대체하고, 비지도 학습 신경망 모델의 GAN을 학습에 적용하여 딥러닝 학습데이터 기준에서 소정의 수치 범위를 벗어나는 분석값으로 판단될 때 상기 화자의 음성에서 이상상황이 발생한 시점으로 판단할 수 있는 것이다.That is, an artificial intelligence neural network model is used, but the data lacking in neural network learning is replaced with pre-made fake image data and fake voice sound data, and the GAN of the unsupervised learning neural network model is applied to the learning in the deep learning data standard. When it is determined that the analysis value is out of a predetermined numerical range, it can be determined as the time when an abnormal situation occurs in the speaker's voice.
보다 구체적으로 설명하면, 음성의 보정적기의 예측 및 판단에 대한 정확도를 높이고자 VAE(Variational Auto Encoder)의 장점과 GAN 모델의 특징을 이용하는데, 이를 위하여 모델의 평가 기준이 명확한 VAE를 앞단에 배치하고, 비교 기준이 명확하지 않아서 결과를 시각화해서 판단하는 경우가 많은 GAN을 뒷단에 배치하여 정확도가 높은 신경망 모델을 사용할 수 있도록 한다.More specifically, in order to increase the accuracy of the prediction and judgment of the corrective timing of speech, the advantages of the Variational Auto Encoder (VAE) and the characteristics of the GAN model are used. In addition, the GAN, which is often judged by visualizing the results because the comparison criteria are not clear, is placed at the rear so that a high-accuracy neural network model can be used.
도 5를 참조하면, 페이크 영상/음성 데이터를 제작하기 위한 신경망 모델은 크게 필터부(510), VAE부(520), CNN부(530) 및 GAN부(540)를 포함할 수 있으며, 입력(input)으로는 기존에 확보된 화자의 움직임 영상 데이터 및 음성 데이터를 사용할 수 있다. 입력된 데이터는 필터부(510)를 통해 노이즈 제거 등의 전처리 과정이 진행되어 각종 왜곡이 보정될 수 있고, Data Augmentation(Crop, Rotate, Flip, Translate, Resize, 등) 기법을 사용할 수 있다. Referring to FIG. 5 , a neural network model for producing fake image/voice data may largely include a
왜곡이 보정된 영상/음성 데이터 또는 Augmentation 기법으로 생성된 데이터는 다중 입력으로 이루어진 VAE부(520)로 입력되어 엔코더(Encoder, 521), Latent Space(523) 및 디코더(Decoder, 525)에서의 처리를 거침으로써 복수 개의 잠재적 특징 벡터(Latent Feature Vector) 데이터를 출력할 수 있다.The distortion-corrected image/audio data or data generated by the augmentation technique is input to the
여기서 Augmentation(데이터 변조) 기법은 인공지능으로 음성의 보정적기의 예측 및 판단의 정확도를 높이는 방법으로 다양한 전처리 기법, 적절한 학습모델 선택, 적절한 신경망 선택, 다양한 앙상블 모델 등의 예를 들어 볼 수 있다. Here, the Augmentation (data modulation) technique is a method of increasing the accuracy of prediction and judgment of the corrective timing of speech with artificial intelligence. Examples of various preprocessing techniques, selection of appropriate learning models, selection of appropriate neural networks, and various ensemble models can be seen.
본 발명에서는 인공지능 모델 학습에 필요한 데이터 부족 현상을 해결하기 위함이고, 화자의 움직임 특히 마이크와의 거리 및 위치를 충분히 관찰하고 촬영하여 충분한 데이터가 확보된 경우는 전처리 단계에서 확보된 데이터를 사용하거나, 더욱 높은 정확도를 위한 학습을 위해 다른 알고리즘 방법을 혼용하여 사용할 수 있다. In the present invention, to solve the data shortage phenomenon necessary for learning the AI model, when sufficient data is obtained by sufficiently observing and photographing the movement of the speaker, particularly the distance and position from the microphone, the data obtained in the pre-processing step is used or , other algorithm methods can be mixed to learn for higher accuracy.
복수 개의 잠재적 특징 벡터 데이터는 CNN부(530)를 통과하여 신경망 GAN 모델의 P(x)(541)의 입력 데이터로 사용되고, G(x)(543)의 입력 데이터로는 랜덤 벡터 데이터를 사용할 수 있다. A plurality of potential feature vector data passes through the
GAN부(540)의 D(x)(545)에서는 P(x)(541)와 G(x)(543) 간의 상호 차를 통해 로스(Loss) 함수를 구하고, 구해진 로스 함수를 이용하여 백프로퍼게이션 (Backpropagation) 방법을 통해 페이크 영상/음성 데이터와 실제(Real) 영상/음성 데이터를 보정하게 된다. In the D(x) 545 of the
이러한 과정을 반복하여 더욱 정밀한 예측이 가능하고, D(x)(545)의 출력 데이터는 최종 학습용 또는 모델 검증용으로도 사용할 수 있다.By repeating this process, more precise prediction is possible, and the output data of D(x) 545 can be used for final training or model validation.
이때, CNN부(530)는 다중의 신경망 층을 구성할 수 있으며, 층 내부에는 지도 학습, 비지도 학습이나 준지도 학습의 다른 신경망을 구성하여 다양한 학습 데이터를 구성할 수도 있다.In this case, the
도 6은 본 발명의 일 실시예로 AI 기반의 제어 기능 등의 메뉴 구성을 포함한 UI 화면이 표시된 전자 교탁을 나타낸 도면이다. 6 is a diagram illustrating an electronic classroom in which a UI screen including a menu configuration such as an AI-based control function is displayed according to an embodiment of the present invention.
전자 교탁의 화면상에 File(610), E-board(620), Internet(630) 등의 기본적인 메뉴와 보다 다양한 어플리케이션 메뉴(640)가 디스플레이 되어 있으며, 사용자는 이러한 UI의 터치 입력, 모션 입력 또는 음성 입력을 통해 전자 교탁의 내부적인 제어 동작 뿐만 아니라 주변에 연결된 다른 디바이스들(강의실 실내 조명, 실내 에어컨, 강의실 빔프로젝터, 창문의 커튼, 출입문 도어락 등)를 제어할 수도 있다. Basic menus such as File (610), E-board (620), Internet (630) and more various application menus (640) are displayed on the screen of the electronic classroom, and the user can use such UI touch input, motion input or Through voice input, it is possible to control not only the internal control operation of the electronic classroom, but also other peripherally connected devices (classroom lighting, indoor air conditioner, classroom beam projector, window curtains, door locks, etc.).
도 7은 본 발명의 일 실시예에 따라 영상 카메라 및 음성 센서를 활용한 음성의 이상여부 및 보정 적기의 판단 프로세스를 적용한 예시를 나타내는 플로우 차트이다.7 is a flowchart illustrating an example of applying a process for determining whether a voice is abnormal and correcting timing using a video camera and an audio sensor according to an embodiment of the present invention.
도 7을 참조하여 각 단계를 세부적으로 설명하면 다음과 같다.Each step will be described in detail with reference to FIG. 7 as follows.
먼저, 준비 단계로서 앞서 설명한 바와 같이 영상 이미지 및 음성 신호를 기반으로 오디오의 보정적기를 판단하고 예측하기 위한 신경망 학습을 위해서는 많은 양의 영상 데이터가 필요하므로 인공지능 모델로서 신경망 모델을 사용하되, 신경망 학습을 위해 부족한 영상 데이터를 미리 제작된 페이크(fake) 영상 및 음성 데이터로 대체하고, 비지도 학습 신경망 모델인 GAN(Generative Adversarial Nets) 모델을 신경망 학습에 적용하여 음성신호의 보정적기의 판단 및 예측에 대한 정확도를 높일 수 있다. First, as a preparation step, as described above, a neural network model is used as an artificial intelligence model because a large amount of image data is required for neural network learning to determine and predict the correct timing of audio based on video images and audio signals. Decision and prediction of corrective timing of voice signals by replacing insufficient image data for learning with pre-made fake image and audio data, and applying Generative Adversarial Nets (GAN) model, an unsupervised learning neural network model, to neural network learning can increase the accuracy of
즉, 인공지능 신경망 모델을 사용하되, 신경망 학습에 있어서 부족한 데이터를 사전 제작된 페이크 영상데이터 및 페이크 음성 소리데이터로 대체하고, 비지도 학습 신경망 모델의 GAN을 학습에 적용하여 딥러닝 학습데이터 기준에서 소정의 수치 범위를 벗어나는 분석값으로 판단될 때 상기 화자의 음성에서 이상상황이 발생한 시점으로 판단하고 즉각적인 음성 보정을 적용할 수 있는 것이다.That is, an artificial intelligence neural network model is used, but the data lacking in neural network learning is replaced with pre-made fake image data and fake voice sound data, and the GAN of the unsupervised learning neural network model is applied to the learning in the deep learning data standard. When it is determined that the analysis value is out of a predetermined numerical range, it is determined that an abnormal situation occurs in the speaker's voice, and immediate voice correction can be applied.
다음으로 전자교탁에 설치된 영상 카메라를 활용하여 단위 시간별로 계속하여 화자의 마이크와의 거리, 위치, 움직임 자세 등의 위치/자세 변화를 측정하여 데이터를 취득한다. Next, by using the video camera installed in the electronic classroom, data is acquired by measuring the position/posture changes such as the distance to the speaker's microphone, position, and movement posture continuously for each unit time.
다음은 데이터 전처리 단계로서, 거리 영상 및 음성 신호를 분할하는 알고리즘을 통해 데이터의 노이즈를 제거하는 데이터 전처리 동작을 수행하고, 그런 다음 이렇게 취득한 영상 또는 음성 소리 데이터를 딥러닝 알고리즘으로 학습하여 반복적인 움직임과 소리로서 보정시기를 판단하는 모델을 형성함으로써 관찰하는 강연자, 화자의 음성 이상상황을 탐지하는 단계를 거쳐서, 딥러닝 학습데이터의 기준에서 일정범위의 수치를 벗어나는 분석값으로 판단될 때 보정 적기로 판단하고, 이에 따라 이상상황 탐지 모듈에서 화자 음성의 이상시점으로 판단되면, 이러한 음성의 보정적기를 계산하는 단계를 거쳐 최종결과값을 도출하고, 화자의 음성 이상상황 탐지결과 및 보정적기 계산결과를 기록한다.The next step is data pre-processing. Data pre-processing is performed to remove noise from data through an algorithm that divides distance images and audio signals, and then, the acquired image or audio and sound data is learned with a deep learning algorithm to perform repetitive movements. By forming a model for judging the correction timing as a sound and a sound, it goes through the steps of detecting abnormal situations in the observer’s and speaker’s voice. If the abnormality detection module determines that it is an abnormal timing of the speaker's voice, the final result value is derived through the step of calculating the corrective time of the voice, and the speaker's voice abnormality detection result and the corrective timing calculation result are calculated. record
한편, 이렇게 계산된 보정시점의 결과값은 추후에 유사한 이상상황과 비교하여 해당 오차데이터를 보정 시점 판단 소프트웨어에 피드백함으로써 이러한 오차의 정도가 점진적으로 보정되며 시간이 지날수록 판단의 정확도가 더욱 높아질 수 있다.On the other hand, the result of the correction time calculated in this way is compared with a similar abnormal situation later, and the error data is fed back to the correction timing judgment software. have.
도 8은 본 발명의 일 실시예에 따라 살균 기능을 포함하는 덮개가 있는 전자교탁을 나타낸 개략적인 사시도 도면이며, 도 9는 상기 도 8의 살균 전자교탁의 내부를 개략적으로 나타내며, 특히 살균부의 측면의 단면도를 투시하여 나타낸 도면이다.8 is a schematic perspective view showing an electronic classroom with a cover including a sterilization function according to an embodiment of the present invention, and FIG. 9 schematically shows the inside of the sterilization electronic classroom of FIG. It is a view showing through a sectional view of the .
도 8 및 도 9를 참고하면, 본 실시예에 따른 살균기능을 포함한 전자교탁(1)은 본체(10), 덮개(20), 살균부(30a) 및 제어부(40)를 포함하며 전자교탁에서 사용자의 손과 비말이 닿기 쉬운 부분을 살균하여 각종 바이러스로부터 사용자를 보호할 수 있다.8 and 9, the
본체(10)는 살균 전자교탁(1)의 외형을 형성하며 상면에는 터치디스플레이(11)가 배치되어 있고, 본체(10)의 내부에는 사무기기, 컴퓨터 본체 등이 위치하는 보관공간(도시하지 않음)이 형성되어 있으며, 컴퓨터 본체는 터치디스플레이(11)와 연결되어 있다.The
그리고 본체(10)의 내부에는 사용자 방향으로 개방되는 서랍(13)이 위치하는 수납공간(12)이 형성되어 있다. 서랍(13)에는 컴퓨터 본체와 연결된 키보드, 마우스 따위가 배치될 수 있다.In addition, a
덮개(20)는 본체(10)의 상면에 직선 이동할 수 있게 배치되어 있다. 덮개(20)는 본체(10)의 상면을 덮고 있는 상태에서 하면이 터치디스플레이(11)와 마주하고 있으며 충격, 오염물 등의 외부요건으로부터 보호한다. 하지만, 덮개(20)는 직선 이동으로 덮개(20)의 상면에서 벗어나 터치디스플레이(11)를 노출시킬 수 있다. 이때 사용자는 터치디스플레이(11)를 사용할 수 있다.The
이와 같은 살균 전자교탁의 본체(10) 및 덮개(20)의 세부적인 구성은 본 출원인이 기 출원하여 공지된 전자교탁시스템(특허등록 제10-1047040호), 듀얼 모니터 기반의 전자교탁(특허등록 제10-1304520호), 전자교탁시스템(특허등록 제 10-1094193호)의 구성이 적용될 수 있다.The detailed configuration of the
살균부(30a)는 덮개(20)의 하면(일면)에 배치되어 있다. 살균부(30a)는 덮개(20)가 본체(10)의 상면을 덮고 있는 상태에서 터치디스플레이(11)와 마주한다. 살균부(30a)는 100㎚ 내지 280㎚ 단파장의 자외선을 조사할 수 있는 유브이 엘이디(UV LED)를 포함한다.The sterilizing
살균부(30a)의 유브이 엘이디는 덮개(20)의 하면에 간격을 두고 복수 배치되어 있다. 도면을 참고하면 덮개(20)가 터치디스플레이(11)를 덮고 있는 상태에서 유브이 엘이디들은 터치디스플레이(11)와 35 내지 45mm 이격(L1)되어 있다. 유브이 엘이디들은 터치디스플레이(11)로 110 내지 130°각도(D)로 자외선을 조사할 수 있다. 그리고 이웃한 유브이 엘이디들의 간격(L2)은 60 내지 80mm일 수 있다. 이웃한 유브이 엘이디들의 간격은 69.2mm일 수 있으며 자외선 조사 각도는 120°일 수 있다. 이에 살균부(30a)는 터치디스플레이(11)의 표면에 전체적으로 자외선을 조사할 수 있다.A plurality of UV LEDs of the
살균부(30a)에서 발생한 자외선은 터치디스플레이(11)에 조사되어 터치디스플레이(11)의 표면을 살균한다. 이에 터치디스플레이(11)는 잔류성 물질 없이 99% 이상 바이러스(세균)을 제거할 수 있다.The ultraviolet rays generated by the
살균부(30a)를 유브이 엘이디로 설명하였으나, 살균부(30a)는 자외선이 발생하는 유브이 램프 따위로 형성될 수도 있다.Although the
한편, 수납공간(12)에는 서브살균부(30b)가 배치되어 있다. 서브살균부(30b)는 살균부(30a)와 같은 구성으로 이루어져 키보드, 마우스 등으로 자외선을 조사하여 살균한다.On the other hand, a sub-sterilization unit 30b is disposed in the
제어부(40)는 덮개(20)에 배치되어 살균부(30a) 및 서브살균부(30b)와 전기적으로 연결되어 있다. 제어부(40)는 덮개(20)가 본체(10)의 상면을 덮으면 살균부(30a)가 작동하도록 전원을 인가한다. 또한 제어부(40)는 서랍(13)이 닫히면 서브살균부(30b)가 작동하도록 전원을 인가한다.The
살균부(30a)와 서브살균부(30b)는 제어부(40)에 설정된 기설정된 시간동안 자외선을 발생시켜 터치디스플레이(11)와 키보드, 마우스 등을 살균한다. 살균 시간은 사용자의 설정에 따라 다양하게 변경될 수 있다.The
살균부(30a)는 제어부(40)와 연결되어 살균부(30a) 및 서브살균부(30b)가 작동하도록 제어부(40)를 작동시키는 작동스위치(32), 살균부(30a)와 서브살균부(30b)의 작동상태를 나타내는 정보표시창(31)을 포함할 수 있다. 작동스위치(32)와 정보표시창(31)은 덮개(20)에 배치되어 사용자가 조작하고 확인할 수 있도록 노출되어 있다.The
한편, 정보표시창(31)에는 "터치디스플레이 살균 기능 작동 중, 키보드 살균 기능 작동 중 "자외선에 노출될 수 있으니 덮개를 이동시키지 마시오" 등의 안내문구가 표시될 수 있다.On the other hand, the
제어부(40)는 살균부(30a)와 서브살균부(30b) 작동 중 덮개(20) 또는 서랍(13)이 열리면 살균부(30a)와 서브살균부(30b)에 인가되는 전원을 차단하여 자외선이 발생하지 않도록 할 수 있다.When the
그리고 본체(10)에는 인체감지센서(도시하지 않음)가 배치되어 있다. 인체감지센서는 살균부(30a) 작동 중 사용자가 살균 전자교탁(1)으로 접근하면 이를 감지한다. 제어부(40)는 인체감지센서의 신호를 받아 살균부(30a) 및 서브살균부(30b)로 인가되는 전원을 차단하여 자외선이 발생하지 않도록 한다. 이에 살균부(30a) 및 서브살균부(30b) 작동 중 살균 전자교탁(1)으로 접근하는 사용자를 자외선으로부터 보호할 수 있다.And a human body detection sensor (not shown) is disposed on the
이에 본 실시예에 따르면, 살균 전자교탁(1) 사용 후 덮개(20)를 닫고, 서랍(13)을 넣으면 살균부(30a)가 작동하여 기설정된 시간동안 자외선을 방출할 수 있다. 자외선은 사용자의 손과 비말이 닿기 쉬운 터치디스플레이, 컨트롤 패드, 단자 인터페이스, 키보드, 마우스 등에 조사되어 그 표면을 살균할 수 있다. 이에 터치디스플레이 등의 표면에 서식할 수 있는 바이러스를 멸균함으로써 연사, 화자와 같은 사용자를 바이러스로부터 보호할 수 있다.Accordingly, according to the present embodiment, after using the sterilization
본 발명은 상기한 특정의 바람직한 실시예에 한정되지 아니하며 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고 그와 같은 변경은 청구범위 기재의 범위 내에 있게 되는 것은 자명하다 할 것이다.The present invention is not limited to the specific preferred embodiments described above, and various modifications can be made by anyone with ordinary skill in the art to which the invention pertains without departing from the gist of the invention as claimed in the claims. And it will be apparent that such changes are within the scope of the claims.
100 : 터치 입력
200 : 음성 명령
300 : 전자 교탁
310 : 터치 센서
320 : 마이크 어레이
330 : 제어부
340 : 음성 인식 엔진
350 : 명령어 해석부
360 : 데이터베이스
370 : 명령어 리스트100: touch input
200 : voice command
300: electronic classroom
310: touch sensor
320: microphone array
330: control unit
340: speech recognition engine
350: command interpretation unit
360: database
370 : command list
Claims (10)
상기 사용자로부터 상기 음성 센서를 통해 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이;
상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진;
상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스;
상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부;
상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하며,
상기 음성 인식 엔진에는 상기 사용자로부터 입력받은 음성 신호의 보정적기를 판단하기 위한 딥러닝 기반의 보정적기 판단 소프트웨어를 포함하며,
상기 패널부 및 센서부에서는 입력된 터치 방식에 따라, 터치 센서에서 인식된 터치의 패턴으로 상기 전자 교탁의 화면에 표시하고 다른 UI 입력에 따른 응답을 출력하며,
상기 마이크 어레이는 복수의 마이크를 이용하여 이득 보상 또는 에코 제거 기능을 구현하고, 원거리 음성 인식 및 다른 오디오 신호에 의해 상기 음성 신호에서 왜곡된 부분을 보상하는 기능을 수행하며,
상기 제어부는 실제 주변기기의 사용빈도량 및 전력소모량을 기준으로 데이터 셋을 만들고, 목적 함수를 사용해 예측된 모델과 제약 조건을 통해 주변기기의 기기간 거리 및 데이터량에 따른 비용을 최소화하면서 특정 그리드(grid)의 데이터 수집을 최대화하는 것을 특징으로 하며,
상기 클라우드 서비스를 이용할때 상기 제어부는 명령어 해석부에서 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS 기반의 클라우드 데이터를 쿼리 검색하여 상기 전자 교탁의 화면에 컨텐츠를 표시하며,
상기 클라우드 서비스는 스토리지 기반의 클라우드 서비스이며, 상기 스토리지 기반의 클라우드 서비스는 기존 데이터와 동일한 데이터는 저장하지 않는 중복제거 기능을 적용하고, 이때 사용자를 인증하는 방법으로서 상기 사용자의 로그인 환경정보를 추출하고 추출된 로그인 환경정보를 One-Hot-Encoding 방식으로 변환하여 변환정보를 생성하고 환경정보 별로 고유한 값들에 차례로 번호를 부여하여 라벨 인코딩하는 것을 특징으로 하는 전자 교탁 시스템.
An image camera comprising a panel unit capable of recognizing a touch and a sensor unit performing touch recognition according to the touch method by determining a touch method when the panel unit is touched, and continuously photographing and storing the user's movement for each unit time, and the In the electronic classroom comprising a voice sensor for recognizing a user's voice,
a microphone array that receives a voice signal from the user through the voice sensor, separates a sound source, and removes noise;
a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal;
a database for repeatedly storing the received voice signal and the converted text signal;
a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database;
Includes a control unit that performs a query search or internal and external control function to an external cloud service according to the interpreted command,
The voice recognition engine includes deep learning-based corrective time determination software for determining the correct time to correct the voice signal input from the user,
In the panel unit and the sensor unit, according to the input touch method, a pattern of a touch recognized by the touch sensor is displayed on the screen of the electronic classroom and outputs a response according to another UI input,
The microphone array implements a gain compensation or echo cancellation function using a plurality of microphones, and performs a function of compensating for a distorted portion in the voice signal by far-field voice recognition and other audio signals,
The control unit creates a data set based on the frequency of use and power consumption of the actual peripheral device, and minimizes the cost according to the distance between devices and the data amount of the peripheral device through the model and constraints predicted using the objective function. characterized by maximizing the data collection of
When using the cloud service, the control unit connects the communication to the external cloud server according to the command interpreted by the command interpretation unit, queries the SaaS-based cloud data and displays the contents on the screen of the electronic classroom,
The cloud service is a storage-based cloud service, and the storage-based cloud service applies a deduplication function that does not store the same data as the existing data, and extracts the user's login environment information as a method of authenticating the user, An electronic classroom system, characterized in that the extracted log-in environment information is converted into a One-Hot-Encoding method to generate conversion information, and labels are encoded by assigning numbers to unique values for each environment information in turn.
상기 전자 교탁 시스템은 터치디스플레이가 배치된 본체, 상기 터치디스플레이를 덮고 있으며 상기 본체에 이동할 수 있게 배치된 덮개, 상기 터치디스플레이와 마주하고 있는 상기 덮개의 일면에 배치되어 상기 터치디스플레이에 자외선을 조사하는 유브이 엘이디(UV LED)를 포함하는 살균부 및 상기 살균부의 작동을 설정하는 제어부를 더 포함하며,
상기 제어부는, 상기 덮개가 상기 터치디스플레이를 덮으면 상기 살균부로 전원을 인가하여 기설정된 시간동안 상기 터치디스플레이에 자외선이 조사되도록 동작하며,
상기 본체에는 인체감지센서가 배치되고, 상기 인체감지센서는 상기 살균부의 작동 중에 사용자가 접근하면 이를 감지하고, 상기 제어부는 상기 인체감지센서의 신호를 받아 상기 살균부로 인가되는 전원을 차단하여 자외선이 발생하지 않도록 하여 접근하는 사용자를 자외선으로부터 보호하는 것을 특징으로 하는 전자 교탁 시스템.The method according to claim 1,
The electronic classroom system includes a main body on which a touch display is disposed, a cover that covers the touch display and is arranged to be movable on the main body, and is disposed on one side of the cover facing the touch display to irradiate the touch display with ultraviolet rays Further comprising a sterilization unit including a UV LED and a control unit for setting the operation of the sterilization unit,
When the cover covers the touch display, the control unit applies power to the sterilizer and operates to irradiate the touch display with ultraviolet rays for a preset time,
A human body detection sensor is disposed on the main body, and the human body detection sensor detects when a user approaches during the operation of the sterilization unit, and the control unit receives the signal from the human body detection sensor and cuts off the power applied to the sterilization unit to emit ultraviolet rays. Electronic teaching system, characterized in that it does not occur and protects an approaching user from UV rays.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210117425A KR102446970B1 (en) | 2021-09-03 | 2021-09-03 | An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function |
KR1020220118864A KR102494752B1 (en) | 2021-09-03 | 2022-09-20 | Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210117425A KR102446970B1 (en) | 2021-09-03 | 2021-09-03 | An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220118864A Division KR102494752B1 (en) | 2021-09-03 | 2022-09-20 | Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102446970B1 true KR102446970B1 (en) | 2022-09-23 |
Family
ID=83446177
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210117425A KR102446970B1 (en) | 2021-09-03 | 2021-09-03 | An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function |
KR1020220118864A KR102494752B1 (en) | 2021-09-03 | 2022-09-20 | Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220118864A KR102494752B1 (en) | 2021-09-03 | 2022-09-20 | Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102446970B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005328511A (en) * | 2004-04-06 | 2005-11-24 | Fuji Xerox Co Ltd | Convertible podium system |
KR100919680B1 (en) | 2007-11-16 | 2009-10-06 | 한국전자통신연구원 | Apparatus and method for delivering data based sensor network |
KR20150087687A (en) | 2014-01-22 | 2015-07-30 | 삼성전자주식회사 | Interactive system, display apparatus and controlling method thereof |
US10198246B2 (en) | 2016-08-19 | 2019-02-05 | Honeywell International Inc. | Methods and apparatus for voice-activated control of an interactive display |
KR102202034B1 (en) * | 2020-07-06 | 2021-01-11 | 구기도 | Sterilization electronic teaching table |
KR102262989B1 (en) * | 2020-11-24 | 2021-06-10 | 주식회사 아하정보통신 | Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment |
KR102296501B1 (en) * | 2020-11-30 | 2021-09-03 | 농업회사법인 지팜 유한회사 | System to determine sows' estrus and the right time to fertilize sows using depth image camera and sound sensor |
-
2021
- 2021-09-03 KR KR1020210117425A patent/KR102446970B1/en active
-
2022
- 2022-09-20 KR KR1020220118864A patent/KR102494752B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005328511A (en) * | 2004-04-06 | 2005-11-24 | Fuji Xerox Co Ltd | Convertible podium system |
KR100919680B1 (en) | 2007-11-16 | 2009-10-06 | 한국전자통신연구원 | Apparatus and method for delivering data based sensor network |
KR20150087687A (en) | 2014-01-22 | 2015-07-30 | 삼성전자주식회사 | Interactive system, display apparatus and controlling method thereof |
US10198246B2 (en) | 2016-08-19 | 2019-02-05 | Honeywell International Inc. | Methods and apparatus for voice-activated control of an interactive display |
KR102202034B1 (en) * | 2020-07-06 | 2021-01-11 | 구기도 | Sterilization electronic teaching table |
KR102262989B1 (en) * | 2020-11-24 | 2021-06-10 | 주식회사 아하정보통신 | Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment |
KR102296501B1 (en) * | 2020-11-30 | 2021-09-03 | 농업회사법인 지팜 유한회사 | System to determine sows' estrus and the right time to fertilize sows using depth image camera and sound sensor |
Also Published As
Publication number | Publication date |
---|---|
KR102494752B1 (en) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11031012B2 (en) | System and method of correlating mouth images to input commands | |
US9323912B2 (en) | Method and system for multi-factor biometric authentication | |
US11023754B2 (en) | Systems and methods for high fidelity multi-modal out-of-band biometric authentication | |
KR102351670B1 (en) | Method of construction and registration of gates and device therefor | |
US10303964B1 (en) | Systems and methods for high fidelity multi-modal out-of-band biometric authentication through vector-based multi-profile storage | |
US10146923B2 (en) | Audiovisual associative authentication method, related system and device | |
US20130267204A1 (en) | Method and system for multi-factor biometric authentication based on different device capture modalities | |
KR101055070B1 (en) | Computer-implemented methods, systems, and computer readable storage media for controlling access to resources | |
KR102262989B1 (en) | Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment | |
CN1122965C (en) | Vocal identification of devices in home environment | |
US20220147602A1 (en) | System and methods for implementing private identity | |
CN112997186A (en) | Detection system for' viability | |
WO2018087764A1 (en) | Phonetically configurable means of user authentication | |
US20220147607A1 (en) | System and methods for implementing private identity | |
US20180232512A1 (en) | Biometric Interface System and Method | |
US20220150068A1 (en) | System and methods for implementing private identity | |
US10978078B2 (en) | Synthesized voice authentication engine | |
Thomas et al. | A broad review on non-intrusive active user authentication in biometrics | |
US20220277064A1 (en) | System and methods for implementing private identity | |
KR102262984B1 (en) | Interactive flat panel display system performing IoT-based remote control using blockchain | |
US20180174590A1 (en) | Synthesized Voice Authentication Engine | |
KR102446970B1 (en) | An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function | |
KR20130054131A (en) | Display apparatus and control method thereof | |
Simske | Dynamic biometrics: The case for a real-time solution to the problem of access control, privacy and security | |
CN112420146A (en) | Information security management method and system |