KR102262989B1 - Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment - Google Patents

Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment Download PDF

Info

Publication number
KR102262989B1
KR102262989B1 KR1020200159287A KR20200159287A KR102262989B1 KR 102262989 B1 KR102262989 B1 KR 102262989B1 KR 1020200159287 A KR1020200159287 A KR 1020200159287A KR 20200159287 A KR20200159287 A KR 20200159287A KR 102262989 B1 KR102262989 B1 KR 102262989B1
Authority
KR
South Korea
Prior art keywords
data
signal
command
external
touch
Prior art date
Application number
KR1020200159287A
Other languages
Korean (ko)
Inventor
구기도
Original Assignee
주식회사 아하정보통신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아하정보통신 filed Critical 주식회사 아하정보통신
Priority to KR1020200159287A priority Critical patent/KR102262989B1/en
Application granted granted Critical
Publication of KR102262989B1 publication Critical patent/KR102262989B1/en
Priority to PCT/KR2021/008996 priority patent/WO2022114437A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Abstract

The present invention relates to an interactive whiteboard having a large-scaled touch screen, which processes speech recognition information on a user to perform an artificial intelligence (AI) function. The interactive whiteboard of the present invention having a panel unit able to recognize a touch and a sensor unit for identifying a touch mode to perform recognition of a touch in accordance with the touch mode when the panel unit is touched comprises: a microphone array for receiving a speech signal from an external sound source to separate the sound source and eliminate noises; a speech recognition engine for receiving a speech signal, an analog signal whose noises are eliminated from the microphone array to convert the same into digital data, a text signal; a database for storing the received speech signal and the converted text signal repeatedly; a command analysis unit for receiving the converted text signal from the speech recognition engine to analyze the same as a command through machine learning using the database; and a control unit for performing a query search or an internal/external control function in accordance with the analyzed command as an external cloud service.

Description

클라우드 환경에서 음성 인식을 통하여 인공지능 제어기술을 수행하는 전자 칠판 시스템{Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment}Electronic blackboard system performing artificial intelligence control technology through speech recognition in a cloud environment {Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment}

본 발명은 전자 칠판에 관한 것으로서, 보다 상세하게는 음성 인식 데이터의 인공지능(AI) 기반의 내부 기능 제어 처리 및 사물인터넷(IoT)으로 연결된 외부 디바이스의 제어가 가능한 전자 칠판 시스템으로서, 다양한 IoT 주변 외부기기들을 제어함에 있어서 연결된 디바이스들을 최적의 경로를 통해 제어하거나 모니터링 할 수 있으며, 클라우드 환경에서 사용자 프라이버시 보호를 위해 모사 데이터를 이용하여 데이터베이스를 구축하고 발화 사용자를 인증함으로서 한층 보안을 강화하는 전자 칠판 시스템에 관한 것이다.The present invention relates to an electronic blackboard, and more particularly, to an electronic blackboard system capable of artificial intelligence (AI)-based internal function control processing of voice recognition data and control of external devices connected to the Internet of Things (IoT), and various IoT peripherals In controlling external devices, connected devices can be controlled or monitored through the optimal path, and to protect user privacy in a cloud environment, a database is built using simulated data and the user is authenticated to enhance security. It's about the system.

근래 들어 강의실 또는 회의실에서 디지털 환경으로의 변화에 따라 여러 가지 수업 또는 회의 도구들이 디지털 장비로 대체되고 그에 따라 의사소통 방식도 양방향 디지털 소통으로 변화하게 되었다. 예를 들어 디지털 교과서가 보급되고 여러 가지 멀티미디어 기기를 활용한 교육 환경이 보급화 되면서, 전자 칠판의 경우에 화면상에 강의 내용 또는 발표 내용의 문서를 띄우고 판서 및 글쓰기 기능을 제공하는 등 강의에 필요한 각종 기능을 수행할 수 있으며 이때 사람의 손으로 직접 터치하거나 전용 터치펜으로 터치를 감지하게 할 수 있게 되었다.In recent years, as the classroom or conference room changes to a digital environment, various classroom or meeting tools are replaced with digital equipment, and the communication method has also changed to two-way digital communication. For example, with the spread of digital textbooks and the spread of educational environments using various multimedia devices, in the case of an electronic blackboard, documents of lecture contents or presentation contents are displayed on the screen, and various kinds of lectures necessary for lectures are provided, such as writing and writing functions. It is possible to perform a function, and at this time, it is possible to directly touch a human hand or to detect a touch with a dedicated touch pen.

아울러 최근에는 인공지능(AI)의 장비와 프로세스의 발달로 전통적인 입력 장치(예를 들어, 키보드 또는 마우스 등)이 아닌 사용자의 오디오 음성 인식에 의해 해당 디바이스에 특정한 명령어를 전달하고 장치의 여러 가지 검색 및 제어기능을 컨트롤하는 기술이 등장하였다. In addition, recently, with the development of artificial intelligence (AI) equipment and processes, a specific command is transmitted to the device by the user's audio voice recognition instead of a traditional input device (eg, keyboard or mouse, etc.), and various searches of the device are performed. And the technology to control the control function appeared.

아래의 선행기술1(KR 2015-0087687 A)은 대화형 시스템, 디스플레이 장치 및 그 제어 방법(interactive system, display apparatus and controlling method thereof)으로서, 개시된 디스플레이 장치는 사용자의 발화 음성을 입력받는 입력부, 발화 음성에 대한 음성 신호를 음성 인식 장치로 전송하는 통신부, 발화 음성에 대한 음성 인식을 수행하는 음성 인식부 및 음성 인식부를 통해 인식된 제1 음성 정보에 대한 신뢰도 값과 음성 인식 장치를 통해 인식된 제2 음성 정보에 대한 신뢰도 값 중 기설정된 임계값 이상의 신뢰도 값을 가지는 음성 정보를 상기 발화 음성에 대한 실행 명령으로 결정하는 제어부를 포함한다. 이에 따라, 디스플레이 장치는 디스플레이 장치 및 외부 장치에서 사용자의 발화 음성을 동시에 인식할 경우, 두 음성 인식 결과 중 사용자의 의도에 근접한 음성 인식 결과를 선택하는 것이 가능할 것이다. 한편, 아래의 다른 선행기술2(US 10198246 B2)은 인터랙티브 디스플레이에서 활성화된 음성 제어 방법 및 장치(Methods and apparatus for voice-activated control of an interactive display)으로서, 본 기술에서는 인터랙티브 디스플레이 장치에 통신이 가능하게 결합된 음성 입력 장치를 통해 사용자의 음성 데이터 수신이 가능하나, 터치센서를 구비한 터치패널 스크린을 포함하는 양방향 전자 칠판의 기술적인 요소는 개시하고 있지 않다.The following prior art 1 (KR 2015-0087687 A) is an interactive system, a display apparatus, and a controlling method thereof, and the disclosed display apparatus includes an input unit for receiving a user's utterance voice, an utterance A communication unit that transmits a voice signal for a voice to the voice recognition device, a voice recognition unit that performs voice recognition on the spoken voice, and a reliability value for the first voice information recognized through the voice recognition unit and the second recognized by the voice recognition device and a controller for determining, as an execution command for the spoken voice, voice information having a reliability value greater than or equal to a preset threshold among reliability values for the second voice information. Accordingly, when the display device and the external device simultaneously recognize the user's spoken voice, the display device may select a voice recognition result that is close to the user's intention among the two voice recognition results. On the other hand, another prior art 2 (US 10198246 B2) below is a method and apparatus for voice-activated control of an interactive display, in which communication is possible with an interactive display device. Although it is possible to receive the user's voice data through the highly coupled voice input device, the technical elements of the interactive electronic blackboard including a touch panel screen having a touch sensor are not disclosed.

따라서, 본 발명에서는 정전용량(PCAP), 전자기유도(EMR) 또는 적외선(IR) 방식을 이용한 터치 센서 전자 칠판에서 음성 인식 명령을 포함하여 인공지능(AI) 기반의 내부적 기능수행 및 주변 디바이스와의 상호 통신을 통한 사물인터넷(IoT) 기반의 외부 제어기능을 수행하는 방법을 제안하고자 하며, 이때 인터넷 서비스 공급자(통신사)의 전용 서버나 통신망에 종속되지 않고 독립적인 개별 음성 인식 장치와 음성 인식 알고리즘을 통해 인공지능 기반의 데이터 처리를 가능하게 하고자 한다.Therefore, in the present invention, including the voice recognition command in the touch sensor electronic blackboard using the capacitive (PCAP), electromagnetic induction (EMR) or infrared (IR) method, artificial intelligence (AI)-based internal function execution and communication with peripheral devices We would like to propose a method of performing an external control function based on the Internet of Things (IoT) through mutual communication. In this case, an independent individual voice recognition device and voice recognition algorithm are used without being dependent on the dedicated server or communication network of the Internet service provider (telecommunications company). It aims to enable artificial intelligence-based data processing.

선행특허1: 대한민국 특허공개공보 제10-20152015-0087687호 (대화형 시스템, 디스플레이 장치 및 그 제어 방법(interactive system, display apparatus and controlling method thereof))Prior Patent 1: Korean Patent Publication No. 10-20152015-0087687 (interactive system, display apparatus and controlling method thereof) 선행특허2: 미국 특허등록공보 제10198246호 (Methods and apparatus for voice-activated control of an interactive display)Prior Patent 2: US Patent Registration Publication No. 10198246 (Methods and apparatus for voice-activated control of an interactive display) 선행기술3: 대한민국 특허등록공보 제10-0919680호 (센서네트워크 기반의 데이터 전달장치 및 방법 (Apparatus and method for delivering data based sensor network))Prior Art 3: Korean Patent Registration Publication No. 10-0919680 (Apparatus and method for delivering data based sensor network)

본 발명의 목적은 대면적 터치스크린을 포함하는 전자 칠판에서 사용자의 음성 인식 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 기기의 제어 기능을 수행하는 것이 목적이다.An object of the present invention is to perform an artificial intelligence (AI)-based cloud search or device control function by processing a user's voice recognition information on an electronic blackboard including a large-area touch screen.

본 발명의 또 다른 목적은 대면적 터치스크린을 포함하는 전자 칠판에서 사물인터넷(IoT) 네트워크로 연결된 외부 기기를 음성 인식 정보에 따라 유무선으로 제어하는 기능을 수행하는 것이 목적이다.Another object of the present invention is to perform a function of controlling an external device connected to an Internet of Things (IoT) network by wire or wireless according to voice recognition information in an electronic blackboard including a large-area touch screen.

본 발명의 또 다른 목적은 다양한 IoT 주변 외부기기들을 제어함에 있어서 연결된 디바이스들을 최적의 경로를 통해 제어하거나 모니터링 하며, 클라우드 환경에서 사용자 프라이버시 보호를 위해 데이터베이스를 구축하고 사용자를 인증함으로서 보안을 강화하는 기능을 수행하는 것이 목적이다.Another object of the present invention is to control or monitor connected devices through an optimal path in controlling various external devices around IoT, and to build a database to protect user privacy in a cloud environment and to strengthen security by authenticating users The purpose is to perform

본 발명은 터치 인식이 가능한 패널부와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치인식을 수행하는 센서부를 포함하는 전자 칠판에 있어서, 외부의 음원으로부터 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이; 상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진; 상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스; 상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부; 상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하는 전자 칠판을 제공한다.The present invention relates to an electronic blackboard comprising a panel unit capable of touch recognition and a sensor unit for performing touch recognition according to a touch method by determining a touch method when the panel unit is touched, receiving a voice signal from an external sound source and receiving a sound source a microphone array to isolate and eliminate noise; a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal; a database for repeatedly storing the received voice signal and the converted text signal; a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database; It provides an electronic blackboard including a control unit that performs a query search or internal and external control function with an external cloud service according to the interpreted command.

여기서, 상기 명령어 해석부에서 해석된 명령어를 내부의 명령어 리스트와 비교하여 상기 음성 신호의 패턴을 검색하는 음성 패턴 매칭부를 더 포함하며, 상기 음성 패턴 매칭부는 최초 슬립 모드에서 소정의 음성 패턴에 의해 상기 음성 인식 엔진을 웨이크업 모드로 변화시키는 내부 제어 신호를 상기 제어부로 보내는 것을 특징으로 할 수 있다. Here, the method further includes a voice pattern matching unit that compares the command interpreted by the command interpretation unit with an internal command list to search for a pattern of the voice signal, wherein the voice pattern matching unit performs the voice pattern matching according to a predetermined voice pattern in the first sleep mode. It may be characterized in that it transmits an internal control signal for changing the voice recognition engine to the wake-up mode to the control unit.

한편, 상기 마이크 어레이는 복수의 마이크를 이용하여 이득 보상 또는 에코 제거를 통해 왜곡된 상기 음성 신호를 보상하는 음향 모델 기계학습을 수행하는 것을 특징으로 할 수 있다.Meanwhile, the microphone array may perform acoustic model machine learning for compensating for the distorted voice signal through gain compensation or echo cancellation using a plurality of microphones.

아울러, 상기 제어부는 상기 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS 기반의 클라우드 데이터를 쿼리 검색하여 상기 전자 칠판에 표시하는 것을 특징으로 할 수 있다.In addition, the control unit may connect the communication to an external cloud server according to the interpreted command, query and search SaaS-based cloud data, and display it on the electronic blackboard.

그리고 상기 제어부는 상기 해석된 명령어에 따라 상기 전자 칠판의 기기 내부의 제어 기능을 수행하거나 상기 명령어에 따라 상기 전자 칠판과 유무선으로 연결된 외부 주변 기기의 제어 기능을 수행하는 것을 특징으로 할 수 있다.In addition, the control unit may perform a control function inside the device of the electronic blackboard according to the interpreted command, or may perform a control function of an external peripheral device connected to the electronic blackboard by wire or wireless according to the command.

그리고 상기 연결된 외부 주변 기기들의 제어 기능을 수행하는 경우, 최적 루트 추천 AI 알고리즘을 통해 상기 제어 기능을 수행하며, 상기 알고리즘은 데이터 수집 모듈이 데이터 셋을 입력 받는 데이터 수집 단계, 전처리 모듈이 상기 입력된 데이터 셋을 전처리 하는 전처리 단계, ANN(Artificial Neural Network)의 머신 러닝을 통하여 구성된 예측 모듈이 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하는 예측 계산 단계, 최적화 모듈이 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾는 최적 루트 추천 단계로 이루어지는 것을 특징으로 할 수 있다.And when performing a control function of the connected external peripheral devices, the control function is performed through an optimal route recommendation AI algorithm, wherein the algorithm is a data collection step in which the data collection module receives a data set, and the preprocessing module receives the input A preprocessing step of preprocessing a data set, a prediction calculation step in which the prediction module configured through machine learning of an artificial neural network (ANN) applies the preprocessed data set to a prediction algorithm, and the optimization module predicts the model and constraints according to the objective function It may be characterized in that it consists of an optimal route recommendation step of finding an optimal route using

그리고 상기 음성 신호 및 변환된 텍스트 신호는 각각의 원본 신호의 데이터와 k-1개의 모사 데이터를 이용하여, 상기 데이터의 발생 시간인 타임스탬프에 근거하여 해쉬함수 프로세스를 처리한 결과값에 따라 데이터베이스를 저장함으로써 상기 외부의 음원을 발화한 사용자의 프라이버시를 보호하는 것을 특징으로 할 수 있다.And, the voice signal and the converted text signal use the data of each original signal and k-1 copies of the data, and the database according to the result of processing the hash function process based on the timestamp that is the generation time of the data. By storing it, it may be characterized in that the privacy of the user who ignited the external sound source is protected.

그리고 상기 해쉬함수는 Hash-based Message Authentication Code 알고리즘(HMAC)을 이용하며, 아래 수학식 1에 의해 결과값 Q가 생성되는 것을 특징으로 할 수 있다.In addition, the hash function uses a Hash-based Message Authentication Code algorithm (HMAC), and a result value Q is generated by Equation 1 below.

<수학식 1><Equation 1>

Figure 112020126617920-pat00001
Figure 112020126617920-pat00001

(TS는 타임스탬프 정보이며, K_CNT는 상기 k값에 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보)(TS is timestamp information, K_CNT is a count number based on the k value, and PK is previously shared secret key information)

그리고 상기 전자 칠판 시스템은 상기 외부의 음원을 발화한 사용자가 상기 시스템에 로그인 하는 환경정보인 IP 대역 또는 사용자 에이전트(user-agent)가 변환된 변환정보를 이진 선형 분류 모델인 서포트 벡터 머신(Support Vector Machine)을 이용하여 2-클래스 사용자 모델을 생성함으로써 상기 사용자가 본인인지 여부를 판단하는 것을 특징으로 할 수 있다.And the electronic blackboard system is a support vector machine (Support Vector Machine) which is a binary linear classification model of conversion information converted by IP band or user-agent, which is environmental information that the user who uttered the external sound source logs into the system. Machine) may be used to generate a two-class user model to determine whether the user is the user.

본 발명은 터치 센서를 포함하는 전자 칠판에서 사용자의 음성 인식 정보를 학습, 해석, 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 효과가 있다.The present invention has the effect of learning, interpreting, and processing the user's voice recognition information in an electronic blackboard including a touch sensor to perform an artificial intelligence (AI)-based cloud search or control function.

또한 본 발명은 대면적 터치스크린을 포함하는 전자 칠판에서 사용자의 음성 명령을 통해 사물인터넷(IoT) 네트워크로 연결된 외부 기기를 제어할 수 있는 효과가 있다.In addition, the present invention has an effect of controlling an external device connected to an Internet of Things (IoT) network through a user's voice command in an electronic blackboard including a large-area touch screen.

아울러, 이러한 인공지능 기반의 입출력 처리 및 사물인터넷 제어 기능을 수행함에 있어서 제3의 인터넷 서비스 공급자(통신사)의 전용 서버에 종속되지 않고 자체의 독립적인 프로세싱 알고리즘을 통해 음성 데이터 처리가 가능하여 국내/해외를 불문하고 독립적인 설치 사용이 용이하다는 효과가 있다.In addition, in performing such artificial intelligence-based input/output processing and IoT control functions, voice data processing is possible through its own independent processing algorithm without being dependent on a dedicated server of a third-party Internet service provider (communication company). It has the effect of being easy to install and use independently regardless of overseas.

한편, 다양한 IoT 주변 외부기기들을 제어함에 있어서, 연결된 수많은 디바이스를 최적의 경로를 통해 제어하거나 모니터링 할 수 있다.On the other hand, in controlling various external devices around the IoT, it is possible to control or monitor a number of connected devices through an optimal path.

한편, 클라우드 환경에서 프라이버시 보호를 위해 모사 데이터를 이용하여 데이터베이스를 구축하고 SVM(Support Vector Machine)을 이용하여 발화 사용자를 인증함으로서 한층 보안을 강화할 수 있다.Meanwhile, security can be further strengthened by building a database using simulated data to protect privacy in the cloud environment and authenticating the uttering user using SVM (Support Vector Machine).

도 1은 본 발명의 일 실시예로 터치스크린의 전자 칠판(300)에서 사용자의 음성 명령(200) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 구조를 나타낸 도면이다.
도 2는 기존의 통신사의 전용 스피커(210), 통신망(250), AI서버(230)를 이용하여 클라우드 서비스(240)를 이용하는 상황을 나타낸 도면이다.
도 3은 본 발명의 일 실시예로 통신사와 무관하게 자체 개별 스피커(310)를 이용하여 클라우드 서비스(330)를 이용하는 상황을 나타낸 도면이다.
도 4는 본 발명의 일 실시예로 전자 칠판에서 사용자의 터치입력 또는 음성 입력(400, 410) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색(450) 또는 제어 기능(480, 490)을 수행하는 플로우 차트를 나타낸 도면이다.
1 shows a structure in which an artificial intelligence (AI)-based cloud search or control function can be performed by processing a user's voice command 200 information in an electronic blackboard 300 of a touch screen according to an embodiment of the present invention. It is a drawing.
FIG. 2 is a diagram illustrating a situation in which the cloud service 240 is used using the existing communication company's dedicated speaker 210 , the communication network 250 , and the AI server 230 .
3 is a diagram illustrating a situation in which the cloud service 330 is used using its own individual speaker 310 irrespective of a communication company according to an embodiment of the present invention.
Figure 4 is an embodiment of the present invention by processing the user's touch input or voice input (400, 410) information on the electronic blackboard as an embodiment of the present invention (AI) based cloud search 450 or control functions (480, 490) It is a diagram showing a flow chart to perform.

본 발명의 이점 및 특징 그리고 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 보다 명확해질 것이다.Advantages and features of the present invention and a method of achieving it will become more apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 한정된 몇몇의 실시예로 제한되는 것이 아니라 목적, 효과가 실질적으로 동일한 범위내에서는 서로 다른 다양한 형태로 구현될 수 있으며 이러한 실시예 역시 본 발명의 기술적 사항에 포함된다고 볼 수 있을 것이다.However, the present invention is not limited to the limited number of embodiments disclosed below, but may be implemented in a variety of different forms within substantially the same scope for purposes and effects, and these embodiments are also considered to be included in the technical matters of the present invention. will be able

본 명세서에서 실시예는 본 발명의 개시가 보다 명확해지도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 이해 시켜주기 위해 제공되는 것이다. Examples in the present specification are provided to make the disclosure of the present invention clearer, and to fully understand the scope of the invention to those of ordinary skill in the art to which the present invention pertains.

그리고 본 발명의 권리범위는 후술되는 특허청구의 범위에 의해 정의될 것이다.And the scope of the present invention will be defined by the claims to be described later.

따라서 몇몇 실시예에서 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 세부기술들은 본 발명이 모호하게 해석되는 것을 피하기 위해 구체적으로 설명하지는 않는다.Accordingly, in some embodiments, well-known components, well-known operations, and well-known details are not specifically described to avoid obscuring the present invention.

또한 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하고 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것일 뿐이며 본 발명을 한정시키고자 하는 것은 아니다.In addition, the same reference numerals refer to the same elements throughout the specification, and the terms used herein are for the purpose of describing the embodiments only and are not intended to limit the present invention.

본 명세서에서 단수형은 문구에서 특별히 언급하지 않는한 복수형도 포함하는 것으로 해석해야할 것이며, 포함(또는 구비)하는 것으로 언급된 구성 요소 또는 동작은 하나 이상의 다른 구성 요소 또는 동작의 존재 및 추가를 배제하지 않는다.In this specification, the singular shall be construed to include the plural as well, unless specifically stated otherwise in the phrase, and an element or action referred to as including (or having) does not exclude the presence and addition of one or more other elements or actions. .

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어 포함)은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs.

또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 별도로 정의되어 있지 않는한 과도하게 또는 이상적으로 해석되지 않는 것으로 한다.In addition, terms defined in general used dictionary shall not be interpreted excessively or ideally unless otherwise defined.

이하, 첨부된 도면을 참고로 본 발명의 바람직한 실시예에 대하여 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예로 터치스크린의 전자 칠판(300)에서 사용자의 음성 명령(200) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색 또는 제어 기능을 수행할 수 있는 구조를 나타낸 도면이다.1 shows a structure in which an artificial intelligence (AI)-based cloud search or control function can be performed by processing a user's voice command 200 information in an electronic blackboard 300 of a touch screen according to an embodiment of the present invention. It is a drawing.

터치 인식이 가능한 패널부(미도시)와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치 인식을 수행하는 센서부(미도시)를 포함하는 전자 칠판(300)은 외부의 소스(100, 200)로부터 터치 입력 신호(100) 또는 음성 명령 신호(200)를 입력받는다.The electronic blackboard 300 including a panel unit (not shown) capable of touch recognition and a sensor unit (not shown) that determines a touch method when the panel unit is touched and performs touch recognition according to the touch method is an external source. A touch input signal 100 or a voice command signal 200 is received from (100, 200).

이때 입력된 터치 방식에 따라, 터치 센서(310)에서 인식된 터치의 패턴으로 전자 칠판(300) 화면에 표시하고 기타 UI 입력에 따른 응답을 출력한다.At this time, according to the input touch method, a pattern of a touch recognized by the touch sensor 310 is displayed on the screen of the electronic blackboard 300 and a response according to other UI input is output.

만약 음성 명령(200) 신호가 입력되는 경우에는 음원을 분리하고 노이즈를 제거하는 어레이 타입의 마이크 모듈(320)에 의해 입력된 아날로그 음성 시그널의 신호를 품질을 향상시킨다. 이때 마이크 어레이(320)는 복수의 마이크를 이용하여 이득(gain) 보상 또는 에코(echo) 제거 기능을 구현하고 왜곡된 상기 음성 신호를 보상하는 음향 모델 기계학습을 수행할 수 있다. 이를 통해 원거리에서도 음성 인식이 원활하게 처리될 수 있으며, 전자 칠판에서 다른 오디오 기능(예를 들어 음악재생)이 있는 경우라도 상기 음성 인식 기능이 동작되어야 한다.If the voice command 200 signal is input, the quality of the analog voice signal signal input by the array type microphone module 320 that separates the sound source and removes noise is improved. In this case, the microphone array 320 may implement a gain compensation or echo cancellation function using a plurality of microphones and perform acoustic model machine learning for compensating for the distorted voice signal. Through this, voice recognition can be smoothly processed even from a distance, and even if there is another audio function (eg, music playback) in the electronic board, the voice recognition function must be operated.

그런 다음 마이크 어레이(320)로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 음성 인식 엔진(340)에서 텍스트 신호인 디지털 데이터로 변환(Speech to Text)하고, 음성 신호 및 변환된 텍스트 신호는 데이터베이스(360)에 반복하여 저장된다. 이렇게 저장된 데이터들은 자체 스피커를 이용한 음성 인식 엔진(340)과 명령어 해석부(350)를 포함하는 음성 인식 시스템에서 S/W의 지속적인 업그레이드를 위하여 인공지능 기반의 기계학습을 위한 학습 데이터로 활용된다.Then, a voice signal that is an analog signal from which noise has been removed from the microphone array 320 is received and converted into digital data that is a text signal in the voice recognition engine 340 (Speech to Text), and the voice signal and the converted text signal are converted into a database It is stored repeatedly at (360). The data stored in this way is used as learning data for machine learning based on artificial intelligence for continuous upgrade of S/W in the voice recognition system including the voice recognition engine 340 and the command interpretation unit 350 using its own speaker.

한편 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스(360)를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부(350)에서는 알고리즘에는 음성 명령 패턴을 분석하는 알고리즘, 패턴에 따른 명령어 제어 프로토콜 매칭 알고리즘, 음성 패턴 어레이 매칭 알고리즘, 이종언어의 동일 의미부여 매칭 패턴 알고리즘 등이 함께 진행될 수 있다. Meanwhile, in the command interpretation unit 350 that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database 360, the algorithm includes an algorithm for analyzing a voice command pattern, and command control according to the pattern. A protocol matching algorithm, a voice pattern array matching algorithm, and a matching pattern algorithm for granting the same meaning in heterogeneous languages may be performed together.

이렇게 해석된 명령어(command)에 따라 제어부(330)에서는 인터넷 검색과 같은 외부 클라우드 서비스로의 쿼리검색 기능을 수행하거나 또는 내부/외부의 제어기능을 수행할 수 있다.According to the command interpreted in this way, the control unit 330 may perform a query search function to an external cloud service, such as an Internet search, or perform an internal/external control function.

이때 내부/외부 제어기능의 예를 들어보면, 먼저 내부 기능 제어로서 전자 칠판(300)의 전원을 온오프 시키거나 전자 칠판(300)의 볼륨을 조절하거나 화면상 제어 컨트롤(화면 크기조절, 페이지 이동 등) 또는 입력 소스(USB, HDMI 등)의 변환 등 전자 칠판(300) 내부적인 제어 기능을 수행할 수 있다.At this time, as an example of the internal/external control function, first, as an internal function control, the power of the electronic board 300 is turned on or off, the volume of the electronic board 300 is adjusted, or the on-screen control control (screen size adjustment, page movement) is performed. etc.) or an input source (USB, HDMI, etc.) conversion, etc., may perform an internal control function of the electronic board 300 .

그리고 외부 기능 제어를 예로 들면, 전자 칠판(300)과 유무선으로 연결된 사물 인터넷(IoT) 망에 위치한 주변기기(예를 들어 램프, 도어락, 다른 전자 칠판 등)를 제어하는 상황이 있을 수 있다. 즉, IoT 관련 릴레이(relay) 및 IR 컨트롤러를 이용하여 주변의 램프 불을 스위치하여 껐다 켰다 할 수 있는 것이다.And, taking the external function control as an example, there may be a situation in which peripheral devices (eg, lamps, door locks, other electronic blackboards, etc.) located in the Internet of Things (IoT) network connected to the electronic blackboard 300 by wire or wireless are controlled. That is, by using an IoT-related relay and an IR controller, it is possible to switch the lamp lights around and turn them on and off.

한편 명령어 해석부(350)에서 해석된 명령어는 내부의 명령어 리스트(370)와 비교하여 상기 음성 신호의 패턴을 검색하는 음성 패턴 매칭부(미도시)를 더 포함하며 음성 패턴 매칭부는 최초 슬립 모드(sleep mode)에서 소정의 음성 패턴에 의해 음성 인식 엔진(340)을 웨이크업 모드(wake-up)로 변화시키는 내부 제어 신호를 발생시킨다. 아울러, 웨이크업 모드에서 소정의 시간동안 추가적인 음성 명령 입력이 없을 시에는 다시 슬립 모드로 전환되어 전원과 기타 리소스 소비를 최소화 시킬 수 있다.On the other hand, the command interpreted by the command interpretation unit 350 further includes a voice pattern matching unit (not shown) for searching the pattern of the voice signal by comparing it with the internal command list 370, and the voice pattern matching unit is in the first sleep mode ( In the sleep mode), an internal control signal for changing the voice recognition engine 340 to a wake-up mode according to a predetermined voice pattern is generated. In addition, when there is no additional voice command input for a predetermined time in the wake-up mode, it is switched back to the sleep mode to minimize power and other resource consumption.

아울러, 본 발명은 IoT 기반의 연결된 외부기기들에 대하여 데이터 전달 비용을 절감하고 IoT 데이터(입력, 센싱, 모니터링) 수집을 최대화할 수 있는 제어 프로세스의 최적 경로를 제공하고자 한다.In addition, the present invention intends to provide an optimal path of a control process that can reduce data transmission costs for IoT-based connected external devices and maximize IoT data (input, sensing, monitoring) collection.

최적 경로(루트) 추천 알고리즘은 데이터 수집 모듈(data acquisition), 전처리 모듈(system processes), 예측 모듈(prediction), 예측 모델 구성부(learning module) 및 최적화 모듈(optimization module)을 포함하여 구성될 수 있으며, 상기 수집 모듈은 실제 주변기기의 사용데이터인 데이터 셋(input dataset)을 입력 받으며, 상기 전처리 모듈은 상기 입력된 데이터 셋을 전처리 할 수 있다. 또한, 상기 전처리 모듈은 상기 데이터 셋을 훈련 데이터 셋과 테스트 데이터 셋으로 분할하고 상기 예측 모듈은 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하여, 보다 구체적으로 상기 예측 모듈은 상기 테스트 데이터 셋을 예측 알고리즘에 적용하여 예측할 수 있다.The optimal path (root) recommendation algorithm can be configured including data acquisition module (data acquisition), preprocessing module (system processes), prediction module (prediction), predictive model learning module (learning module) and optimization module (optimization module) In addition, the collection module receives an input dataset that is actual use data of a peripheral device, and the pre-processing module may pre-process the input data set. In addition, the preprocessing module divides the data set into a training data set and a test data set, and the prediction module applies the preprocessed data set to a prediction algorithm, more specifically, the prediction module converts the test data set into a prediction algorithm can be predicted by applying

한편, 예측 모델 구성부는 상기 훈련 데이터 셋을 이용해 ANN(Artificial Neural Network)에 머신 러닝하여 상기 예측 모듈을 구성할 수 있으며, 상기 최적화 모듈은 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾을 수 있다. On the other hand, the predictive model configuration unit can configure the prediction module by machine learning on an artificial neural network (ANN) using the training data set, and the optimization module selects an optimal route using a predictive model and constraints according to the objective function. can be found

전처리 모듈에서는 입력된 데이터 셋을 전처리 하며, 이때 전처리 시에는 널(null) 입력을 제거하고 예측에 필요한 필드를 도출할 수 있으며, 이와 같이 전처리 된 데이터는 예측 모듈에 공급될 수 있다. 따라서, 예측 모듈에서는 다양한 예측 알고리즘 중에서 가장 높은 정확도를 갖는 예측 알고리즘을 데이터에 적용하여 사용량 예측 모델을 계산할 수 있으며, 이때 가장 성능이 좋은 예측 알고리즘이 저장되어 다음 단계에 적용될 수 있다. 그에 따라, 최적화 모듈은 일부 제약 조건과 예측 모델을 사용하고 목적 함수에 따라 가장 적합한 경로(루트)를 찾을 수 있다.The preprocessing module preprocesses the input data set. In this case, null input can be removed and fields required for prediction can be derived during preprocessing, and the preprocessed data can be supplied to the prediction module. Therefore, the prediction module can calculate the usage prediction model by applying the prediction algorithm having the highest accuracy among various prediction algorithms to the data, and at this time, the prediction algorithm with the best performance is stored and applied to the next step. Accordingly, the optimization module can use some constraints and predictive models and find the most suitable path (root) according to the objective function.

실제 주변기기의 사용빈도량 및 전력소모량을 기준으로 데이터 셋(data set)을 만들 수 있으며, 목적 함수를 사용해 예측된 모델과 제약 조건을 통해 주변기기의 통신 비용(기기간 거리 및 데이터량)에 따른 cost를 최소화하고 특정 그리드(grid)의 IoT 데이터 수집을 최대화할 수 있다.A data set can be created based on the actual peripheral usage frequency and power consumption, and the cost according to the communication cost of the peripheral device (distance between devices and data amount) can be calculated through the model and constraints predicted using the objective function. Minimize and maximize IoT data collection for a specific grid.

도 2는 기존의 통신사의 전용 스피커(210), 통신망(250), AI서버(230)를 이용하여 클라우드 서비스(240)를 이용하는 상황을 나타낸 도면이다. FIG. 2 is a diagram illustrating a situation in which the cloud service 240 is used using the existing communication company's dedicated speaker 210 , the communication network 250 , and the AI server 230 .

이하 후술할 도 3과 달리 도 2에서는 스마트폰(200), 컴퓨터(220) 외에 인터넷 서비스 공급자(통신사)가 개발하여 제공하는 전용 스피커(210)을 통해 통신사 전용 통신망(250)을 통해 클라우드 서비스(240)를 이용할 수 있다. 즉, 특정 통신사에 가입하여 통신사 전용 AI 스피커를 사용하여야 하며, 특화된 인공지능 서비스 역시 각 통신사가 개발하여야 하므로, 전자 칠판과 같은 특수 목적용으로 사용하기에는 부적합하다. 아울러 전자 칠판과 같은 특화성이 있는 AI 기능에서는 타 서비스 대비 빈번하고 많은 신호 요청으로 인해 리소스가 소모되며, 타 통신사 사용시 적용이 불가하다는 한계점도 있다. 그리고 통신사의 AI 서버가 다운되거나 하는 예외 상황에서는 전체 AI 기능을 사용하지 못하게 될 수도 있다. 그리고 외국어 기반의 해외 수출용으로도 단점이 있으며, 타국가 통신 사업자간의 이해관계(언어구현, 통신서비스 방식 등의 차이)로 국제화가 힘들다는 단점이 있다. 이와 비교하여 도 3의 본 발명의 클라우드 서비스 이용방식을 살펴보도록 한다.3, which will be described later, in FIG. 2, in addition to the smartphone 200 and the computer 220, the cloud service ( 240) can be used. In other words, it is necessary to subscribe to a specific communication company and use the AI speaker dedicated to the communication company, and the specialized artificial intelligence service must also be developed by each communication company, so it is not suitable for use for special purposes such as electronic blackboards. In addition, specialized AI functions such as electronic blackboard consume resources due to frequent and many signal requests compared to other services, and there is a limitation that it cannot be applied when using other carriers. And in exceptional circumstances, such as when the telecommunication company's AI server goes down, the entire AI function may not be available. Also, foreign language-based export has disadvantages, and internationalization is difficult due to interests (differences in language implementation, communication service methods, etc.) between telecommunication operators in other countries. In comparison with this, the cloud service usage method of the present invention of FIG. 3 will be described.

도 3은 본 발명의 일 실시예로 통신사와 무관하게 자체 개별 스피커(310)를 이용하여 클라우드 서비스(330)를 이용하는 상황을 나타낸 도면이다. 3 is a diagram illustrating a situation in which the cloud service 330 is used using its own individual speaker 310 irrespective of a communication company according to an embodiment of the present invention.

도 3에서는 스마트폰(300), 컴퓨터(320) 외에 인터넷 서비스 공급자(통신사)가 개발하여 제공하는 전용 스피커(210)가 없고, 통신사 전용 통신망(250)도 아닌 통신사와 무관한 인터넷 통신망(340)을 이용하는 상황을 가정하고 있다. 아울러 음성 인식 엔진이 구비된 개별 스피커(310)를 이용하여 직접 클라우드 서비스(240)를 이용할 수 있다. 즉, 특정 통신사에 가입하여 통신사 전용 AI 스피커를 사용할 필요가 없으며, 특화된 인공지능 서비스 역시 각 통신사가 개발하지 않아도 되므로 개별 기업이 전용성으로 맞춤형 AI 제작하는 것이 가능하다. 따라서 전자 칠판과 같은 특수 목적용으로 사용하기에 적합하다. 아울러 전자 칠판과 같은 특화성이 있는 AI 기능에서는 타 서비스 대비 빈번하고 많은 신호 요청이 있으므로 이를 처리하는 전용 S/W를 설치함으로써 보다 적은 리소스를 소비할 수 있다. 타 통신사 사용시 적용이 불가하다는 한계점도 없으므로 통신사 여부를 신경쓰지 않아도 되며, 통신사의 AI 서버가 다운되거나 하는 예외 상황도 고려할 필요가 없어지게 된다. In FIG. 3 , there is no dedicated speaker 210 developed and provided by an Internet service provider (communication company) in addition to the smartphone 300 and the computer 320 , and the Internet communication network 340 independent of the communication company which is not the communication company dedicated communication network 250 . We assume the situation of using . In addition, the cloud service 240 can be directly used by using the individual speaker 310 equipped with the voice recognition engine. In other words, there is no need to sign up for a specific carrier and use a dedicated AI speaker for the carrier, and each carrier does not have to develop specialized artificial intelligence services, so individual companies can create custom AI for exclusive use. Therefore, it is suitable for use for special purposes such as electronic blackboards. In addition, specialized AI functions such as electronic blackboards have frequent and many signal requests compared to other services, so less resources can be consumed by installing dedicated S/W to handle them. Since there is no limitation that it cannot be applied when using other carriers, there is no need to worry about whether the carrier is a carrier or not, and there is no need to consider exceptions such as the carrier's AI server down.

그리고 한국어가 아닌 외국어 기반의 해외 수출용으로도 사용하기에도 필요에 따라 수출 국가별 맞춤 서비스로 개발할 수 있고 전자 칠판 전용 AI 특화 기능으로 개발, 유지, 보수가 가능하여 타 국가의 AI와 호환이 가능해진다. In addition, even if it is used for overseas export based on a foreign language other than Korean, it can be developed as a customized service for each exporting country as needed, and it can be developed, maintained, and repaired with AI-specific functions for electronic blackboard, making it compatible with AI of other countries. .

도 3과 같이 클라우드 서비스(330)를 이용할때 제어부는 명령어 해석부에서 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS(Software as a Service) 기반의 클라우드 데이터를 쿼리(query) 검색하여 전자 칠판의 화면에 해당 컨텐츠를 표시해 줄 수 있다.As shown in FIG. 3 , when using the cloud service 330 , the control unit connects communication to an external cloud server according to the command interpreted by the command interpretation unit, and searches for SaaS (Software as a Service)-based cloud data by querying. The corresponding content can be displayed on the screen of the electronic blackboard.

한편, 최근 클라우드 서비스가 대중화되면서 다양한 클라우드 서비스 제공 업체가 등장하고 있다. 클라우드 플랫폼에서는 다양한 형태의 서비스 제공이 가능하며, 이 가운데 스토리지 기반의 클라우드 서비스가 가장 널리 사용되는 서비스 유형으로 향후에도 지속적으로 시장이 확대될 것으로 보인다. 현재 많은 클라우드 스토리지 환경에서는 클라우드 환경의 특성상 대용량의 스토리지 서버관리를 위해 기존 데이터와 동일한 데이터는 저장하지 않는 중복제거 기능을 적용하고 있는데, 중복제거 기술을 사용하면 구조적으로 프라이버시 문제를 안게 된다. Meanwhile, as cloud services have become more popular in recent years, various cloud service providers are emerging. Various types of services can be provided on cloud platforms, and among them, storage-based cloud services are the most widely used service type, and the market is expected to continue to expand in the future. Currently, in many cloud storage environments, the deduplication function that does not store the same data as the existing data is applied to manage large-capacity storage servers due to the nature of the cloud environment. However, if the deduplication technology is used, there is a structural privacy problem.

즉, 중복제거 기술이 적용되려면, 사용자와 파일의 매핑구조를 메타정보로 저장하게 되며, 이 과정에서 서버상의 메타 분석을 통하여 특정 파일을 업로드한 사용자의 리스트를 확보할 수 있기 때문이다. That is, in order to apply the deduplication technology, the mapping structure between users and files is stored as meta information, and in this process, a list of users who uploaded a specific file can be secured through meta-analysis on the server.

또한, 빅데이터 기술이 발달되면서 특정 개인이나 장치의 위치정보를 추적하는 기술도 중요해지고 있다. 개인이나 장치의 특정한 위치 정보는 GPS 좌표 정보인 위도 및 경도로 표현 가능하다. 위치추적정보를 활용하는 어플리케이션의 경우 지도 정보에 매칭하여 특정 개인의 시간별 이동 경로를 쉽게 출력할 수 있다. 하지만 위치추적기능을 제공하는 이러한 어플리케이션이 위치정보를 지속적으로 보관하는 경우 심각한 프라이버시 침해 문제가 발생할 수 있다.In addition, as big data technology develops, a technology for tracking location information of a specific individual or device is also becoming important. Specific location information of an individual or device can be expressed as latitude and longitude, which are GPS coordinate information. In the case of an application that utilizes location tracking information, it is possible to easily output the movement route of a specific individual by time by matching the map information. However, if these applications that provide a location tracking function continuously store location information, a serious privacy problem may occur.

이때 사용할 수 있는 보안 기법으로서 K-익명성 모델 및 데이터 교란화를 이용하여 해쉬함수값인 Q값은 수학식 1에 의하여 산출될 수 있다. K-익명화를 위해 미리 설정된 k값(ex. k=3)을 기초로 시간 정보에 대한 HMAC 값인 Q값들을 산출할 수 있다.As a security technique that can be used at this time, the Q value, which is a hash function value, may be calculated by Equation 1 using the K-anonymity model and data disturbance. Q values, which are HMAC values for time information, may be calculated based on k values (eg, k=3) preset for K-anonymization.

<수학식 1><Equation 1>

Figure 112020126617920-pat00002
Figure 112020126617920-pat00002

(HMAC는 해시 기반 메시지 인증 코드 Hash-based Message Authentication Code 알고리즘이며, TS는 시간 정보의 타임스탬프 정보이며, K_CNT는 k값이 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보이다)(HMAC is a Hash-based Message Authentication Code algorithm, TS is the timestamp information of time information, K_CNT is the count number based on the k value, and PK is the previously shared secret key information)

K-익명성은 데이터 비식별화의 프라이버시 보호 모델 중 하나로 특정 단일 데이터만 저장할 경우 개인의 식별 가능성의 위험이 있으므로 데이터 저장시 k값 이상의 데이터를 동시에 저장하여 식별 가능성을 낮추는 방식이다. 예를 들어, k가 3이라면 IoT 데이터 1개를 저장할 때 동시에 3 개의 데이터를 저장한다. 이 때, 한 개의 데이터는 실제 데이터이고 나머지 두 개의 데이터는 가상의 모조 데이터가 된다. 이때 인가된 관리자 등에 사전 공유된 비밀키에 해당하는 PK를 알고 있어야 어느 것이 진짜 데이터인지 파악할 수 있게 된다.K-anonymity is one of the privacy protection models of data de-identification, and since there is a risk of individual identification when only specific single data is stored, it is a method of lowering the possibility of identification by simultaneously storing data with a value of k or more when storing data. For example, if k is 3, when saving 1 IoT data, 3 data are stored at the same time. In this case, one piece of data is real data, and the other two pieces of data are virtual fake data. At this time, you need to know the PK corresponding to the pre-shared secret key by an authorized administrator, etc., so that you can determine which is the real data.

TS는 타임스탬프(Time Stamp)를 의미하며 위에서 언급한 바와 같이 미리 설정된 주기로 데이터가 입력되는 경우 데이터가 입력되는 특정 시각을 의미하거나 IoT 데이터가 발생한 시간을 의미한다. K_CNT는 미리 설정된 k값에 따라서 카운트되는 숫자에 해당하며 예를 들어, k가 3인 경우 K_CNT 값은 1, 2, 3 값을 가지게 된다. 이때, K_CNT 값이 1일 경우 원본 데이터이고, 2나 3일 경우에는 가짜(모조) 데이터로 취급할 수 있다.TS stands for Time Stamp, and as mentioned above, when data is input at a preset period, it means a specific time at which data is input or the time at which IoT data is generated. K_CNT corresponds to a number counted according to a preset value of k. For example, when k is 3, the value of K_CNT has values of 1, 2, and 3. In this case, when the K_CNT value is 1, it is original data, and when it is 2 or 3, it can be treated as fake (imitation) data.

상기 수학식 1에서와 같이 PK 정보를 기초로 특정 타임스탬프(TS) 정보를 HMAC 알고리즘을 이용하여 문자형 데이터의 Q값으로 변환시킴과 동시에 k개의 K_CNT 값에 해당하는 출력값을 모두 계산하여 k개의 Q값을 산출할 수 있다. 이러한 방식으로 저장되는 데이터베이스에는 시간 정보는 포함되지 않으며, k개의 Q값들만이 저장된다. 따라서, 데이터베이스가 해킹이 되는 경우에도 시간 정보는 노출되지 않고, Q값 정보들이 해킹된다고 하더라도 비밀키(PK) 정보를 모르는 경우 어떤 값들이 원본 데이터인지 알 수가 없어 원본 데이터에 대한 해킹이 실질적으로 불가능하게 된다.As in Equation 1 above, the specific timestamp (TS) information is converted to the Q value of the character data using the HMAC algorithm based on the PK information, and at the same time, all the output values corresponding to the k K_CNT values are calculated and k Q value can be calculated. Time information is not included in the database stored in this way, and only k Q values are stored. Therefore, even if the database is hacked, the time information is not exposed, and even if the Q-value information is hacked, if the secret key (PK) information is not known, it is impossible to know which values are the original data, so it is practically impossible to hack the original data. will do

도 4는 본 발명의 일 실시예로 전자 칠판에서 사용자의 터치입력 또는 음성 입력(400, 410) 정보를 처리하여 인공지능(AI) 기반의 클라우드 검색(450) 또는 제어 기능(480, 490)을 수행하는 플로우 차트를 나타낸 도면이다.Figure 4 is an embodiment of the present invention by processing the user's touch input or voice input (400, 410) information on the electronic blackboard as an embodiment of the present invention (AI) based cloud search 450 or control functions (480, 490) It is a diagram showing a flow chart to perform.

도 4를 참조하면, 먼저 터치입력 또는 음성입력의 입력(400)이 있을 이를 판단하여(410), 음성 신호의 입력일 때는 전자 칠판 내부에 구비된 음성 인식 엔진이 아날로그 신호인 음성 신호를 디지털 신호인 텍스트 신호로 변환(speech to text)한다(420).Referring to FIG. 4 , first, it is determined that there is an input 400 of a touch input or a voice input ( 410 ), and when a voice signal is input, a voice recognition engine provided in the electronic blackboard converts an analog voice signal into a digital signal. Converts to a text signal (speech to text) (420).

그런 다음 변환된 텍스트 데이터를 해석함에 있어서(430) 기계학습을 통해 기존의 해석했던 데이터, 기존의 분류했던 음성 신호 등을 데이터베이스에서 불러와 반복 비교함으로써 시간이 지나고 처리하는 데이터양이 많아질수록 보다 정교한 해석이 가능해진다. 이렇게 인공지능 기반의 학습 및 해석을 이용하여 음성 인식률을 90% 이상으로 높일 수 있으며, 음성 인식에 따른 동작을 기능구현 할 수 있다.Then, in interpreting the converted text data (430), the previously analyzed data and the previously classified voice signal through machine learning are called from the database and compared repeatedly. As time passes and the amount of data to be processed increases, more Sophisticated interpretation is possible. In this way, by using AI-based learning and interpretation, the speech recognition rate can be increased to more than 90%, and the operation according to the speech recognition can be implemented.

다음으로 해석된 명령어(command)가 클라우드 서비스를 이용하는 인터넷 검색과 같은 요청인지 아니면 기기를 제어하는 요청인지를 판단하여(440), 인터넷 검색의 요청의 경우에는(450) 해당 검색 결과인 컨텐츠 화면을 전자 칠판에 표시할 수 있다(460).Next, it is determined whether the interpreted command is a request such as an Internet search using a cloud service or a request to control the device (440), and in the case of an Internet search request (450), the content screen corresponding to the search result is displayed (450). It can be displayed on the electronic blackboard (460).

또는 기기를 제어하는 요청인 경우에는(470) 전자 칠판의 내부 기능(전원, 볼륨, 화면, 소스 등)을 제어하는 명령인지 아니면 유무선으로 연결된 외부 기기의 제어기능(램프, 커튼, 도어락, 다른 전자 칠판 등)을 수행하고자 하는 명령인지에 따라 외부기기를 제어하거나(480) 전자 칠판의 내부기능을 실행한다(490).Or, in the case of a request to control the device (470), it is a command to control the internal functions (power, volume, screen, source, etc.) of the electronic board or control functions of external devices connected by wire or wireless (lamps, curtains, door locks, other electronic devices). The external device is controlled (480) or an internal function of the electronic blackboard is executed (490) depending on whether the command is to be executed (blackboard, etc.).

한편, 외부 음원을 발화한 사용자를 인증하는 방법으로 아래와 같은 단계를 거칠 수 있다.Meanwhile, as a method of authenticating a user who has uttered an external sound source, the following steps may be performed.

먼저, 사용자의 로그인 환경정보를 추출한다. 사용자의 로그인 환경정보는 사용자가 인터넷 사이트 로그인 시 IP 대역과 사용자 에이전트(User-Agent)가 될 수 있다. 다음으로, 추출된 로그인 환경정보를 One-Hot-Encoding 방식으로 변환하여 변환정보를 생성하여 환경정보 별로 고유한 값들에 1부터 번호를 부여하여 라벨 인코딩(Label Encoding)한다.First, the user's login environment information is extracted. The user's login environment information may be an IP band and a User-Agent when the user logs in to an Internet site. Next, the extracted log-in environment information is converted into a One-Hot-Encoding method to generate conversion information, and a number is assigned to unique values for each environment information from 1 to label encoding.

다음으로, 변환 정보를 SVM(Support Vector Machine)을 이용하여 2-클래스 사용자 모델을 생성한다. SVM(Support Vector Machine)은 기계 학습 알고리즘 중 하나로 패턴 인식에 주로 사용된다.Next, a two-class user model is generated using the conversion information using a support vector machine (SVM). SVM (Support Vector Machine) is one of the machine learning algorithms and is mainly used for pattern recognition.

SVM(Support Vector Machine)은 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 상기 사용자 인증 방법에서는 시스템 전체 사용자의 변환 정보를 SVM을 이용하여 2-클래스 사용자 모델을 생성하고, 사용자가 로그인 시 2-클래스 사용자 모델을 적용하여 사용자가 본인지 여부를 판단한다. 따라서, 부정 사용자가 원 소유자의 아이디와 비밀번호를 도용하여 IoT 주변기기 또는 인터넷 사이트를 로그인 할 경우에 적발하여 접속 거부할 수 있어 보안을 향상시킬 수 있다.SVM (Support Vector Machine) creates a non-stochastic binary linear classification model that determines which category the new data belongs to based on the given data set when a set of data belonging to one of two categories is given. In the user authentication method, a two-class user model is generated by using SVM for conversion information of the entire system user, and when a user logs in, the two-class user model is applied to determine whether the user is the identity. Therefore, when an illegal user steals the ID and password of the original owner to log in to an IoT peripheral device or an Internet site, it is possible to detect and deny access, thereby improving security.

본 발명은 상기한 특정의 바람직한 실시예에 한정되지 아니하며 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고 그와 같은 변경은 청구범위 기재의 범위 내에 있게 되는 것은 자명하다 할 것이다.The present invention is not limited to the specific preferred embodiments described above, and without departing from the gist of the present invention as claimed in the claims, anyone with ordinary skill in the art to which the invention pertains can make various modifications. And it will be obvious that such changes are within the scope of the claims.

100 : 터치 입력
200 : 음성 명령
300 : 전자 칠판
310 : 터치 센서
320 : 마이크 어레이
330 : 제어부
340 : 음성 인식 엔진
350 : 명령어 해석부
360 : 데이터베이스
370 : 명령어 리스트
100: touch input
200 : voice command
300: electronic blackboard
310: touch sensor
320: microphone array
330: control unit
340: speech recognition engine
350: command interpretation unit
360: database
370 : command list

Claims (9)

터치 인식이 가능한 패널부와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치인식을 수행하는 센서부를 포함하는 전자 칠판에 있어서,
외부의 음원으로부터 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이;
상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진;
상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스;
상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부;
상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하며,
상기 제어부는 상기 해석된 명령어에 따라 외부 클라우드 서버로 통신을 연결하고, SaaS 기반의 클라우드 데이터를 쿼리 검색하여 상기 전자 칠판에 표시하고, 상기 해석된 명령어에 따라 상기 전자 칠판의 기기 내부의 제어 기능을 수행하거나 상기 명령어에 따라 상기 전자 칠판과 유무선으로 연결된 외부 주변 기기들의 제어 기능을 수행하며,
상기 연결된 외부 주변 기기들의 제어 기능을 수행하는 경우,
상기 외부 주변 기기들의 제어를 위해 IoT 데이터 수집을 최대화 하면서도 상기 외부 주변 기기들과의 통신 코스트를 최소화하는 가장 적합한 경로를 찾는 최적 루트 추천 AI 알고리즘을 통해 상기 제어 기능을 수행하며,
상기 알고리즘은 데이터 수집 모듈이 상기 외부 주변 기기의 사용빈도량 및 전력소모량을 기준으로 데이터 셋을 입력 받는 데이터 수집 단계, 전처리 모듈이 상기 입력된 데이터 셋을 전처리 하는 전처리 단계, ANN(Artificial Neural Network)의 머신 러닝을 통하여 구성된 예측 모듈이 상기 전처리된 데이터 셋을 예측 알고리즘에 적용하는 예측 계산 단계, 최적화 모듈이 목적 함수에 따라 예측 모델과 제약 조건을 사용하여 최적 루트를 찾는 최적 루트 추천 단계로 이루어지는 것을 특징으로 하는 전자 칠판 시스템.
In the electronic blackboard, comprising: a panel unit capable of touch recognition; and a sensor unit that determines a touch method when the panel unit is touched and performs touch recognition according to the touch method,
a microphone array that receives a voice signal from an external sound source, separates the sound source, and removes noise;
a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal;
a database for repeatedly storing the received voice signal and the converted text signal;
a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database;
Includes a control unit that performs a query search or internal and external control function to an external cloud service according to the interpreted command,
The control unit connects communication to an external cloud server according to the interpreted command, searches for SaaS-based cloud data and displays it on the electronic board, and controls the internal control function of the electronic board according to the interpreted command. or performs a control function of external peripheral devices connected to the electronic blackboard by wire or wireless according to the command,
When performing a control function of the connected external peripheral devices,
Performs the control function through an optimal route recommendation AI algorithm that finds the most suitable route that minimizes communication cost with the external peripheral devices while maximizing IoT data collection for control of the external peripheral devices,
The algorithm includes a data collection step in which the data collection module receives a data set based on the frequency of use and power consumption of the external peripheral device, a pre-processing step in which the pre-processing module pre-processes the input data set, ANN (Artificial Neural Network) A prediction calculation step in which the prediction module constructed through machine learning of the preprocessed data set is applied to the prediction algorithm, and the optimum route recommendation step in which the optimization module finds the optimum route using the prediction model and constraints according to the objective function Features an electronic blackboard system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 터치 인식이 가능한 패널부와 상기 패널부가 터치되는 경우에 터치 방식을 판별하여 터치 방식에 따른 터치인식을 수행하는 센서부를 포함하는 전자 칠판에 있어서,
외부의 음원으로부터 음성 신호를 입력받아 음원을 분리하고 노이즈를 제거하는 마이크 어레이;
상기 마이크 어레이로부터 노이즈가 제거된 아날로그 신호인 음성 신호를 전달받아 텍스트 신호인 디지털 데이터로 변환하는 음성 인식 엔진;
상기 전달받은 음성 신호 및 변환된 텍스트 신호를 반복하여 저장하는 데이터베이스;
상기 음성인식 엔진으로부터 변환된 텍스트 신호를 입력받아 상기 데이터베이스를 이용하여 기계학습을 통해 명령어로 해석하는 명령어 해석부;
상기 해석된 명령어에 따라 외부 클라우드 서비스로 쿼리검색 또는 내외부 제어기능을 수행하는 제어부를 포함하며,
상기 음성 신호 및 변환된 텍스트 신호는
각각의 원본 신호의 데이터와 상기 데이터의 교란화를 위해 사전에 설정된 k값을 기초로 k-1개의 모사 데이터를 이용하여,
상기 데이터의 발생 시간인 타임스탬프에 근거하여 해쉬함수 프로세스를 처리한 결과값에 따라 데이터베이스를 저장함으로써 상기 외부의 음원을 발화한 사용자의 프라이버시를 보호하는 것을 특징으로 하는 전자 칠판 시스템.
In the electronic blackboard, comprising: a panel unit capable of touch recognition; and a sensor unit that determines a touch method when the panel unit is touched and performs touch recognition according to the touch method,
a microphone array that receives a voice signal from an external sound source, separates the sound source, and removes noise;
a voice recognition engine that receives a voice signal that is an analog signal from which noise has been removed from the microphone array and converts it into digital data that is a text signal;
a database for repeatedly storing the received voice signal and the converted text signal;
a command interpretation unit that receives the text signal converted from the speech recognition engine and interprets it as a command through machine learning using the database;
Includes a control unit that performs a query search or internal and external control function to an external cloud service according to the interpreted command,
The voice signal and the converted text signal are
Using k-1 simulated data based on the data of each original signal and the k value preset for perturbation of the data,
The electronic blackboard system according to claim 1, wherein the privacy of the user who uttered the external sound source is protected by storing the database according to the result of processing the hash function process based on the timestamp that is the time of generation of the data.
청구항 7에 있어서,
상기 해쉬함수는 Hash-based Message Authentication Code 알고리즘(HMAC)을 이용하며, 아래 수학식 1에 의해 결과값 Q가 생성되는 것을 특징으로 하는 전자 칠판 시스템.
<수학식 1>
Figure 112020126617920-pat00003

(TS는 타임스탬프 정보이며, K_CNT는 상기 k값에 기초한 카운트 숫자이며, PK는 사전에 공유된 비밀키 정보)
8. The method of claim 7,
The hash function uses a Hash-based Message Authentication Code algorithm (HMAC), and the result value Q is generated by Equation 1 below.
<Equation 1>
Figure 112020126617920-pat00003

(TS is timestamp information, K_CNT is a count number based on the k value, and PK is previously shared secret key information)
청구항 7에 있어서,
상기 시스템은 상기 외부의 음원을 발화한 사용자가 상기 시스템에 로그인 하는 환경정보인 IP 대역 또는 사용자 에이전트(user-agent)가 변환된 변환정보를 이진 선형 분류 모델인 서포트 벡터 머신(Support Vector Machine)을 이용하여 2-클래스 사용자 모델을 생성함으로써 상기 사용자가 본인인지 여부를 판단하는 것을 특징으로 하는 전자 칠판 시스템.
8. The method of claim 7,
The system uses a support vector machine, which is a binary linear classification model, for conversion information converted from IP band or user-agent, which is environmental information that a user who has uttered the external sound source logs in to the system. The electronic blackboard system, characterized in that it is determined whether the user is the user by generating a two-class user model using the
KR1020200159287A 2020-11-24 2020-11-24 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment KR102262989B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200159287A KR102262989B1 (en) 2020-11-24 2020-11-24 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment
PCT/KR2021/008996 WO2022114437A1 (en) 2020-11-24 2021-07-13 Electronic blackboard system for performing artificial intelligence control technology through speech recognition in cloud environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200159287A KR102262989B1 (en) 2020-11-24 2020-11-24 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment

Publications (1)

Publication Number Publication Date
KR102262989B1 true KR102262989B1 (en) 2021-06-10

Family

ID=76378278

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200159287A KR102262989B1 (en) 2020-11-24 2020-11-24 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment

Country Status (2)

Country Link
KR (1) KR102262989B1 (en)
WO (1) WO2022114437A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114437A1 (en) * 2020-11-24 2022-06-02 주식회사 아하정보통신 Electronic blackboard system for performing artificial intelligence control technology through speech recognition in cloud environment
KR102446970B1 (en) * 2021-09-03 2022-09-23 (주) 아하 An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function
KR102510097B1 (en) * 2022-11-15 2023-03-14 (주) 아하 Interactive flat panel display attached a fusion touch sensor with pcap and emr

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008509432A (en) * 2004-08-04 2008-03-27 セルマックス システムズ リミテッド Method and system for verifying and enabling user access based on voice parameters
KR20140079697A (en) * 2012-12-17 2014-06-27 삼성전자주식회사 System and method for controlling surrounding device
KR20170133989A (en) * 2016-05-27 2017-12-06 (주) 엔피홀딩스 Electronic board and electronic board system having voice recognition function, method for converting mode of electronic board using the same
KR20200034430A (en) * 2018-09-21 2020-03-31 삼성전자주식회사 Electronic apparatus, system and method for using speech recognition service

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7024658B2 (en) * 2018-08-09 2022-02-24 株式会社Jvcケンウッド Processing equipment
KR102262989B1 (en) * 2020-11-24 2021-06-10 주식회사 아하정보통신 Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008509432A (en) * 2004-08-04 2008-03-27 セルマックス システムズ リミテッド Method and system for verifying and enabling user access based on voice parameters
KR20140079697A (en) * 2012-12-17 2014-06-27 삼성전자주식회사 System and method for controlling surrounding device
KR20170133989A (en) * 2016-05-27 2017-12-06 (주) 엔피홀딩스 Electronic board and electronic board system having voice recognition function, method for converting mode of electronic board using the same
KR20200034430A (en) * 2018-09-21 2020-03-31 삼성전자주식회사 Electronic apparatus, system and method for using speech recognition service

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
선행기술3: 대한민국 특허등록공보 제10-0919680호 (센서네트워크 기반의 데이터 전달장치 및 방법 (Apparatus and method for delivering data based sensor network))
선행특허1: 대한민국 특허공개공보 제10-20152015-0087687호 (대화형 시스템, 디스플레이 장치 및 그 제어 방법(interactive system, display apparatus and controlling method thereof))
선행특허2: 미국 특허등록공보 제10198246호 (Methods and apparatus for voice-activated control of an interactive display)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114437A1 (en) * 2020-11-24 2022-06-02 주식회사 아하정보통신 Electronic blackboard system for performing artificial intelligence control technology through speech recognition in cloud environment
KR102446970B1 (en) * 2021-09-03 2022-09-23 (주) 아하 An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function
KR102494752B1 (en) * 2021-09-03 2023-02-07 (주) 아하 Electronic podium system including a voice sensor and software based on deep learning for determining the correct timing of a voice signal
KR102510097B1 (en) * 2022-11-15 2023-03-14 (주) 아하 Interactive flat panel display attached a fusion touch sensor with pcap and emr

Also Published As

Publication number Publication date
WO2022114437A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
KR102262989B1 (en) Interactive Flat Panel Display System Performing Artificial Intelligence Control Technology Using Speech Recognition in Cloud Environment
US11682380B2 (en) Systems and methods for crowdsourced actions and commands
US20230100423A1 (en) Crowdsourced on-boarding of digital assistant operations
US11289100B2 (en) Selective enrollment with an automated assistant
CN105740686B (en) The control method and device of application
US9323912B2 (en) Method and system for multi-factor biometric authentication
CN108133707B (en) Content sharing method and system
US20220020379A1 (en) Methods and systems for determining a wake word
KR20190077088A (en) How to build and register a gates
US20180366108A1 (en) Crowdsourced training for commands matching
CN111919249A (en) Continuous detection of words and related user experience
CN109716714A (en) Use the control system of the search and dialog interface that have scope
KR20220091529A (en) Anaphora treatment
US11170787B2 (en) Voice-based authentication
KR102262984B1 (en) Interactive flat panel display system performing IoT-based remote control using blockchain
Tiwari et al. Virtual home assistant for voice based controlling and scheduling with short speech speaker identification
US20140351232A1 (en) Accessing enterprise data using a natural language-based search
US11062700B1 (en) Query answering with controlled access knowledge graph
KR20210031141A (en) Interactive Flat Panel Display Performing Artificial Intelligence Control Technology Using Speech Recognition
EP3557461B1 (en) Association via voice
JP2020526839A (en) Classification of user interface sound generation activities
KR20210154564A (en) Electronic teaching desk with Artificial Intelligence module based on Voice Recognition
CN114722234A (en) Music recommendation method, device and storage medium based on artificial intelligence
KR101212126B1 (en) Speech recognition server, speech recognition client and speech recognition method thereof
KR102446970B1 (en) An electronic podium system that performs AI control technology in cloud environment and includes a self-sterilization function

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant