KR102170978B1 - Apparatus for educating coding using voice command and augmented reality - Google Patents
Apparatus for educating coding using voice command and augmented reality Download PDFInfo
- Publication number
- KR102170978B1 KR102170978B1 KR1020200023547A KR20200023547A KR102170978B1 KR 102170978 B1 KR102170978 B1 KR 102170978B1 KR 1020200023547 A KR1020200023547 A KR 1020200023547A KR 20200023547 A KR20200023547 A KR 20200023547A KR 102170978 B1 KR102170978 B1 KR 102170978B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- motion
- voice
- command block
- image
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 31
- 230000004044 response Effects 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/0053—Computers, e.g. programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Educational Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 음성 명령 및 증강 현실을 이용한 코딩 교육 장치에 관한 것으로, 더욱 상세하게는 사용자의 음성 명령을 기반으로 로봇의 동작을 제어하는 동작 제어 명령블록을 생성하고, 생성된 동작 제어 명령블록에 대응하여 동작이 제어되는 로봇을 증간 현실로 표시하는 음성 명령 및 증강 현실을 이용한 코딩 교육 장치에 관한 것이다.The present invention relates to a coding education apparatus using voice commands and augmented reality, and more particularly, to generate a motion control command block that controls the motion of a robot based on a user's voice command, and responds to the generated motion control command block. Thus, it relates to a coding education apparatus using a voice command and augmented reality for displaying a robot whose motion is controlled as an incremental reality.
코딩교육에 대한 관심이 높아지면서, 초보자 또는 아동, 청소년을 대상으로 프로그래밍 언어를 직접 다루는 것이 아닌 블록 형태의 명령문 모음을 제공하고, 이를 배치함으로써 코딩학습이 가능하도록 하는 애플리케이션 및 서비스가 제공되고 있다. 또한, 코딩 결과를 시각적으로 보여주고, 흥미를 유도할 수 있도록 코딩에 따라 동작하는 로봇을 이용한 학습서비스가 제공되고 있다.As interest in coding education increases, applications and services that enable beginners, children, and adolescents to learn coding by providing a collection of instructions in block form rather than directly dealing with programming languages, are being provided. In addition, a learning service using a robot that operates according to coding to visually show the coding result and induce interest is provided.
증강현실(Augmented Reality)은 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다.Augmented Reality is a technology that superimposes virtual objects on the real world. It is also called Mixed Reality (MR) because it combines the real world with the virtual world with additional information in real time and shows it as a single image.
본 발명은 사용자의 음성 명령을 기반으로 로봇의 동작을 제어하는 동작 제어 명령블록을 생성하고, 생성된 동작 제어 명령블록을 나타내는 명령블록 이미지와 생성된 동작 제어 명령블록에 대응하여 동작이 제어되는 로봇을 증강 현실로 표시할 수 있는 음성 명령 및 증강 현실을 이용한 코딩 교육 장치를 제공하고자 한다. The present invention generates a motion control command block that controls the operation of the robot based on a user's voice command, and the operation is controlled in response to a command block image representing the generated motion control command block and the generated motion control command block. An object of the present invention is to provide a coding education apparatus using a voice command and augmented reality capable of displaying in augmented reality.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention that are not mentioned can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means shown in the claims and combinations thereof.
상기 기술적 과제를 해결하기 위한 본 발명에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치는 사용자로부터 발화된 음성 명령을 입력받아 음성 신호로 출력하는 마이크부; 카메라부로부터 촬영된 배경 영상에 가상의 로봇 이미지가 중첩된 증강 현실 영상을 표시하는 표시부; 및 상기 음성 신호를 분석하여 상기 음성 명령의 인식 결과로 음성 인식 데이터를 생성하고, 상기 음성 인식 데이터에 기초하여 상기 로봇 이미지의 동작을 제어하는 동작 제어 명령블록을 생성하고, 상기 동작 제어 명령블록에 대응하여 상기 로봇 이미지의 동작이 제어되도록 상기 표시부를 제어하며, 상기 동작 제어 명령블록을 나타내는 명령블록 이미지를 생성하고, 상기 명령블록 이미지가 배경 영상에 중첩되도록 상기 표시부를 제어하는 프로세서;를 포함한다.A coding education apparatus using voice commands and augmented reality according to the present invention for solving the above technical problem includes: a microphone unit for receiving a voice command uttered from a user and outputting a voice signal; A display unit for displaying an augmented reality image in which a virtual robot image is superimposed on a background image captured by the camera unit; And generating voice recognition data as a result of recognizing the voice command by analyzing the voice signal, generating a motion control command block for controlling the motion of the robot image based on the voice recognition data, and in the motion control command block And a processor configured to control the display unit to correspondingly control the operation of the robot image, generate a command block image representing the operation control command block, and control the display unit so that the command block image is superimposed on a background image. .
바람직하게, 상기 동작 제어 명령블록은 동작 종류 제어 명령문을 포함할 수 있다.Preferably, the operation control command block may include an operation type control statement.
바람직하게, 상기 프로세서는 상기 음성 인식 데이터에서 동작 종류 정보를 검색하고, 상기 동작 종류 정보가 검색되면 상기 검색된 동작 종류 정보에 대응하는 동작 종류 제어 명령문을 생성할 수 있다. Advantageously, the processor may search for motion type information from the speech recognition data, and when the motion type information is retrieved, generate an operation type control command corresponding to the searched motion type information.
바람직하게, 상기 동작 제어 명령블록은 동작 속도 제어 명령문을 포함할 수 있다.Preferably, the motion control command block may include an operation speed control statement.
바람직하게, 상기 프로세서는 상기 음성 인식 데이터에서 동작 속도 정보를 검색하고, 상기 동작 속도 정보가 검색되면 상기 검색된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성할 수 있다. Advantageously, the processor may search for motion speed information from the speech recognition data, and when the motion speed information is retrieved, generate a motion speed control statement corresponding to the retrieved motion speed information.
바람직하게, 상기 프로세서는 상기 동작 속도 정보가 검색되지 않으면 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 동작 속도 정보를 생성하고, 상기 생성된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성할 수 있다. Preferably, if the operation speed information is not retrieved, the processor generates syllable spacing information based on the speech recognition data, generates the motion speed information in response to the syllable spacing information, and the generated motion speed information You can create a corresponding motion speed control statement.
바람직하게, 상기 동작 제어 명령블록은 동작 반복수 제어 명령문을 포함할 수 있다.Preferably, the operation control command block may include an operation repetition number control statement.
바람직하게, 상기 프로세서는 상기 음성 인식 데이터에서 동작 반복수 정보를 검색하고, 상기 동작 반복수 정보가 검색되면 상기 검색된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성할 수 있다. Preferably, the processor may search for operation repetition number information from the speech recognition data, and when the operation repetition number information is retrieved, generate an operation repetition number control statement corresponding to the searched operation repetition number information.
바람직하게, 상기 프로세서는 상기 동작 반복수 정보가 검색되지 않으면 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 동작 반복수 정보를 생성하고, 상기 생성된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성할 수 있다. Preferably, if the operation repetition number information is not retrieved, the processor generates signal strength information based on the voice signal, generates the operation repetition number information in response to the signal strength information, and the generated operation repetition number It is possible to generate an operation repetition control statement corresponding to the information.
바람직하게, 상기 프로세서는 상기 음성 신호에 기초하여 상기 사용자의 사용자 특성 정보를 생성하고, 상기 사용자 특성 정보에 대응하여 상기 동작 제어 명령블록의 프로그래밍 언어 종류를 설정할 수 있다. Preferably, the processor may generate user characteristic information of the user based on the voice signal, and set a programming language type of the operation control command block in response to the user characteristic information.
본 발명에 따르면, 사용자의 음성 명령을 기반으로 생성된 동작 제어 명령블록을 나타내는 명령블록 이미지와 생성된 동작 제어 명령블록에 대응하여 동작이 제어되는 로봇을 증강 현실로 함께 표시함으로써, 코딩 교육을 효과적으로 수행할 수 있다. According to the present invention, a command block image representing a motion control command block generated based on a user's voice command and a robot whose motion is controlled in response to the generated motion control command block are displayed together in augmented reality, thereby effectively providing coding education. Can be done.
도 1은 본 발명의 다양한 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치가 도시된 도면이다.
도 2는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치의 구성요소가 도시된 블록도이다.
도 3 내지 도 5는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치의 표시부가 표시한 화면의 제1 내지 제3 예를 도시한 도면이다.1 is a diagram illustrating a coding education apparatus using voice commands and augmented reality according to various embodiments of the present disclosure.
2 is a block diagram showing components of a coding education apparatus using voice commands and augmented reality according to an embodiment of the present invention.
3 to 5 are views showing first to third examples of screens displayed by a display unit of a coding education apparatus using a voice command and augmented reality according to an embodiment of the present invention.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형 태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/ 또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대 해서는 유사한 참조 부호가 사용될 수 있다. Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include various modifications, equivalents, and/or alternatives of the embodiments of the present invention. In connection with the description of the drawings, similar reference numerals may be used for similar elements.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In this document, expressions such as "have", "may have", "include", or "may contain" are the presence of corresponding features (eg, elements such as numbers, functions, actions, or parts). And does not exclude the presence of additional features.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현 은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다. In this document, expressions such as "A or B", "at least one of A or/and B", or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, “A or B”, “at least one of A and B”, or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.
본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중 요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in this document can modify various elements regardless of their order and/or importance, and It is used to distinguish it from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of the rights described in this document, a first component may be named a second component, and similarly, a second component may be renamed to a first component.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성 요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다. Some component (eg, a first component) is "(functionally or communicatively) coupled with/to)" to another component (eg, a second component) or " When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or may be connected through another component (eg, a third component). On the other hand, when a component (eg, a first component) is referred to as being “directly connected” or “directly connected” to another component (eg, a second component), the component and the It may be understood that no other component (eg, a third component) exists between the different components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합 한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성 (또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. The expression "configured to" used in this document is, for example, "suitable for", "having the capacity to" depending on the situation. )", "designed to", "adapted to", "made to", or "capable of" . The term "configured to (or set) to" may not necessarily mean only "specifically designed to" in hardware. Instead, in some situations, the expression "a device configured to" may mean that the device "can" along with other devices or parts. For example, the phrase “a processor configured (or configured) to perform A, B, and C” means a dedicated processor (eg, an embedded processor) for performing the operation, or by executing one or more software programs stored in memory. , May mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한 정하려는 의도가 아닐 수 있다. 단수의 표현은 컨텍스트 상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 컨텍스트 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다. The terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless they have a clearly different meaning in the context. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meanings as those in the context of the related technology, and unless explicitly defined in this document, they may be interpreted in an ideal or excessively formal meaning. It is not interpreted. In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.
도 1은 본 발명의 다양한 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)가 도시된 도면이다.1 is a diagram illustrating a
도 1은 본 발명의 다양한 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)가 도시된 도면이고, 도 2는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 구성요소가 도시된 블록도이고, 도 3 내지 도 5는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 표시부(130)가 표시한 화면의 제1 내지 제3 예를 도시한 도면이다.1 is a diagram illustrating a
도 1 내지 도 5를 참조하면, 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)는 카메라부(110), 프로세서(120), 표시부(130), 입력부(140), 마이크부(150), 스피커부(160), 저장부(170) 및 통신부(180)를 포함할 수 있다.1 to 5, a
카메라부(110)는 로봇 이미지가 중첩되는 배경을 촬영하여 배경 영상을 생성할 수 있다. 이러한, 카메라부(110)는 사용자에 의해 파지된 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 일측에 결합되어 배경을 촬영할 수 있다.The
이를 위해, 카메라부(110)는 접사 렌즈, 망원 렌즈 및 광원 렌즈 중 하나 이상을 포함할 수 있다.To this end, the
프로세서(120)는 카메라부(110), 표시부(130), 입력부(140), 마이크부(150), 스피커부(160), 저장부(170) 및 통신부(180)의 작동을 제어할 수 있다. The
이러한, 프로세서(120)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The
일 실시 예에 따른 프로세서(120)는 저장부(170)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 작동을 수행하도록 구성될 수 있다.The
구체적으로, 프로세서(120)는 카메라부(110)로부터 촬영된 배경 영상이 표시되도록 표시부(130)를 제어할 수 있다.Specifically, the
또한, 프로세서(120)는 로봇 이미지를 배경 영상에 중첩되어 표시되도록 표시부(130)를 제어할 수 있다.In addition, the
이때, 프로세서(120)는 도 1에 도시된 바와 같이, 배경 영상 중에서 평면 이미지를 인식하고, 배경 영상 상에서 평면 이미지의 면적 정보를 산출하며, 배경 영상의 영상 크기 정보 대비 산출된 면적 정보의 면적 비율이 미리 설정된 기준 면적 비율 이상이면, 평면 이미지에 로봇 이미지가 중첩되도록 표시부(130)를 제어할 수 있다.At this time, as shown in FIG. 1, the
또한, 프로세서(120)는 사용자로부터 음성 명령이 마이크부(150)에 입력되기 전에는 평면 이미지의 중심에 로봇 이미지가 중첩되도록 표시부(130)를 제어할 수 있다.In addition, the
한편, 프로세서(120)는 사용자로부터 발화된 음성 명령이 마이크부(150)에 입력되어 음성 신호로 출력되면, 음성 신호를 분석하여 음성 명령의 인식 결과로 음성 인식 데이터를 생성할 수 있다.Meanwhile, when a voice command uttered from a user is input to the
이때, 프로세서(120)는 도 3에 도시된 바와 같이, 사용자로부터 음성 명령 입력 버튼(I1)이 입력되면 음성 명령을 입력받도록 마이크부(150)를 활성화시킬 수 있다.In this case, as shown in FIG. 3, the
여기서, 음성 인식 데이터는 프로세서(120)에 의해 음성 신호를 전처리하고, 전처리된 음성 신호로부터 음성 특징을 추출하며, 추출된 음성 특징을 음성 모델과 비교하고, 비교 결과에 기초하여 생성되는 데이터일 수 있다. 예를 들어, 음성 인식 데이터는 음성 명령에 대응되는 텍스트일 수 있다.Here, the speech recognition data may be data generated based on a result of preprocessing a speech signal by the
이때, 프로세서(120)가 음성 명령에 대응되는 음성 인식 데이터를 생성하는데 사용하는 음성 인식 방법의 종류는 음성 인식 데이터를 생성하는 한 제한되지 않음을 유의한다.In this case, it should be noted that the type of speech recognition method used by the
도 4에 도시된 바와 같이, 프로세서(120)는 인식된 음성 인식 데이터를 나타내는 음성 인식 데이터 이미지(D1)를 표시하도록 표시부(130)를 제어할 수 있다.As shown in FIG. 4, the
또한, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 사용자로부터 입력받을 수 있는 확인 입력 영역(I2)을 표시하도록 표시부(130)를 제어할 수 있다.In addition, the
프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응됨을 나타내는 확인 입력이 입력되면 동작 제어 명령블록을 생성하는 과정을 수행할 수 있다.The
반대로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되지 않음을 나타내는 비확인 입력이 입력되면 음성 명령을 재입력받는 과정을 수행할 수 있다.Conversely, the
이후, 프로세서(120)는 음성 인식 데이터에 기초하여 로봇 이미지의 동작을 제어하는 동작 제어 명령블록을 생성하고, 동작 제어 명령블록에 대응하여 로봇 이미지의 동작이 제어되도록 표시부(130)를 제어할 수 있다. Thereafter, the
또한, 프로세서(120)는 동작 제어 명령블록을 나타내는 명령블록 이미지(D2)를 생성하고, 명령블록 이미지(D2)가 배경 영상에 중첩되도록 표시부(130)를 제어할 수 있다.Also, the
여기서, 동작 제어 명령블록은 설정된 프로그래밍 언어 종류에 대응되는 동작 종류 제어 명령문, 동작 속도 제어 명령문 및 동작 반복수 제어 명령문 중 하나 이상을 포함할 수 있다.Here, the motion control command block may include one or more of an operation type control statement, an operation speed control statement, and an operation repetition number control statement corresponding to the set programming language type.
이때, 동작 종류 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 동작 종류 제어 명령어와 동작 종류 제어 변수를 포함하고, 동작 속도 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 동작 속도 제어 명령어와 동작 속도 제어 변수를 포함하고, 동작 반복수 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 동작 반복수 제어 명령어와 동작 반복수 제어 변수를 포함할 수 있다.At this time, the operation type control statement includes an operation type control command and an operation type control variable corresponding to the set programming language type, and the operation speed control statement includes an operation speed control command and operation speed control variable corresponding to the set programming language type. And, the operation repetition number control command may include an operation repetition number control command and an operation repetition number control variable corresponding to a set programming language type.
프로세서(120)는 음성 인식 데이터에서 동작 종류 정보(C1)를 검색하고, 동작 종류 정보(C1)가 검색되면 검색된 동작 종류 정보(C1)에 대응하는 동작 종류 제어 명령문(C1')을 생성할 수 있다.The
이를 위해, 동작 종류 정보(C1)에 해당하는 텍스트가 프로그래밍 언어 종류별 동작 종류 제어 명령문(C1')에 매칭되어 저장부(170)에 저장될 수 있다.To this end, the text corresponding to the operation type information C1 may be matched with the operation type control command C1 ′ for each programming language type and stored in the
프로세서(120)는 음성 인식 데이터에서 동작 속도 정보(C2)를 검색하고, 동작 속도 정보(C2)가 검색되면 검색된 동작 속도 정보(C2)에 대응하는 동작 속도 제어 명령문(C2')을 생성할 수 있다.The
이를 위해, 동작 속도 정보(C2)에 해당하는 텍스트가 프로그래밍 언어 종류별 동작 속도 제어 명령문(C2')에 매칭되어 저장부(170)에 저장될 수 있다.To this end, a text corresponding to the operation speed information C2 may be matched with an operation speed control statement C2' for each programming language type and stored in the
반대로, 프로세서(120)는 음성 인식 데이터에서 동작 속도 정보(C2)가 검색되지 않으면, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 동작 속도 정보를 생성하고, 생성된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성할 수 있다.Conversely, if the motion speed information C2 is not retrieved from the voice recognition data, the
구체적으로, 프로세서(120)는 음성 인식 데이터에 포함된 음절 중에서 어느 하나의 음절의 종료 시점과 어느 하나의 음절의 다음 음절의 시작 시점 간에 제1 시간차를 산출하고, 복수의 제1 시간차의 평균 시간차를 음절 간격 정보로 생성할 수 있다.Specifically, the
이후, 프로세서(120)는 기준 시간차 대비 음절 간격 정보가 나타내는 평균 시간차의 시간차 비율을 산출하고, 기본 동작 속도에 시간차 비율을 적용하여 동작 속도 정보로 생성할 수 있다.Thereafter, the
예를 들어, 프로세서(120)는 평균 시간차가 “12msec”이고, 기준 시간차가 “10msec”이며, 기본 동작 속도가 “1배속”인 경우, 시간차 비율을 “120%”로 산출하고, 기본 동작 속도 “1배속”에 시간차 비율 “120%”를 적용하여 동작 속도 정보를 “1.2배속”으로 생성할 수 있다.For example, when the average time difference is “12msec”, the reference time difference is “10msec”, and the basic operation speed is “1x”, the
한편, 프로세서(120)는 음성 인식 데이터에서 동작 반복수 정보(C3)를 검색하고, 동작 반복수 정보(C3)가 검색되면 검색된 동작 반복수 정보(C3)에 대응하는 동작 반복수 제어 명령문(C3')을 생성할 수 있다.On the other hand, the
이를 위해, 동작 반복수 정보(C3)에 해당하는 텍스트가 프로그래밍 언어 종류별 동작 반복수 제어 명령문(C3')에 매칭되어 저장부(170)에 저장될 수 있다.To this end, the text corresponding to the operation repetition number information C3 may be matched with the operation repetition number control statement C3 ′ for each programming language type and stored in the
반대로, 프로세서(120)는 음성 인식 데이터에서 동작 반복수 정보(C3)가 검색되지 않으면, 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 동작 반복수 정보를 생성하고, 생성된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성할 수 있다.Conversely, if the motion repetition number information C3 is not retrieved from the speech recognition data, the
구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 신호 세기 중에서 최대 신호 세기를 신호 세기 정보로 생성할 수 있다.Specifically, the
이후, 프로세서(120)는 기준 신호 세기 대비 신호 세기 정보가 나타내는 최대 신호 세기의 신호 세기 비율을 산출하고, 기본 동작 반복수에 신호 세기 비율을 적용하여 동작 반복수 정보로 생성할 수 있다.Thereafter, the
예를 들어, 프로세서(120)는 최대 신호 세기가 “200 dB”이고, 기준 신호 세기가 “100dB”이며, 기본 동작 반복수가 “1회”인 경우, 신호 세기 비율을 “200%”로 산출하고, 기본 동작 반복수 “1회”에 신호 세기 비율 “200%”를 적용하여 동작 반복수 정보를 “2회”로 생성할 수 있다. 이때, 동작 반복수 정보는 반올림되어 자연수로 생성될 수 있다.For example, if the maximum signal strength is “200 dB”, the reference signal strength is “100 dB”, and the number of basic operation repetitions is “one time”, the
한편, 프로세서(120)는 음성 신호에 기초하여 사용자의 사용자 특성 정보를 생성하고, 사용자 특성 정보에 대응하여 동작 제어 명령블록의 프로그래밍 언어 종류를 설정할 수 있다.Meanwhile, the
여기서, 사용자 특성 정보는 사용자 성별 정보 및 사용자 연령 정보를 포함할 수 있다.Here, the user characteristic information may include user gender information and user age information.
구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 주파수로부터 평균 주파수를 산출하고, 음성 주파수 별로 사용자 연령 정보가 매핑된 주파수-사용자 특성 테이블로부터 평균 주파수에 대응되는 사용자의 사용자 연령 정보를 독출할 수 있다.Specifically, the
이후, 프로세서(120)는 연령대 정보에 따른 프로그래밍 언어 종류 정보가 설정된 연령대-프로그래밍 종류 테이블로부터 독출된 사용자 연령 정보에 대응되는 프로그래밍 언어 종류 정보를 독출할 수 있다. 이때, 연령대-프로그래밍 종류 테이블은 나타내는 연령이 20대 내지 40대에 가까운 연령대 정보일 수 난이도가 높은 프로그래밍 언어 종류 정보가 설정될 수 있다.Thereafter, the
최종적으로, 프로세서(120)는 독출된 프로그래밍 언어 종류 정보를 작 제어 명령블록의 프로그래밍 언어 종류정보로 설정할 수 있다.Finally, the
표시부(130)는 프로세서(120)의 제어에 따라 다양한 영상과 이미지를 표시할 수 있다.The
구체적으로, 표시부(130)는 배경 영상을 표시하고, 배경 영상에 로봇 이미지, 음성 인식 데이터 및 명령블록 이미지 중 하나 이상이 중첩된 증강 현실 영상을 표시할 수 있다.Specifically, the
입력부(140)는 표시부(130)와 결합된 터치 스크린을 통해 사용자로부터 다양한 정보를 입력받을 수 있다. 구체적으로, 입력부(140)는 음성 명령 인식 요청을 음성 입력 버튼(I1)을 통해 입력받고, 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 확인 입력 영역(I2)을 통해 입력받을 수 있다.The
마이크부(150)는 사용자로부터 발화된 음성 명령을 입력받고, 입력된 음성 명령을 변환하여 음성 신호로 출력할 수 있다.The
스피커부(160)는 동작 제어 명령블록이 생성되면 동작 제어 명령 블록에 대응되는 오디오 신호를 출력할 수 있다. 이를 통해, 사용자는 명령블록 이미지를 통해 시각적으로 동작 제어 명령블록을 확인하고, 오디오 신호를 통해 청각적으로 동작 제어 명령블록을 확인할 수 있다.When the motion control command block is generated, the
저장부(170)에는 프로세서(120)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 저장부(170)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The
통신부(180)는 통신망에 연결되어 범용 통신을 이용하여 교육 서버와 통신을 수행할 수 있다. 여기서, 교육 서버는 복수의 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)를 관리하는 서버일 수 있다.The
이를 위해, 통신부(180)는 범용 통신을 수행하는 범용 통신 모듈을 구비할 수 있다. 여기서, 범용 통신은 인터넷 망을 이용한 통신이거나, 셀룰러 통신 프로토콜로서, 예를 들면 LTE(Long-Term Evolution), LTE-A(LTE Advanced), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA), UMTS(Universal Mobile Telecommunications System), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications) 중 적어도 하나를 사용할 수 있다.To this end, the
구체적으로, 통신부(180)는 음성 명령이 녹음된 녹음 데이터, 음성 명령이 변환된 음성 신호, 음성 명령이 인식된 결과인 음성 인식 데이터 및 음성 명령으로부터 생성된 동작 제어 명령블록을 매칭시켜 교육 서버로 송신할 수 있다.Specifically, the
이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.So far, we have looked at the center of the preferred embodiment for the present invention. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be interpreted as being included in the present invention.
이상과 같이, 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by the limited embodiments and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following by those of ordinary skill in the art to which the present invention pertains. It goes without saying that various modifications and variations are possible within the equivalent range of the claims to be described.
100: 음성 명령 및 증강 현실을 이용한 코딩 교육 장치
110: 카메라부
120: 프로세서
130: 표시부
140: 입력부
150: 마이크부
160: 스피커부
170: 저장부
180: 통신부100: Coding education device using voice commands and augmented reality
110: camera unit
120: processor
130: display
140: input unit
150: microphone unit
160: speaker unit
170: storage unit
180: communication department
Claims (7)
카메라부로부터 촬영된 배경 영상에 가상의 로봇 이미지가 중첩된 증강 현실 영상을 표시하는 표시부; 및
상기 음성 신호를 분석하여 상기 음성 명령의 인식 결과로 음성 인식 데이터를 생성하고, 상기 음성 인식 데이터에 기초하여 상기 로봇 이미지의 동작을 제어하는 동작 제어 명령블록을 생성하고, 상기 동작 제어 명령블록에 대응하여 상기 로봇 이미지의 동작이 제어되도록 상기 표시부를 제어하며, 상기 동작 제어 명령블록을 나타내는 명령블록 이미지를 생성하고, 상기 명령블록 이미지가 배경 영상에 중첩되도록 상기 표시부를 제어하는 프로세서;를 포함하고,
상기 동작 제어 명령블록은
동작 속도 제어 명령문을 포함하고,
상기 프로세서는
상기 음성 인식 데이터에서 동작 속도 정보를 검색하고, 상기 동작 속도 정보가 검색되면 상기 검색된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성하고,
상기 동작 속도 정보가 검색되지 않으면 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 동작 속도 정보를 생성하고, 상기 생성된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
A microphone unit for receiving a voice command uttered from a user and outputting a voice signal;
A display unit for displaying an augmented reality image in which a virtual robot image is superimposed on a background image captured by the camera unit; And
Analyzes the voice signal to generate voice recognition data as a result of the recognition of the voice command, generates a motion control command block for controlling the motion of the robot image based on the voice recognition data, and corresponds to the motion control command block A processor for controlling the display unit to control the operation of the robot image, generating a command block image representing the operation control command block, and controlling the display unit so that the command block image is superimposed on a background image; and
The motion control command block is
Contains a motion speed control statement,
The processor is
Searching for motion speed information from the speech recognition data, and when the motion speed information is retrieved, generates a motion speed control statement corresponding to the searched motion speed information,
If the motion speed information is not retrieved, a syllable spacing information is generated based on the speech recognition data, the motion speed information is generated in response to the syllable spacing information, and an motion speed control statement corresponding to the generated motion speed information Characterized in that to generate
Coding education device using voice commands and augmented reality.
상기 동작 제어 명령블록은
동작 종류 제어 명령문을 포함하고,
상기 프로세서는
상기 음성 인식 데이터에서 동작 종류 정보를 검색하고, 상기 동작 종류 정보가 검색되면 상기 검색된 동작 종류 정보에 대응하는 동작 종류 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 1,
The motion control command block is
Contains the action type control statement,
The processor is
Retrieving motion type information from the speech recognition data, and generating a motion type control statement corresponding to the searched motion type information when the motion type information is retrieved.
Coding education device using voice commands and augmented reality.
상기 동작 제어 명령블록은
동작 반복수 제어 명령문을 포함하고,
상기 프로세서는
상기 음성 인식 데이터에서 동작 반복수 정보를 검색하고, 상기 동작 반복수 정보가 검색되면 상기 검색된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 1,
The motion control command block is
Includes a control statement for the number of operation repetitions,
The processor is
And generating an operation repetition number control statement corresponding to the searched operation repetition number information when the operation repetition number information is retrieved from the speech recognition data.
Coding education device using voice commands and augmented reality.
상기 프로세서는
상기 동작 반복수 정보가 검색되지 않으면 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 동작 반복수 정보를 생성하고, 상기 생성된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 5,
The processor is
If the operation repetition number information is not retrieved, signal strength information is generated based on the voice signal, the operation repetition number information is generated in response to the signal strength information, and the operation repetition corresponding to the generated operation repetition number information Characterized in that to generate a number control statement
Coding education device using voice commands and augmented reality.
상기 프로세서는
상기 음성 신호에 기초하여 상기 사용자의 사용자 특성 정보를 생성하고, 상기 사용자 특성 정보에 대응하여 상기 동작 제어 명령블록의 프로그래밍 언어 종류를 설정하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 1,
The processor is
And generating user characteristic information of the user based on the voice signal, and setting a programming language type of the operation control command block in response to the user characteristic information.
Coding education device using voice commands and augmented reality.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200023547A KR102170978B1 (en) | 2020-02-26 | 2020-02-26 | Apparatus for educating coding using voice command and augmented reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200023547A KR102170978B1 (en) | 2020-02-26 | 2020-02-26 | Apparatus for educating coding using voice command and augmented reality |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102170978B1 true KR102170978B1 (en) | 2020-10-28 |
Family
ID=73018249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200023547A KR102170978B1 (en) | 2020-02-26 | 2020-02-26 | Apparatus for educating coding using voice command and augmented reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102170978B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102300584B1 (en) * | 2020-12-08 | 2021-09-10 | 주식회사 플레이코드 | Apparatus and method for educating the coding |
KR102392584B1 (en) * | 2021-09-10 | 2022-04-29 | (주)코딩앤플레이 | control method for history-based coding education system |
WO2023120747A1 (en) * | 2021-12-20 | 2023-06-29 | (주)에어패스 | Voice recognition-based shortcut key xr interactive interworking system and interworking method using same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101715621B1 (en) * | 2015-10-14 | 2017-03-27 | (주)비즈맘 | System for educating programming and method for driving the same |
KR20180013487A (en) | 2016-07-29 | 2018-02-07 | 이광재 | ROBOT SYSTEM for SOFTWARE EDUCATION |
KR101947160B1 (en) * | 2018-06-20 | 2019-02-12 | (주)코딩앤플레이 | Coding education method using augmented reality |
KR20190102559A (en) * | 2018-02-26 | 2019-09-04 | 대전대학교 산학협력단 | Apparatus for supporting coding learning and operation method of the apparatus |
-
2020
- 2020-02-26 KR KR1020200023547A patent/KR102170978B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101715621B1 (en) * | 2015-10-14 | 2017-03-27 | (주)비즈맘 | System for educating programming and method for driving the same |
KR20180013487A (en) | 2016-07-29 | 2018-02-07 | 이광재 | ROBOT SYSTEM for SOFTWARE EDUCATION |
KR20190102559A (en) * | 2018-02-26 | 2019-09-04 | 대전대학교 산학협력단 | Apparatus for supporting coding learning and operation method of the apparatus |
KR101947160B1 (en) * | 2018-06-20 | 2019-02-12 | (주)코딩앤플레이 | Coding education method using augmented reality |
Non-Patent Citations (4)
Title |
---|
공개특허공보 제10-2019-0102559호(2019.9.4. 공개) 1부.* |
등록특허공보 제10-1715621호(2017.3.27. 공고) 1부.* |
등록특허공보 제10-1947160호(2019.2.12. 공고) 1부.* |
일본 특허공보 제6450312호(2019.1.9. 발행) 1부.* |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102300584B1 (en) * | 2020-12-08 | 2021-09-10 | 주식회사 플레이코드 | Apparatus and method for educating the coding |
KR102392584B1 (en) * | 2021-09-10 | 2022-04-29 | (주)코딩앤플레이 | control method for history-based coding education system |
KR102481956B1 (en) * | 2021-09-10 | 2022-12-28 | (주)코딩앤플레이 | Control method for historical education-linked coding system by location of relic |
WO2023038173A1 (en) * | 2021-09-10 | 2023-03-16 | (주)코딩앤플레이 | Control method for history-based coding education system |
WO2023120747A1 (en) * | 2021-12-20 | 2023-06-29 | (주)에어패스 | Voice recognition-based shortcut key xr interactive interworking system and interworking method using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102170978B1 (en) | Apparatus for educating coding using voice command and augmented reality | |
JP6616473B2 (en) | Method and apparatus for controlling pages | |
CN106710586B (en) | Automatic switching method and device for voice recognition engine | |
CN111488489B (en) | Video file classification method, device, medium and electronic equipment | |
CN110517689B (en) | Voice data processing method, device and storage medium | |
CN110475069B (en) | Image shooting method and device | |
KR101992424B1 (en) | Apparatus for making artificial intelligence character for augmented reality and service system using the same | |
JP6681450B2 (en) | Information processing method and device | |
US20200327893A1 (en) | Information processing device and information processing method | |
WO2021227308A1 (en) | Video resource generation method and apparatus | |
CN113822076A (en) | Text generation method and device, computer equipment and storage medium | |
CN110349577B (en) | Man-machine interaction method and device, storage medium and electronic equipment | |
CN107910006A (en) | Audio recognition method, device and multiple source speech differentiation identifying system | |
CN207718803U (en) | Multiple source speech differentiation identifying system | |
KR101634068B1 (en) | Method and device for generating educational contents map | |
CN112837674B (en) | Voice recognition method, device, related system and equipment | |
CN116913278A (en) | Voice processing method, device, equipment and storage medium | |
CN111415662A (en) | Method, apparatus, device and medium for generating video | |
CN113763925B (en) | Speech recognition method, device, computer equipment and storage medium | |
CN116415597A (en) | Speech translation and simultaneous interpretation method | |
KR20210042520A (en) | An electronic apparatus and Method for controlling the electronic apparatus thereof | |
EP4064031A1 (en) | Method and system for tracking in extended reality using voice commmand | |
CN107283429B (en) | Control method, device and system based on artificial intelligence and terminal | |
CN113808572B (en) | Speech synthesis method, speech synthesis device, electronic equipment and storage medium | |
CN112002325B (en) | Multi-language voice interaction method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |