KR102170978B1 - Apparatus for educating coding using voice command and augmented reality - Google Patents

Apparatus for educating coding using voice command and augmented reality Download PDF

Info

Publication number
KR102170978B1
KR102170978B1 KR1020200023547A KR20200023547A KR102170978B1 KR 102170978 B1 KR102170978 B1 KR 102170978B1 KR 1020200023547 A KR1020200023547 A KR 1020200023547A KR 20200023547 A KR20200023547 A KR 20200023547A KR 102170978 B1 KR102170978 B1 KR 102170978B1
Authority
KR
South Korea
Prior art keywords
information
motion
voice
command block
image
Prior art date
Application number
KR1020200023547A
Other languages
Korean (ko)
Inventor
류경희
Original Assignee
류경희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 류경희 filed Critical 류경희
Priority to KR1020200023547A priority Critical patent/KR102170978B1/en
Application granted granted Critical
Publication of KR102170978B1 publication Critical patent/KR102170978B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0053Computers, e.g. programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to the present invention, a coding education device using a voice command and augmented reality comprises: a microphone unit receiving a voice command uttered from a user and outputting the same as a voice signal; a display unit displaying an augmented reality image in which a virtual robot image is superimposed on a background image photographed by a camera unit; and a processor analyzing the voice signal to generate voice recognition data as a result of recognizing the voice command, generating an operation control command block that controls the operation of the robot image based on the voice recognition data, controlling the display unit to control the operation of the robot image in response to the operation control command block, generating a command block image that represents the operation control command block, and controlling the display unit so that the command block image is superimposed on the background image. According to the present invention, a command block image for representing an operation control command block is displayed on the augmented reality together with a robot controlled in response to the operation control command block, and thus, coding education can be effectively performed.

Description

음성 명령 및 증강 현실을 이용한 코딩 교육 장치{Apparatus for educating coding using voice command and augmented reality}Coding education apparatus using voice command and augmented reality {Apparatus for educating coding using voice command and augmented reality}

본 발명은 음성 명령 및 증강 현실을 이용한 코딩 교육 장치에 관한 것으로, 더욱 상세하게는 사용자의 음성 명령을 기반으로 로봇의 동작을 제어하는 동작 제어 명령블록을 생성하고, 생성된 동작 제어 명령블록에 대응하여 동작이 제어되는 로봇을 증간 현실로 표시하는 음성 명령 및 증강 현실을 이용한 코딩 교육 장치에 관한 것이다.The present invention relates to a coding education apparatus using voice commands and augmented reality, and more particularly, to generate a motion control command block that controls the motion of a robot based on a user's voice command, and responds to the generated motion control command block. Thus, it relates to a coding education apparatus using a voice command and augmented reality for displaying a robot whose motion is controlled as an incremental reality.

코딩교육에 대한 관심이 높아지면서, 초보자 또는 아동, 청소년을 대상으로 프로그래밍 언어를 직접 다루는 것이 아닌 블록 형태의 명령문 모음을 제공하고, 이를 배치함으로써 코딩학습이 가능하도록 하는 애플리케이션 및 서비스가 제공되고 있다. 또한, 코딩 결과를 시각적으로 보여주고, 흥미를 유도할 수 있도록 코딩에 따라 동작하는 로봇을 이용한 학습서비스가 제공되고 있다.As interest in coding education increases, applications and services that enable beginners, children, and adolescents to learn coding by providing a collection of instructions in block form rather than directly dealing with programming languages, are being provided. In addition, a learning service using a robot that operates according to coding to visually show the coding result and induce interest is provided.

증강현실(Augmented Reality)은 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다.Augmented Reality is a technology that superimposes virtual objects on the real world. It is also called Mixed Reality (MR) because it combines the real world with the virtual world with additional information in real time and shows it as a single image.

공개특허공보 제10-2018-0013487호, 2018.02.07 공개Unexamined Patent Publication No. 10-2018-0013487, published on February 7, 2018

본 발명은 사용자의 음성 명령을 기반으로 로봇의 동작을 제어하는 동작 제어 명령블록을 생성하고, 생성된 동작 제어 명령블록을 나타내는 명령블록 이미지와 생성된 동작 제어 명령블록에 대응하여 동작이 제어되는 로봇을 증강 현실로 표시할 수 있는 음성 명령 및 증강 현실을 이용한 코딩 교육 장치를 제공하고자 한다. The present invention generates a motion control command block that controls the operation of the robot based on a user's voice command, and the operation is controlled in response to a command block image representing the generated motion control command block and the generated motion control command block. An object of the present invention is to provide a coding education apparatus using a voice command and augmented reality capable of displaying in augmented reality.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention that are not mentioned can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means shown in the claims and combinations thereof.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치는 사용자로부터 발화된 음성 명령을 입력받아 음성 신호로 출력하는 마이크부; 카메라부로부터 촬영된 배경 영상에 가상의 로봇 이미지가 중첩된 증강 현실 영상을 표시하는 표시부; 및 상기 음성 신호를 분석하여 상기 음성 명령의 인식 결과로 음성 인식 데이터를 생성하고, 상기 음성 인식 데이터에 기초하여 상기 로봇 이미지의 동작을 제어하는 동작 제어 명령블록을 생성하고, 상기 동작 제어 명령블록에 대응하여 상기 로봇 이미지의 동작이 제어되도록 상기 표시부를 제어하며, 상기 동작 제어 명령블록을 나타내는 명령블록 이미지를 생성하고, 상기 명령블록 이미지가 배경 영상에 중첩되도록 상기 표시부를 제어하는 프로세서;를 포함한다.A coding education apparatus using voice commands and augmented reality according to the present invention for solving the above technical problem includes: a microphone unit for receiving a voice command uttered from a user and outputting a voice signal; A display unit for displaying an augmented reality image in which a virtual robot image is superimposed on a background image captured by the camera unit; And generating voice recognition data as a result of recognizing the voice command by analyzing the voice signal, generating a motion control command block for controlling the motion of the robot image based on the voice recognition data, and in the motion control command block And a processor configured to control the display unit to correspondingly control the operation of the robot image, generate a command block image representing the operation control command block, and control the display unit so that the command block image is superimposed on a background image. .

바람직하게, 상기 동작 제어 명령블록은 동작 종류 제어 명령문을 포함할 수 있다.Preferably, the operation control command block may include an operation type control statement.

바람직하게, 상기 프로세서는 상기 음성 인식 데이터에서 동작 종류 정보를 검색하고, 상기 동작 종류 정보가 검색되면 상기 검색된 동작 종류 정보에 대응하는 동작 종류 제어 명령문을 생성할 수 있다. Advantageously, the processor may search for motion type information from the speech recognition data, and when the motion type information is retrieved, generate an operation type control command corresponding to the searched motion type information.

바람직하게, 상기 동작 제어 명령블록은 동작 속도 제어 명령문을 포함할 수 있다.Preferably, the motion control command block may include an operation speed control statement.

바람직하게, 상기 프로세서는 상기 음성 인식 데이터에서 동작 속도 정보를 검색하고, 상기 동작 속도 정보가 검색되면 상기 검색된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성할 수 있다. Advantageously, the processor may search for motion speed information from the speech recognition data, and when the motion speed information is retrieved, generate a motion speed control statement corresponding to the retrieved motion speed information.

바람직하게, 상기 프로세서는 상기 동작 속도 정보가 검색되지 않으면 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 동작 속도 정보를 생성하고, 상기 생성된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성할 수 있다. Preferably, if the operation speed information is not retrieved, the processor generates syllable spacing information based on the speech recognition data, generates the motion speed information in response to the syllable spacing information, and the generated motion speed information You can create a corresponding motion speed control statement.

바람직하게, 상기 동작 제어 명령블록은 동작 반복수 제어 명령문을 포함할 수 있다.Preferably, the operation control command block may include an operation repetition number control statement.

바람직하게, 상기 프로세서는 상기 음성 인식 데이터에서 동작 반복수 정보를 검색하고, 상기 동작 반복수 정보가 검색되면 상기 검색된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성할 수 있다. Preferably, the processor may search for operation repetition number information from the speech recognition data, and when the operation repetition number information is retrieved, generate an operation repetition number control statement corresponding to the searched operation repetition number information.

바람직하게, 상기 프로세서는 상기 동작 반복수 정보가 검색되지 않으면 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 동작 반복수 정보를 생성하고, 상기 생성된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성할 수 있다. Preferably, if the operation repetition number information is not retrieved, the processor generates signal strength information based on the voice signal, generates the operation repetition number information in response to the signal strength information, and the generated operation repetition number It is possible to generate an operation repetition control statement corresponding to the information.

바람직하게, 상기 프로세서는 상기 음성 신호에 기초하여 상기 사용자의 사용자 특성 정보를 생성하고, 상기 사용자 특성 정보에 대응하여 상기 동작 제어 명령블록의 프로그래밍 언어 종류를 설정할 수 있다. Preferably, the processor may generate user characteristic information of the user based on the voice signal, and set a programming language type of the operation control command block in response to the user characteristic information.

본 발명에 따르면, 사용자의 음성 명령을 기반으로 생성된 동작 제어 명령블록을 나타내는 명령블록 이미지와 생성된 동작 제어 명령블록에 대응하여 동작이 제어되는 로봇을 증강 현실로 함께 표시함으로써, 코딩 교육을 효과적으로 수행할 수 있다. According to the present invention, a command block image representing a motion control command block generated based on a user's voice command and a robot whose motion is controlled in response to the generated motion control command block are displayed together in augmented reality, thereby effectively providing coding education. Can be done.

도 1은 본 발명의 다양한 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치가 도시된 도면이다.
도 2는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치의 구성요소가 도시된 블록도이다.
도 3 내지 도 5는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치의 표시부가 표시한 화면의 제1 내지 제3 예를 도시한 도면이다.
1 is a diagram illustrating a coding education apparatus using voice commands and augmented reality according to various embodiments of the present disclosure.
2 is a block diagram showing components of a coding education apparatus using voice commands and augmented reality according to an embodiment of the present invention.
3 to 5 are views showing first to third examples of screens displayed by a display unit of a coding education apparatus using a voice command and augmented reality according to an embodiment of the present invention.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형 태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/ 또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대 해서는 유사한 참조 부호가 사용될 수 있다. Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include various modifications, equivalents, and/or alternatives of the embodiments of the present invention. In connection with the description of the drawings, similar reference numerals may be used for similar elements.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In this document, expressions such as "have", "may have", "include", or "may contain" are the presence of corresponding features (eg, elements such as numbers, functions, actions, or parts). And does not exclude the presence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현 은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다. In this document, expressions such as "A or B", "at least one of A or/and B", or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, “A or B”, “at least one of A and B”, or “at least one of A or B” includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중 요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" used in this document can modify various elements regardless of their order and/or importance, and It is used to distinguish it from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of the rights described in this document, a first component may be named a second component, and similarly, a second component may be renamed to a first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성 요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다. Some component (eg, a first component) is "(functionally or communicatively) coupled with/to)" to another component (eg, a second component) or " When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or may be connected through another component (eg, a third component). On the other hand, when a component (eg, a first component) is referred to as being “directly connected” or “directly connected” to another component (eg, a second component), the component and the It may be understood that no other component (eg, a third component) exists between the different components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합 한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성 (또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. The expression "configured to" used in this document is, for example, "suitable for", "having the capacity to" depending on the situation. )", "designed to", "adapted to", "made to", or "capable of" . The term "configured to (or set) to" may not necessarily mean only "specifically designed to" in hardware. Instead, in some situations, the expression "a device configured to" may mean that the device "can" along with other devices or parts. For example, the phrase “a processor configured (or configured) to perform A, B, and C” means a dedicated processor (eg, an embedded processor) for performing the operation, or by executing one or more software programs stored in memory. , May mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한 정하려는 의도가 아닐 수 있다. 단수의 표현은 컨텍스트 상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 컨텍스트 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다. The terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless they have a clearly different meaning in the context. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the technical field described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meanings as those in the context of the related technology, and unless explicitly defined in this document, they may be interpreted in an ideal or excessively formal meaning. It is not interpreted. In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

도 1은 본 발명의 다양한 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)가 도시된 도면이다.1 is a diagram illustrating a coding education apparatus 100 using voice commands and augmented reality according to various embodiments of the present disclosure.

도 1은 본 발명의 다양한 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)가 도시된 도면이고, 도 2는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 구성요소가 도시된 블록도이고, 도 3 내지 도 5는 본 발명의 일 실시 예에 따른 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 표시부(130)가 표시한 화면의 제1 내지 제3 예를 도시한 도면이다.1 is a diagram illustrating a coding education apparatus 100 using voice commands and augmented reality according to various embodiments of the present invention, and FIG. 2 is a diagram illustrating coding education using voice commands and augmented reality according to an embodiment of the present invention. A block diagram showing the components of the device 100, FIGS. 3 to 5 are screens displayed by the display unit 130 of the coding education apparatus 100 using voice commands and augmented reality according to an embodiment of the present invention It is a diagram showing the first to third examples of.

도 1 내지 도 5를 참조하면, 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)는 카메라부(110), 프로세서(120), 표시부(130), 입력부(140), 마이크부(150), 스피커부(160), 저장부(170) 및 통신부(180)를 포함할 수 있다.1 to 5, a coding education apparatus 100 using voice commands and augmented reality includes a camera unit 110, a processor 120, a display unit 130, an input unit 140, a microphone unit 150, and A speaker unit 160, a storage unit 170, and a communication unit 180 may be included.

카메라부(110)는 로봇 이미지가 중첩되는 배경을 촬영하여 배경 영상을 생성할 수 있다. 이러한, 카메라부(110)는 사용자에 의해 파지된 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 일측에 결합되어 배경을 촬영할 수 있다.The camera unit 110 may generate a background image by photographing a background on which the robot image is overlapped. The camera unit 110 may be coupled to one side of the coding education apparatus 100 using a voice command and augmented reality held by a user to take a background.

이를 위해, 카메라부(110)는 접사 렌즈, 망원 렌즈 및 광원 렌즈 중 하나 이상을 포함할 수 있다.To this end, the camera unit 110 may include one or more of a macro lens, a telephoto lens, and a light source lens.

프로세서(120)는 카메라부(110), 표시부(130), 입력부(140), 마이크부(150), 스피커부(160), 저장부(170) 및 통신부(180)의 작동을 제어할 수 있다. The processor 120 may control the operation of the camera unit 110, the display unit 130, the input unit 140, the microphone unit 150, the speaker unit 160, the storage unit 170, and the communication unit 180. .

이러한, 프로세서(120)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 120 includes one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. I can.

일 실시 예에 따른 프로세서(120)는 저장부(170)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)의 작동을 수행하도록 구성될 수 있다.The processor 120 according to an embodiment may be configured to perform an operation of the coding education apparatus 100 using voice commands and augmented reality by executing one or more instructions stored in the storage unit 170.

구체적으로, 프로세서(120)는 카메라부(110)로부터 촬영된 배경 영상이 표시되도록 표시부(130)를 제어할 수 있다.Specifically, the processor 120 may control the display unit 130 to display a background image captured by the camera unit 110.

또한, 프로세서(120)는 로봇 이미지를 배경 영상에 중첩되어 표시되도록 표시부(130)를 제어할 수 있다.In addition, the processor 120 may control the display unit 130 to display the robot image superimposed on the background image.

이때, 프로세서(120)는 도 1에 도시된 바와 같이, 배경 영상 중에서 평면 이미지를 인식하고, 배경 영상 상에서 평면 이미지의 면적 정보를 산출하며, 배경 영상의 영상 크기 정보 대비 산출된 면적 정보의 면적 비율이 미리 설정된 기준 면적 비율 이상이면, 평면 이미지에 로봇 이미지가 중첩되도록 표시부(130)를 제어할 수 있다.At this time, as shown in FIG. 1, the processor 120 recognizes a plane image from among the background images, calculates area information of the plane image on the background image, and the area ratio of the calculated area information to the image size information of the background image If the ratio is greater than or equal to the preset reference area, the display unit 130 may be controlled so that the robot image is superimposed on the flat image.

또한, 프로세서(120)는 사용자로부터 음성 명령이 마이크부(150)에 입력되기 전에는 평면 이미지의 중심에 로봇 이미지가 중첩되도록 표시부(130)를 제어할 수 있다.In addition, the processor 120 may control the display unit 130 so that the robot image is superimposed on the center of the planar image before a voice command from the user is input to the microphone unit 150.

한편, 프로세서(120)는 사용자로부터 발화된 음성 명령이 마이크부(150)에 입력되어 음성 신호로 출력되면, 음성 신호를 분석하여 음성 명령의 인식 결과로 음성 인식 데이터를 생성할 수 있다.Meanwhile, when a voice command uttered from a user is input to the microphone unit 150 and output as a voice signal, the processor 120 may analyze the voice signal and generate voice recognition data as a result of recognizing the voice command.

이때, 프로세서(120)는 도 3에 도시된 바와 같이, 사용자로부터 음성 명령 입력 버튼(I1)이 입력되면 음성 명령을 입력받도록 마이크부(150)를 활성화시킬 수 있다.In this case, as shown in FIG. 3, the processor 120 may activate the microphone unit 150 to receive a voice command when a voice command input button I1 is input by a user.

여기서, 음성 인식 데이터는 프로세서(120)에 의해 음성 신호를 전처리하고, 전처리된 음성 신호로부터 음성 특징을 추출하며, 추출된 음성 특징을 음성 모델과 비교하고, 비교 결과에 기초하여 생성되는 데이터일 수 있다. 예를 들어, 음성 인식 데이터는 음성 명령에 대응되는 텍스트일 수 있다.Here, the speech recognition data may be data generated based on a result of preprocessing a speech signal by the processor 120, extracting a speech characteristic from the preprocessed speech signal, comparing the extracted speech characteristic with a speech model, and the comparison result. have. For example, the voice recognition data may be text corresponding to a voice command.

이때, 프로세서(120)가 음성 명령에 대응되는 음성 인식 데이터를 생성하는데 사용하는 음성 인식 방법의 종류는 음성 인식 데이터를 생성하는 한 제한되지 않음을 유의한다.In this case, it should be noted that the type of speech recognition method used by the processor 120 to generate speech recognition data corresponding to a speech command is not limited as long as it generates speech recognition data.

도 4에 도시된 바와 같이, 프로세서(120)는 인식된 음성 인식 데이터를 나타내는 음성 인식 데이터 이미지(D1)를 표시하도록 표시부(130)를 제어할 수 있다.As shown in FIG. 4, the processor 120 may control the display unit 130 to display a speech recognition data image D1 representing the recognized speech recognition data.

또한, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 사용자로부터 입력받을 수 있는 확인 입력 영역(I2)을 표시하도록 표시부(130)를 제어할 수 있다.In addition, the processor 120 may control the display unit 130 to display a confirmation input area I2 through which a user can input whether or not the recognized speech recognition data corresponds to a speech command.

프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응됨을 나타내는 확인 입력이 입력되면 동작 제어 명령블록을 생성하는 과정을 수행할 수 있다.The processor 120 may perform a process of generating an operation control command block when a confirmation input indicating that the recognized speech recognition data corresponds to a speech command is input.

반대로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되지 않음을 나타내는 비확인 입력이 입력되면 음성 명령을 재입력받는 과정을 수행할 수 있다.Conversely, the processor 120 may perform a process of re-inputting the voice command when an unconfirmed input indicating that the recognized voice recognition data does not correspond to the voice command is input.

이후, 프로세서(120)는 음성 인식 데이터에 기초하여 로봇 이미지의 동작을 제어하는 동작 제어 명령블록을 생성하고, 동작 제어 명령블록에 대응하여 로봇 이미지의 동작이 제어되도록 표시부(130)를 제어할 수 있다. Thereafter, the processor 120 may generate a motion control command block for controlling the motion of the robot image based on the voice recognition data, and control the display unit 130 to control the motion of the robot image in response to the motion control command block. have.

또한, 프로세서(120)는 동작 제어 명령블록을 나타내는 명령블록 이미지(D2)를 생성하고, 명령블록 이미지(D2)가 배경 영상에 중첩되도록 표시부(130)를 제어할 수 있다.Also, the processor 120 may generate a command block image D2 representing an operation control command block, and control the display unit 130 so that the command block image D2 is superimposed on the background image.

여기서, 동작 제어 명령블록은 설정된 프로그래밍 언어 종류에 대응되는 동작 종류 제어 명령문, 동작 속도 제어 명령문 및 동작 반복수 제어 명령문 중 하나 이상을 포함할 수 있다.Here, the motion control command block may include one or more of an operation type control statement, an operation speed control statement, and an operation repetition number control statement corresponding to the set programming language type.

이때, 동작 종류 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 동작 종류 제어 명령어와 동작 종류 제어 변수를 포함하고, 동작 속도 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 동작 속도 제어 명령어와 동작 속도 제어 변수를 포함하고, 동작 반복수 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 동작 반복수 제어 명령어와 동작 반복수 제어 변수를 포함할 수 있다.At this time, the operation type control statement includes an operation type control command and an operation type control variable corresponding to the set programming language type, and the operation speed control statement includes an operation speed control command and operation speed control variable corresponding to the set programming language type. And, the operation repetition number control command may include an operation repetition number control command and an operation repetition number control variable corresponding to a set programming language type.

프로세서(120)는 음성 인식 데이터에서 동작 종류 정보(C1)를 검색하고, 동작 종류 정보(C1)가 검색되면 검색된 동작 종류 정보(C1)에 대응하는 동작 종류 제어 명령문(C1')을 생성할 수 있다.The processor 120 searches for the motion type information C1 from the speech recognition data, and when the motion type information C1 is retrieved, the processor 120 may generate a motion type control statement C1' corresponding to the searched motion type information C1. have.

이를 위해, 동작 종류 정보(C1)에 해당하는 텍스트가 프로그래밍 언어 종류별 동작 종류 제어 명령문(C1')에 매칭되어 저장부(170)에 저장될 수 있다.To this end, the text corresponding to the operation type information C1 may be matched with the operation type control command C1 ′ for each programming language type and stored in the storage unit 170.

프로세서(120)는 음성 인식 데이터에서 동작 속도 정보(C2)를 검색하고, 동작 속도 정보(C2)가 검색되면 검색된 동작 속도 정보(C2)에 대응하는 동작 속도 제어 명령문(C2')을 생성할 수 있다.The processor 120 retrieves the motion speed information C2 from the speech recognition data, and when the motion speed information C2 is retrieved, the processor 120 generates a motion speed control statement C2' corresponding to the retrieved motion speed information C2. have.

이를 위해, 동작 속도 정보(C2)에 해당하는 텍스트가 프로그래밍 언어 종류별 동작 속도 제어 명령문(C2')에 매칭되어 저장부(170)에 저장될 수 있다.To this end, a text corresponding to the operation speed information C2 may be matched with an operation speed control statement C2' for each programming language type and stored in the storage unit 170.

반대로, 프로세서(120)는 음성 인식 데이터에서 동작 속도 정보(C2)가 검색되지 않으면, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 동작 속도 정보를 생성하고, 생성된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성할 수 있다.Conversely, if the motion speed information C2 is not retrieved from the voice recognition data, the processor 120 generates syllable spacing information based on the voice recognition data, generates motion speed information corresponding to the syllable spacing information, and generated A motion speed control statement corresponding to motion speed information can be generated.

구체적으로, 프로세서(120)는 음성 인식 데이터에 포함된 음절 중에서 어느 하나의 음절의 종료 시점과 어느 하나의 음절의 다음 음절의 시작 시점 간에 제1 시간차를 산출하고, 복수의 제1 시간차의 평균 시간차를 음절 간격 정보로 생성할 수 있다.Specifically, the processor 120 calculates a first time difference between the end time of one syllable and the start time of the next syllable among the syllables included in the speech recognition data, and the average time difference between the plurality of first time differences Can be generated as syllable spacing information.

이후, 프로세서(120)는 기준 시간차 대비 음절 간격 정보가 나타내는 평균 시간차의 시간차 비율을 산출하고, 기본 동작 속도에 시간차 비율을 적용하여 동작 속도 정보로 생성할 수 있다.Thereafter, the processor 120 may calculate a time difference ratio of the average time difference indicated by the syllable interval information relative to the reference time difference, and apply the time difference ratio to the basic operation speed to generate operation speed information.

예를 들어, 프로세서(120)는 평균 시간차가 “12msec”이고, 기준 시간차가 “10msec”이며, 기본 동작 속도가 “1배속”인 경우, 시간차 비율을 “120%”로 산출하고, 기본 동작 속도 “1배속”에 시간차 비율 “120%”를 적용하여 동작 속도 정보를 “1.2배속”으로 생성할 수 있다.For example, when the average time difference is “12msec”, the reference time difference is “10msec”, and the basic operation speed is “1x”, the processor 120 calculates the time difference ratio as “120%”, and the basic operation speed By applying the time difference ratio “120%” to “1x speed”, you can generate the operation speed information at “1.2x”.

한편, 프로세서(120)는 음성 인식 데이터에서 동작 반복수 정보(C3)를 검색하고, 동작 반복수 정보(C3)가 검색되면 검색된 동작 반복수 정보(C3)에 대응하는 동작 반복수 제어 명령문(C3')을 생성할 수 있다.On the other hand, the processor 120 retrieves the operation repetition number information C3 from the speech recognition data, and when the operation repetition number information C3 is retrieved, the operation repetition number control statement C3 corresponding to the retrieved operation repetition number information C3 ') can be created.

이를 위해, 동작 반복수 정보(C3)에 해당하는 텍스트가 프로그래밍 언어 종류별 동작 반복수 제어 명령문(C3')에 매칭되어 저장부(170)에 저장될 수 있다.To this end, the text corresponding to the operation repetition number information C3 may be matched with the operation repetition number control statement C3 ′ for each programming language type and stored in the storage unit 170.

반대로, 프로세서(120)는 음성 인식 데이터에서 동작 반복수 정보(C3)가 검색되지 않으면, 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 동작 반복수 정보를 생성하고, 생성된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성할 수 있다.Conversely, if the motion repetition number information C3 is not retrieved from the speech recognition data, the processor 120 generates signal strength information based on the voice signal, generates motion repetition number information corresponding to the signal strength information, and generates It is possible to generate an operation repetition control statement corresponding to the operation repetition number information.

구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 신호 세기 중에서 최대 신호 세기를 신호 세기 정보로 생성할 수 있다.Specifically, the processor 120 may generate the maximum signal strength as signal strength information among signal strengths of the voice signal over time.

이후, 프로세서(120)는 기준 신호 세기 대비 신호 세기 정보가 나타내는 최대 신호 세기의 신호 세기 비율을 산출하고, 기본 동작 반복수에 신호 세기 비율을 적용하여 동작 반복수 정보로 생성할 수 있다.Thereafter, the processor 120 may calculate the signal strength ratio of the maximum signal strength indicated by the signal strength information to the reference signal strength, and apply the signal strength ratio to the basic operation repetition number to generate the operation repetition number information.

예를 들어, 프로세서(120)는 최대 신호 세기가 “200 dB”이고, 기준 신호 세기가 “100dB”이며, 기본 동작 반복수가 “1회”인 경우, 신호 세기 비율을 “200%”로 산출하고, 기본 동작 반복수 “1회”에 신호 세기 비율 “200%”를 적용하여 동작 반복수 정보를 “2회”로 생성할 수 있다. 이때, 동작 반복수 정보는 반올림되어 자연수로 생성될 수 있다.For example, if the maximum signal strength is “200 dB”, the reference signal strength is “100 dB”, and the number of basic operation repetitions is “one time”, the processor 120 calculates the signal strength ratio as “200%” , By applying the signal strength ratio “200%” to the basic operation repetition number “1 time”, the operation repetition number information can be generated as “2 times”. In this case, the operation repetition number information may be rounded up and generated as a natural number.

한편, 프로세서(120)는 음성 신호에 기초하여 사용자의 사용자 특성 정보를 생성하고, 사용자 특성 정보에 대응하여 동작 제어 명령블록의 프로그래밍 언어 종류를 설정할 수 있다.Meanwhile, the processor 120 may generate user characteristic information of the user based on the voice signal, and set a programming language type of the operation control command block in response to the user characteristic information.

여기서, 사용자 특성 정보는 사용자 성별 정보 및 사용자 연령 정보를 포함할 수 있다.Here, the user characteristic information may include user gender information and user age information.

구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 주파수로부터 평균 주파수를 산출하고, 음성 주파수 별로 사용자 연령 정보가 매핑된 주파수-사용자 특성 테이블로부터 평균 주파수에 대응되는 사용자의 사용자 연령 정보를 독출할 수 있다.Specifically, the processor 120 calculates the average frequency from the frequency of the voice signal over time, and reads the user age information of the user corresponding to the average frequency from the frequency-user characteristic table in which user age information is mapped for each voice frequency. I can.

이후, 프로세서(120)는 연령대 정보에 따른 프로그래밍 언어 종류 정보가 설정된 연령대-프로그래밍 종류 테이블로부터 독출된 사용자 연령 정보에 대응되는 프로그래밍 언어 종류 정보를 독출할 수 있다. 이때, 연령대-프로그래밍 종류 테이블은 나타내는 연령이 20대 내지 40대에 가까운 연령대 정보일 수 난이도가 높은 프로그래밍 언어 종류 정보가 설정될 수 있다.Thereafter, the processor 120 may read programming language type information corresponding to the user age information read from the age group-programming type table in which programming language type information according to the age group information is set. In this case, the age group-programming type table may be information about an age group whose age is close to the 20s to 40s, and the programming language type information with high difficulty level may be set.

최종적으로, 프로세서(120)는 독출된 프로그래밍 언어 종류 정보를 작 제어 명령블록의 프로그래밍 언어 종류정보로 설정할 수 있다.Finally, the processor 120 may set the read programming language type information as programming language type information of the job control command block.

표시부(130)는 프로세서(120)의 제어에 따라 다양한 영상과 이미지를 표시할 수 있다.The display unit 130 may display various images and images under the control of the processor 120.

구체적으로, 표시부(130)는 배경 영상을 표시하고, 배경 영상에 로봇 이미지, 음성 인식 데이터 및 명령블록 이미지 중 하나 이상이 중첩된 증강 현실 영상을 표시할 수 있다.Specifically, the display unit 130 may display a background image and display an augmented reality image in which one or more of a robot image, voice recognition data, and command block image are superimposed on the background image.

입력부(140)는 표시부(130)와 결합된 터치 스크린을 통해 사용자로부터 다양한 정보를 입력받을 수 있다. 구체적으로, 입력부(140)는 음성 명령 인식 요청을 음성 입력 버튼(I1)을 통해 입력받고, 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 확인 입력 영역(I2)을 통해 입력받을 수 있다.The input unit 140 may receive various information from a user through a touch screen coupled to the display unit 130. Specifically, the input unit 140 may receive a voice command recognition request through the voice input button I1, and may receive input through the confirmation input area I2 whether or not the recognized voice recognition data corresponds to the voice command.

마이크부(150)는 사용자로부터 발화된 음성 명령을 입력받고, 입력된 음성 명령을 변환하여 음성 신호로 출력할 수 있다.The microphone unit 150 may receive a voice command uttered from a user, convert the input voice command, and output a voice signal.

스피커부(160)는 동작 제어 명령블록이 생성되면 동작 제어 명령 블록에 대응되는 오디오 신호를 출력할 수 있다. 이를 통해, 사용자는 명령블록 이미지를 통해 시각적으로 동작 제어 명령블록을 확인하고, 오디오 신호를 통해 청각적으로 동작 제어 명령블록을 확인할 수 있다.When the motion control command block is generated, the speaker unit 160 may output an audio signal corresponding to the motion control command block. Through this, the user can visually check the motion control command block through the command block image, and audibly check the motion control command block through the audio signal.

저장부(170)에는 프로세서(120)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 저장부(170)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The storage unit 170 may store programs (one or more instructions) for processing and controlling the processor 120. Programs stored in the storage unit 170 may be divided into a plurality of modules according to functions.

통신부(180)는 통신망에 연결되어 범용 통신을 이용하여 교육 서버와 통신을 수행할 수 있다. 여기서, 교육 서버는 복수의 음성 명령 및 증강 현실을 이용한 코딩 교육 장치(100)를 관리하는 서버일 수 있다.The communication unit 180 may be connected to a communication network and communicate with an education server using universal communication. Here, the education server may be a server that manages the coding education apparatus 100 using a plurality of voice commands and augmented reality.

이를 위해, 통신부(180)는 범용 통신을 수행하는 범용 통신 모듈을 구비할 수 있다. 여기서, 범용 통신은 인터넷 망을 이용한 통신이거나, 셀룰러 통신 프로토콜로서, 예를 들면 LTE(Long-Term Evolution), LTE-A(LTE Advanced), CDMA(Code Division Multiple Access), WCDMA(Wideband CDMA), UMTS(Universal Mobile Telecommunications System), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications) 중 적어도 하나를 사용할 수 있다.To this end, the communication unit 180 may include a general-purpose communication module that performs general-purpose communication. Here, the general-purpose communication is communication using an Internet network or a cellular communication protocol, for example, LTE (Long-Term Evolution), LTE-A (LTE Advanced), CDMA (Code Division Multiple Access), WCDMA (Wideband CDMA), At least one of Universal Mobile Telecommunications System (UMTS), Wireless Broadband (WiBro), and Global System for Mobile Communications (GSM) may be used.

구체적으로, 통신부(180)는 음성 명령이 녹음된 녹음 데이터, 음성 명령이 변환된 음성 신호, 음성 명령이 인식된 결과인 음성 인식 데이터 및 음성 명령으로부터 생성된 동작 제어 명령블록을 매칭시켜 교육 서버로 송신할 수 있다.Specifically, the communication unit 180 matches the recorded data on which the voice command is recorded, the voice signal from which the voice command is converted, the voice recognition data that is a result of the voice command recognition, and the motion control command block generated from the voice command to the education server. Can send.

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.So far, we have looked at the center of the preferred embodiment for the present invention. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be interpreted as being included in the present invention.

이상과 같이, 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by the limited embodiments and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following by those of ordinary skill in the art to which the present invention pertains. It goes without saying that various modifications and variations are possible within the equivalent range of the claims to be described.

100: 음성 명령 및 증강 현실을 이용한 코딩 교육 장치
110: 카메라부
120: 프로세서
130: 표시부
140: 입력부
150: 마이크부
160: 스피커부
170: 저장부
180: 통신부
100: Coding education device using voice commands and augmented reality
110: camera unit
120: processor
130: display
140: input unit
150: microphone unit
160: speaker unit
170: storage unit
180: communication department

Claims (7)

사용자로부터 발화된 음성 명령을 입력받아 음성 신호로 출력하는 마이크부;
카메라부로부터 촬영된 배경 영상에 가상의 로봇 이미지가 중첩된 증강 현실 영상을 표시하는 표시부; 및
상기 음성 신호를 분석하여 상기 음성 명령의 인식 결과로 음성 인식 데이터를 생성하고, 상기 음성 인식 데이터에 기초하여 상기 로봇 이미지의 동작을 제어하는 동작 제어 명령블록을 생성하고, 상기 동작 제어 명령블록에 대응하여 상기 로봇 이미지의 동작이 제어되도록 상기 표시부를 제어하며, 상기 동작 제어 명령블록을 나타내는 명령블록 이미지를 생성하고, 상기 명령블록 이미지가 배경 영상에 중첩되도록 상기 표시부를 제어하는 프로세서;를 포함하고,
상기 동작 제어 명령블록은
동작 속도 제어 명령문을 포함하고,
상기 프로세서는
상기 음성 인식 데이터에서 동작 속도 정보를 검색하고, 상기 동작 속도 정보가 검색되면 상기 검색된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성하고,
상기 동작 속도 정보가 검색되지 않으면 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 동작 속도 정보를 생성하고, 상기 생성된 동작 속도 정보에 대응하는 동작 속도 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
A microphone unit for receiving a voice command uttered from a user and outputting a voice signal;
A display unit for displaying an augmented reality image in which a virtual robot image is superimposed on a background image captured by the camera unit; And
Analyzes the voice signal to generate voice recognition data as a result of the recognition of the voice command, generates a motion control command block for controlling the motion of the robot image based on the voice recognition data, and corresponds to the motion control command block A processor for controlling the display unit to control the operation of the robot image, generating a command block image representing the operation control command block, and controlling the display unit so that the command block image is superimposed on a background image; and
The motion control command block is
Contains a motion speed control statement,
The processor is
Searching for motion speed information from the speech recognition data, and when the motion speed information is retrieved, generates a motion speed control statement corresponding to the searched motion speed information,
If the motion speed information is not retrieved, a syllable spacing information is generated based on the speech recognition data, the motion speed information is generated in response to the syllable spacing information, and an motion speed control statement corresponding to the generated motion speed information Characterized in that to generate
Coding education device using voice commands and augmented reality.
제1항에 있어서,
상기 동작 제어 명령블록은
동작 종류 제어 명령문을 포함하고,
상기 프로세서는
상기 음성 인식 데이터에서 동작 종류 정보를 검색하고, 상기 동작 종류 정보가 검색되면 상기 검색된 동작 종류 정보에 대응하는 동작 종류 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 1,
The motion control command block is
Contains the action type control statement,
The processor is
Retrieving motion type information from the speech recognition data, and generating a motion type control statement corresponding to the searched motion type information when the motion type information is retrieved.
Coding education device using voice commands and augmented reality.
삭제delete 삭제delete 제1항에 있어서,
상기 동작 제어 명령블록은
동작 반복수 제어 명령문을 포함하고,
상기 프로세서는
상기 음성 인식 데이터에서 동작 반복수 정보를 검색하고, 상기 동작 반복수 정보가 검색되면 상기 검색된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 1,
The motion control command block is
Includes a control statement for the number of operation repetitions,
The processor is
And generating an operation repetition number control statement corresponding to the searched operation repetition number information when the operation repetition number information is retrieved from the speech recognition data.
Coding education device using voice commands and augmented reality.
제5항에 있어서,
상기 프로세서는
상기 동작 반복수 정보가 검색되지 않으면 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 동작 반복수 정보를 생성하고, 상기 생성된 동작 반복수 정보에 대응하는 동작 반복수 제어 명령문을 생성하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 5,
The processor is
If the operation repetition number information is not retrieved, signal strength information is generated based on the voice signal, the operation repetition number information is generated in response to the signal strength information, and the operation repetition corresponding to the generated operation repetition number information Characterized in that to generate a number control statement
Coding education device using voice commands and augmented reality.
제1항에 있어서,
상기 프로세서는
상기 음성 신호에 기초하여 상기 사용자의 사용자 특성 정보를 생성하고, 상기 사용자 특성 정보에 대응하여 상기 동작 제어 명령블록의 프로그래밍 언어 종류를 설정하는 것을 특징으로 하는
음성 명령 및 증강 현실을 이용한 코딩 교육 장치.
The method of claim 1,
The processor is
And generating user characteristic information of the user based on the voice signal, and setting a programming language type of the operation control command block in response to the user characteristic information.
Coding education device using voice commands and augmented reality.
KR1020200023547A 2020-02-26 2020-02-26 Apparatus for educating coding using voice command and augmented reality KR102170978B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200023547A KR102170978B1 (en) 2020-02-26 2020-02-26 Apparatus for educating coding using voice command and augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200023547A KR102170978B1 (en) 2020-02-26 2020-02-26 Apparatus for educating coding using voice command and augmented reality

Publications (1)

Publication Number Publication Date
KR102170978B1 true KR102170978B1 (en) 2020-10-28

Family

ID=73018249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200023547A KR102170978B1 (en) 2020-02-26 2020-02-26 Apparatus for educating coding using voice command and augmented reality

Country Status (1)

Country Link
KR (1) KR102170978B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102300584B1 (en) * 2020-12-08 2021-09-10 주식회사 플레이코드 Apparatus and method for educating the coding
KR102392584B1 (en) * 2021-09-10 2022-04-29 (주)코딩앤플레이 control method for history-based coding education system
WO2023120747A1 (en) * 2021-12-20 2023-06-29 (주)에어패스 Voice recognition-based shortcut key xr interactive interworking system and interworking method using same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101715621B1 (en) * 2015-10-14 2017-03-27 (주)비즈맘 System for educating programming and method for driving the same
KR20180013487A (en) 2016-07-29 2018-02-07 이광재 ROBOT SYSTEM for SOFTWARE EDUCATION
KR101947160B1 (en) * 2018-06-20 2019-02-12 (주)코딩앤플레이 Coding education method using augmented reality
KR20190102559A (en) * 2018-02-26 2019-09-04 대전대학교 산학협력단 Apparatus for supporting coding learning and operation method of the apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101715621B1 (en) * 2015-10-14 2017-03-27 (주)비즈맘 System for educating programming and method for driving the same
KR20180013487A (en) 2016-07-29 2018-02-07 이광재 ROBOT SYSTEM for SOFTWARE EDUCATION
KR20190102559A (en) * 2018-02-26 2019-09-04 대전대학교 산학협력단 Apparatus for supporting coding learning and operation method of the apparatus
KR101947160B1 (en) * 2018-06-20 2019-02-12 (주)코딩앤플레이 Coding education method using augmented reality

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
공개특허공보 제10-2019-0102559호(2019.9.4. 공개) 1부.*
등록특허공보 제10-1715621호(2017.3.27. 공고) 1부.*
등록특허공보 제10-1947160호(2019.2.12. 공고) 1부.*
일본 특허공보 제6450312호(2019.1.9. 발행) 1부.*

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102300584B1 (en) * 2020-12-08 2021-09-10 주식회사 플레이코드 Apparatus and method for educating the coding
KR102392584B1 (en) * 2021-09-10 2022-04-29 (주)코딩앤플레이 control method for history-based coding education system
KR102481956B1 (en) * 2021-09-10 2022-12-28 (주)코딩앤플레이 Control method for historical education-linked coding system by location of relic
WO2023038173A1 (en) * 2021-09-10 2023-03-16 (주)코딩앤플레이 Control method for history-based coding education system
WO2023120747A1 (en) * 2021-12-20 2023-06-29 (주)에어패스 Voice recognition-based shortcut key xr interactive interworking system and interworking method using same

Similar Documents

Publication Publication Date Title
KR102170978B1 (en) Apparatus for educating coding using voice command and augmented reality
JP6616473B2 (en) Method and apparatus for controlling pages
CN106710586B (en) Automatic switching method and device for voice recognition engine
CN111488489B (en) Video file classification method, device, medium and electronic equipment
CN110517689B (en) Voice data processing method, device and storage medium
CN110475069B (en) Image shooting method and device
KR101992424B1 (en) Apparatus for making artificial intelligence character for augmented reality and service system using the same
JP6681450B2 (en) Information processing method and device
US20200327893A1 (en) Information processing device and information processing method
WO2021227308A1 (en) Video resource generation method and apparatus
CN113822076A (en) Text generation method and device, computer equipment and storage medium
CN110349577B (en) Man-machine interaction method and device, storage medium and electronic equipment
CN107910006A (en) Audio recognition method, device and multiple source speech differentiation identifying system
CN207718803U (en) Multiple source speech differentiation identifying system
KR101634068B1 (en) Method and device for generating educational contents map
CN112837674B (en) Voice recognition method, device, related system and equipment
CN116913278A (en) Voice processing method, device, equipment and storage medium
CN111415662A (en) Method, apparatus, device and medium for generating video
CN113763925B (en) Speech recognition method, device, computer equipment and storage medium
CN116415597A (en) Speech translation and simultaneous interpretation method
KR20210042520A (en) An electronic apparatus and Method for controlling the electronic apparatus thereof
EP4064031A1 (en) Method and system for tracking in extended reality using voice commmand
CN107283429B (en) Control method, device and system based on artificial intelligence and terminal
CN113808572B (en) Speech synthesis method, speech synthesis device, electronic equipment and storage medium
CN112002325B (en) Multi-language voice interaction method and device

Legal Events

Date Code Title Description
GRNT Written decision to grant