KR102198439B1 - Coding robot operation control unit and control method of the coding robot operation control unit - Google Patents

Coding robot operation control unit and control method of the coding robot operation control unit Download PDF

Info

Publication number
KR102198439B1
KR102198439B1 KR1020190011275A KR20190011275A KR102198439B1 KR 102198439 B1 KR102198439 B1 KR 102198439B1 KR 1020190011275 A KR1020190011275 A KR 1020190011275A KR 20190011275 A KR20190011275 A KR 20190011275A KR 102198439 B1 KR102198439 B1 KR 102198439B1
Authority
KR
South Korea
Prior art keywords
motion
control unit
unit
coding
coding robot
Prior art date
Application number
KR1020190011275A
Other languages
Korean (ko)
Other versions
KR20200093933A (en
Inventor
성창경
Original Assignee
성창경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성창경 filed Critical 성창경
Priority to KR1020190011275A priority Critical patent/KR102198439B1/en
Publication of KR20200093933A publication Critical patent/KR20200093933A/en
Application granted granted Critical
Publication of KR102198439B1 publication Critical patent/KR102198439B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0053Computers, e.g. programming
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Manipulator (AREA)

Abstract

코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법이 개시된다. 개시되는 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 의하면, 코딩 로봇 작동 제어 유닛이 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부와, 모션 인식부와, 음성 인식부와, 제어부와, 출력부를 포함하고, 상기 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있게 되는 장점이 있다.A coding robot operation control unit and a control method of the coding robot operation control unit are disclosed. According to the disclosed coding robot operation control unit and the control method of the coding robot operation control unit, the coding robot operation control unit is connected to a coding robot operated by a coding operation programming in a computer language to operate the coding robot, It includes a case unit, a motion recognition unit, a speech recognition unit, a control unit, and an output unit, and operates the coding robot by recognizing at least one of the motion and voice of the recognition target, thereby enabling the coding robot to be It is possible to operate, and accordingly, there is an advantage of being able to increase interest in the coding.

Description

코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법{Coding robot operation control unit and control method of the coding robot operation control unit}Coding robot operation control unit and control method of the coding robot operation control unit TECHNICAL FIELD

본 발명은 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 관한 것이다.The present invention relates to a coding robot operation control unit and a control method of the coding robot operation control unit.

코딩(coding)이란, C 언더, 자바, 파이선 등의 기계가 알 수 있는 언어를 일정한 명령문에 따라 문자 또는 숫자를 사용하여 기호화한 것으로 컴퓨터 프로그램밍이라고도 한다. Coding is a language that can be understood by machines such as C under, Java, Python, etc., in accordance with certain instructions, using letters or numbers, and is also called computer programming.

상기와 같이, 사용자가 직접 만든 코딩에 따라 작동되는 로봇이 코딩 로봇(coding robot)이다.As described above, a robot that operates according to a coding created by a user is a coding robot.

최근에는 코딩 교육이 의무화가 되면서 어린 시절부터 소프트웨어와 친해질 수 있도록, 각종 IT(Information Technology) 기술이 접목된 스마트 토이(Smart Toy)가 관심을 끌고 있고, 그 중 하나가 상기 코딩 로봇이다.In recent years, as coding education becomes mandatory, a smart toy incorporating various information technology (IT) technologies is attracting attention so that you can become familiar with software from childhood, and one of them is the coding robot.

이러한 코딩 로봇의 예로 제시될 수 있는 것이 아래 제시된 특허문헌의 그 것이다.What can be presented as an example of such a coding robot is that of the patent documents presented below.

그러나, 아래 특허 문헌을 포함한 종래의 코딩 로봇에 대한 기술에 의하면, 코딩 작업에 의해서만 상기 코딩 로봇이 작동됨으로써, 상기 코딩 로봇을 작동시키기 위해서는 코딩 교육이 꼭 선행되어야 하고, 그러한 코딩 교육이 선행되었더라도 만들어진 코딩에 오류가 있거나 코딩 실력이 부족하면 상기 코딩 로봇이 작동되지 않음에 따라, 상기 코딩 로봇에 대한 흥미가 급격히 감소되는 문제가 있었다.However, according to the conventional coding robot technology including the following patent documents, since the coding robot is operated only by a coding task, coding education must be preceded in order to operate the coding robot, and even if such coding education has preceded, If there is an error in coding or insufficient coding ability, there is a problem in that interest in the coding robot is rapidly reduced as the coding robot is not operated.

등록특허 제 10-1898864 호, 등록일자 : 2018년 09월 10일, 발명의 명칭 : 코딩 로봇의 주행 코드 형성 및 배치 방법Registered Patent No. 10-1898864, Registration Date: September 10, 2018, Title of Invention: Method of forming and arranging driving code of a coding robot

본 발명은 코딩 작업 없이도 코딩 로봇을 동작시킬 수 있고, 그에 따라 코딩에 대한 관심을 증대시킬 수 있는 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법을 제공하는 것을 일 목적으로 한다.An object of the present invention is to provide a coding robot operation control unit and a control method of the coding robot operation control unit capable of operating a coding robot without a coding operation, thereby increasing interest in coding.

본 발명의 일 측면에 따른 코딩 로봇 작동 제어 유닛의 제어 방법은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 그 내부에 일정 공간이 형성되는 케이스부와, 상기 케이스부의 내부에 배치되고, 상기 인식 대상자의 동작을 인식하는 모션 인식부와, 상기 케이스부의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 음성 인식부와, 상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 제어부와, 상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부에서 수행된 작업 결과를 외부로 출력하는 출력부를 포함하는 코딩 로봇 작동 제어 유닛을 제어하는 방법으로서, (a-1) 상기 모션 인식부가 상기 인식 대상자의 영상을 촬영하는 단계; (a-2) 상기 (a-1) 단계에서 촬영된 영상에서 상기 제어부에 미리 설정된 일정 부분 영상의 검출 여부를 상기 제어부가 판단하는 단계; (a-3) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 미검출된 것으로 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 상기 일정 부분 영상 촬영을 명령하는 단계; (a-4) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 검출된 것으로 판단되면, 상기 모션 인식부가 상기 인식 대상자의 동작을 인식하는 단계; (a-5) 상기 (a-4) 단계에서 인식된 상기 인식 대상자의 동작과 미리 설정된 동작의 일치 여부를 상기 제어부가 판단하는 단계; (a-6) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 불일치하다고 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 동작 인식을 명령하는 단계; 및 (a-7) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부에 미리 설정된 동작에 대응되는 동작으로 작동되도록 상기 제어부가 상기 코딩 로봇에 작동을 명령하는 단계;를 포함함으로써, 상기 모션 인식부를 통해 인식된 상기 인식 대상자의 동작에 따라 상기 코딩 로봇이 작동될 수 있는 것을 특징으로 한다.A method of controlling a coding robot operation control unit according to an aspect of the present invention is to operate the coding robot by being connected to a coding robot operated by a coding operation programming in a computer language, and a case part in which a predetermined space is formed therein. And, a motion recognition unit disposed inside the case unit to recognize the motion of the subject to be recognized, a voice recognition unit disposed inside the case unit to recognize the voice of the subject to be recognized, and disposed inside the case unit And a control unit for controlling the operation of the coding robot using information input through at least one of the motion recognition unit and the voice recognition unit, and disposed inside the case unit, and the motion recognition unit and the speech recognition A method of controlling a coding robot operation control unit including an output unit that outputs information input through at least one of the units or a result of a work performed by the control unit to the outside, wherein (a-1) the motion recognition unit Taking an image; (a-2) determining, by the controller, whether a predetermined partial image preset in the controller is detected in the image captured in step (a-1); (a-3) if it is determined in step (a-2) that the certain part of the image of the subject to be recognized has not been detected, the controller instructing the motion recognition unit to take the part of the image of the subject ; (a-4) when it is determined that the partial image of the recognition target is detected in step (a-2), the motion recognition unit recognizes the motion of the recognition target; (a-5) determining, by the controller, whether the motion of the recognition target recognized in step (a-4) matches a preset motion; (a-6) If it is determined that the motion of the recognition target recognized in step (a-5) is inconsistent with the motion preset in the control unit, the control unit commands the motion recognition unit to recognize the motion of the recognition target. step; And (a-7) when it is determined that the motion of the recognition target recognized in step (a-5) matches the motion preset in the control unit, the coding robot operates as a motion corresponding to the motion preset in the control unit. By including the step of instructing the operation of the coding robot by the control unit, the coding robot may be operated according to the motion of the recognition target recognized through the motion recognition unit.

삭제delete

삭제delete

본 발명의 일 측면에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 의하면, 코딩 로봇 작동 제어 유닛이 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부와, 모션 인식부와, 음성 인식부와, 제어부와, 출력부를 포함하고, 상기 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있게 되는 효과가 있다.According to a coding robot operation control unit and a control method of the coding robot operation control unit according to an aspect of the present invention, the coding robot operation control unit is connected to a coding robot operated by a coding operation programming in a computer language, and the coding robot The coding robot is operated by operating the coding robot by recognizing at least one of the motion and voice of the recognition target person, including a case unit, a motion recognition unit, a voice recognition unit, a control unit, and an output unit. It is possible to operate the coding robot without it, and accordingly, there is an effect of increasing interest in the coding.

도 1은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 위에서 내려다본 사시도.
도 2는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 정면에서 바라본 정면도.
도 3은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 모션 인식부에 모션이 인식된 경우의 제어 방법에 대한 순서도.
도 4는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 음션 인식부에 음성이 인식된 경우의 제어 방법에 대한 순서도.
도 5는 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 위에서 내려다본 사시도.
도 6은 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 정면에서 바라본 정면도.
도 7은 본 발명의 제 3 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부와 압력 조절부를 정면에서 바라본 정면도.
도 8은는 도 7의 A 부분을 확대한 확대도.
도 9는 도 8의 압력 조절부에 적용된 탄성 변형 수단의 형상이 공기의 유동 압력에 의해 변형된 모습을 보이는 확대도.
1 is a perspective view from above of a coding robot operation control unit according to a first embodiment of the present invention.
2 is a front view of the coding robot operation control unit according to the first embodiment of the present invention as viewed from the front.
3 is a flowchart of a control method when a motion is recognized by a motion recognition unit constituting a coding robot operation control unit according to the first embodiment of the present invention.
4 is a flow chart of a control method when a voice is recognized by a sound recognition unit constituting a coding robot operation control unit according to the first embodiment of the present invention.
5 is a perspective view from above looking down on a flow guide constituting a coding robot operation control unit according to a second embodiment of the present invention.
6 is a front view as viewed from the front of a flow guide constituting a coding robot operation control unit according to a second embodiment of the present invention.
Fig. 7 is a front view as viewed from the front of a flow guide unit and a pressure control unit constituting a coding robot operation control unit according to a third embodiment of the present invention.
8 is an enlarged view of an enlarged portion A of FIG. 7.
9 is an enlarged view showing the shape of the elastic deformation means applied to the pressure control unit of FIG. 8 is deformed by the flow pressure of air.

이하에서는 도면을 참조하여 본 발명의 실시예들에 따른 코딩 로봇 작동 제어 유닛 에 대하여 설명한다.Hereinafter, a coding robot operation control unit according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 위에서 내려다본 사시도이고, 도 2는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 정면에서 바라본 정면도이고, 도 3은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 모션 인식부에 모션이 인식된 경우의 제어 방법에 대한 순서도이고, 도 4는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 음션 인식부에 음성이 인식된 경우의 제어 방법에 대한 순서도이다.1 is a perspective view from above of a coding robot operation control unit according to a first embodiment of the present invention, and FIG. 2 is a front view of a coding robot operation control unit according to a first embodiment of the present invention as viewed from the front, and FIG. 3 Is a flow chart for a control method when motion is recognized by a motion recognition unit constituting a coding robot operation control unit according to the first embodiment of the present invention, and FIG. 4 is a coded robot operation according to the first embodiment of the present invention. It is a flow chart of a control method when a voice is recognized by a voice recognition unit constituting the control unit.

도 1 내지 도 4를 함께 참조하면, 본 실시예에 따른 코딩 로봇 작동 제어 유닛(100)은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부(110)와, 모션 인식부(120)와, 음성 인식부(122)와, 제어부(125)와, 출력부(130)를 포함한다.1 to 4 together, the coding robot operation control unit 100 according to the present embodiment is connected to a coding robot operated by a coding operation programming in a computer language to operate the coding robot. 110, a motion recognition unit 120, a voice recognition unit 122, a control unit 125, and an output unit 130.

본 실시예에서 상기 코딩 로봇 작동 제어 유닛(100)은 저장부(126)와, 학습 및 추론부(127)를 더 포함한다.In this embodiment, the coding robot operation control unit 100 further includes a storage unit 126 and a learning and inference unit 127.

상기 코딩이란, C언어 등의 컴퓨터 언어를 이용하여 순차적이고 논리적인 흐름을 프로그래밍(programming)하는 작업이고, 상기 코딩 로봇은 작성된 상기 코딩이 전달하는 명령에 따라 작동되는 것이다.The coding is an operation of programming a sequential and logical flow using a computer language such as C language, and the coding robot is operated according to an instruction transmitted by the written coding.

상기 케이스부(110)는 그 내부에 일정 공간이 형성되는 것으로, 본 실시예에서는 그 외부 형상이 어린이들에게 친근감을 유발할 수 있도록 동물 등의 캐릭터 형태로 형성된다.The case unit 110 is formed with a certain space therein, and in the present embodiment, the outer shape is formed in the form of a character such as an animal to induce a feeling of familiarity to children.

상기 케이스부(110)는 상기 모션 인식부(120)와, 상기 음성 인식부(122)와, 상기 출력부(130)가 배치되는 상측 케이스(111)와, 상기 제어부(125) 및 상기 저장부(126)가 배치되는 하측 케이스(112)를 포함한다.The case unit 110 includes the motion recognition unit 120, the voice recognition unit 122, and an upper case 111 in which the output unit 130 is disposed, the control unit 125 and the storage unit It includes a lower case 112 in which 126 is disposed.

상기 모션 인식부(120)는 상기 케이스의 내부에 배치되고, 상기 인식 대상자의 동작을 인식하는 것으로, 상기 상측 케이스(111)에 내장된 카메라 모듈이 그 예로 제시될 수 있다.The motion recognition unit 120 is disposed inside the case and recognizes the motion of the person to be recognized, and a camera module built in the upper case 111 may be presented as an example.

상세한 설명에 앞서, 상기 모션 인식부(120)를 통해 입력되는 정보는 모션 입력 정보라 정의하고, 상기 음성 인식부(122)를 통해 입력되는 정보는 음성 입력 정보라 정의한다.Prior to the detailed description, information input through the motion recognition unit 120 is defined as motion input information, and information input through the speech recognition unit 122 is defined as voice input information.

상기 제어부(125)는 상기 케이스부(110)의 내부에 배치되고, 상기 모션 인식부(120) 및 상기 음성 인식부(122) 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 것으로, 그 크기가 상대적으로 작은 라즈베리 파이(Raspberry Pi) 등이 적용될 수 있다.The control unit 125 is disposed inside the case unit 110 and operates the coding robot by using information input through at least one of the motion recognition unit 120 and the voice recognition unit 122 To control, the size of a relatively small Raspberry Pi (Raspberry Pi) or the like can be applied.

상기 출력부(130)는 상기 케이스부(110)의 내부에 배치되고, 상기 모션 인식부(120) 및 상기 음성 인식부(122) 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부(125)에서 수행된 작업 결과를 외부로 출력하는 것이다.The output unit 130 is disposed inside the case unit 110 and is inputted through at least one of the motion recognition unit 120 and the voice recognition unit 122 or performed by the control unit 125 It is to output the result of the finished work to the outside.

상세히, 상기 출력부(130)는 상기 모션 인식부(120)의 모션 정보 및 상기 음성 인식부(122)의 음성 정보 중 적어도 하나에 대응되는 결과값이 영상으로 출력되는 영상 출력체(131)와, 상기 모션 인식부(120)의 모션 정보 및 상기 음성 인식부(122)의 음성 정보 중 적어도 하나에 대응되는 결과값이 음성으로 출력되는 음성 출력체(132)를 포함한다.In detail, the output unit 130 includes an image output unit 131 in which a result value corresponding to at least one of motion information of the motion recognition unit 120 and voice information of the voice recognition unit 122 is output as an image. And a voice output body 132 for outputting a result value corresponding to at least one of motion information of the motion recognition unit 120 and voice information of the voice recognition unit 122 as a voice.

상기 영상 출력체(131)는 상기 상측 케이스(111)의 전면에 장착되는 엘시디 패널(LCD Panel) 등이 그 예로 제시될 수 있고, 상기 음성 출력체(132)는 스피커 모듈 등이 그 예로 제시될 수 있다.The video output body 131 may be an LCD panel mounted on the front side of the upper case 111 as an example, and the audio output body 132 may be a speaker module. I can.

또한, 상기 출력부(130)는 본 실시예에서는 도시되지 않았지만, 외부로 출력되어야 할 결과값을 빛으로 출력하는 램프 모듈 등을 포함할 수도 잇다.In addition, although not shown in the present embodiment, the output unit 130 may include a lamp module that outputs a result value to be output to the outside as light.

이하에서는 상기 모션 인식부(120)와, 상기 음성 인식부(122)와, 상기 제어부(125)와, 상기 코딩 로봇의 작동 흐름에 대하여 예를 들어 간단히 설명한다.Hereinafter, an operation flow of the motion recognition unit 120, the voice recognition unit 122, the control unit 125, and the coding robot will be briefly described by way of example.

예를 들어, 상기 인식 대상자의 신체 중 미리 설정된 부분 예를 들면 상기 인식 대상자의 손의 모션을 인식하라는 명령이 상기 제어부(125)에서 상기 모션 인식부(120)에 전달된 상태에서, 상기 인식 대상자가 손을 편 상태에서 오른쪽 방향으로 이동시키면, 상기 모션 인식부(120)는 상기 모션 입력 정보인 상기 인식 대상자의 손이 펴진 상태와 오른쪽 방향 이동을 인식한 다음, 그 인식 결과를 상기 제어부(125)에 전달하게 되고, 상기 제어부(125)는 상기 모션 인식부(120)에서 인식된 결과를 전달받아 상기 코딩 로봇에 상기 손 동작에 대응되는 작동인 오른쪽 방향 이동을 명령하게 되고, 그에 따라 상기 코딩 로봇이 오른쪽 방향으로 이동하게 된다.For example, in a state in which a command to recognize the motion of the hand of the recognition target, for example, a predetermined part of the body of the recognition target, is transmitted from the control unit 125 to the motion recognition unit 120, the recognition target person When the hand is moved in the right direction while the hand is open, the motion recognition unit 120 recognizes the motion input information of the recognition target's hand open and right direction, and then the recognition result is transmitted to the control unit 125 ), and the controller 125 receives the result recognized by the motion recognition unit 120 and instructs the coding robot to move in the right direction, which is an operation corresponding to the hand motion, and the coding accordingly The robot moves in the right direction.

예를 들어, 상기 인식 대상자가 주먹을 쥔 상태에서 오른쪽 방향으로 이동시키면, 상기 모션 인식부(120)는 상기 모션 입력 정보인 상기 인식 대상자의 손이 주먹 형태로 쥐어진 상태와 오른쪽 이동을 인식한 다음, 그 인식 결과를 상기 제어부(125)에 전달하게 되고, 상기 제어부(125)는 상기 모션 인식부(120)에서 인식된 결과를 전달받아 상기 코딩 로봇에 상기 손 동작에 대응되는 작동인 오른쪽 회전을 명령하게 되고, 그에 따라 상기 코딩 로봇이 오른쪽 방향으로 회전하게 된다.For example, when the recognition target person moves in a right direction while holding a fist, the motion recognition unit 120 recognizes a state in which the hand of the recognition target, which is the motion input information, is held in a fist form and a right movement. Next, the recognition result is transmitted to the control unit 125, and the control unit 125 receives the result recognized by the motion recognition unit 120 and rotates the right, which is an operation corresponding to the hand motion, to the coding robot. Is commanded, and accordingly, the coding robot rotates to the right.

상기 음성 인식부(122)는 상기 케이스부(110)의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 것으로, 상기 상측 케이스(111)에 내장된 마이크 모듈이 그 예로 제시될 수 있다.The voice recognition unit 122 is disposed inside the case unit 110 and recognizes the voice of the person to be recognized, and a microphone module built in the upper case 111 may be presented as an example.

예를 들어, 상기 인식 대상자가 음성으로 왼쪽 방향 이동 명령을 전달하면, 상기 음성 인식부(122)는 상기 음성 입력 정보인 상기 인식 대상자의 상기 왼쪽 방향 이동 명령을 인식한 다음, 그 인식 결과를 상기 제어부(125)에 전달하게 되고, 상기 제어부(125)는 상기 음성 인식부(122)에서 인식된 결과를 전달받아 상기 코딩 로봇에 상기 왼쪽 방향 이동 명령에 대응되는 작동인 왼쪽 방향 이동을 명령하게 되고, 그에 따라 상기 코딩 로봇이 왼쪽 방향으로 이동하게 된다.For example, when the recognition target person transmits a left direction movement command by voice, the speech recognition unit 122 recognizes the left direction movement command of the recognition target person, which is the speech input information, and then the recognition result It is transmitted to the control unit 125, and the control unit 125 receives the result recognized by the speech recognition unit 122 and commands the coding robot to move in the left direction, which is an operation corresponding to the left direction movement command. Accordingly, the coding robot moves to the left.

상기 저장부(126)는 상기 케이스부(110)에 배치되어 상기 인식 대상자의 정보와, 상기 모션 인식부(120)를 통해 입력되는 상기 인식 대상자의 상기 모션 입력 정보 및 상기 음성 인식부(122)를 통해 입력되는 상기 인식 대상자의 상기 음성 입력 정보가 저장되는 것으로, 상기 하측 케이스(112)의 내부에 배치된 SSD(solid state drive) 등 다양한 형태의 저장 장치가 그 예로 제시될 수 있다.The storage unit 126 is disposed in the case unit 110 to provide the recognition target person information, the motion input information of the recognition target person input through the motion recognition unit 120, and the speech recognition unit 122 The voice input information of the person to be recognized is stored, and various types of storage devices such as a solid state drive (SSD) disposed inside the lower case 112 may be presented as an example.

상기 저장부(126)에 상기 인식 대상자의 정보, 예를 들어 홍체 인식 또는 지문 등의 정보가 저장되면, 상기 인식 대상자는 한 번의 정보 저장을 통해 상기 코딩 로봇 작동 제어 유닛(100)을 지속적으로 사용할 수 있다.When the information of the subject to be recognized, for example, iris recognition or fingerprint, is stored in the storage unit 126, the subject to be recognized will continuously use the coding robot operation control unit 100 through a single storage of information. I can.

또한, 상기 모션 입력 정보 및 상기 음성 입력 정보가 상기 저장부(126)에 저장됨으로써, 최근에 입력된 입력 정보 목록을 확인할 수 있을 뿐만 아니라, 상기 모션 입력 정보 및 상기 음성 입력 정보 중 반복적으로 사용되는 정보들을 관리할 수도 있게 된다.In addition, since the motion input information and the voice input information are stored in the storage unit 126, it is possible to check a list of recently input input information, as well as repeatedly used among the motion input information and the voice input information. You can also manage information.

상기 학습 및 추론부(127)는 그 내부에 미리 저장된 복수 개의 데이터 샘플을 이용하여 알고리즘(Algorithm)을 구축하는 딥 러닝(Deep Learning)과, 미리 저장된 복수 개의 상기 데이터 샘플을 해석하는 추론(Inference)을 수행하는 것이다.The learning and inference unit 127 includes deep learning for constructing an algorithm using a plurality of data samples previously stored therein, and an inference for analyzing a plurality of previously stored data samples. Is to do.

여기서, 알고리즘은 수학과 컴퓨터 과학 분야에서 어떠한 문제를 해결하기 위해 정해진 일련의 절차나 방법을 공식화한 형태로 표현한 것이고, 상기 딥 러닝 즉, 심화 학습은 대량의 데이터와 알고리즘을 통해 컴퓨터를 학습시킴으로써 사람의 사고 방식을 상기 컴퓨터에게 가르치는 기계 학습(Machine Learning)이고, 상기 추론은 미리 저장된 복수 개의 상기 데이터 샘플을 이용하여 논리적 결론을 도출하는 것이고, 이러한 상기 딥 러닝 및 상기 추론은 사람의 사고력을 기계로 구현한 인공 지능(AI, Artificial Intelligence)의 기반이 된다.Here, the algorithm is a formal expression of a set of procedures or methods determined to solve a certain problem in the fields of mathematics and computer science, and the deep learning, that is, deep learning, is a human experience by learning a computer through a large amount of data and algorithms. Machine learning that teaches the way of thinking to the computer, and the reasoning is to derive a logical conclusion using a plurality of pre-stored data samples, and the deep learning and the reasoning implement human thinking ability as a machine. It is the basis of artificial intelligence (AI).

상기 학습 및 추론부(127)가 내장됨으로써, 상기 코딩 로봇 작동 제어 유닛(100)은 상기 인공 지능을 구비할 수 있게 되고, 그에 따라 상기 인식 대상자의 동작 및 음성 인식률이 상대적으로 높아지게 된다.As the learning and inference unit 127 is built-in, the coding robot operation control unit 100 can be equipped with the artificial intelligence, and accordingly, the motion and speech recognition rate of the recognition target is relatively increased.

또한, 상기 코딩 로봇 작동 제어 유닛(100)에 상기 학습 및 추론부(127)가 내장됨으로써, 상기 인식 대상자에게 상기 인공 지능을 체험시킬 수도 있게 된다.In addition, since the learning and reasoning unit 127 is embedded in the coding robot operation control unit 100, the artificial intelligence may be experienced by the recognition target person.

본 실시예에서는 상기 학습 및 추론부(127)가 그 내부에 미리 저장된 복수 개의 데이터 샘플을 이용한다고 하였으나, 이는 단지 하나의 예시일 뿐, 상기 모션 인식부(120) 및 상기 음성 인식부(122)를 통해 데이터 샘플을 더 추가할 수 있고, 상기 딥 러닝을 수행할 때 상기와 같이 추가된 데이터 샘플을 함께 이용할 수 있음은 물론이다.In the present embodiment, it is said that the learning and inference unit 127 uses a plurality of data samples previously stored therein, but this is only an example, and the motion recognition unit 120 and the speech recognition unit 122 It goes without saying that it is possible to add more data samples through and use the added data samples together when performing the deep learning.

이하에서는 도면을 참조하여 본 실시예에 따른 상기 코딩 로봇 작동 제어 유닛(100)의 제어 방법에 대하여 설명한다.Hereinafter, a method of controlling the coding robot operation control unit 100 according to the present embodiment will be described with reference to the drawings.

이하에서, 도 3을 참조하여 상기 코딩 로봇 작동 제어 유닛(100)의 모션 인식 작업에 관한 제어 방법을 설명한다.Hereinafter, a control method for a motion recognition operation of the coding robot operation control unit 100 will be described with reference to FIG. 3.

먼저, (a-1) 단계로서, 상기 모션 인식부(120)가 상기 인식 대상자의 영상을 촬영한다.(S110)First, as step (a-1), the motion recognition unit 120 captures an image of the person to be recognized (S110).

그런 다음, (a-2) 단계로서, 상기 (a-1) 단계에서 촬영된 영상에서 상기 제어부(125)에 미리 설정된 일정 부분 영상의 검출 여부를 상기 제어부(125)가 판단한다.(S111)Then, as step (a-2), the controller 125 determines whether or not a predetermined partial image preset in the controller 125 is detected from the image captured in step (a-1) (S111).

여기서, 상기 미리 설정된 일정 부분은 상기 인식 대상자의 신체 중 상기 제어부(125)에 미리 저장된 신체 일부로써, 예를 들면 손 등이 될 수 있고, 상기 제어부(125)는 상기 (a-1) 단계(S110)에서 촬영된 상기 인식 대상자의 영상 정보에서 상기 인식 대상자의 상기 미리 설정된 부분인 손이 검출되었는지 여부를 판단할 수 있다.Here, the preset predetermined part is a part of the body previously stored in the control unit 125 among the body of the person to be recognized, and may be, for example, a hand, and the control unit 125 includes the step (a-1) It may be determined whether a hand, which is the preset part of the recognition target, is detected in the image information of the recognition target captured in S110).

그런 다음,(a-3) 단계로서, 상기 (a-2) 단계(S111)에서 상기 인식 대상자의 상기 일정 부분 영상이 미검출된 것으로 판단되면, 상기 제어부(125)가 상기 모션 인식부(120)에 상기 (a-1) 단계(S110)인 상기 인식 대상자의 상기 일정 부분 영상 촬영을 명령한다.Then, as step (a-3), when it is determined that the partial image of the recognition target is not detected in step (a-2) (S111), the control unit 125 performs the motion recognition unit 120 ) In the (a-1) step (S110) to capture the partial image of the recognition target.

예를 들어, 상기 모션 인식부(120)에서 촬영된 상기 인식 대상자의 영상 정보에 상기 미리 설정된 일정 부분, 예를 들어 상기 인식 대상자의 손이 미포함된 것으로 판단되면, 상기 제어부(125)는 상기 모션 인식부(120)에 상기 미리 설정된 일정 부분에 대한 재촬영을 명령하게 된다.For example, if it is determined that the predetermined portion of the image information of the recognition target photographed by the motion recognition unit 120 does not include the hand of the recognition target, the controller 125 The recognition unit 120 is instructed to re-photograph the predetermined portion.

그런 다음, (a-4) 단계로서, 상기 (a-2) 단계(S111)에서 상기 인식 대상자의 상기 일정 부분 영상이 검출된 것으로 판단되면, 상기 모션 인식부(120)가 상기 인식 대상자의 동작을 인식한다.(S112)Then, as step (a-4), if it is determined that the partial image of the recognition target is detected in step (a-2) (S111), the motion recognition unit 120 performs the motion of the recognition target. Recognize (S112)

그런 다음, (a-5) 단계로서, 상기 (a-4) 단계(S112)에서 인식된 상기 인식 대상자의 동작과 미리 설정된 동작의 일치 여부를 상기 제어부(125)가 판단한다.(S113)Then, as step (a-5), the control unit 125 determines whether the motion of the recognition target recognized in step (a-4) (S112) matches a preset motion (S113).

여기서, 상기 미리 설정된 동작은 상기 제어부(125)에 미리 저장된 동작, 예를 들어 직선 또는 회전 방향 등이 될 수 있고, 상기 제어부(125)는 상기 (a-4) 단계(S112)에서 인식된 상기 인식 대상자의 동작 정보인 직선 또는 회전 방향과 상기 제어부(125)에 저장된 상기 미리 설정된 동작이 일치하는지 여부를 판단할 수 있다.Here, the preset operation may be an operation previously stored in the control unit 125, for example, a straight line or a rotational direction, and the control unit 125 may be configured to perform the recognition in step (a-4) (S112). It may be determined whether a straight line or a rotational direction, which is the motion information of the person to be recognized, matches the preset motion stored in the controller 125.

그런 다음, (a-6) 단계로서, 상기 (a-5) 단계(S113)에서 인식된 상기 인식 대상자의 동작이 상기 제어부(125)에 미리 설정된 동작과 불일치하다고 판단되면, 상기 제어부(125)가 상기 모션 인식부(120)에 상기 (a-4) 단계(S112)인 상기 인식 대상자의 동작 인식을 명령한다.Then, as step (a-6), if it is determined that the motion of the recognition target recognized in step (a-5) (S113) is inconsistent with the motion preset in the control unit 125, the control unit 125 Instructs the motion recognition unit 120 to recognize the motion of the person to be recognized in step (a-4) (S112).

그런 다음, (a-7) 단계로서, 상기 (a-5) 단계(S113)에서 인식된 상기 인식 대상자의 동작이 상기 제어부(125)에 미리 설정된 동작과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부(125)에 미리 설정된 동작에 대응되는 동작으로 작동되도록 상기 제어부(125)가 상기 코딩 로봇에 작동을 명령함으로써,(S114) 상기 모션 인식부(120)를 통해 인식된 상기 인식 대상자의 동작에 따라 상기 코딩 로봇이 작동될 수 있게 된다.Then, as step (a-7), if it is determined that the motion of the recognition target recognized in step (a-5) (S113) matches the motion preset in the controller 125, the coding robot The control unit 125 commands the coding robot to operate in an operation corresponding to a preset operation in the control unit 125 (S114), so that the motion of the recognition target recognized through the motion recognition unit 120 Accordingly, the coding robot can be operated.

이하에서, 도 4를 참조하여 상기 코딩 로봇 작동 제어 유닛(100)의 모션 인식 작업에 관한 제어 방법을 설명한다.Hereinafter, a control method for a motion recognition operation of the coding robot operation control unit 100 will be described with reference to FIG. 4.

먼저, (b-1) 단계로서, 상기 음성 인식부(122)가 상기 인식 대상자의 음성을 인식한다.(S120)First, as step (b-1), the voice recognition unit 122 recognizes the voice of the person to be recognized (S120).

그런 다음, (b-2) 단계로서, 상기 (b-1) 단계(S120)에서 인식된 상기 인식 대상자의 음성과 상기 제어부(125)에 미리 설정된 음성의 일치 여부를 상기 제어부(125)가 판단한다.(S121)Then, as step (b-2), the control unit 125 determines whether the voice of the recognition target recognized in step (b-1) (S120) matches the voice preset in the control unit 125 Do. (S121)

여기서, 상기 미리 설정된 음성은 상기 제어부(125)에 미리 저장된 음성 정보 등이 될 수 있고, 상기 제어부(125)는 상기 (b-1) 단계(S120)에서 인식된 상기 인식 대상자의 음성 정보와 상기 제어부(125)에 미리 저장된 음성 정보의 일치 여부를 판단할 수 있다.Here, the preset voice may be voice information stored in advance in the control unit 125, and the control unit 125 includes voice information of the recognition target person recognized in step (b-1) (S120) and the It may be determined whether the voice information previously stored in the control unit 125 matches.

그런 다음, (b-3) 단계로서, 상기 (b-2) 단계(S121)에서 인식된 상기 인식 대상자의 음성이 상기 제어부(125)에 미리 설정된 음성과 불일치하다고 판단되면, 상기 제어부(125)가 상기 음성 인식부(122)에 상기 제어부(125)에 미리 설정된 음성이 인식될 때까지 대기할 것을 명령한다.(S122)Then, as step (b-3), if it is determined that the voice of the recognition target recognized in step (b-2) (S121) is inconsistent with the voice preset in the control unit 125, the control unit 125 Instructs the voice recognition unit 122 to wait until the voice set in advance by the control unit 125 is recognized (S122)

그런 다음, (b-4) 단계로서, 상기 (b-2) 단계(S121)에서 인식된 상기 인식 대상자의 음성이 상기 제어부(125)에 미리 설정된 음성과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부(125)에 미리 설정된 음성에 대응되는 동작으로 작동되도록 상기 제어부(125)가 상기 코딩 로봇에 작동을 명령함으로써(S123), 상기 음성 인식부(122)를 통해 인식된 상기 인식 대상자의 음성에 따라 상기 코딩 로봇이 작동될 수 있게 된다.Then, as step (b-4), when it is determined that the voice of the recognition target recognized in step (b-2) (S121) matches the voice preset in the control unit 125, the coding robot The control unit 125 commands the coding robot to operate in an operation corresponding to the voice set in advance by the control unit 125 (S123), so that the voice of the recognition target recognized through the speech recognition unit 122 is Accordingly, the coding robot can be operated.

상기와 같이, 상기 코딩 로봇 작동 제어 유닛(100)이 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 상기 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 상기 케이스부(110)와, 상기 모션 인식부(120)와, 상기 음성 인식부(122)와, 상기 제어부(125)와, 상기 출력부(130)를 포함하고, 상기 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있게 된다.As described above, the coding robot operation control unit 100 is connected to the coding robot operated by a coding operation programmed in a computer language to operate the coding robot, and the case unit 110 and the motion recognition It includes a unit 120, the voice recognition unit 122, the control unit 125, and the output unit 130, and operates the coding robot by recognizing at least one of motion and voice of the recognition target. By doing so, it is possible to operate the coding robot without complicated coding work, and accordingly, it is possible to increase interest in the coding.

이하에서는 도면을 참조하여 본 발명의 다른 실시예들에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 대하여 설명한다. Hereinafter, a coding robot operation control unit and a control method of the coding robot operation control unit according to other embodiments of the present invention will be described with reference to the drawings.

이러한 설명을 수행함에 있어서, 상기된 본 발명의 제 1 실시예에서 이미 기재된 내용과 중복되는 설명은 그에 갈음하고, 여기서는 생략하기로 한다.In carrying out this description, descriptions that are already described in the first embodiment of the present invention and overlapping descriptions will be replaced therewith, and will be omitted here.

도 5는 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 위에서 내려다본 사시도이고, 도 6은 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 정면에서 바라본 정면도이다.5 is a perspective view from above of a flow guide constituting a coding robot operation control unit according to a second embodiment of the present invention, and FIG. 6 is a flow chart constituting the coding robot operation control unit according to a second embodiment of the present invention. It is a front view as seen from the front of the guide.

도 5 및 도 6을 함께 참조하면, 본 실시예에서 코딩 로봇 작동 제어 유닛(200)은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부(210)와, 모션 인식부(220)와, 음성 인식부(222)와, 제어부(225)와, 출력부(230)와, 유동 안내부(240)를 포함한다.5 and 6 together, in this embodiment, the coding robot operation control unit 200 is connected to a coding robot operated by a coding operation programmed in a computer language to operate the coding robot. 210), a motion recognition unit 220, a voice recognition unit 222, a control unit 225, an output unit 230, and a flow guide unit 240.

본 실시예에서 상기 코딩 로봇 작동 제어 유닛(200)은 저장부(226)를 더 포함한다.In this embodiment, the coding robot operation control unit 200 further includes a storage unit 226.

상기 케이스부(210)는 그 내부에 일정 공간이 형성되는 것이다.The case part 210 has a certain space formed therein.

상기 케이스부(210)는 상기 모션 인식부(220)와, 상기 음성 인식부(222)와, 상기 출력부(230)가 배치되는 상측 케이스(211)와, 상기 제어부(225) 및 상기 저장부(226)가 배치되는 하측 케이스(212)를 포함한다.The case unit 210 includes the motion recognition unit 220, the voice recognition unit 222, and an upper case 211 in which the output unit 230 is disposed, the control unit 225 and the storage unit It includes a lower case 212 in which 226 is disposed.

상기 모션 인식부(220)는 상기 케이스부(210)의 내부에 배치되고, 상기 인식 대상자의 동작을 인식하는 것이다.The motion recognition unit 220 is disposed inside the case unit 210 and recognizes the motion of the person to be recognized.

상기 음성 인식부(222)는 상기 케이스부(210)의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 것이다.The voice recognition unit 222 is disposed inside the case unit 210 and recognizes the voice of the person to be recognized.

상기 제어부(225)는 상기 케이스부(210)의 내부에 배치되고, 상기 모션 인식부(220) 및 상기 음성 인식부(222) 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 것이다.The control unit 225 is disposed inside the case unit 210 and operates the coding robot by using information input through at least one of the motion recognition unit 220 and the voice recognition unit 222 Is to control.

상기 출력부(230)는 상기 케이스부(210)의 내부에 배치되고, 상기 모션 인식부(220) 및 상기 음성 인식부(222) 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부(225)에서 수행된 작업 결과를 외부로 출력하는 것이다.The output unit 230 is disposed inside the case unit 210 and is inputted through at least one of the motion recognition unit 220 and the voice recognition unit 222 or performed by the control unit 225 It is to output the result of the finished work to the outside.

상기 유동 안내부(240)는 상기 케이스부(210)의 내부에 설치되어 상기 케이스부(210) 내부, 더 상세하게는 상기 하측 케이스(232)의 내부 공기가 일정 방향으로 유동되도록 상기 공기의 유동을 안내하는 것이다.The flow guide part 240 is installed inside the case part 210 so that the air inside the case part 210, more specifically, the air inside the lower case 232 flows in a predetermined direction. To guide you.

도면 번호 235는 상기 케이스부(210) 내부의 공기가 효율적으로 유동되도록 상기 케이스부(210) 내부에서 유동되는 상기 공기의 유동 속도를 가변시키는 유동 가변 수단으로, 팬(fan) 등이 그 예로 제안될 수 있다.Reference numeral 235 denotes a flow variable means for varying the flow rate of the air flowing inside the case unit 210 so that the air inside the case unit 210 flows efficiently, and a fan is suggested as an example. Can be.

상세히, 상기 유동 안내부(240)는 상기 하측 케이스(212)의 내측면에 장착되되 복수 개가 상기 하측 케이스(212)의 길이 방향인 수직 방향으로 일정 간격 이격되어 형성되는 제 1 유동 안내체(241)와, 상기 하측 케이스(212)의 내측면에서 상기 제 1 유동 안내체(241)가 형성된 면과 대면되도록 위치되고, 복수 개가 상기 하측 케이스(212)의 길이 방향인 수직 방향으로 일정 간격 이격되어 형성되는 제 2 유동 안내체(244)를 포함한다.In detail, the flow guide part 240 is mounted on the inner side of the lower case 212, and a plurality of the first flow guide members 241 are formed at regular intervals in a vertical direction of the lower case 212 ), and is positioned so as to face the surface on which the first flow guide 241 is formed on the inner surface of the lower case 212, and a plurality of them are spaced apart at regular intervals in a vertical direction that is the length direction of the lower case 212 And a second flow guide 244 formed.

더욱 상세히, 상기 제 1 유동 안내체(241)는 상기 하측 케이스(212)의 내측면에서 일정 길이로 형성되되, 일정 곡률의 중심이 상기 하측 케이스(212)의 중심 쪽으로 형성되는 제 1 유동 안내 몸체(243)와, 상기 제 1 유동 안내 몸체(243)의 내측면에서 굴곡진 형태로 형성되고, 상기 공기가 일 방향으로 유동되도록 상기 공기의 유동 방향을 안내하는 제 1 유동 안내면(242)을 포함한다.In more detail, the first flow guide body 241 is formed to have a predetermined length on the inner side of the lower case 212, and the center of the predetermined curvature is formed toward the center of the lower case 212 243 and a first flow guide surface 242 formed in a curved shape on the inner surface of the first flow guide body 243 and guiding the flow direction of the air so that the air flows in one direction. do.

또한, 상기 제 2 유동 안내체(244)는 상기 하측 케이스(212)의 내측면에서 일정 길이로 형성되되, 일정 곡률의 중심이 상기 하측 케이스(212)의 중심 쪽으로 형성되는 제 2 유동 안내 몸체(246)와, 상기 제 2 유동 안내 몸체(246)의 내측면에서 굴곡진 형태로 형성되고, 상기 공기가 일 방향으로 유동되도록 상기 공기의 유동 방향을 안내하는 제 2 유동 안내면(245)을 포함한다.In addition, the second flow guide body 244 is formed to have a predetermined length on the inner surface of the lower case 212, and the center of the predetermined curvature is formed toward the center of the lower case 212 ( 246), and a second flow guide surface 245 formed in a curved shape on the inner side of the second flow guide body 246 and guiding the flow direction of the air so that the air flows in one direction. .

상기 각 제 1 유동 안내체(241) 사이의 이격 거리와 상기 각 제 2 유동 안내체(244) 사이의 이격 거리는 동일하되, 상기 하측 케이스(212)의 저면으로부터 상기 제 1 유동 안내체(241) 중 최하단에 위치된 것까지의 거리에 비해 상기 하측 케이스(212)의 저면으로부터 상기 제 2 유동 안내체(244) 중 최하단에 위치된 것까지의 거리는 상대적으로 크게 형성된다.The separation distance between each of the first flow guide bodies 241 and the separation distance between the second flow guide bodies 244 are the same, but the first flow guide body 241 from the bottom of the lower case 212 The distance from the bottom surface of the lower case 212 to the one located at the lowermost end of the second flow guide body 244 is formed relatively larger than the distance to the one located at the lowermost end of the middle.

그러면, 상기 유동 가변 수단(235)을 경유하면서 일정 속도를 가진 상기 하측 케이스(212) 내부의 공기가 도 6에 도시된 바와 같이, 복수 개의 상기 제 1 유동 안내면(242)과, 복수 개의 상기 제 2 유동 안내면(245)을 번갈아가면서 유동되되, 상기 공기가 상기 하측 케이스(212)의 하부에서 상기 상측 케이스(211)의 상부로 나선 형태를 형성하며 점진적으로 상승 유동됨으로써, 상기 하측 케이스(212) 내부에 배치된 저장부 및 제어부(225)의 방열이 효과적으로 진행되고, 그에 따라, 상기 저장부 및 상기 제어부(225)의 오작동이 방지될 수 있게 된다.Then, the air inside the lower case 212 having a constant speed while passing through the flow variable means 235 is transferred to the plurality of first flow guide surfaces 242 and the plurality of 2 The flow guide surface 245 is alternately flowed, but the air forms a spiral shape from the lower part of the lower case 212 to the upper part of the upper case 211 and gradually rises and flows, so that the lower case 212 The heat dissipation of the storage unit and the control unit 225 disposed therein proceeds effectively, and accordingly, a malfunction of the storage unit and the control unit 225 can be prevented.

예를 들어, 상기 유동 가변 수단(235)에서 일정 속도를 가진 상기 공기는 상기 제 1 유동 안내면(242) 중 상기 하측 케이스(212)의 저면과 상대적으로 가까운 것을 경유하여 복수 개의 상기 제 2 유동 안내면(245) 중 상기 하측 케이스(212)의 저면과 상대적으로 가까운 것으로 유동되고, 상기 하측 케이스(212)의 저면과 상대적으로 가까운 상기 제 2 유동 안내면(245)에서 유동된 상기 공기는 상기 제 1 유동 안내면(242) 중 상기 하측 케이스(212)의 저면과 상대적으로 가까운 것의 상부에 위치된 것으로 유동되고, 상기와 같이 상기 공기가 서로 다른 높이에 배치된 상기 제 1 유동 안내면(242)과 상기 제 2 유동 안내면(245)을 번갈아가면서 유동됨으로써, 상기 공기는 상기 하측 케이스(212)의 내부 전체를 유동하게 되고, 그에 따라, 상기 저장부 및 상기 제어부(225)의 방열이 전체 면적에서 진행되어 방열 효과가 증가될 수 있게 된다.For example, the air having a constant speed in the flow variable means 235 is relatively close to the bottom surface of the lower case 212 among the first flow guide surfaces 242 and the plurality of second flow guide surfaces The air flowing from the second flow guide surface 245 relatively close to the bottom surface of the lower case 212 and relatively close to the bottom surface of the lower case 212 of 245 is the first flow Among the guide surfaces 242, the first flow guide surface 242 and the second flow guide surface 242, which is located at an upper portion of the lower surface and is relatively close to the bottom surface of the lower case 212, and the air is disposed at different heights as described above. By alternately flowing through the flow guide surface 245, the air flows through the entire interior of the lower case 212, and accordingly, the heat dissipation of the storage unit and the control unit 225 proceeds in the entire area, resulting in a heat dissipation effect Can be increased.

이하에서는 도면을 참조하여 본 발명의 다른 실시예에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 대하여 설명한다. Hereinafter, a coding robot operation control unit and a control method of the coding robot operation control unit according to another embodiment of the present invention will be described with reference to the drawings.

이러한 설명을 수행함에 있어서, 상기된 본 발명의 제 2 실시예에서 이미 기재된 내용과 중복되는 설명은 그에 갈음하고, 여기서는 생략하기로 한다.In carrying out this description, descriptions that are already described in the second embodiment of the present invention and overlapping descriptions will be replaced therewith, and will be omitted herein.

도 7은 본 발명의 제 3 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부와 압력 조절부를 정면에서 바라본 정면도이고, 도 8은는 도 7의 A 부분을 확대한 확대도이고, 도 9는 도 8의 압력 조절부에 적용된 탄성 변형 수단의 형상이 공기의 유동 압력에 의해 변형된 모습을 보이는 확대도이다.FIG. 7 is a front view as viewed from the front of a flow guide part and a pressure control part constituting a coding robot operation control unit according to a third embodiment of the present invention, and FIG. 8 is an enlarged view of part A of FIG. 7, and FIG. 9 Is an enlarged view showing the shape of the elastic deformation means applied to the pressure control unit of FIG. 8 is deformed by the flow pressure of air.

도 7 및 도 9를 함께 참조하면, 본 실시예에서 코딩 로봇 작동 제어 유닛(300)은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부(310)와, 모션 인식부(320)와, 음성 인식부(322)와, 제어부(325)와, 출력부(330)와, 유동 안내부와, 공기 이동관(347)과, 압력 조절부(350)를 포함한다.7 and 9, in this embodiment, the coding robot operation control unit 300 is connected to a coding robot operated by a coding operation programmed in a computer language to operate the coding robot. 310, a motion recognition unit 320, a voice recognition unit 322, a control unit 325, an output unit 330, a flow guide unit, an air movement pipe 347, and a pressure control unit 350 ).

본 실시예에서 코딩 로봇 작동 제어 유닛(300)은 저장부(326)를 더 포함한다.In this embodiment, the coding robot operation control unit 300 further includes a storage unit 326.

상기 케이스부(310)는 그 내부에 일정 공간이 형성되는 것으로, 상측 케이스(311)와, 하측 케이스(312)를 포함한다.The case part 310 has a predetermined space formed therein, and includes an upper case 311 and a lower case 312.

상기 유동 안내부는 상기 케이스부(310)의 내부에 설치되어 상기 케이스부(310) 내부의 공기가 일정한 방향으로 유동되도록 상기 공기의 유동을 안내하는 것으로, 제 1 유동 안내체(341)와, 제 2 유동 안내체(344)를 포함한다.The flow guide part is installed inside the case part 310 to guide the flow of the air so that the air inside the case part 310 flows in a certain direction, and the first flow guide 341 and the first It includes 2 flow guide bodies 344.

상기 공기 이동관(347)은 상기 상측 케이스(311)와 상기 하측 케이스(312)를 연통시켜 상기 하측 케이스(312)에서 유동되는 상기 공기를 상기 상측 케이스(311)로 이동시키는 것이다.The air movement pipe 347 communicates the upper case 311 and the lower case 312 to move the air flowing from the lower case 312 to the upper case 311.

상기 하측 케이스(312)에서 상기 공기 이동관(347)을 통해 이동된 상기 공기에 의해 상기 상측 케이스(311) 내부의 구성 요소인 상기 모션 인식부(320)와, 상기 음성 인식부(322)와, 상기 출력부(330)가 방열된다.The motion recognition unit 320, which is a constituent element inside the upper case 311, by the air moved from the lower case 312 through the air moving pipe 347, the voice recognition unit 322, The output unit 330 is radiated.

상기 압력 조절부(350)는 상기 공기 이동관(347) 내에서 유동되는 상기 공기의 압력을 조절하는 것으로 압력 조절 케이스(351)와, 탄성 변형 수단(353)과, 고정 수단(352)을 포함한다.The pressure control unit 350 controls the pressure of the air flowing in the air moving pipe 347, and includes a pressure control case 351, an elastic deformation means 353, and a fixing means 352. .

상기 압력 조절 케이스(351)는 상기 공기 이동관(347)의 일부분이 외측으로 확장되어 형성되는 것으로, 상기 탄성 변형 수단(353)의 탄성 변형이 가능하도록 공간을 제공하는 것이다.The pressure control case 351 is formed by extending a portion of the air moving pipe 347 to the outside, and provides a space so that the elastic deformation means 353 can be elastically deformed.

상기 탄성 변형 수단(353)은 상기 공기 이동관(347)의 내부 중 상기 압력 조절 케이스(351)의 하부에 배치되고, 상기 공기 이동관(347)의 내부에서 상기 공기 이동관(347)의 길이 방향으로 유동되는 상기 공기의 유동 압력에 따라 탄성 변형되는 것이다.The elastic deformation means 353 is disposed under the pressure control case 351 in the air moving tube 347, and flows in the longitudinal direction of the air moving tube 347 in the air moving tube 347 It is elastically deformed according to the flow pressure of the air.

상세히, 상기 탄성 변형 수단(353)은 전체적으로 실리콘, 고무 등의 탄성을 가진 물질로 이루어지고, 상기 공기 이동관(347)에서의 상기 공기의 유동 방향에 대해 수직 방향으로 일정 길이 길게 형성된 탄성 변형 몸체(354)와, 상기 탄성 변형 몸체(354)에서 상기 공기 이동관(347)의 내부에서 유동되는 상기 공기의 유동 방향에 대해 대면되는 면 상에 일정 곡률로 이루어진 곡면 형태로 함몰 형성되는 함몰면(355)을 포함한다.In detail, the elastic deformation means 353 is made of a material having elasticity such as silicon and rubber as a whole, and an elastic deformation body formed for a predetermined length in a direction perpendicular to the flow direction of the air in the air moving pipe 347 ( 354), and a recessed surface 355 formed in the form of a curved surface having a predetermined curvature on a surface facing the flow direction of the air flowing inside the air moving pipe 347 in the elastic deformable body 354 Includes.

상기 고정 수단(352)은 상기 탄성 변형 수단(353)을 상기 공기 이동관(347)의 내벽에 고정시키는 것으로 볼트 등이 그 예로 제시될 수 있다.The fixing means 352 fixes the elastic deformation means 353 to the inner wall of the air moving pipe 347, and a bolt or the like may be presented as an example.

상기 공기 이동관(347)의 내부를 따라서 유동되는 상기 공기가 미리 설정된 압력인 제 1 유동 압력으로 유동되는 경우에는 도 8에 도시된 바와 같이 상기 탄성 변형 몸체(354)가 원형 상태, 즉 탄성 변형되지 아니한 상태를 그대로 유지한다.When the air flowing along the inside of the air moving pipe 347 flows at a first flow pressure that is a preset pressure, the elastic deformation body 354 is in a circular state, that is, not elastically deformed, as shown in FIG. Keep it the same.

그러다가, 상기 공기의 유동 압력이 내부 이물질 등에 의해 임의로 상대적으로 높아진 압력인 제 2 유동 압력으로 상기 하측 케이스(312)의 내부에서 공급될 경우, 상기 탄성 변형 수단(353)이 탄성 변형되면서 상기 공기 이동관(347)의 내부 단면적이 상대적으로 좁아지고, 상대적으로 좁아진 단면적에서 유동되는 상기 공기의 유동 압력이 상대적으로 감소되고, 그에 따라 상기 상측 케이스(311)로 공급되는 상기 공기의 압력이 상대적으로 감소됨으로써, 상기 상측 케이스(311)로 이동되는 상기 공기의 압력이 임의로 증가되는 것을 방지할 수 있게 된다.Then, when the flow pressure of the air is supplied from the inside of the lower case 312 at a second flow pressure, which is a pressure that is arbitrarily increased by internal foreign matter, the elastic deformation means 353 is elastically deformed and the air moving pipe The internal cross-sectional area of 347 is relatively narrowed, and the flow pressure of the air flowing in the relatively narrowed cross-sectional area is relatively reduced, and accordingly, the pressure of the air supplied to the upper case 311 is relatively reduced. , It is possible to prevent the pressure of the air moved to the upper case 311 from increasing arbitrarily.

상세히, 상기 공기 이동관(347)의 내부를 따라 이동되는 상기 공기의 유동 압력이 초기에 미리 설정된 압력인 상기 제 1 유동 압력에 비해 상대적으로 높아진 상기 제 2 압력이 될 경우에는 도 9에 도시된 바와 같이 상기 함몰면(355)에는 상기 제 2 유공 압력과 상기 제 1 유동 압력의 차이만큼 더 걸리게 되므로, 상기 제 2 유동 압력과 상기 제 1 유동 압력의 차이만큼 더 걸리는 압력에 의해 상기 탄성 변형 몸체(354)가 상기 공기 이동관(347)의 내부를 따라 이동되는 상기 공기의 유동 방향에 대해 수직 방향으로 상대적으로 늘어나도록 탄성 변형되고, 그에 따라 상기 공기가 상기 제 1 유동 압력으로 유동되는 경우에 비해 상기 제 2 유동 압력으로 유동되는 경우에 상기 탄성 변형 몸체(354)가 그 변형된 만큼 상기 압력 조절 케이스(351) 및 상기 공기 이동관(347) 내부를 상대적으로 좁아지도록 함으로써, 상기 공기 이동관(347)의 내부를 따라 유동되는 상기 공기의 압력을 그만큼 감소시켜 상기 상측 케이스(311)로 이동되는 상기 공기의 압력이 임의로 증가되는 것을 방지할 수 있게 된다.In detail, when the flow pressure of the air moving along the inside of the air transfer pipe 347 becomes the second pressure relatively higher than the first flow pressure, which is a preset pressure, as shown in FIG. Likewise, since the recessed surface 355 takes more as much as the difference between the second perforated pressure and the first flow pressure, the elastically deformable body ( 354 is elastically deformed so as to be relatively stretched in a vertical direction with respect to the flow direction of the air moving along the inside of the air moving pipe 347, and accordingly, compared to the case where the air flows at the first flow pressure, the When the elastically deformable body 354 is deformed at the second flow pressure, the inside of the pressure control case 351 and the air transfer tube 347 is relatively narrowed, so that the air transfer tube 347 is By reducing the pressure of the air flowing along the inside, it is possible to prevent an arbitrary increase in the pressure of the air moving to the upper case 311.

상기에서 본 발명은 특정한 실시예들에 관하여 도시되고 설명되었지만, 당업계에서 통상의 지식을 가진 자라면 이하의 특허청구범위에 기재된 본 발명의 사상 및 영역을 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 알 수 있을 것이다. 그렇지만 이러한 수정 및 변형 구조들은 모두 본 발명의 권리범위 내에 포함되는 것임을 분명하게 밝혀두고자 한다.In the above, the present invention has been shown and described with respect to specific embodiments, but those of ordinary skill in the art can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will see that it can be modified and changed. However, it is intended to clearly reveal that all of these modifications and variations are included within the scope of the present invention.

본 발명의 일 측면에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 의하면, 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있으므로, 그 산업상 이용가능성이 높다고 하겠다.According to the coding robot operation control unit and the control method of the coding robot operation control unit according to an aspect of the present invention, by operating the coding robot by recognizing at least one of motion and voice of a recognition target, the coding without complicated coding Since the robot can be operated and interest in the coding can be increased accordingly, its industrial applicability is high.

100 : 코딩 로봇 작동 제어 유닛 110 : 케이스부
120 : 모션 인식부 122 : 음성 인식부
125 : 제어부 126 : 저장부
130 : 출력부
100: coding robot operation control unit 110: case portion
120: motion recognition unit 122: speech recognition unit
125: control unit 126: storage unit
130: output

Claims (5)

삭제delete 삭제delete 삭제delete 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서,
그 내부에 일정 공간이 형성되는 케이스부와,
상기 케이스부의 내부에 배치되고, 인식 대상자의 동작을 인식하는 모션 인식부와,
상기 케이스부의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 음성 인식부와,
상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 제어부와,
상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부에서 수행된 작업 결과를 외부로 출력하는 출력부를 포함하는 코딩 로봇 작동 제어 유닛을 제어하는 방법으로서,
(a-1) 상기 모션 인식부가 상기 인식 대상자의 영상을 촬영하는 단계;
(a-2) 상기 (a-1) 단계에서 촬영된 영상에서 상기 제어부에 미리 설정된 일정 부분 영상의 검출 여부를 상기 제어부가 판단하는 단계;
(a-3) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 미검출된 것으로 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 상기 일정 부분 영상 촬영을 명령하는 단계;
(a-4) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 검출된 것으로 판단되면, 상기 모션 인식부가 상기 인식 대상자의 동작을 인식하는 단계;
(a-5) 상기 (a-4) 단계에서 인식된 상기 인식 대상자의 동작과 미리 설정된 동작의 일치 여부를 상기 제어부가 판단하는 단계;
(a-6) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 불일치하다고 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 동작 인식을 명령하는 단계; 및
(a-7) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부에 미리 설정된 동작에 대응되는 동작으로 작동되도록 상기 제어부가 상기 코딩 로봇에 작동을 명령하는 단계;를 포함함으로써, 상기 모션 인식부를 통해 인식된 상기 인식 대상자의 동작에 따라 상기 코딩 로봇이 작동될 수 있는 것을 특징으로 하는 코딩 로봇 작동 제어 유닛의 제어 방법.
As for operating the coding robot by being connected to a coding robot operated by a coding task programming in a computer language,
A case portion in which a certain space is formed therein,
A motion recognition unit disposed inside the case unit and configured to recognize a motion of a subject to be recognized;
A voice recognition unit disposed inside the case unit and configured to recognize a voice of the subject to be recognized;
A control unit disposed inside the case unit and controlling the operation of the coding robot using information input through at least one of the motion recognition unit and the voice recognition unit,
Controlling a coding robot operation control unit including an output unit disposed inside the case unit and outputting information input through at least one of the motion recognition unit and the speech recognition unit or a result of the operation performed by the control unit to the outside. As a method,
(a-1) capturing an image of the person to be recognized by the motion recognition unit;
(a-2) determining, by the controller, whether a predetermined partial image preset in the controller is detected from the image captured in the step (a-1);
(a-3) if it is determined in step (a-2) that the certain part of the image of the subject to be recognized has not been detected, the controller instructing the motion recognition unit to take the certain part of the image of the subject to be recognized. ;
(a-4) when it is determined that the partial image of the recognition target is detected in step (a-2), the motion recognition unit recognizes the motion of the recognition target;
(a-5) determining, by the controller, whether the motion of the recognition target person recognized in step (a-4) matches a preset motion;
(a-6) If it is determined that the motion of the recognition target recognized in step (a-5) is inconsistent with the motion preset in the control unit, the control unit commands the motion recognition unit to recognize the motion of the recognition target. step; And
(a-7) When it is determined that the motion of the recognition target recognized in step (a-5) matches the motion preset in the control unit, the coding robot is operated in a motion corresponding to the motion preset in the control unit. The control of the coding robot operation control unit, characterized in that the coding robot can be operated according to the motion of the recognition target recognized through the motion recognition unit by including the step of instructing the coding robot to operate by the control unit. Way.
삭제delete
KR1020190011275A 2019-01-29 2019-01-29 Coding robot operation control unit and control method of the coding robot operation control unit KR102198439B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190011275A KR102198439B1 (en) 2019-01-29 2019-01-29 Coding robot operation control unit and control method of the coding robot operation control unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190011275A KR102198439B1 (en) 2019-01-29 2019-01-29 Coding robot operation control unit and control method of the coding robot operation control unit

Publications (2)

Publication Number Publication Date
KR20200093933A KR20200093933A (en) 2020-08-06
KR102198439B1 true KR102198439B1 (en) 2021-01-05

Family

ID=72040437

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190011275A KR102198439B1 (en) 2019-01-29 2019-01-29 Coding robot operation control unit and control method of the coding robot operation control unit

Country Status (1)

Country Link
KR (1) KR102198439B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102260751B1 (en) 2020-10-07 2021-06-07 주식회사 로보그램인공지능로봇연구소 Electronic device and control method thereof
KR102488769B1 (en) * 2021-02-01 2023-01-17 주식회사 에이럭스 Route movement mission execution method in coding learning tools
KR102368308B1 (en) * 2021-10-15 2022-03-02 주식회사 로보그램인공지능로봇연구소 Block coding studying apparatus based on image cognition using smartphone

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066986A (en) 2001-08-23 2003-03-05 Sharp Corp Voice recognizing robot

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140009900A (en) * 2012-07-12 2014-01-23 삼성전자주식회사 Apparatus and method for controlling robot
KR20130032891A (en) * 2013-03-11 2013-04-02 (주)알앤디글로벌 Wellness and human care robot
KR102521493B1 (en) * 2015-10-27 2023-04-14 삼성전자주식회사 Cleaning robot and controlling method of thereof
KR101898864B1 (en) 2017-02-07 2018-09-14 주식회사 로보메이션 Driving Code Forming and Positioning Method of Coding Robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003066986A (en) 2001-08-23 2003-03-05 Sharp Corp Voice recognizing robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
공개특허공보 제10-2017-0048815호(2017.5.10. 공개) 1부.*

Also Published As

Publication number Publication date
KR20200093933A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
KR102198439B1 (en) Coding robot operation control unit and control method of the coding robot operation control unit
US11358285B2 (en) Robot and method of recognizing mood using the same
US10482886B2 (en) Interactive robot and human-robot interaction method
JP7096948B2 (en) How to define the behavior model of self-driving vehicles, how to operate self-driving vehicles, and how to operate self-driving vehicles
US11583998B2 (en) Robot and method of controlling same
US11440185B2 (en) Multi-operation unit integration device, control method therefor, and autonomous learning type robot device
KR20190102149A (en) A robot equipped with cleaning functions for camera vision and its control method
JP5141876B2 (en) Orbit search device
KR20190116190A (en) Robot
KR20190099153A (en) Electronic device
Ding et al. An adaptive hidden Markov model-based gesture recognition approach using Kinect to simplify large-scale video data processing for humanoid robot imitation
KR101239274B1 (en) Interactable Robot
KR20160072621A (en) Artificial intelligence robot service system
KR20200132654A (en) Robot and its control method
KR20190096875A (en) Robot and contolling method thereof
KR101988282B1 (en) Mobile robot comprising input module for programming
KR102314385B1 (en) Robot and contolling method thereof
US10596708B2 (en) Interaction device and interaction method thereof
KR102107846B1 (en) Coding game progress system using coding robot operation controlling unit and smartphone, and controlling method of the coding game progress system using coding robot operation controlling unit and smartphone
KR20210023367A (en) Robot and method for controlling same
KR20210064594A (en) Electronic apparatus and control method thereof
KR20190130692A (en) Method and apparatus for recognizing body actions in image frames based on neural network
KR102285472B1 (en) Method of equalizing sound, and robot and ai server implementing thereof
KR20130041421A (en) Voice recognition multimodality system based on touch
JP2005092866A (en) Regulation of growth of complexity in developmental system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant