KR102198439B1 - Coding robot operation control unit and control method of the coding robot operation control unit - Google Patents
Coding robot operation control unit and control method of the coding robot operation control unit Download PDFInfo
- Publication number
- KR102198439B1 KR102198439B1 KR1020190011275A KR20190011275A KR102198439B1 KR 102198439 B1 KR102198439 B1 KR 102198439B1 KR 1020190011275 A KR1020190011275 A KR 1020190011275A KR 20190011275 A KR20190011275 A KR 20190011275A KR 102198439 B1 KR102198439 B1 KR 102198439B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- control unit
- unit
- coding
- coding robot
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000005489 elastic deformation Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000017525 heat dissipation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/0053—Computers, e.g. programming
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/061—Safety devices with audible signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computer Hardware Design (AREA)
- Manipulator (AREA)
Abstract
코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법이 개시된다. 개시되는 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 의하면, 코딩 로봇 작동 제어 유닛이 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부와, 모션 인식부와, 음성 인식부와, 제어부와, 출력부를 포함하고, 상기 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있게 되는 장점이 있다.A coding robot operation control unit and a control method of the coding robot operation control unit are disclosed. According to the disclosed coding robot operation control unit and the control method of the coding robot operation control unit, the coding robot operation control unit is connected to a coding robot operated by a coding operation programming in a computer language to operate the coding robot, It includes a case unit, a motion recognition unit, a speech recognition unit, a control unit, and an output unit, and operates the coding robot by recognizing at least one of the motion and voice of the recognition target, thereby enabling the coding robot to be It is possible to operate, and accordingly, there is an advantage of being able to increase interest in the coding.
Description
본 발명은 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 관한 것이다.The present invention relates to a coding robot operation control unit and a control method of the coding robot operation control unit.
코딩(coding)이란, C 언더, 자바, 파이선 등의 기계가 알 수 있는 언어를 일정한 명령문에 따라 문자 또는 숫자를 사용하여 기호화한 것으로 컴퓨터 프로그램밍이라고도 한다. Coding is a language that can be understood by machines such as C under, Java, Python, etc., in accordance with certain instructions, using letters or numbers, and is also called computer programming.
상기와 같이, 사용자가 직접 만든 코딩에 따라 작동되는 로봇이 코딩 로봇(coding robot)이다.As described above, a robot that operates according to a coding created by a user is a coding robot.
최근에는 코딩 교육이 의무화가 되면서 어린 시절부터 소프트웨어와 친해질 수 있도록, 각종 IT(Information Technology) 기술이 접목된 스마트 토이(Smart Toy)가 관심을 끌고 있고, 그 중 하나가 상기 코딩 로봇이다.In recent years, as coding education becomes mandatory, a smart toy incorporating various information technology (IT) technologies is attracting attention so that you can become familiar with software from childhood, and one of them is the coding robot.
이러한 코딩 로봇의 예로 제시될 수 있는 것이 아래 제시된 특허문헌의 그 것이다.What can be presented as an example of such a coding robot is that of the patent documents presented below.
그러나, 아래 특허 문헌을 포함한 종래의 코딩 로봇에 대한 기술에 의하면, 코딩 작업에 의해서만 상기 코딩 로봇이 작동됨으로써, 상기 코딩 로봇을 작동시키기 위해서는 코딩 교육이 꼭 선행되어야 하고, 그러한 코딩 교육이 선행되었더라도 만들어진 코딩에 오류가 있거나 코딩 실력이 부족하면 상기 코딩 로봇이 작동되지 않음에 따라, 상기 코딩 로봇에 대한 흥미가 급격히 감소되는 문제가 있었다.However, according to the conventional coding robot technology including the following patent documents, since the coding robot is operated only by a coding task, coding education must be preceded in order to operate the coding robot, and even if such coding education has preceded, If there is an error in coding or insufficient coding ability, there is a problem in that interest in the coding robot is rapidly reduced as the coding robot is not operated.
본 발명은 코딩 작업 없이도 코딩 로봇을 동작시킬 수 있고, 그에 따라 코딩에 대한 관심을 증대시킬 수 있는 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법을 제공하는 것을 일 목적으로 한다.An object of the present invention is to provide a coding robot operation control unit and a control method of the coding robot operation control unit capable of operating a coding robot without a coding operation, thereby increasing interest in coding.
본 발명의 일 측면에 따른 코딩 로봇 작동 제어 유닛의 제어 방법은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 그 내부에 일정 공간이 형성되는 케이스부와, 상기 케이스부의 내부에 배치되고, 상기 인식 대상자의 동작을 인식하는 모션 인식부와, 상기 케이스부의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 음성 인식부와, 상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 제어부와, 상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부에서 수행된 작업 결과를 외부로 출력하는 출력부를 포함하는 코딩 로봇 작동 제어 유닛을 제어하는 방법으로서, (a-1) 상기 모션 인식부가 상기 인식 대상자의 영상을 촬영하는 단계; (a-2) 상기 (a-1) 단계에서 촬영된 영상에서 상기 제어부에 미리 설정된 일정 부분 영상의 검출 여부를 상기 제어부가 판단하는 단계; (a-3) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 미검출된 것으로 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 상기 일정 부분 영상 촬영을 명령하는 단계; (a-4) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 검출된 것으로 판단되면, 상기 모션 인식부가 상기 인식 대상자의 동작을 인식하는 단계; (a-5) 상기 (a-4) 단계에서 인식된 상기 인식 대상자의 동작과 미리 설정된 동작의 일치 여부를 상기 제어부가 판단하는 단계; (a-6) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 불일치하다고 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 동작 인식을 명령하는 단계; 및 (a-7) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부에 미리 설정된 동작에 대응되는 동작으로 작동되도록 상기 제어부가 상기 코딩 로봇에 작동을 명령하는 단계;를 포함함으로써, 상기 모션 인식부를 통해 인식된 상기 인식 대상자의 동작에 따라 상기 코딩 로봇이 작동될 수 있는 것을 특징으로 한다.A method of controlling a coding robot operation control unit according to an aspect of the present invention is to operate the coding robot by being connected to a coding robot operated by a coding operation programming in a computer language, and a case part in which a predetermined space is formed therein. And, a motion recognition unit disposed inside the case unit to recognize the motion of the subject to be recognized, a voice recognition unit disposed inside the case unit to recognize the voice of the subject to be recognized, and disposed inside the case unit And a control unit for controlling the operation of the coding robot using information input through at least one of the motion recognition unit and the voice recognition unit, and disposed inside the case unit, and the motion recognition unit and the speech recognition A method of controlling a coding robot operation control unit including an output unit that outputs information input through at least one of the units or a result of a work performed by the control unit to the outside, wherein (a-1) the motion recognition unit Taking an image; (a-2) determining, by the controller, whether a predetermined partial image preset in the controller is detected in the image captured in step (a-1); (a-3) if it is determined in step (a-2) that the certain part of the image of the subject to be recognized has not been detected, the controller instructing the motion recognition unit to take the part of the image of the subject ; (a-4) when it is determined that the partial image of the recognition target is detected in step (a-2), the motion recognition unit recognizes the motion of the recognition target; (a-5) determining, by the controller, whether the motion of the recognition target recognized in step (a-4) matches a preset motion; (a-6) If it is determined that the motion of the recognition target recognized in step (a-5) is inconsistent with the motion preset in the control unit, the control unit commands the motion recognition unit to recognize the motion of the recognition target. step; And (a-7) when it is determined that the motion of the recognition target recognized in step (a-5) matches the motion preset in the control unit, the coding robot operates as a motion corresponding to the motion preset in the control unit. By including the step of instructing the operation of the coding robot by the control unit, the coding robot may be operated according to the motion of the recognition target recognized through the motion recognition unit.
삭제delete
삭제delete
본 발명의 일 측면에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 의하면, 코딩 로봇 작동 제어 유닛이 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부와, 모션 인식부와, 음성 인식부와, 제어부와, 출력부를 포함하고, 상기 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있게 되는 효과가 있다.According to a coding robot operation control unit and a control method of the coding robot operation control unit according to an aspect of the present invention, the coding robot operation control unit is connected to a coding robot operated by a coding operation programming in a computer language, and the coding robot The coding robot is operated by operating the coding robot by recognizing at least one of the motion and voice of the recognition target person, including a case unit, a motion recognition unit, a voice recognition unit, a control unit, and an output unit. It is possible to operate the coding robot without it, and accordingly, there is an effect of increasing interest in the coding.
도 1은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 위에서 내려다본 사시도.
도 2는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 정면에서 바라본 정면도.
도 3은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 모션 인식부에 모션이 인식된 경우의 제어 방법에 대한 순서도.
도 4는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 음션 인식부에 음성이 인식된 경우의 제어 방법에 대한 순서도.
도 5는 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 위에서 내려다본 사시도.
도 6은 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 정면에서 바라본 정면도.
도 7은 본 발명의 제 3 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부와 압력 조절부를 정면에서 바라본 정면도.
도 8은는 도 7의 A 부분을 확대한 확대도.
도 9는 도 8의 압력 조절부에 적용된 탄성 변형 수단의 형상이 공기의 유동 압력에 의해 변형된 모습을 보이는 확대도.1 is a perspective view from above of a coding robot operation control unit according to a first embodiment of the present invention.
2 is a front view of the coding robot operation control unit according to the first embodiment of the present invention as viewed from the front.
3 is a flowchart of a control method when a motion is recognized by a motion recognition unit constituting a coding robot operation control unit according to the first embodiment of the present invention.
4 is a flow chart of a control method when a voice is recognized by a sound recognition unit constituting a coding robot operation control unit according to the first embodiment of the present invention.
5 is a perspective view from above looking down on a flow guide constituting a coding robot operation control unit according to a second embodiment of the present invention.
6 is a front view as viewed from the front of a flow guide constituting a coding robot operation control unit according to a second embodiment of the present invention.
Fig. 7 is a front view as viewed from the front of a flow guide unit and a pressure control unit constituting a coding robot operation control unit according to a third embodiment of the present invention.
8 is an enlarged view of an enlarged portion A of FIG. 7.
9 is an enlarged view showing the shape of the elastic deformation means applied to the pressure control unit of FIG. 8 is deformed by the flow pressure of air.
이하에서는 도면을 참조하여 본 발명의 실시예들에 따른 코딩 로봇 작동 제어 유닛 에 대하여 설명한다.Hereinafter, a coding robot operation control unit according to embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 위에서 내려다본 사시도이고, 도 2는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 정면에서 바라본 정면도이고, 도 3은 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 모션 인식부에 모션이 인식된 경우의 제어 방법에 대한 순서도이고, 도 4는 본 발명의 제 1 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 음션 인식부에 음성이 인식된 경우의 제어 방법에 대한 순서도이다.1 is a perspective view from above of a coding robot operation control unit according to a first embodiment of the present invention, and FIG. 2 is a front view of a coding robot operation control unit according to a first embodiment of the present invention as viewed from the front, and FIG. 3 Is a flow chart for a control method when motion is recognized by a motion recognition unit constituting a coding robot operation control unit according to the first embodiment of the present invention, and FIG. 4 is a coded robot operation according to the first embodiment of the present invention. It is a flow chart of a control method when a voice is recognized by a voice recognition unit constituting the control unit.
도 1 내지 도 4를 함께 참조하면, 본 실시예에 따른 코딩 로봇 작동 제어 유닛(100)은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부(110)와, 모션 인식부(120)와, 음성 인식부(122)와, 제어부(125)와, 출력부(130)를 포함한다.1 to 4 together, the coding robot
본 실시예에서 상기 코딩 로봇 작동 제어 유닛(100)은 저장부(126)와, 학습 및 추론부(127)를 더 포함한다.In this embodiment, the coding robot
상기 코딩이란, C언어 등의 컴퓨터 언어를 이용하여 순차적이고 논리적인 흐름을 프로그래밍(programming)하는 작업이고, 상기 코딩 로봇은 작성된 상기 코딩이 전달하는 명령에 따라 작동되는 것이다.The coding is an operation of programming a sequential and logical flow using a computer language such as C language, and the coding robot is operated according to an instruction transmitted by the written coding.
상기 케이스부(110)는 그 내부에 일정 공간이 형성되는 것으로, 본 실시예에서는 그 외부 형상이 어린이들에게 친근감을 유발할 수 있도록 동물 등의 캐릭터 형태로 형성된다.The
상기 케이스부(110)는 상기 모션 인식부(120)와, 상기 음성 인식부(122)와, 상기 출력부(130)가 배치되는 상측 케이스(111)와, 상기 제어부(125) 및 상기 저장부(126)가 배치되는 하측 케이스(112)를 포함한다.The
상기 모션 인식부(120)는 상기 케이스의 내부에 배치되고, 상기 인식 대상자의 동작을 인식하는 것으로, 상기 상측 케이스(111)에 내장된 카메라 모듈이 그 예로 제시될 수 있다.The
상세한 설명에 앞서, 상기 모션 인식부(120)를 통해 입력되는 정보는 모션 입력 정보라 정의하고, 상기 음성 인식부(122)를 통해 입력되는 정보는 음성 입력 정보라 정의한다.Prior to the detailed description, information input through the
상기 제어부(125)는 상기 케이스부(110)의 내부에 배치되고, 상기 모션 인식부(120) 및 상기 음성 인식부(122) 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 것으로, 그 크기가 상대적으로 작은 라즈베리 파이(Raspberry Pi) 등이 적용될 수 있다.The
상기 출력부(130)는 상기 케이스부(110)의 내부에 배치되고, 상기 모션 인식부(120) 및 상기 음성 인식부(122) 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부(125)에서 수행된 작업 결과를 외부로 출력하는 것이다.The
상세히, 상기 출력부(130)는 상기 모션 인식부(120)의 모션 정보 및 상기 음성 인식부(122)의 음성 정보 중 적어도 하나에 대응되는 결과값이 영상으로 출력되는 영상 출력체(131)와, 상기 모션 인식부(120)의 모션 정보 및 상기 음성 인식부(122)의 음성 정보 중 적어도 하나에 대응되는 결과값이 음성으로 출력되는 음성 출력체(132)를 포함한다.In detail, the
상기 영상 출력체(131)는 상기 상측 케이스(111)의 전면에 장착되는 엘시디 패널(LCD Panel) 등이 그 예로 제시될 수 있고, 상기 음성 출력체(132)는 스피커 모듈 등이 그 예로 제시될 수 있다.The
또한, 상기 출력부(130)는 본 실시예에서는 도시되지 않았지만, 외부로 출력되어야 할 결과값을 빛으로 출력하는 램프 모듈 등을 포함할 수도 잇다.In addition, although not shown in the present embodiment, the
이하에서는 상기 모션 인식부(120)와, 상기 음성 인식부(122)와, 상기 제어부(125)와, 상기 코딩 로봇의 작동 흐름에 대하여 예를 들어 간단히 설명한다.Hereinafter, an operation flow of the
예를 들어, 상기 인식 대상자의 신체 중 미리 설정된 부분 예를 들면 상기 인식 대상자의 손의 모션을 인식하라는 명령이 상기 제어부(125)에서 상기 모션 인식부(120)에 전달된 상태에서, 상기 인식 대상자가 손을 편 상태에서 오른쪽 방향으로 이동시키면, 상기 모션 인식부(120)는 상기 모션 입력 정보인 상기 인식 대상자의 손이 펴진 상태와 오른쪽 방향 이동을 인식한 다음, 그 인식 결과를 상기 제어부(125)에 전달하게 되고, 상기 제어부(125)는 상기 모션 인식부(120)에서 인식된 결과를 전달받아 상기 코딩 로봇에 상기 손 동작에 대응되는 작동인 오른쪽 방향 이동을 명령하게 되고, 그에 따라 상기 코딩 로봇이 오른쪽 방향으로 이동하게 된다.For example, in a state in which a command to recognize the motion of the hand of the recognition target, for example, a predetermined part of the body of the recognition target, is transmitted from the
예를 들어, 상기 인식 대상자가 주먹을 쥔 상태에서 오른쪽 방향으로 이동시키면, 상기 모션 인식부(120)는 상기 모션 입력 정보인 상기 인식 대상자의 손이 주먹 형태로 쥐어진 상태와 오른쪽 이동을 인식한 다음, 그 인식 결과를 상기 제어부(125)에 전달하게 되고, 상기 제어부(125)는 상기 모션 인식부(120)에서 인식된 결과를 전달받아 상기 코딩 로봇에 상기 손 동작에 대응되는 작동인 오른쪽 회전을 명령하게 되고, 그에 따라 상기 코딩 로봇이 오른쪽 방향으로 회전하게 된다.For example, when the recognition target person moves in a right direction while holding a fist, the
상기 음성 인식부(122)는 상기 케이스부(110)의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 것으로, 상기 상측 케이스(111)에 내장된 마이크 모듈이 그 예로 제시될 수 있다.The
예를 들어, 상기 인식 대상자가 음성으로 왼쪽 방향 이동 명령을 전달하면, 상기 음성 인식부(122)는 상기 음성 입력 정보인 상기 인식 대상자의 상기 왼쪽 방향 이동 명령을 인식한 다음, 그 인식 결과를 상기 제어부(125)에 전달하게 되고, 상기 제어부(125)는 상기 음성 인식부(122)에서 인식된 결과를 전달받아 상기 코딩 로봇에 상기 왼쪽 방향 이동 명령에 대응되는 작동인 왼쪽 방향 이동을 명령하게 되고, 그에 따라 상기 코딩 로봇이 왼쪽 방향으로 이동하게 된다.For example, when the recognition target person transmits a left direction movement command by voice, the
상기 저장부(126)는 상기 케이스부(110)에 배치되어 상기 인식 대상자의 정보와, 상기 모션 인식부(120)를 통해 입력되는 상기 인식 대상자의 상기 모션 입력 정보 및 상기 음성 인식부(122)를 통해 입력되는 상기 인식 대상자의 상기 음성 입력 정보가 저장되는 것으로, 상기 하측 케이스(112)의 내부에 배치된 SSD(solid state drive) 등 다양한 형태의 저장 장치가 그 예로 제시될 수 있다.The
상기 저장부(126)에 상기 인식 대상자의 정보, 예를 들어 홍체 인식 또는 지문 등의 정보가 저장되면, 상기 인식 대상자는 한 번의 정보 저장을 통해 상기 코딩 로봇 작동 제어 유닛(100)을 지속적으로 사용할 수 있다.When the information of the subject to be recognized, for example, iris recognition or fingerprint, is stored in the
또한, 상기 모션 입력 정보 및 상기 음성 입력 정보가 상기 저장부(126)에 저장됨으로써, 최근에 입력된 입력 정보 목록을 확인할 수 있을 뿐만 아니라, 상기 모션 입력 정보 및 상기 음성 입력 정보 중 반복적으로 사용되는 정보들을 관리할 수도 있게 된다.In addition, since the motion input information and the voice input information are stored in the
상기 학습 및 추론부(127)는 그 내부에 미리 저장된 복수 개의 데이터 샘플을 이용하여 알고리즘(Algorithm)을 구축하는 딥 러닝(Deep Learning)과, 미리 저장된 복수 개의 상기 데이터 샘플을 해석하는 추론(Inference)을 수행하는 것이다.The learning and
여기서, 알고리즘은 수학과 컴퓨터 과학 분야에서 어떠한 문제를 해결하기 위해 정해진 일련의 절차나 방법을 공식화한 형태로 표현한 것이고, 상기 딥 러닝 즉, 심화 학습은 대량의 데이터와 알고리즘을 통해 컴퓨터를 학습시킴으로써 사람의 사고 방식을 상기 컴퓨터에게 가르치는 기계 학습(Machine Learning)이고, 상기 추론은 미리 저장된 복수 개의 상기 데이터 샘플을 이용하여 논리적 결론을 도출하는 것이고, 이러한 상기 딥 러닝 및 상기 추론은 사람의 사고력을 기계로 구현한 인공 지능(AI, Artificial Intelligence)의 기반이 된다.Here, the algorithm is a formal expression of a set of procedures or methods determined to solve a certain problem in the fields of mathematics and computer science, and the deep learning, that is, deep learning, is a human experience by learning a computer through a large amount of data and algorithms. Machine learning that teaches the way of thinking to the computer, and the reasoning is to derive a logical conclusion using a plurality of pre-stored data samples, and the deep learning and the reasoning implement human thinking ability as a machine. It is the basis of artificial intelligence (AI).
상기 학습 및 추론부(127)가 내장됨으로써, 상기 코딩 로봇 작동 제어 유닛(100)은 상기 인공 지능을 구비할 수 있게 되고, 그에 따라 상기 인식 대상자의 동작 및 음성 인식률이 상대적으로 높아지게 된다.As the learning and
또한, 상기 코딩 로봇 작동 제어 유닛(100)에 상기 학습 및 추론부(127)가 내장됨으로써, 상기 인식 대상자에게 상기 인공 지능을 체험시킬 수도 있게 된다.In addition, since the learning and
본 실시예에서는 상기 학습 및 추론부(127)가 그 내부에 미리 저장된 복수 개의 데이터 샘플을 이용한다고 하였으나, 이는 단지 하나의 예시일 뿐, 상기 모션 인식부(120) 및 상기 음성 인식부(122)를 통해 데이터 샘플을 더 추가할 수 있고, 상기 딥 러닝을 수행할 때 상기와 같이 추가된 데이터 샘플을 함께 이용할 수 있음은 물론이다.In the present embodiment, it is said that the learning and
이하에서는 도면을 참조하여 본 실시예에 따른 상기 코딩 로봇 작동 제어 유닛(100)의 제어 방법에 대하여 설명한다.Hereinafter, a method of controlling the coding robot
이하에서, 도 3을 참조하여 상기 코딩 로봇 작동 제어 유닛(100)의 모션 인식 작업에 관한 제어 방법을 설명한다.Hereinafter, a control method for a motion recognition operation of the coding robot
먼저, (a-1) 단계로서, 상기 모션 인식부(120)가 상기 인식 대상자의 영상을 촬영한다.(S110)First, as step (a-1), the
그런 다음, (a-2) 단계로서, 상기 (a-1) 단계에서 촬영된 영상에서 상기 제어부(125)에 미리 설정된 일정 부분 영상의 검출 여부를 상기 제어부(125)가 판단한다.(S111)Then, as step (a-2), the
여기서, 상기 미리 설정된 일정 부분은 상기 인식 대상자의 신체 중 상기 제어부(125)에 미리 저장된 신체 일부로써, 예를 들면 손 등이 될 수 있고, 상기 제어부(125)는 상기 (a-1) 단계(S110)에서 촬영된 상기 인식 대상자의 영상 정보에서 상기 인식 대상자의 상기 미리 설정된 부분인 손이 검출되었는지 여부를 판단할 수 있다.Here, the preset predetermined part is a part of the body previously stored in the
그런 다음,(a-3) 단계로서, 상기 (a-2) 단계(S111)에서 상기 인식 대상자의 상기 일정 부분 영상이 미검출된 것으로 판단되면, 상기 제어부(125)가 상기 모션 인식부(120)에 상기 (a-1) 단계(S110)인 상기 인식 대상자의 상기 일정 부분 영상 촬영을 명령한다.Then, as step (a-3), when it is determined that the partial image of the recognition target is not detected in step (a-2) (S111), the
예를 들어, 상기 모션 인식부(120)에서 촬영된 상기 인식 대상자의 영상 정보에 상기 미리 설정된 일정 부분, 예를 들어 상기 인식 대상자의 손이 미포함된 것으로 판단되면, 상기 제어부(125)는 상기 모션 인식부(120)에 상기 미리 설정된 일정 부분에 대한 재촬영을 명령하게 된다.For example, if it is determined that the predetermined portion of the image information of the recognition target photographed by the
그런 다음, (a-4) 단계로서, 상기 (a-2) 단계(S111)에서 상기 인식 대상자의 상기 일정 부분 영상이 검출된 것으로 판단되면, 상기 모션 인식부(120)가 상기 인식 대상자의 동작을 인식한다.(S112)Then, as step (a-4), if it is determined that the partial image of the recognition target is detected in step (a-2) (S111), the
그런 다음, (a-5) 단계로서, 상기 (a-4) 단계(S112)에서 인식된 상기 인식 대상자의 동작과 미리 설정된 동작의 일치 여부를 상기 제어부(125)가 판단한다.(S113)Then, as step (a-5), the
여기서, 상기 미리 설정된 동작은 상기 제어부(125)에 미리 저장된 동작, 예를 들어 직선 또는 회전 방향 등이 될 수 있고, 상기 제어부(125)는 상기 (a-4) 단계(S112)에서 인식된 상기 인식 대상자의 동작 정보인 직선 또는 회전 방향과 상기 제어부(125)에 저장된 상기 미리 설정된 동작이 일치하는지 여부를 판단할 수 있다.Here, the preset operation may be an operation previously stored in the
그런 다음, (a-6) 단계로서, 상기 (a-5) 단계(S113)에서 인식된 상기 인식 대상자의 동작이 상기 제어부(125)에 미리 설정된 동작과 불일치하다고 판단되면, 상기 제어부(125)가 상기 모션 인식부(120)에 상기 (a-4) 단계(S112)인 상기 인식 대상자의 동작 인식을 명령한다.Then, as step (a-6), if it is determined that the motion of the recognition target recognized in step (a-5) (S113) is inconsistent with the motion preset in the
그런 다음, (a-7) 단계로서, 상기 (a-5) 단계(S113)에서 인식된 상기 인식 대상자의 동작이 상기 제어부(125)에 미리 설정된 동작과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부(125)에 미리 설정된 동작에 대응되는 동작으로 작동되도록 상기 제어부(125)가 상기 코딩 로봇에 작동을 명령함으로써,(S114) 상기 모션 인식부(120)를 통해 인식된 상기 인식 대상자의 동작에 따라 상기 코딩 로봇이 작동될 수 있게 된다.Then, as step (a-7), if it is determined that the motion of the recognition target recognized in step (a-5) (S113) matches the motion preset in the
이하에서, 도 4를 참조하여 상기 코딩 로봇 작동 제어 유닛(100)의 모션 인식 작업에 관한 제어 방법을 설명한다.Hereinafter, a control method for a motion recognition operation of the coding robot
먼저, (b-1) 단계로서, 상기 음성 인식부(122)가 상기 인식 대상자의 음성을 인식한다.(S120)First, as step (b-1), the
그런 다음, (b-2) 단계로서, 상기 (b-1) 단계(S120)에서 인식된 상기 인식 대상자의 음성과 상기 제어부(125)에 미리 설정된 음성의 일치 여부를 상기 제어부(125)가 판단한다.(S121)Then, as step (b-2), the
여기서, 상기 미리 설정된 음성은 상기 제어부(125)에 미리 저장된 음성 정보 등이 될 수 있고, 상기 제어부(125)는 상기 (b-1) 단계(S120)에서 인식된 상기 인식 대상자의 음성 정보와 상기 제어부(125)에 미리 저장된 음성 정보의 일치 여부를 판단할 수 있다.Here, the preset voice may be voice information stored in advance in the
그런 다음, (b-3) 단계로서, 상기 (b-2) 단계(S121)에서 인식된 상기 인식 대상자의 음성이 상기 제어부(125)에 미리 설정된 음성과 불일치하다고 판단되면, 상기 제어부(125)가 상기 음성 인식부(122)에 상기 제어부(125)에 미리 설정된 음성이 인식될 때까지 대기할 것을 명령한다.(S122)Then, as step (b-3), if it is determined that the voice of the recognition target recognized in step (b-2) (S121) is inconsistent with the voice preset in the
그런 다음, (b-4) 단계로서, 상기 (b-2) 단계(S121)에서 인식된 상기 인식 대상자의 음성이 상기 제어부(125)에 미리 설정된 음성과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부(125)에 미리 설정된 음성에 대응되는 동작으로 작동되도록 상기 제어부(125)가 상기 코딩 로봇에 작동을 명령함으로써(S123), 상기 음성 인식부(122)를 통해 인식된 상기 인식 대상자의 음성에 따라 상기 코딩 로봇이 작동될 수 있게 된다.Then, as step (b-4), when it is determined that the voice of the recognition target recognized in step (b-2) (S121) matches the voice preset in the
상기와 같이, 상기 코딩 로봇 작동 제어 유닛(100)이 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 상기 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 상기 케이스부(110)와, 상기 모션 인식부(120)와, 상기 음성 인식부(122)와, 상기 제어부(125)와, 상기 출력부(130)를 포함하고, 상기 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있게 된다.As described above, the coding robot
이하에서는 도면을 참조하여 본 발명의 다른 실시예들에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 대하여 설명한다. Hereinafter, a coding robot operation control unit and a control method of the coding robot operation control unit according to other embodiments of the present invention will be described with reference to the drawings.
이러한 설명을 수행함에 있어서, 상기된 본 발명의 제 1 실시예에서 이미 기재된 내용과 중복되는 설명은 그에 갈음하고, 여기서는 생략하기로 한다.In carrying out this description, descriptions that are already described in the first embodiment of the present invention and overlapping descriptions will be replaced therewith, and will be omitted here.
도 5는 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 위에서 내려다본 사시도이고, 도 6은 본 발명의 제 2 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부를 정면에서 바라본 정면도이다.5 is a perspective view from above of a flow guide constituting a coding robot operation control unit according to a second embodiment of the present invention, and FIG. 6 is a flow chart constituting the coding robot operation control unit according to a second embodiment of the present invention. It is a front view as seen from the front of the guide.
도 5 및 도 6을 함께 참조하면, 본 실시예에서 코딩 로봇 작동 제어 유닛(200)은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부(210)와, 모션 인식부(220)와, 음성 인식부(222)와, 제어부(225)와, 출력부(230)와, 유동 안내부(240)를 포함한다.5 and 6 together, in this embodiment, the coding robot
본 실시예에서 상기 코딩 로봇 작동 제어 유닛(200)은 저장부(226)를 더 포함한다.In this embodiment, the coding robot
상기 케이스부(210)는 그 내부에 일정 공간이 형성되는 것이다.The
상기 케이스부(210)는 상기 모션 인식부(220)와, 상기 음성 인식부(222)와, 상기 출력부(230)가 배치되는 상측 케이스(211)와, 상기 제어부(225) 및 상기 저장부(226)가 배치되는 하측 케이스(212)를 포함한다.The
상기 모션 인식부(220)는 상기 케이스부(210)의 내부에 배치되고, 상기 인식 대상자의 동작을 인식하는 것이다.The
상기 음성 인식부(222)는 상기 케이스부(210)의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 것이다.The
상기 제어부(225)는 상기 케이스부(210)의 내부에 배치되고, 상기 모션 인식부(220) 및 상기 음성 인식부(222) 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 것이다.The
상기 출력부(230)는 상기 케이스부(210)의 내부에 배치되고, 상기 모션 인식부(220) 및 상기 음성 인식부(222) 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부(225)에서 수행된 작업 결과를 외부로 출력하는 것이다.The
상기 유동 안내부(240)는 상기 케이스부(210)의 내부에 설치되어 상기 케이스부(210) 내부, 더 상세하게는 상기 하측 케이스(232)의 내부 공기가 일정 방향으로 유동되도록 상기 공기의 유동을 안내하는 것이다.The flow guide
도면 번호 235는 상기 케이스부(210) 내부의 공기가 효율적으로 유동되도록 상기 케이스부(210) 내부에서 유동되는 상기 공기의 유동 속도를 가변시키는 유동 가변 수단으로, 팬(fan) 등이 그 예로 제안될 수 있다.
상세히, 상기 유동 안내부(240)는 상기 하측 케이스(212)의 내측면에 장착되되 복수 개가 상기 하측 케이스(212)의 길이 방향인 수직 방향으로 일정 간격 이격되어 형성되는 제 1 유동 안내체(241)와, 상기 하측 케이스(212)의 내측면에서 상기 제 1 유동 안내체(241)가 형성된 면과 대면되도록 위치되고, 복수 개가 상기 하측 케이스(212)의 길이 방향인 수직 방향으로 일정 간격 이격되어 형성되는 제 2 유동 안내체(244)를 포함한다.In detail, the
더욱 상세히, 상기 제 1 유동 안내체(241)는 상기 하측 케이스(212)의 내측면에서 일정 길이로 형성되되, 일정 곡률의 중심이 상기 하측 케이스(212)의 중심 쪽으로 형성되는 제 1 유동 안내 몸체(243)와, 상기 제 1 유동 안내 몸체(243)의 내측면에서 굴곡진 형태로 형성되고, 상기 공기가 일 방향으로 유동되도록 상기 공기의 유동 방향을 안내하는 제 1 유동 안내면(242)을 포함한다.In more detail, the first
또한, 상기 제 2 유동 안내체(244)는 상기 하측 케이스(212)의 내측면에서 일정 길이로 형성되되, 일정 곡률의 중심이 상기 하측 케이스(212)의 중심 쪽으로 형성되는 제 2 유동 안내 몸체(246)와, 상기 제 2 유동 안내 몸체(246)의 내측면에서 굴곡진 형태로 형성되고, 상기 공기가 일 방향으로 유동되도록 상기 공기의 유동 방향을 안내하는 제 2 유동 안내면(245)을 포함한다.In addition, the second
상기 각 제 1 유동 안내체(241) 사이의 이격 거리와 상기 각 제 2 유동 안내체(244) 사이의 이격 거리는 동일하되, 상기 하측 케이스(212)의 저면으로부터 상기 제 1 유동 안내체(241) 중 최하단에 위치된 것까지의 거리에 비해 상기 하측 케이스(212)의 저면으로부터 상기 제 2 유동 안내체(244) 중 최하단에 위치된 것까지의 거리는 상대적으로 크게 형성된다.The separation distance between each of the first
그러면, 상기 유동 가변 수단(235)을 경유하면서 일정 속도를 가진 상기 하측 케이스(212) 내부의 공기가 도 6에 도시된 바와 같이, 복수 개의 상기 제 1 유동 안내면(242)과, 복수 개의 상기 제 2 유동 안내면(245)을 번갈아가면서 유동되되, 상기 공기가 상기 하측 케이스(212)의 하부에서 상기 상측 케이스(211)의 상부로 나선 형태를 형성하며 점진적으로 상승 유동됨으로써, 상기 하측 케이스(212) 내부에 배치된 저장부 및 제어부(225)의 방열이 효과적으로 진행되고, 그에 따라, 상기 저장부 및 상기 제어부(225)의 오작동이 방지될 수 있게 된다.Then, the air inside the lower case 212 having a constant speed while passing through the flow variable means 235 is transferred to the plurality of first flow guide surfaces 242 and the plurality of 2 The
예를 들어, 상기 유동 가변 수단(235)에서 일정 속도를 가진 상기 공기는 상기 제 1 유동 안내면(242) 중 상기 하측 케이스(212)의 저면과 상대적으로 가까운 것을 경유하여 복수 개의 상기 제 2 유동 안내면(245) 중 상기 하측 케이스(212)의 저면과 상대적으로 가까운 것으로 유동되고, 상기 하측 케이스(212)의 저면과 상대적으로 가까운 상기 제 2 유동 안내면(245)에서 유동된 상기 공기는 상기 제 1 유동 안내면(242) 중 상기 하측 케이스(212)의 저면과 상대적으로 가까운 것의 상부에 위치된 것으로 유동되고, 상기와 같이 상기 공기가 서로 다른 높이에 배치된 상기 제 1 유동 안내면(242)과 상기 제 2 유동 안내면(245)을 번갈아가면서 유동됨으로써, 상기 공기는 상기 하측 케이스(212)의 내부 전체를 유동하게 되고, 그에 따라, 상기 저장부 및 상기 제어부(225)의 방열이 전체 면적에서 진행되어 방열 효과가 증가될 수 있게 된다.For example, the air having a constant speed in the flow variable means 235 is relatively close to the bottom surface of the lower case 212 among the first flow guide surfaces 242 and the plurality of second flow guide surfaces The air flowing from the second
이하에서는 도면을 참조하여 본 발명의 다른 실시예에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 대하여 설명한다. Hereinafter, a coding robot operation control unit and a control method of the coding robot operation control unit according to another embodiment of the present invention will be described with reference to the drawings.
이러한 설명을 수행함에 있어서, 상기된 본 발명의 제 2 실시예에서 이미 기재된 내용과 중복되는 설명은 그에 갈음하고, 여기서는 생략하기로 한다.In carrying out this description, descriptions that are already described in the second embodiment of the present invention and overlapping descriptions will be replaced therewith, and will be omitted herein.
도 7은 본 발명의 제 3 실시예에 따른 코딩 로봇 작동 제어 유닛을 구성하는 유동 안내부와 압력 조절부를 정면에서 바라본 정면도이고, 도 8은는 도 7의 A 부분을 확대한 확대도이고, 도 9는 도 8의 압력 조절부에 적용된 탄성 변형 수단의 형상이 공기의 유동 압력에 의해 변형된 모습을 보이는 확대도이다.FIG. 7 is a front view as viewed from the front of a flow guide part and a pressure control part constituting a coding robot operation control unit according to a third embodiment of the present invention, and FIG. 8 is an enlarged view of part A of FIG. 7, and FIG. 9 Is an enlarged view showing the shape of the elastic deformation means applied to the pressure control unit of FIG. 8 is deformed by the flow pressure of air.
도 7 및 도 9를 함께 참조하면, 본 실시예에서 코딩 로봇 작동 제어 유닛(300)은 컴퓨터 언어로 프로그래밍하는 코딩 작업에 의해 작동되는 코딩 로봇과 연결되어 상기 코딩 로봇을 작동시키는 것으로서, 케이스부(310)와, 모션 인식부(320)와, 음성 인식부(322)와, 제어부(325)와, 출력부(330)와, 유동 안내부와, 공기 이동관(347)과, 압력 조절부(350)를 포함한다.7 and 9, in this embodiment, the coding robot
본 실시예에서 코딩 로봇 작동 제어 유닛(300)은 저장부(326)를 더 포함한다.In this embodiment, the coding robot
상기 케이스부(310)는 그 내부에 일정 공간이 형성되는 것으로, 상측 케이스(311)와, 하측 케이스(312)를 포함한다.The
상기 유동 안내부는 상기 케이스부(310)의 내부에 설치되어 상기 케이스부(310) 내부의 공기가 일정한 방향으로 유동되도록 상기 공기의 유동을 안내하는 것으로, 제 1 유동 안내체(341)와, 제 2 유동 안내체(344)를 포함한다.The flow guide part is installed inside the
상기 공기 이동관(347)은 상기 상측 케이스(311)와 상기 하측 케이스(312)를 연통시켜 상기 하측 케이스(312)에서 유동되는 상기 공기를 상기 상측 케이스(311)로 이동시키는 것이다.The
상기 하측 케이스(312)에서 상기 공기 이동관(347)을 통해 이동된 상기 공기에 의해 상기 상측 케이스(311) 내부의 구성 요소인 상기 모션 인식부(320)와, 상기 음성 인식부(322)와, 상기 출력부(330)가 방열된다.The
상기 압력 조절부(350)는 상기 공기 이동관(347) 내에서 유동되는 상기 공기의 압력을 조절하는 것으로 압력 조절 케이스(351)와, 탄성 변형 수단(353)과, 고정 수단(352)을 포함한다.The
상기 압력 조절 케이스(351)는 상기 공기 이동관(347)의 일부분이 외측으로 확장되어 형성되는 것으로, 상기 탄성 변형 수단(353)의 탄성 변형이 가능하도록 공간을 제공하는 것이다.The
상기 탄성 변형 수단(353)은 상기 공기 이동관(347)의 내부 중 상기 압력 조절 케이스(351)의 하부에 배치되고, 상기 공기 이동관(347)의 내부에서 상기 공기 이동관(347)의 길이 방향으로 유동되는 상기 공기의 유동 압력에 따라 탄성 변형되는 것이다.The elastic deformation means 353 is disposed under the
상세히, 상기 탄성 변형 수단(353)은 전체적으로 실리콘, 고무 등의 탄성을 가진 물질로 이루어지고, 상기 공기 이동관(347)에서의 상기 공기의 유동 방향에 대해 수직 방향으로 일정 길이 길게 형성된 탄성 변형 몸체(354)와, 상기 탄성 변형 몸체(354)에서 상기 공기 이동관(347)의 내부에서 유동되는 상기 공기의 유동 방향에 대해 대면되는 면 상에 일정 곡률로 이루어진 곡면 형태로 함몰 형성되는 함몰면(355)을 포함한다.In detail, the elastic deformation means 353 is made of a material having elasticity such as silicon and rubber as a whole, and an elastic deformation body formed for a predetermined length in a direction perpendicular to the flow direction of the air in the air moving pipe 347 ( 354), and a recessed
상기 고정 수단(352)은 상기 탄성 변형 수단(353)을 상기 공기 이동관(347)의 내벽에 고정시키는 것으로 볼트 등이 그 예로 제시될 수 있다.The fixing means 352 fixes the elastic deformation means 353 to the inner wall of the
상기 공기 이동관(347)의 내부를 따라서 유동되는 상기 공기가 미리 설정된 압력인 제 1 유동 압력으로 유동되는 경우에는 도 8에 도시된 바와 같이 상기 탄성 변형 몸체(354)가 원형 상태, 즉 탄성 변형되지 아니한 상태를 그대로 유지한다.When the air flowing along the inside of the
그러다가, 상기 공기의 유동 압력이 내부 이물질 등에 의해 임의로 상대적으로 높아진 압력인 제 2 유동 압력으로 상기 하측 케이스(312)의 내부에서 공급될 경우, 상기 탄성 변형 수단(353)이 탄성 변형되면서 상기 공기 이동관(347)의 내부 단면적이 상대적으로 좁아지고, 상대적으로 좁아진 단면적에서 유동되는 상기 공기의 유동 압력이 상대적으로 감소되고, 그에 따라 상기 상측 케이스(311)로 공급되는 상기 공기의 압력이 상대적으로 감소됨으로써, 상기 상측 케이스(311)로 이동되는 상기 공기의 압력이 임의로 증가되는 것을 방지할 수 있게 된다.Then, when the flow pressure of the air is supplied from the inside of the
상세히, 상기 공기 이동관(347)의 내부를 따라 이동되는 상기 공기의 유동 압력이 초기에 미리 설정된 압력인 상기 제 1 유동 압력에 비해 상대적으로 높아진 상기 제 2 압력이 될 경우에는 도 9에 도시된 바와 같이 상기 함몰면(355)에는 상기 제 2 유공 압력과 상기 제 1 유동 압력의 차이만큼 더 걸리게 되므로, 상기 제 2 유동 압력과 상기 제 1 유동 압력의 차이만큼 더 걸리는 압력에 의해 상기 탄성 변형 몸체(354)가 상기 공기 이동관(347)의 내부를 따라 이동되는 상기 공기의 유동 방향에 대해 수직 방향으로 상대적으로 늘어나도록 탄성 변형되고, 그에 따라 상기 공기가 상기 제 1 유동 압력으로 유동되는 경우에 비해 상기 제 2 유동 압력으로 유동되는 경우에 상기 탄성 변형 몸체(354)가 그 변형된 만큼 상기 압력 조절 케이스(351) 및 상기 공기 이동관(347) 내부를 상대적으로 좁아지도록 함으로써, 상기 공기 이동관(347)의 내부를 따라 유동되는 상기 공기의 압력을 그만큼 감소시켜 상기 상측 케이스(311)로 이동되는 상기 공기의 압력이 임의로 증가되는 것을 방지할 수 있게 된다.In detail, when the flow pressure of the air moving along the inside of the
상기에서 본 발명은 특정한 실시예들에 관하여 도시되고 설명되었지만, 당업계에서 통상의 지식을 가진 자라면 이하의 특허청구범위에 기재된 본 발명의 사상 및 영역을 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 알 수 있을 것이다. 그렇지만 이러한 수정 및 변형 구조들은 모두 본 발명의 권리범위 내에 포함되는 것임을 분명하게 밝혀두고자 한다.In the above, the present invention has been shown and described with respect to specific embodiments, but those of ordinary skill in the art can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will see that it can be modified and changed. However, it is intended to clearly reveal that all of these modifications and variations are included within the scope of the present invention.
본 발명의 일 측면에 따른 코딩 로봇 작동 제어 유닛 및 상기 코딩 로봇 작동 제어 유닛의 제어 방법에 의하면, 인식 대상자의 모션 및 음성 중 적어도 하나를 인식하여 상기 코딩 로봇을 작동시킴으로써, 복잡한 코딩 작업 없이도 상기 코딩 로봇을 동작시킬 수 있고, 그에 따라 상기 코딩에 대한 관심을 증대시킬 수 있으므로, 그 산업상 이용가능성이 높다고 하겠다.According to the coding robot operation control unit and the control method of the coding robot operation control unit according to an aspect of the present invention, by operating the coding robot by recognizing at least one of motion and voice of a recognition target, the coding without complicated coding Since the robot can be operated and interest in the coding can be increased accordingly, its industrial applicability is high.
100 : 코딩 로봇 작동 제어 유닛 110 : 케이스부
120 : 모션 인식부 122 : 음성 인식부
125 : 제어부 126 : 저장부
130 : 출력부100: coding robot operation control unit 110: case portion
120: motion recognition unit 122: speech recognition unit
125: control unit 126: storage unit
130: output
Claims (5)
그 내부에 일정 공간이 형성되는 케이스부와,
상기 케이스부의 내부에 배치되고, 인식 대상자의 동작을 인식하는 모션 인식부와,
상기 케이스부의 내부에 배치되고, 상기 인식 대상자의 음성을 인식하는 음성 인식부와,
상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보를 이용하여, 상기 코딩 로봇의 작동을 제어하는 제어부와,
상기 케이스부의 내부에 배치되고, 상기 모션 인식부 및 상기 음성 인식부 중 적어도 하나를 통해 입력되는 정보 또는 상기 제어부에서 수행된 작업 결과를 외부로 출력하는 출력부를 포함하는 코딩 로봇 작동 제어 유닛을 제어하는 방법으로서,
(a-1) 상기 모션 인식부가 상기 인식 대상자의 영상을 촬영하는 단계;
(a-2) 상기 (a-1) 단계에서 촬영된 영상에서 상기 제어부에 미리 설정된 일정 부분 영상의 검출 여부를 상기 제어부가 판단하는 단계;
(a-3) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 미검출된 것으로 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 상기 일정 부분 영상 촬영을 명령하는 단계;
(a-4) 상기 (a-2) 단계에서 상기 인식 대상자의 상기 일정 부분 영상이 검출된 것으로 판단되면, 상기 모션 인식부가 상기 인식 대상자의 동작을 인식하는 단계;
(a-5) 상기 (a-4) 단계에서 인식된 상기 인식 대상자의 동작과 미리 설정된 동작의 일치 여부를 상기 제어부가 판단하는 단계;
(a-6) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 불일치하다고 판단되면, 상기 제어부가 상기 모션 인식부에 상기 인식 대상자의 동작 인식을 명령하는 단계; 및
(a-7) 상기 (a-5) 단계에서 인식된 상기 인식 대상자의 동작이 상기 제어부에 미리 설정된 동작과 일치하다고 판단되면, 상기 코딩 로봇이 상기 제어부에 미리 설정된 동작에 대응되는 동작으로 작동되도록 상기 제어부가 상기 코딩 로봇에 작동을 명령하는 단계;를 포함함으로써, 상기 모션 인식부를 통해 인식된 상기 인식 대상자의 동작에 따라 상기 코딩 로봇이 작동될 수 있는 것을 특징으로 하는 코딩 로봇 작동 제어 유닛의 제어 방법.As for operating the coding robot by being connected to a coding robot operated by a coding task programming in a computer language,
A case portion in which a certain space is formed therein,
A motion recognition unit disposed inside the case unit and configured to recognize a motion of a subject to be recognized;
A voice recognition unit disposed inside the case unit and configured to recognize a voice of the subject to be recognized;
A control unit disposed inside the case unit and controlling the operation of the coding robot using information input through at least one of the motion recognition unit and the voice recognition unit,
Controlling a coding robot operation control unit including an output unit disposed inside the case unit and outputting information input through at least one of the motion recognition unit and the speech recognition unit or a result of the operation performed by the control unit to the outside. As a method,
(a-1) capturing an image of the person to be recognized by the motion recognition unit;
(a-2) determining, by the controller, whether a predetermined partial image preset in the controller is detected from the image captured in the step (a-1);
(a-3) if it is determined in step (a-2) that the certain part of the image of the subject to be recognized has not been detected, the controller instructing the motion recognition unit to take the certain part of the image of the subject to be recognized. ;
(a-4) when it is determined that the partial image of the recognition target is detected in step (a-2), the motion recognition unit recognizes the motion of the recognition target;
(a-5) determining, by the controller, whether the motion of the recognition target person recognized in step (a-4) matches a preset motion;
(a-6) If it is determined that the motion of the recognition target recognized in step (a-5) is inconsistent with the motion preset in the control unit, the control unit commands the motion recognition unit to recognize the motion of the recognition target. step; And
(a-7) When it is determined that the motion of the recognition target recognized in step (a-5) matches the motion preset in the control unit, the coding robot is operated in a motion corresponding to the motion preset in the control unit. The control of the coding robot operation control unit, characterized in that the coding robot can be operated according to the motion of the recognition target recognized through the motion recognition unit by including the step of instructing the coding robot to operate by the control unit. Way.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190011275A KR102198439B1 (en) | 2019-01-29 | 2019-01-29 | Coding robot operation control unit and control method of the coding robot operation control unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190011275A KR102198439B1 (en) | 2019-01-29 | 2019-01-29 | Coding robot operation control unit and control method of the coding robot operation control unit |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200093933A KR20200093933A (en) | 2020-08-06 |
KR102198439B1 true KR102198439B1 (en) | 2021-01-05 |
Family
ID=72040437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190011275A KR102198439B1 (en) | 2019-01-29 | 2019-01-29 | Coding robot operation control unit and control method of the coding robot operation control unit |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102198439B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102260751B1 (en) | 2020-10-07 | 2021-06-07 | 주식회사 로보그램인공지능로봇연구소 | Electronic device and control method thereof |
KR102488769B1 (en) * | 2021-02-01 | 2023-01-17 | 주식회사 에이럭스 | Route movement mission execution method in coding learning tools |
KR102368308B1 (en) * | 2021-10-15 | 2022-03-02 | 주식회사 로보그램인공지능로봇연구소 | Block coding studying apparatus based on image cognition using smartphone |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066986A (en) | 2001-08-23 | 2003-03-05 | Sharp Corp | Voice recognizing robot |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140009900A (en) * | 2012-07-12 | 2014-01-23 | 삼성전자주식회사 | Apparatus and method for controlling robot |
KR20130032891A (en) * | 2013-03-11 | 2013-04-02 | (주)알앤디글로벌 | Wellness and human care robot |
KR102521493B1 (en) * | 2015-10-27 | 2023-04-14 | 삼성전자주식회사 | Cleaning robot and controlling method of thereof |
KR101898864B1 (en) | 2017-02-07 | 2018-09-14 | 주식회사 로보메이션 | Driving Code Forming and Positioning Method of Coding Robot |
-
2019
- 2019-01-29 KR KR1020190011275A patent/KR102198439B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003066986A (en) | 2001-08-23 | 2003-03-05 | Sharp Corp | Voice recognizing robot |
Non-Patent Citations (1)
Title |
---|
공개특허공보 제10-2017-0048815호(2017.5.10. 공개) 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR20200093933A (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102198439B1 (en) | Coding robot operation control unit and control method of the coding robot operation control unit | |
US11358285B2 (en) | Robot and method of recognizing mood using the same | |
US10482886B2 (en) | Interactive robot and human-robot interaction method | |
JP7096948B2 (en) | How to define the behavior model of self-driving vehicles, how to operate self-driving vehicles, and how to operate self-driving vehicles | |
US11583998B2 (en) | Robot and method of controlling same | |
US11440185B2 (en) | Multi-operation unit integration device, control method therefor, and autonomous learning type robot device | |
KR20190102149A (en) | A robot equipped with cleaning functions for camera vision and its control method | |
JP5141876B2 (en) | Orbit search device | |
KR20190116190A (en) | Robot | |
KR20190099153A (en) | Electronic device | |
Ding et al. | An adaptive hidden Markov model-based gesture recognition approach using Kinect to simplify large-scale video data processing for humanoid robot imitation | |
KR101239274B1 (en) | Interactable Robot | |
KR20160072621A (en) | Artificial intelligence robot service system | |
KR20200132654A (en) | Robot and its control method | |
KR20190096875A (en) | Robot and contolling method thereof | |
KR101988282B1 (en) | Mobile robot comprising input module for programming | |
KR102314385B1 (en) | Robot and contolling method thereof | |
US10596708B2 (en) | Interaction device and interaction method thereof | |
KR102107846B1 (en) | Coding game progress system using coding robot operation controlling unit and smartphone, and controlling method of the coding game progress system using coding robot operation controlling unit and smartphone | |
KR20210023367A (en) | Robot and method for controlling same | |
KR20210064594A (en) | Electronic apparatus and control method thereof | |
KR20190130692A (en) | Method and apparatus for recognizing body actions in image frames based on neural network | |
KR102285472B1 (en) | Method of equalizing sound, and robot and ai server implementing thereof | |
KR20130041421A (en) | Voice recognition multimodality system based on touch | |
JP2005092866A (en) | Regulation of growth of complexity in developmental system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |