KR100572683B1 - Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same - Google Patents
Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same Download PDFInfo
- Publication number
- KR100572683B1 KR100572683B1 KR1020030067691A KR20030067691A KR100572683B1 KR 100572683 B1 KR100572683 B1 KR 100572683B1 KR 1020030067691 A KR1020030067691 A KR 1020030067691A KR 20030067691 A KR20030067691 A KR 20030067691A KR 100572683 B1 KR100572683 B1 KR 100572683B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- content
- action
- authoring tool
- recognition
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims abstract description 14
- 230000008921 facial expression Effects 0.000 claims abstract description 5
- 230000009471 action Effects 0.000 claims description 121
- 230000015572 biosynthetic process Effects 0.000 claims description 37
- 238000003786 synthesis reaction Methods 0.000 claims description 37
- 210000003128 head Anatomy 0.000 claims description 28
- 230000003068 static effect Effects 0.000 claims description 7
- 230000002996 emotional effect Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 abstract description 8
- 230000008451 emotion Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Marketing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Manipulator (AREA)
Abstract
본 발명은 지능형 로봇의 컨텐츠 제작용 저작툴 및 이를 이용한 지능형 로봇의 컨텐츠 제작 방법에 관한 것으로서, 더욱 상세하게는 지능형 로봇의 하드웨어 및 디스플레이 장치를 효과적으로 제어하는 방법과 멀티미디어를 기반으로 하여 지능형 로봇을 프로그래밍 할 수 있는 저작툴에 관한 것으로, 이를 활용하여 사용자에게 좀더 인간 친화적인 인터페이스를 제공하는 로봇용 컨텐츠의 제작 방법을 제공하고자 한 것이다.The present invention relates to an authoring tool for creating an intelligent robot's content and a method for producing an intelligent robot's content using the same, and more particularly, to intelligently program an intelligent robot based on a multimedia and a method of effectively controlling hardware and a display device of the intelligent robot. The present invention relates to an authoring tool that can be used to provide a method of producing content for a robot that provides a user with a more human-friendly interface.
본 발명의 로봇 저작툴을 이용하면 하드웨어 제어 프로그래밍 경험이 없는 사용자도 약간의 학습으로 로봇의 머리와 바퀴, 얼굴 표정을 이루는 눈과 입 LED 및 감정을 표현하는 가슴 LED까지 제어할 수 있으며, 로봇액션의 종류별로 각기 다른 다양한 파라미터값의 변형을 통해 편리하게 로봇의 원하는 동작을 만들어 낼 수 있으므로, 로봇을 프로그램 하는데 소요되는 시간을 단축시키고 노력을 줄일 수 있다. 따라서, 일반인들도 쉽게 자신의 로봇을 이용하여 멀티미디어 기반의 로봇 프로그램을 작성할 수 있다. 또한, 3차원 시뮬레이터를 통해 로봇이 없더라도 컨텐츠의 동기 등을 확인할 수 있도록 개발된 것이다.By using the robot authoring tool of the present invention, even a user without hardware control programming experience can control the robot's head and wheels, the eye and mouth LEDs forming a facial expression, and the chest LED expressing emotions with a little learning. By modifying various different parameter values for each type, you can conveniently create the desired motion of the robot, which reduces the time required for programming the robot and reduces the effort. Therefore, the general public can easily create a multimedia-based robot program using his robot. In addition, it was developed to check the synchronization of the content even without a robot through a three-dimensional simulator.
지능형 로봇, 로봇제어, 로봇 프로그래밍, 로봇 컨텐츠, 로봇 멀티미디어, 로봇 에디터, 로봇 시뮬레이터Intelligent Robot, Robot Control, Robot Programming, Robot Content, Robot Multimedia, Robot Editor, Robot Simulator
Description
도 1은 본 발명의 저작환경을 보여주는 스크린샷,1 is a screenshot showing the authoring environment of the present invention,
도 2는 개발중인 로봇으로 본 발명에서 직접 구동하는 부분을 나타내고,2 shows a part directly driven by the present invention as a robot under development,
도 3은 실제 로봇의 제어를 세부적으로 정의할 수 있는 도 1의 정적 객체 정보 윈도에 포함되어 있는 로봇액션 윈도이며, FIG. 3 is a robot action window included in the static object information window of FIG. 1 which can define the control of an actual robot in detail.
도 4a는 머리 액션 종류 및 파라미터,4A shows head action types and parameters,
도 4b는 바퀴 액션 종류 및 파라미터, 4b shows wheel action types and parameters,
도 4c는 가슴 LED(Light Emitting Diode) 종류 및 파라미터, 4C is a chest LED (Light Emitting Diode) type and parameters,
도 4d는 눈 LED 종류 및 파라미터, 4d shows eye LED types and parameters,
도 4e,4f,4g는 입 LED 종류 및 파라미터,
도 4h는 눈 LED가 동작되는 프레임의 사례를 나타내는 도면,
도 4i는 입 LED가 동작되는 프레임의 사례를 나타내는 도면,4e, 4f and 4g show the LED type and parameters,
4h is a diagram illustrating an example of a frame in which an eye LED is operated;
4i illustrates an example of a frame in which an input LED is operated;
도 5a는 LED 액션 파라미터 상하한값 제한식, 5A is an LED action parameter upper and lower limit restriction formula,
도 5b는 머리 액션 파라미터 상하한값 제한식, 5B is a head action parameter upper and lower limit restriction formula,
도 5c는 바퀴 액션 파라미터 상하한값 제한식, 5C is a wheel action parameter upper and lower limit restriction formula,
도 6a는 로봇의 음성인식 정보를 갖고 있는 음성인식 윈도,Figure 6a is a voice recognition window having voice recognition information of the robot,
도 6b는 파일 및 페이지 전역적인 인식어를 등록하는 윈도, 6B is a window for registering file and page global recognition words;
도 6c는 프레임 구간 인식어를 등록하는 윈도, 6C is a window for registering a frame section recognition word;
도 7은 로봇의 음성합성(TTS)을 정의하는 윈도,7 is a window defining a voice synthesis (TTS) of the robot,
도 8은 저작툴에서 제작된 컨텐츠를 재생하는 플레이어 화면,8 is a player screen for playing content produced by an authoring tool;
도 9는 저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트의 구조를 나타내며,9 shows the structure of a script used for the purpose of controlling content for a robot in an authoring tool,
도 10a 내지 10e는 스크립트 내장 키워드 목록으로서, 도 10a는 스크립트의 문장 종류, 도 10b는 스크립트 전역 함수 종류, 도 10c는 스크립트 이벤트의 종류, 도 10d는 스크립트 시스템 함수의 종류, 도 10e는 스크립트 사용 기호의 종류를 각각 나타내며,10A to 10E are script embedded keyword lists, FIG. 10A is a sentence type of a script, FIG. 10B is a script global function type, FIG. 10C is a type of script event, FIG. 10D is a type of script system function, and FIG. 10E is a script usage symbol. Each represents a type of,
도 11은 로봇 컨텐츠 제작의 실시예를 보여주며,11 shows an embodiment of robot content creation,
도 12는 타임 라인 구조도,12 is a timeline structure diagram;
도 13은 로봇액션 구조도,13 is a robot action structure diagram,
도 14는 음성인식 구조도.14 is a speech recognition structure diagram.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
101 : 컨텐츠 화면 영역 101: content screen area
102 : 타임라인 영역 103 : 머리 액션 레이어 102: Timeline Area 103: Head Action Layer
104 : 바퀴 액션 레이어 105 : 눈 LED 레이어 104: Wheel Action Layer 105: Eye LED Layer
106 : 입 LED 레이어 107 : 가슴 LED 레이어 106: mouth LED layer 107: chest LED layer
108 : 음성합성 레이어 109 : 음성인식 레이어 108: speech synthesis layer 109: speech recognition layer
110 : 그리기 툴바 111 : 일반객체 정보 윈도110: drawing toolbar 111: general object information window
112 : 정적객체 정보 윈도112: static object information window
201 : 머리 202 : 바퀴201: head 202: wheels
203 : 눈 204 : 입 203: eyes 204: mouth
205 : 가슴 206 : TFT LCD (터치 스크린)205: Bust 206: TFT LCD (touch screen)
301 : 명령종류 302 : 명령코드301: Command type 302: Command code
303 : 명령이름 304 : 파라미터 종류303: Command name 304: Parameter type
305 : 상하한값 306 : 액션종류305: Upper and lower limit 306: Action type
801 : 컨텐츠 플레이어 802 : 플레이어 컨트롤바801: content player 802: player control bar
803 : 3차원 시뮬레이터 803: 3D Simulator
901 : 어휘분석기 902 : 구문 분석기901 lexical analyzer 902 parser
903 : 실행기903: Launcher
1101 : 컨텐츠 화면 영역 1102 : 타임라인 윈도1101: content screen area 1102: timeline window
1103 : 음성인식 등록 윈도1103: Voice recognition registration window
본 발명은 지능형 로봇의 컨텐츠 제작용 저작툴 및 이를 이용한 지능형 로봇의 컨텐츠 제작 방법에 관한 것으로서, 더욱 상세하게는 로봇용 컨텐츠 제작을 목적으로 멀티미디어 기반의 지능형 로봇을 프로그래밍할 수 있도록 한 저작툴과, 이 를 이용하여 지능형 로봇의 하드웨어 및 디스플레이 장치를 효과적으로 제어할 수 있도록 한 지능형 로봇의 컨텐츠 제작 방법에 관한 것이다.The present invention relates to an authoring tool for contents creation of an intelligent robot and a method for producing contents of an intelligent robot using the same, and more particularly, an authoring tool for programming a multimedia-based intelligent robot for the purpose of producing contents for a robot, and The present invention relates to a method for producing contents of an intelligent robot that can effectively control hardware and display devices of an intelligent robot.
특히, 본 발명은 로봇을 프로그래밍 하기 위해 개발된 멀티미디어 기반의 제어 프로그램 및 컨텐츠 제작방법에 관한 것이다.In particular, the present invention relates to a multimedia-based control program and content production method developed for programming a robot.
현재까지 로봇을 제어하기 위해서는 프로그래머가 코드 레벨에서 로봇액션, 음성인식, 음성합성, GUI(Graphical User Interface) 등 전반적인 사항에 대해 케이스별로 프로그램에서 코딩을 해야 했고, 변경 및 유지 보수에도 매번 컴파일을 해야 하는 등 전문적인 지식뿐 아니라 많은 시간과 비용이 소요되는 문제가 있었다. Until now, in order to control robots, programmers had to code in the program on a case-by-case basis the overall details such as robot actions, speech recognition, speech synthesis, and graphical user interface (GUI) at the code level. As well as professional knowledge, there was a problem that takes a lot of time and money.
이러한 기술적 한계 때문에, 지능형 로봇을 상품화 하기 위해서는 다양한 로봇의 자원을 활용하여 체계적인 정보를 효과적으로 최종 사용자에게 전달하는 많은 양의 로봇용 컨텐츠의 개발의 필요성을 충족시켜줄 수 없었다.Due to these technical limitations, the commercialization of intelligent robots could not meet the necessity of developing a large amount of contents for robots that effectively deliver systematic information to end users by utilizing various robot resources.
기존에 개발된 실시간 강의용 멀티미디어 저작도구가 있었지만, 이 저작 프로그램은 서버에 존재하는 멀티미디어 컨텐츠를 실시간으로 PC(Personal Computer)에 다운로드 하여 별도의 플레이어를 통해 일반 객체와 사운드, 동영상 등의 데이터를 재생하는 기술을 가진 것으로 원격 강의 목적으로 개발되어 다양한 로봇 액션이 포함된 로봇용 컨텐츠는 제작할 수 없었다.There was a multimedia authoring tool for real-time lectures developed in the past, but this authoring program downloads multimedia contents existing in the server to a personal computer (PC) in real time and plays data such as general objects, sounds, and videos through a separate player. It was developed for the purpose of remote lectures, so it could not produce content for robots that contained various robot actions.
본 발명은 상기와 같은 점을 감안하여 로봇을 프로그래밍하기 위해 개발된 멀티미디어 기반의 제어 프로그램 및 그 제작방법을 제공하고자 한 것으로서, 프로 그래머가 아닌 일반 사용자가 로봇의 동작액션, 음성인식, 음성합성, GUI 등을 조합하여 효과적으로 로봇을 제어할 수 있도록 한 지능형 로봇의 컨텐츠 제작용 저작툴 및 이를 이용한 지능형 로봇의 컨텐츠 제작 방법을 제공하는데 그 목적이 있다.The present invention is to provide a multimedia-based control program and a method for manufacturing the robot developed in order to program the robot in view of the above points, the general user, not a programmer, the action of the robot, speech recognition, speech synthesis, An object of the present invention is to provide an authoring tool for content creation of an intelligent robot that can effectively control a robot by combining a GUI and the like, and a method for producing an intelligent robot content using the same.
이러한 목적 달성에 따라 본 발명은 변경사항의 수정 및 향후 업데이트를 용이하도록 하여 로봇용 컨텐츠 제작시 많은 비용과 시간을 절감할 수 있다.In accordance with the achievement of the above object, the present invention may facilitate modification of changes and future updates, thereby saving a lot of cost and time when producing contents for a robot.
또한, 기존의 경우 정의된 로봇의 동작 액션만을 처리할 수 있었으나, 액션의 종류별로 다양한 형태의 파라미터 속성을 부여함으로써 컨텐츠 제작자가 원하는 보다 정확한 로봇의 동작액션을 구현할 수 있도록 하는 효과를 얻을 수 있다.In addition, in the conventional case, it was possible to process only the defined action of the robot, but by providing various types of parameter attributes for each kind of action, the content creator can obtain the effect of implementing the more accurate action of the robot.
또한, 로봇에 대한 선입견과 달리 좀더 인간 친화적인 서비스를 제공하기 위해 눈과 입, 가슴 등에 부착된 LED를 효과적으로 사용할 수 있도록 타임라인의 레이어 형태로 로봇액션을 배열함으로써 로봇 컨텐츠 제작자가 좀더 효과적으로 로봇액션을 적용할 수 있다.In addition, unlike preconceived notions about robots, robot content creators can arrange robot actions in the form of timeline to effectively use LEDs attached to eyes, mouth, and chest to provide more human-friendly services. Can be applied.
특히, 본 발명에 의하면 실제 로봇을 소유하고 있지 않은 컨텐츠 제작자가 저작툴로 컨텐츠를 제작한 후 플레이어, 음성합성 및 인식엔진, 시뮬레이터 등을 통해 컨텐츠와 로봇과의 동기 등을 완벽히 시뮬레이션 해볼 수 있다.
Particularly, according to the present invention, a content producer who does not own a real robot can create a content using an authoring tool, and then completely simulate the synchronization between the content and the robot through a player, a speech synthesis engine, a recognition engine, a simulator, and the like.
상기한 목적을 달성하기 위한 본 발명은 로봇액션, 음성인식, 음성합성 등의 전체 로봇제어와 멀티미디어 기반의 저작기능, 그리고 로봇이 없는 사용자도 로봇과 동일한 형태의 시뮬레이션이 가능하도록하는 컨텐츠 플레이어 및 3차원 시뮬레 이터를 포함하여 구성하되; 고정 레이어에는 머리 액션 레이어(103), 바퀴 액션 레이어(104), 눈 LED 레이어(105), 입 LED 레이어(106), 가슴 LED 레이어(107)가 있고, 음성합성 레이어(108), 음성인식 레이어(109)를 포함하여 로봇과 직접적인 제어에 관련된 부분을 표시하는 레이어 목록이 있으며, 컨텐츠 제작시 필요한 그리기 툴바(110)와 일반객체 정보 윈도(111), 로봇액션 정보 및 음성합성, 음성인식 등록을 위한 정적객체 정보 윈도(112)가 있는 저작환경을 포함하는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작용 저작툴을 제공한다.The present invention for achieving the above object is the entire robot control and multimedia-based authoring function, such as robot action, speech recognition, speech synthesis, and the content player to enable the same type of simulation as the robot even without the
상기 고정 레이어에는 플래시와 사운드 등의 멀티미디어 객체 및 스크립트 제어를 표시하는 레이어가 포함되고, 타임라인은 각기 다른 객체 및 로봇액션을 복합적으로 제어할 수 있도록 실제 구동이 가능한 로봇액션을 타임라인의 프레임에 삽입하면 컨텐츠와 동기화 되어 실행되는 구조로 된 것을 특징으로 한다.The fixed layer includes a layer that displays multimedia objects such as flash and sound and script control, and the timeline includes a robot action that can be driven in real time so that various objects and robot actions can be controlled in a complex manner. Inserting is characterized in that the structure is executed in synchronization with the content.
저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트를 이용하되, 상기 스크립트 인터프리터는, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성되는 것을 특징으로 한다.In the authoring tool, a script used for the purpose of controlling robot contents is used, wherein the script interpreter is a lexical analyzer 901 for separating each token into input of a script source input by a user, and a generated grammar as an input. It is characterized in that it consists of a parser (902) for retrieving, and generating a table to be used at run time, and an executor (903) for executing an action on an object with the run table as input.
상기한 목적을 달성하기 위한 본 발명의 방법은 머리, 바퀴, 눈, 입, 가슴 등의 로봇 제어 부위를 구분하는 명령종류(301), 제어되는 부위별로 가능한 액션패턴에 대해 고유의 코드로 정의된 명령코드(302), 각 액션코드에 대해 부여된 명령 이름(303), 로봇액션에 대해 세부적인 제어를 위한 파라미터 종류(304), 로봇의 하드웨어에서 처리할 수 있는 한계범위를 나타내는 상하한값(305)으로 구성된 로봇액션 윈도를 포함하는 청구항 1의 저작툴을 이용하여,The method of the present invention for achieving the above object is defined by a unique code for the command type 301 for distinguishing the robot control parts such as the head, wheel, eyes, mouth, chest, and the like and possible action patterns for each controlled part. Command code 302, command name 303 given for each action code, parameter type 304 for detailed control of the robot action, upper and lower limit values indicating the limit range that can be processed by the hardware of the robot 305 Using the authoring tool of
저작툴의 타임라인에서 프레임 진행 방식의 구조를 통해 머리(201), 바퀴(202)의 동작을 제어하고, 눈(203)과 입 LED(204) 제어를 통해 효과적인 얼굴의 표현을 제어하며, 가슴 LED(205)를 통해 로봇의 감정상태를 최종 사용자에게 전달할 수 있도록 한 것을 특징으로 한다.In the timeline of the authoring tool, the operation of the head 201 and the wheel 202 is controlled through the structure of the frame progress method, the effective face expression is controlled through the control of the eye 203 and the mouth LED 204, and the chest LED is controlled. Through 205, the emotional state of the robot can be delivered to the end user.
또한, 상기 저작툴을 이용하여 로봇 컨텐츠를 제작한 후, PC에서 재생을 시키면 컨텐츠 플레이어와 함께 음성인식과 합성엔진, 3차원 로봇 시뮬레이터가 모두 함께 구동되고; 컨텐츠 플레이어(801)에서 상기 저작툴에서 제작한 로봇 컨텐츠를 미리 시뮬레이션할 수 있고, 실제 로봇에서는 플레이어에서 발생되는 명령이 로봇에 전달되며, PC에서는 시뮬레이터에 명령이 전달되어; 3차원 시뮬레이터의 구동에는 실제 로봇의 동작과 동일한 머리, 바퀴, 눈, 입, 가슴 등의 움직임을 사실적으로 표현될 수 있도록 한 것을 특징으로 한다.In addition, after the robot content is produced using the authoring tool, when the PC is played on the PC, the voice recognition, the synthesis engine, and the 3D robot simulator are driven together with the content player; In the content player 801, the robot content produced by the authoring tool can be simulated in advance, and in a real robot, a command generated in the player is transmitted to the robot, and in a PC, a command is transmitted to the simulator; The driving of the three-dimensional simulator is characterized in that the movements of the head, wheels, eyes, mouth, chest, etc., which are the same as those of the actual robot, can be realistically expressed.
이때, 상기 컨텐츠 플레이어와 시뮬레이터는 TCP/IP 통신에 의해 입력을 받아 로봇과 동일하게 동작하는 것을 특징으로 한다.At this time, the content player and the simulator is characterized in that it operates in the same way as the robot receives the input by the TCP / IP communication.
특히, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성된 스크립트를 이용하여 저작툴에서 로봇용 컨 텐츠를 제어하며 컨텐츠를 제작하는 단계에서 저작툴로 스크립트를 입력한 후, 제작된 컨텐츠에서 스크립트 소스가 어휘 분석 및 구문 분석되는 시점은 컨텐츠가 실행되기 이전이고, 어휘 분석 및 구문 분석의 결과로 문법상의 오류가 없을 경우 구문 트리가 만들어지며, 컨텐츠 실행시 이 구문 트리를 이용해서 스크립트로 지시한 내용들이 실행되는 것을 특징으로 한다.In particular, a lexical analyzer 901 for separating each token with input of a script source input by a user, a parser 902 for retrieving a grammar using input generated tokens, and generating a table to be used at execution time, an execution table After inputting a script with the authoring tool in the step of controlling the contents for the robot in the authoring tool using a script composed of an executor 903 that executes an action on an object by inputting the script, the script source is The lexical analysis and parsing point is before the content is executed, and if there is no grammatical error as a result of the lexical analysis and parsing, a syntax tree is created. It is characterized in that the execution.
본 발명에 따른 로봇 저작툴은 (이하, 저작툴) 로봇을 제어할 수 있는 컨텐츠의 제작을 목적으로 개발된 프로그램으로 저작툴을 이용하면 로봇 프로그래밍에 지식이 없는 제작자도 단기간의 학습으로 로봇과 연동하는 멀티미디어 컨텐츠를 제작할 수 있도록 제안된 것이다.Robot authoring tool according to the present invention (hereinafter, authoring tool) is a program developed for the purpose of producing the content that can control the robot using the authoring tool multimedia content that can be linked to the robot in a short period of time even if the creator without knowledge of robot programming It is proposed to produce.
본 발명의 저작툴은 로봇액션, 음성인식, 음성합성 등의 전체 로봇제어와 멀티미디어 기반의 저작기능, 그리고 로봇이 없는 사용자도 로봇과 동일한 형태의 시뮬레이션이 가능하도록하는 컨텐츠 플레이어 및 3차원 시뮬레이터 등으로 구성되어 있다. Authoring tool of the present invention is composed of the entire robot control, such as robot action, speech recognition, speech synthesis, multimedia-based authoring function, and the content player and 3D simulator to enable the same type of simulation even without the robot It is.
시뮬레이션에는 컨텐츠의 플레이어 재생과 음성인식 엔진, 음성합성 엔진, 시뮬레이터 등 로봇과 동일한 환경을 PC에서 제공하도록 되어있다. The simulation is designed to provide the PC with the same environment as the robot such as player playback of contents, speech recognition engine, speech synthesis engine, and simulator.
저작툴에서 제공하는 다양한 기능들을 활용하여 로봇에게 요구되는 양질의 컨텐츠를 개발함으로써 사용자가 필요로 하는 정보를 보다 효과적으로 제공할 수 있다. By utilizing the various functions provided by the authoring tool, it is possible to provide the information needed by the user more effectively by developing high quality contents required by the robot.
이하, 도면을 참조하여 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 저작환경을 보여주는 스크린샷 이다. 1 is a screenshot showing the authoring environment of the present invention.
화면중앙의 컨텐츠 화면영역(101)은 로봇에서 디스플레이 될 컨텐츠를 편집하는 화면 영역이다. 화면하단의 타임라인 영역(102)은 타임라인 윈도의 레이어 목록을 보여주는 영역과 프레임과 액션블록을 표시하는 영역으로 구성되어 있다.The content screen area 101 in the center of the screen is a screen area for editing content to be displayed on the robot. The timeline area 102 at the bottom of the screen is composed of an area showing a layer list of the timeline window and an area displaying a frame and an action block.
레이어는 로봇제어와 관련된 고정 레이어와 일반 객체를 표시하는 일반 레이어로 구분되는데, 고정 레이어에는 머리 액션 레이어(103), 바퀴 액션 레이어(104), 눈 LED 레이어(105), 입 LED 레이어(106), 가슴 LED 레이어(107)가 있으며, 음성합성 레이어(108), 음성인식 레이어(109)를 포함하여 로봇과 직접적인 제어에 관련된 부분을 표시하는 레이어 목록이 있다.The layer is divided into a fixed layer related to robot control and a general layer displaying general objects. The fixed layer includes a head action layer 103, a wheel action layer 104, an eye LED layer 105, and an mouth LED layer 106. There is a chest LED layer 107, and there is a layer list that displays parts related to direct control with the robot, including speech synthesis layer 108 and speech recognition layer 109.
이외에도 플래시와 사운드 등의 멀티미디어 객체 및 스크립트 제어를 표시하는 레이어도 고정 레이어에 포함되어 있다. 타임라인은 각기 다른 객체 및 로봇액션을 복합적으로 제어할 수 있도록 효과적으로 설계된 것으로, 실제 구동이 가능한 로봇액션을 타임라인의 프레임에 삽입하면 컨텐츠와 동기화 되어 실행되는 구조로 되어 있다.In addition, a layer for displaying multimedia objects and script controls such as flash and sound is included in the fixed layer. The timeline is designed to effectively control different objects and robot actions in a complex manner. When the robot action that can be driven is inserted into the frame of the timeline, the timeline is synchronized with the contents and executed.
이외에도 화면 좌우측에 컨텐츠 제작시 필요한 그리기 툴바(110)와 일반객체 정보 윈도(111)가 있으며, 로봇액션 정보 및 음성합성, 음성인식 등록을 위한 우측중앙의 정적객체 정보 윈도(112)가 있다. 새로운 로봇액션의 패턴등록 및 음성합성, 음성인식 단어를 실제 등록하는 작업은 모두 정적객체 정보 윈도에서 이루어진다.In addition, there is a drawing toolbar 110 and a general object information window 111 necessary for content creation on the left and right sides of the screen, and a static object information window 112 on the right center for robot action information, voice synthesis, and voice recognition registration. The pattern registration, voice synthesis, and voice recognition words of the new robot action are all registered in the static object information window.
도 2는 현재 개발중인 로봇으로 본 발명에서 직접 구동하는 부분을 나타내는 도면이다. 저작툴의 타임라인에서 프레임 진행 방식의 구조를 통해 머리(201), 바퀴(202)의 동작을 제어할 수 있으며, 눈(203)과 입 LED(204) 제어를 통해 효과적인 얼굴의 표현을 할 수 있고, 가슴 LED(205)를 통해 로봇의 감정상태를 최종 사용자에게 전달할 수 있다. 2 is a view showing a part directly driving in the present invention as a robot currently in development. In the timeline of the authoring tool, it is possible to control the operation of the head 201 and the wheel 202 through the structure of the frame progression method, and the effective face expression can be controlled through the control of the eye 203 and the mouth LED 204. The chest LED 205 may transmit the emotional state of the robot to the end user.
이때, LED는 감정별로 각각 3색으로 정의되어 있어 색상을 통해 로봇의 기분상태를 표현할 수 있도록 되어 있다. At this time, the LED is defined by three colors for each emotion to express the mood state of the robot through the color.
예를 들어, 가슴 LED가 오렌지색 일 때는 기쁜 감정을 표현하는 것이고, 빨간색 일 때 불안의 감정을 나타내며, 파란색을 띄고 있을 때는 슬픔의 감정을 표현하는 것으로 볼 수 있다.For example, when the chest LED is orange, it expresses a happy feeling, when it is red, it expresses feelings of anxiety, and when it is blue, it expresses feelings of sadness.
이 외에도 본 발명에서 제공하는 타임라인의 레이어 구조에서는 로봇의 한영 음성합성(TTS)와 한글 음성인식에 대한 사항도 컨텐츠 제작자가 직접 정의할 수 있도록 한 제작환경을 제공한다. 여기서 도면부호 206은 TFT LCD(터치스크린)를 나타낸다.In addition, the layer structure of the timeline provided by the present invention provides a production environment that allows content creators to directly define matters related to Korean-English speech synthesis (TTS) and Korean speech recognition.
도 3은 실제 로봇의 제어를 세부적으로 정의할 수 있는 도 1의 정적 객체 정보 윈도에 포함되어 있는 로봇액션 윈도이다. 저작툴에서는 기본적으로 로봇제어에 필요한 다양한 액션종류를 제공하고 있으며, 이외에 컨텐츠 제작시 요구되는 로봇액션에 대해서는 사용자가 파라미터를 정의 새로운 로봇액션을 등록하여 사용할 수 있다.FIG. 3 is a robot action window included in the static object information window of FIG. 1 that can define the control of an actual robot in detail. The authoring tool basically provides various action types for robot control. In addition, the user can register and use a new robot action by defining parameters for the robot action required for content creation.
로봇액션의 윈도는 명령종류(301), 명령코드(302), 명령이름(303), 파라미터 종류(304), 상하한값(305)으로 구성되어 있다. 명령종류(301)는 머리, 바퀴, 눈, 입, 가슴 등의 로봇 제어 부위를 구분하는 것이다.The window of the robot action is composed of an instruction type 301, an instruction code 302, an instruction name 303, a parameter type 304, and an upper and lower limit value 305. The command type 301 distinguishes robot control parts such as head, wheels, eyes, mouth, and chest.
명령코드(302)는 제어되는 부위별로 가능한 액션패턴에 대해 고유의 코드로 정의한 것이다. 예를 들어, 머리를 상하로 흔드는 액션의 경우 H(Head) U(Up) D(Down)를 조합한 HUD0로 정의되어 있고, 바퀴를 좌우로 회전하는 액션코드는 W(Wheel) L(Left) R(Right)를 조합한 WLR0로 정의되어 있다. 로봇 컨텐츠 제작자가 파라미터값 속성을 변경하여 새롭게 액션을 등록하더라도 명령코드는 변하지 않는다. The command code 302 is defined as a unique code for the action pattern possible for each part to be controlled. For example, the action of shaking the head up and down is defined as HUD0 combining H (Head) U (Up) D (Down), and the action code to rotate the wheel left and right is W (Wheel) L (Left) It is defined as WLR0 combining R (Right). The command code does not change even if the robot content creator registers a new action by changing the parameter value property.
명령이름(303)은 각 액션코드에 대해 부여된 명칭이며, 사용자 정의에 의해 액션종류가 추가될 때 액션코드는 고유하지만 명령이름을 다르게 정의해서 식별할 수 있도록 되어 있다. The command name 303 is a name given to each action code, and when the action type is added by user definition, the action code is unique, but the command name can be defined and identified differently.
파라미터(304)는 로봇액션에 대해 세부적인 제어를 할 수 있도록 고안된 것으로 제어되는 부위의 특성별로 각기 다른 파라미터 종류를 가지고 있으며, 공통적으로 유지시간과 반복횟수 파라미터값을 가진다. The parameter 304 is designed to allow detailed control of the robot action. The parameter 304 has different parameter types according to the characteristics of the controlled part, and has a holding time and a repetition frequency parameter value in common.
모든 로봇액션은 1초의 유지시간과 1회의 반복횟수 파라미터값을 가진다. 유지시간과 반복횟수는 로봇 컨텐츠 제작자가 임의로 설정할 수 있으며, 액션의 특성별로 이동각도, 이동거리, 이동길이, 이동끝점, 이동방향 등의 파라미터 종류가 다양하다. Every robot action has a holding time of one second and a value of one iteration. The retention time and the number of repetitions can be arbitrarily set by the robot content creator, and the types of parameters such as the moving angle, the moving distance, the moving length, the moving end point, and the moving direction vary depending on the characteristics of the action.
만일, 제작자가 컨텐츠 제작시 TTS나 나레이션 사운드 등의 동기를 위해 유지시간을 길게 하거나, 액션의 반복횟수를 변경하거나, 이동각도나 이동거리 등의 파라미터값을 변경하고자 하면 로봇액션 윈도에서 원하는 파라미터값을 입력하여 새로운 액션패턴을 추가할 수 있다. If the creator wants to increase the holding time, change the number of repetitions of the action, or change the parameter value such as the moving angle or the moving distance for synchronizing the TTS or narration sound, etc., the desired parameter value in the robot action window You can add a new action pattern by typing.
이때, 로봇 액션의 반복횟수는 유지시간 및 이동거리 또는 각도 등에 의해 영향을 받으며 모든 파라미터는 상하한값 제한범위가 존재한다.At this time, the repetition frequency of the robot action is affected by the holding time, the moving distance or the angle, and all parameters have an upper and lower limit value range.
상하한값(305)은 로봇의 하드웨어에서 처리할 수 있는 한계범위를 나타내는 것으로 사용자가 입력한 파라미터값에 대해 내부적으로 상하한값을 체크하여 범위 초과시 메시지로 알려 주도록 되어 있다. The upper and lower limit values 305 represent the limit ranges that can be processed by the hardware of the robot. The upper and lower limit values 305 check the upper and lower limits internally with respect to the parameter values input by the user and notify the user when a message is exceeded.
모든 로봇액션에서 기본적으로 제공되는 값은 모두 초당 1회이며, 컨텐츠 제작자는 상하한값 범위 내에서 임의로 값을 정의할 수 있다. The default values for all robot actions are once per second, and content creators can define values within the upper and lower limits.
예를 들어, 로봇 머리의 상하이동 최대 각도는 10도 인데, 이동각도 파라미터를 11도 이상 입력하면 파라미터 상한값 초과 메시지가 발생하게 된다. 또는, 1초의 유지시간에 로봇의 머리를 상하로 100번 이상 수행하는 등의 무리한 하드웨어 제어를 할 수 없도록 방지하고 있다. For example, the maximum head angle of the robot head is 10 degrees. If you enter more than 11 degrees of the moving angle parameter, the parameter upper limit exceeded message will occur. Alternatively, excessive hardware control, such as performing the head of the robot up and down 100 times or more in a holding time of 1 second, is prevented.
위와 같이 로봇액션 등록윈도에서 정의된 액션패턴은 타임라인의 원하는 프레임에 드래그 앤 드롭하면 액션 종류별로 해당 레이어에 로봇액션이 자동적으로 삽입되는 구조로 되어있다.As defined above, the action pattern defined in the robot action registration window has a structure in which the robot action is automatically inserted into the corresponding layer by action type when dragging and dropping to the desired frame of the timeline.
액션종류(306)는 로봇에서 제어되는 부분별로 사용이 가능한 액션코드의 목록을 보여주는 것으로 해당 목록을 선택하여 타임라인의 프레임에 갖다 놓으면 타임라인에 액션이 추가된다.The action type 306 shows a list of action codes that can be used for each part controlled by the robot. If the list is selected and placed in a frame of the timeline, the action is added to the timeline.
도 4a 내지 4g는 로봇액션의 종류 및 파라미터 속성을 정의한 것이다. 테이블에서 CODE는 액션코드, VALUE은 기본 값, ACTIVE NAME은 액션명, PARAMETER는 파라메터, DEFAULT는 디폴트, MAXIMUM은 최대 값, MINIMUM은 최소 값, COLOR는 색깔이다.4A to 4G define the types and parameter attributes of robot actions. In the table, CODE is the action code, VALUE is the default value, ACTIVE NAME is the action name, PARAMETER is the parameter, DEFAULT is the default value, MAXIMUM is the maximum value, MINIMUM is the minimum value, and COLOR is the color.
로봇용 컨텐츠를 개발하면서 하드웨어상의 다양한 제어부분을 효과적으로 제어하여 다양한 동작패턴을 정의할 필요가 있었고, 컨텐츠 기획상 보다 정밀한 제어로 다양한 동작의 표현이 요구되게 되었는데, 이러한 필요에 의해 각각의 동작 부위별로 그 특성에 맞는 파라미터 종류 및 값을 부여함으로써 저작툴에서 컨텐츠를 제작하는 수준에서 자유롭게 로봇을 제어할 수 있는 효과를 얻게 된다.While developing contents for robots, it was necessary to define various motion patterns by effectively controlling various control parts on hardware, and it was required to express various motions with more precise control in content planning. By assigning parameter types and values appropriate to the characteristics, the robot can be freely controlled at the level of content creation in the authoring tool.
파라미터의 종류는 기본적으로 해당 로봇액션이 수행되는 유지시간과 반복횟수가 있으며 이외에 머리나 바퀴의 이동각도, 이동길이, 이동거리, 이동끝점, 이동방향 등의 다양한 종류가 있다. 본 테이블을 참조하여 하나의 액션패턴으로 다양한 로봇의 동작을 정의하는 예를 설명하면 다음과 같다.The types of parameters are basically the maintenance time and the number of repetitions of the robot action. In addition, there are various types of head and wheel movement angles, movement lengths, movement distances, movement end points, and movement directions. Referring to this table, an example of defining the operations of various robots in one action pattern will be described.
- 로봇 머리 왼쪽 상단 보기 정의 -Define the top left view of the robot head
HSE0 (특정 방향 보기) 유지시간 10초, 반복횟수 1회, 이동끝점 (좌45도, 상10도) HSE0 (View specific direction) Holding
- 로봇 머리 상하로 5회 끄덕이기 -Nod five times up and down the robot head
HDN0 (상하로 끄덕이기) 유지시간 10초, 반복횟수 5회, 이동각도 (10도)HDN0 (nod up and down) holding
- 머리 아래로 응시한 후 10분 후에 원위치 복귀하기 -Return to home after 10 minutes
HST0 (특정방향 응시) 유지시간 1초, 반복횟수 1회, 이동끝점 (좌0도, 상-10도)HST0 (Stare in a specific direction)
10분 경과 후, After 10 minutes,
HST0 (특정방향 응시) 유지시간 1초, 반복횟수 1회, 이동끝점 (좌0도, 상 10도)HST0 (Stare in a specific direction)
- 로봇 바퀴 좌우로 10회 회전하기 -Rotate left and right 10 times
WLR0 (좌우로 회전하기) 유지시간 20초, 반복횟수 10회, 이동각도 (45도) WLR0 (rotate left and right) holding
- 파란색 가슴 LED 1분 동안 계속 켜기 -Blue chest LED keeps on for 1 minute
LHG0 (슬픈 감정) 유지시간 60초, 반복횟수 1회, 색상정의 파란색 LHG0 (Sad Feelings) Duration 60 seconds, 1 repetition time, Color Definition Blue
- 파란색 가슴 LED 1분 동안 계속 깜빡이기 -Blue chest LED flashes continuously for 1 minute
LHG0 (슬픈 감정) 유지시간 60초, 반복횟수 60회, 색상정의 파란색 LHG0 (Sad Feelings) Duration 60 seconds, 60 repetitions, Color definition Blue
- 빨간색 눈 LED 1분 동안 깜빡이기 Red Eye LED flashes for 1 minute
LES0 (놀람) 유지시간 60초, 반복횟수 30회, 색상정의 빨간색 LES0 (surprise) retention time 60 seconds, 30 repetitions, color definition red
- 녹색의 특정 입 LED 5초 동안 깜빡이기 -Specific green LED blinks for 5 seconds
LSM0 (미소) 유지시간 5초, 반복횟수 5회, 색상정의 녹색 LSM0 (Smile)
- 오렌지색의 특정 입 LED 10초 동안 깜빡이기 -Orange specific mouth LED blinks for 10 seconds
LSP0 (놀람) 유지시간 10초, 반복횟수 10회, 색상정의 녹색 LSP0 (Surprise)
도 4a는 머리 제어에 관련된 액션 패턴으로 총 7가지 종류가 있다. 4A shows seven types of action patterns related to head control.
액션 코드별로 정의된 액션명과 각 파라미터의 기본값, 최소값, 최대값이 정의되어 있다. 유지시간은 해당 액션을 계속 유지하는 시간을 말하는 것으로 단위는 초(sec)이다. 최대 3,600초 즉, 1시간까지 정의할 수 있다. 반복횟수는 유지시간에 대해 액션을 반복하는 속성으로 반복횟수의 최대값은 유지시간 및 이동각도, 회전각도, 흔들기 횟수 등의 영향을 받는다. 반복횟수의 상하한값 제한 수식은 도 5를 참고하기 바란다.Action name defined by action code and default value, minimum value and maximum value of each parameter are defined. The holding time refers to the time to keep the action. The unit is seconds. You can define up to 3,600 seconds, or 1 hour. The number of repetitions is an attribute that repeats the action with respect to the holding time. The maximum value of the number of repetitions is affected by the holding time, the moving angle, the rotation angle, and the number of shaking times. Refer to FIG. 5 for an upper and lower limit restriction formula of the repetition number.
머리 액션의 파라미터의 종류는 동작시 제어되는 특성별로 각기 다르며 다양하다. 머리를 상하로 이동하는 액션코드 HDN0의 경우 파라미터 종류는 유지시간과 반복횟수를 제외하면 이동각도 뿐이지만, 흔들면서 숙이기 액션코드 HSK0의 경우는 흔들기횟수, 흔들기각도, 숙임각도 등으로 정의해야 할 파라미터 종류가 HDN0 보다 다양하다. The types of head action parameters vary and vary depending on the characteristics controlled during operation. In case of action code HDN0, which moves head up and down, the parameter type is only moving angle except for holding time and repetition frequency.However, in case of action code HSK0, parameter to be defined as shaking count, shaking angle, leaning angle, etc. There are more varieties than HDN0.
도 4b는 바퀴 제어에 관련된 액션 패턴으로 총 4가지 종류가 있다. 4B is a total of four types of action patterns related to wheel control.
액션코드 WFB0 앞뒤로 이동하기는 초당 1회의 속도로 10cm의 이동거리를 왕복한 후 시작위치로 복귀하는 것으로 정의되어 있다. 이때, 바퀴의 최대 이동거리는 10cm 이며, 11cm 이상의 파라미터값을 입력하면 상한값 초과 메시지가 발생하게 된다.Moving forward and backward through the action code WFB0 is defined as returning to the starting position after reciprocating a 10cm travel distance at a rate of once per second. At this time, the maximum movement distance of the wheel is 10cm, and if a parameter value of 11cm or more is input, an upper limit value exceeded message is generated.
도 4c는 가슴 LED 제어에 관련된 액션 패턴으로 총 4가지로 정의되어 있다.4C is defined as four action patterns related to chest LED control.
감정이 기쁠 때는 오렌지색 LED가 켜지고, 슬플 때는 파란색 LED가 켜지고, 불안할 때는 빨간색 LED가 켜지게 되어 있다. 평상시의 차분한 감정일 때 가슴 LED 는 OFF 상태이다. The orange LED turns on when you are happy, the blue LED turns on when you are sad, and the red LED turns on when you are anxious. The chest LED is OFF when it is normal and calm feeling.
도 4d는 눈 LED 제어에 관련된 액션 패턴으로 총 10가지 종류가 있다. 4D is a total of 10 types of action patterns related to eye LED control.
기본적인 유지시간 및 반복횟수는 다른 액션과 동일하게 초당 1회의 깜빡임으로 정의되어 있다. 로봇의 기분 상태에 따라 눈의 깜빡임 속도를 조절하기 위해서는 초당 반복횟수를 가감하는 것으로 할 수 있다.The default hold time and repeat count are defined as one blink per second, just like any other action. In order to control the blinking speed of the eye according to the mood of the robot, the number of repetitions per second may be added or decreased.
예를 들어, 로봇의 지루한 감정상태를 표현하기 위해서 유지시간 10초, 반복횟수 3회로 정의하면 초당 1회 깜빡이는 기본값 보다 느리게 눈을 깜빡이는 것을 표현할 수 있다. 또한, 파란색, 오렌지색, 빨간색 3색으로 표현할 수 있도록 되어 있다.For example, in order to express the boring emotional state of a robot, if you define 10 seconds of holding time and 3 times of repetition, it can express the blinking of an eye slower than the default blinking once per second. In addition, it can be expressed in three colors: blue, orange, and red.
도 4h는 상기 눈 LED가 동작되는 프레임의 사례를 나타내는 도면으로 LEW0 (윙크) 액션을 보여주는 프레임이다. 눈의 경우, 하나의 액션당 3프레임의 LED 액션을 보여주고 있다.4H is a diagram illustrating an example of a frame in which the eye LED is operated, and shows a frame showing an LEW0 (wink) action. In the case of the eye, it shows 3 frames of LED actions per action.
도 4e,4f,4g는 입 LED 제어에 관련된 액션 패턴으로 총 44가지 종류가 있다. 가슴과 눈 LED와 마찬가지로 초당 1회의 속도로 깜빡이게 되어 있으며, LED는 녹색, 노란색, 빨간색 3색으로 감정에 따라 표현할 수 있도록 되어 있다. 4E, 4F, and 4G are 44 types of action patterns related to input LED control. Like the chest and eye LEDs, they blink at a rate of once per second, and the LEDs are designed to express emotions in three colors: green, yellow, and red.
도 4i는 입 LED가 동작되는 프레임의 사례를 나타내는 도면으로 LMR0 (메롱3) 액션을 보여주는 프레임이다. 입의 경우, 하나의 액션당 10프레임의 LED 액션을 보여주며, 재생시간은 파라미터로 조절할 수 있다.FIG. 4I is a diagram illustrating an example of a frame in which an input LED is operated, and is a frame showing an LMR0 (mock 3) action. FIG. In the case of mouth, it shows 10 frames of LED action per action, and the play time can be adjusted by parameter.
도 5a 내지 도 5c는 로봇액션 파라미터 입력값에 의한 총 반복횟수를 체크하는 수식을 나타내는 것이다.5A to 5C show equations for checking the total number of repetitions by the robot action parameter input value.
로봇액션의 반복횟수는 유지시간과 각도나 거리 등의 영향을 받으며, 각도나 거리 등의 상한값은 하드웨어상 처리할 수 있는 값의 한계치로 설정되어 있다. 유지시간에 따른 각 액션 패턴별로 부여되는 파라미터 값들에 대한 상하한값을 계산하여 값의 초과로 인해 발생되는 로봇의 오류를 방지한다. The number of repetitions of the robot action is affected by the holding time and the angle and distance, and the upper limit of the angle and distance is set as the limit of the value that can be processed in hardware. By calculating the upper and lower limits of the parameter values assigned to each action pattern according to the holding time, the robot error caused by the exceeding value is prevented.
로봇액션의 파라미터 종류에는 유지시간과 반복횟수 외에도 이동방향과 이동끝점 등의 방향제어에 해당하는 속성과 흔들각도 및 숙임각도 등의 각도제어에 해당하는 속성, 그리고 장단길이 등의 다양한 종류가 있다. In addition to the holding time and the number of repetitions, there are various types of robot action parameters such as the property corresponding to the direction control such as the moving direction and the end point, the property corresponding to the angle control such as the swing angle and the bowing angle, and the short and long lengths.
예를 들어 1초의 유지시간에 바퀴을 10cm 앞뒤로 이동할 수 있다고 할 때, 1초에 10cm를 2회 반복하는 것으로 입력한다면 반복횟수의 상한값을 초과한다는 메세지가 발생하겠지만, 1초에 5cm를 2회 이동하는 것으로 정의한다면 상한값 초과 오류를 방지할 수 있을 것이다. 상하한값 제한 수식을 저작툴에 적용함으로써 로봇에서 발생할 수 있는 하드웨어 동작의 오류를 방지할 수 있다.For example, suppose that you can move the wheel back and forth 10 cm in a holding time of 1 second. If you enter 10 cm twice a second, you will get a message that the upper limit of the number of repetitions is exceeded. If defined, it will prevent the error from exceeding the upper limit. By applying the upper and lower limit formulas to the authoring tool, it is possible to prevent errors in hardware operation that may occur in the robot.
도 6a는 로봇의 음성인식 정보를 갖고 있는 음성인식 윈도이다. 6A is a voice recognition window containing voice recognition information of a robot.
음성인식에는 인식형태에 따라 단일 인식어와 구간 인식어 두가지 종류가 있는데, 단일 인식어에 해당하는 것은 파일 인식어와 페이지 인식어 이고, 구간 인식어에는 프레임 인식어가 있다. 그 특징은 살펴보면 대략 다음과 같다. There are two types of speech recognition, a single recognition word and a section recognition word. The single recognition word corresponds to a file recognition word and a page recognition word, and the section recognition word includes a frame recognition word. The characteristics are roughly as follows.
파일과 페이지 인식어는 각각 특정 로봇 컨텐츠 파일과 특정 파일의 특정 페이지에서 전역적으로 사용되는 인식어를 정의하는 기능이고, 구간 인식어는 특정 범위의 시작과 종료 프레임 구간에서만 인식이 활성화 되는 프레임 인식어를 정의할 수 있는 기능이다. The file and page recognition words define the recognition words used globally in a specific robot content file and a specific page of a specific file, respectively. Section recognition words are frame recognition words that are activated only in the start and end frame sections of a specific range. It can be defined.
프레임 인식어는 동일한 컨텐츠 페이지 내에서 두개 이상의 동일한 인식어의 서로 다른 링크경로를 정의할 수 있는 장점이 있다. 그러나, 동일 구간에는 동일한 인식어를 중복하여 서로 다른 링크경로를 처리할 수 없도록 되어 있다.The frame identifier has the advantage of defining different link paths of two or more identical identifiers within the same content page. However, in the same section, different link paths cannot be processed by overlapping the same recognized word.
도 6b는 파일 및 페이지 전역적인 인식어를 등록하는 윈도이다. 도 6a의 음성인식 윈도에서 인식형태를 선택하고 등록창으로 이동하면 나타나는 화면으로 인식단어와 연결형태 및 경로를 설정하는 항목으로 구성되어 있다. 6B is a window for registering file and page global recognition words. 6A is a screen that appears when a recognition type is selected in the voice recognition window of FIG. 6A and moved to a registration window, and includes items for setting a recognition word, a connection type, and a path.
예를 들어, '사과나무' 라는 단어를 로봇이 인식하면 특정 컨텐츠 파일의 지정한 페이지의 특정 프레임으로 링크 연결하는 것이 가능하다. 인식결과가 성공했을 때 링크경로를 변경하는 방법으로 로봇과 사용자 간의 인터액티브한 로봇 컨텐츠 제작이 가능한 장점이 있다.For example, if the robot recognizes the word 'apple', it is possible to link to a specific frame of a specified page of a specific content file. When the recognition result is successful, there is an advantage that interactive robot contents can be produced between the robot and the user by changing the link path.
도 6c는 프레임 구간 인식어를 등록하는 윈도이다. 프레임 인식어는 파일과 페이지 인식어와는 달리 첫 프레임에서 종료 프레임까지 전역적으로 인식되지 않고, 특정 프레임 내에 국한된 인식어를 사용하거나 동일 페이지 내에서 동일한 인식어를 각기 다른 링크경로로 처리할 필요가 있을 때 사용한다. 6C is a window for registering a frame section recognition word. Unlike file and page identifiers, frame identifiers are not recognized globally from the first frame to the end frame. Instead, frame identifiers may need to use localized identifiers within a specific frame or process the same identifier as different link paths within the same page. When used.
예를 들어, 학습 컨텐츠에서 정답 인식어를 페이지 전역적으로 인식되게 하기 보다는 문제 제시후 정답 인식이 필요한 프레임에서만 인식되도록 하는 것이 필요할 때 유용하게 사용된다. 또는, 동일한 인식어가 프레임 구간에 따라 다른 처리를 필요로 할 때 사용되는 기능이다.For example, it is useful when it is necessary to ensure that the correct answer recognition word is recognized only in a frame requiring correct answer after presenting the problem, rather than making the correct answer word recognized throughout the page. Alternatively, this function is used when the same recognition word requires different processing for each frame section.
도 7은 로봇의 음성합성(TTS)을 정의하는 윈도이다. 저작툴에서 로봇과 동일한 한글과 영문 음성합성 엔진이 내장되어 있는데, 저작툴에서 컨텐츠를 제작할 때 한영 모드를 선택(701)하여 등록할 수 있다. 음성합성을 등록할 때는 음성합성등록 윈도에서 로봇 음성합성의 피치와 속도 파라미터(702, 703) 값의 속성을 활용하여 다양한 감정 변화에 따른 적합한 목소리를 표현할 수 있다. 여기서 도면부호 704는 음성합성내용이다.7 is a window defining the voice synthesis (TTS) of the robot. In the authoring tool, the same Korean and English speech synthesis engine as the robot is built in. When the content is produced in the authoring tool, the Korean-English mode can be selected and registered (701). When registering a voice synthesis, the voice synthesis registration window may express suitable voices according to various emotion changes by using the attributes of the pitch and speed parameters 702 and 703 of the robot voice synthesis. Reference numeral 704 denotes speech synthesis content.
도 8은 저작툴에서 제작된 컨텐츠를 재생하는 플레이어 화면이다. 저작툴을 이용하여 로봇 컨텐츠를 제작한 후 PC에서 재생을 시키면 컨텐츠 플레이어와 함께 음성인식과 합성엔진, 3차원 로봇 시뮬레이터가 모두 함께 구동된다.8 is a player screen for playing content produced by the authoring tool. When the robot content is created using the authoring tool and played on the PC, the voice recognition, synthesis engine, and 3D robot simulator are driven together with the content player.
컨텐츠 플레이어(801)는 저작툴에서 제작한 로봇 컨텐츠를 로봇의 디스플레이 장치에서 볼 수 있도록 하는 재생 프로그램이라고 할 수 있다. 플레이어에는 로봇과 피씨에서 동일하게 동작하는 구조로 되어 있으며, 프로그램 또한 하나로 구성되어 있다. 실제 로봇에서는 플레이어에서 발생되는 명령이 로봇에 전달되며, PC에서는 시뮬레이터에 명령이 전달된다. The content player 801 may be referred to as a playback program for viewing the robot content produced by the authoring tool on the display device of the robot. The player is structured to operate in the same way as the robot and PC, and the program is also configured as one. In a real robot, a command generated by a player is transmitted to the robot, and in a PC, a command is transmitted to the simulator.
그리고, PC 환경에서 플레이어가 구동될 때는 로봇과 동일한 음성합성과 음성인식 엔진이 함께 실행되므로 로봇의 입출력 환경과 동일하게 로봇 컨텐츠를 컴퓨터 상에서도 테스트 할 수 있다. When the player is driven in the PC environment, the same voice synthesis and speech recognition engine as the robot is executed together, so that the robot contents can be tested on the computer in the same manner as the input / output environment of the robot.
따라서, 로봇 컨텐츠를 제작 후 플레이어를 실행하여 컨텐츠 화면과 음성인식과 음성합성 및 로봇의 동작상태를 확인하면서 제작자가 충분히 테스트 할 수 있어 컨텐츠의 디버깅 단계 및 로봇의 작동 오류를 최소화 할 수 있다는 장점이 있다. Therefore, after producing the robot content, the player can run the player and check the content screen, voice recognition, voice synthesis, and the operation status of the robot, and fully test the content, thereby minimizing the debugging stage of the content and the operation error of the robot. have.
3차원 시뮬레이터는 컨텐츠와 동기화 되어 작동되는 실제 로봇의 구동상태를 확인하는 것으로 로봇이 없더라도 로봇과 동일하게 시뮬레이션 할 수 있도록 고안 되었다. 3차원 시뮬레이터를 활용하면 많은 로봇 컨텐츠 제작자들이 각각 실제 로봇을 소유하고 있지 않더라도 로봇과 함께 구동되는 컨텐츠를 제작한 후 충분히 시뮬레이션 할 수 있는 장점이 있다.The 3D simulator checks the driving state of the actual robot that operates in synchronization with the contents. It is designed to simulate the robot even without the robot. By utilizing the 3D simulator, many robot content creators have the advantage of being able to fully simulate the contents that are driven with the robot even if they do not own the actual robot.
3차원 시뮬레이터의 구동에는 실제 로봇의 동작과 동일한 머리, 바퀴, 눈, 입, 가슴 등의 움직임을 사실적으로 표현하고 있다. 이때, 컨텐츠 플레이어와 시뮬레이터는 TCP/IP(Transmission Control Protocol/Internet Protocol)통신에 의해 입력을 받아 로봇과 동일하게 동작한다.The driving of the 3D simulator realistically expresses the movements of the head, wheels, eyes, mouth, and chest, which are the same as those of a real robot. At this time, the content player and the simulator receive input by Transmission Control Protocol / Internet Protocol (TCP / IP) communication and operate like a robot.
플레이어 컨트롤바(802)는 PC 상에서 컨텐츠를 재생하기 위해 필요한 도구이다. 플레이어 컨트롤 바에는 일시정지와 재생, 첫 프레임으로 이동 및 끝 프레임으로 이동, 컨텐츠의 페이지 네비게이션 이동 등을 처리할 수 있도록 되어 있다. 단, 컨텐츠 플레이어가 로봇 모드일 때는 나타나지 않는다.The player control bar 802 is a tool necessary for playing content on a PC. The player control bar allows you to pause and play, move to the first frame, move to the end frame, and move the page navigation of the content. This does not appear when the content player is in robot mode.
도 9는 저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트의 구조를 나타내는 그림으로 스크립트를 활용하면, 학습 컨텐츠의 로직을 설계할 때 정의되지 않은 다양한 처리 형태를 가진 컨텐츠를 제작할 수 있다는 장점이 있다.9 is a diagram showing the structure of the script used for the purpose of controlling the content for the robot in the authoring tool, the advantage of using the script, it is possible to produce content with a variety of processing forms that are not defined when designing the logic of the learning content have.
도 9에서 보는 바와 같이, 스크립트 인터프리터는, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성된다. As shown in FIG. 9, the script interpreter includes a lexical analyzer 901 that separates each token into input of a script source input by a user, retrieves a grammar from the generated tokens, and generates a table to be used in execution. The parser 902 is configured to include an executor 903 that executes an action on an object using the execution table as an input.
컨텐츠 제작 단계에서 저작툴로 스크립트를 입력한 후, 제작된 컨텐츠에서 스크립트 소스가 어휘 분석 및 구문 분석되는 시점은 컨텐츠가 실행되기 이전이다.After inputting the script with the authoring tool in the content production stage, the time when the script source is lexical analyzed and parsed in the produced content is before the content is executed.
어휘 분석 및 구문 분석의 결과로 문법상의 오류가 없을 경우 구문 트리가 만들어지며, 컨텐츠 실행시 이 구문 트리를 이용해서 스크립트로 지시한 내용들이 실행된다. 구체적인 예를 다음에서 설명하도록 한다.If there is no grammatical error as a result of lexical analysis and parsing, a syntax tree is created, and the contents instructed by the script are executed using this syntax tree when executing content. Specific examples will be described below.
도 10a 내지 10e는 스크립트 내장 키워드 목록으로서, 도 10a는 스크립트의 문장 종류, 10b는 스크립트 전역 함수 종류, 10c는 스크립트 이벤트의 종류, 10d는 스크립트 시스템 함수의 종류, 10e는 스크립트 사용 기호의 종류를 각각 나타낸다.10A to 10E are script built-in keyword lists, FIG. 10A is a script sentence type, 10B is a script global function type, 10c is a script event type, 10D is a script system function type, and 10e is a script usage symbol type, respectively. Indicates.
다음의 실시예를 도 11을 참조해서 설명하도록 한다.The following embodiment will be described with reference to FIG.
컨텐츠 화면 영역(1101)은 로봇의 몸체에 부착된 12.1" LCD 액정 디스플레이 장치에서 보여지는 컨텐츠 화면 영역이다. 그리기 툴바에서 제공하는 백터 드로잉 툴 등으로 직접 객체를 제작해서 생성할 수도 있고, 외부의 매크로미디어 플래시 쇽웨이브 파일을 불러와서 로봇액션만 추가해서 사용할 수도 있다. 컨텐츠에 필요한 네비게이션 등은 버튼을 삽입하여 필요한 링크속성을 부여해서 컨텐츠 내부에 삽입하여 사용할 수 있다. The content screen area 1101 is a content screen area seen on a 12.1 "LCD liquid crystal display device attached to the body of the robot. An object can be created by using a vector drawing tool provided by the drawing toolbar or an external macro. You can also load Media Flash Shockwave files and add robot actions only.You can insert navigation buttons for content by inserting buttons and inserting them into the content.
저작툴의 타임라인 윈도(1102)로 각 레이어에 해당하는 특정한 프레임에 그림과 같이 로봇제어에 필요한 액션들이 삽입되어 있는 것을 확인할 수 있다. 로봇 액션을 타임라인 프레임에 삽입하는 방법은 로봇정보 윈도의 로봇액션 목록에서 원하는 로봇액션 코드를 선택하여 해당 프레임에 끌어다 놓으면 자동으로 해당 레이어를 찾아서 프레임에 추가된다.The timeline window 1102 of the authoring tool shows that the actions necessary for robot control are inserted in a specific frame corresponding to each layer as shown in the figure. In order to insert a robot action into the timeline frame, select the desired robot action code from the robot action list of the robot information window and drag it to the frame to automatically find the layer and add it to the frame.
상기 음성합성의 경우도 음성합성 윈도에서 로봇이 TTS로 말할 내용을 문자로 입력해서 등록을 한후 원하는 음성합성 목록을 원하는 프레임에 끌어다 놓으면 타임라인에 음성합성 레이어에 자동으로 추가가 되는 구조로 되어 있으며, 플레이어 실행시 해당 프레임에서 음성합성 송출이 시작되게 된다. In the case of the voice synthesis, the robot inputs the contents to be spoken by the TTS in the voice synthesis window, registers the text, and drags the desired voice synthesis list to the desired frame. The voice synthesis layer is automatically added to the voice synthesis layer. When the player runs, voice synthesis transmission starts at the corresponding frame.
상기 음성인식 단어도 타임라인의 음성인식 레이어에 표시가 되는데, 인식단어 등록 윈도(1103)에서 인식단어 및 처리할 링크경로 등을 입력하면 자동적으로 추가되는 구조로 되어 있다. 그림과 같이 삽입된 액션들은 컨텐츠 재생시 프레임이 진행에 따라 시간순으로 처리가 되고 로봇 또는 시뮬레이터에서 동작에 대한 액션이 발생하게 되는 구조이다.
도 12는 타임 라인 구조도로, CTimeLine는 객체에 대한 액션을 시간을 보여주고 프레임은 시간의 프레임을 나타내며, 레이어는 객체가 보여주는 순서를 나타낸다.
여기서 겹쳐지는 객체는 보이지 않게 된다.
CFrame은 블록에 대한 수직링크를 가진다. 블록에는 하나의 객체가 연결되어 있다. CLayer는 블록에 대한 수평적인 링크를 가지고 있다. 블록에는 객체가 연결되어 있다. CActionBlock에서는 블록은 액션구간을 나타낸다. 이 블록은 오직 하나의 객체와만 연결되어 있다.
CVoiceRecognitioninfo는 음성인식에 대한 정보를 보여준다. CTTSinfo는 음성합성에 대한 정보를 보여준다. CRobotCommandinfo는 로봇액션에 대한 정보를 보여준다. CPageVoiceRecognitioninfo는 페이지 음성인식어에 대한 정보를 가지고 있다. CFileVoiceRecognitioninfo는 파일 음성인식어에 대한 정보를 가지고 있다.
도 13은 로봇액션 구조도로써, RBTObject에서는 객체에 대한 기본 정보를 저장한다. CRobotObject에서는 로봇 객체를 가지고 있다. 로봇객체는 타임라인상에서만 존재하며, 일반 객체와는 달리 반드시 액션구간을 가진다.
CVoiceRecognition은 음성인식에 대한 정보를 저장한다. CTTs는 음성합성에 대한 정보를 저장한다. CRobotCommand는 로봇액션에 대한 정보를 저장한다. Parameter는 로봇액션에 대한 매개변수를 저장한다. Value는 매개변수의 값을 저장한다.
도 14는 음성인식 구조도로써, CVoiceRecognition는 음성인식객체이다.
CContentsLink는 음성인식어와 연관된 링크이다. CSingleRecognition은 단일 음성인식어이고, 이 인식어는 하나의 단어가 하나의 링크만을 가진다. WordList는 구간 음성인식어 목록이고, 이 인식어는 여러 개의 단어가 하나의 링크를 가진다.The voice recognition word is also displayed on the voice recognition layer of the timeline. When the recognition word and the link path to be processed are input in the recognition word registration window 1103, the voice recognition word is automatically added. As shown in the figure, the inserted actions are processed in the order of time as the frame progresses when the content is played, and actions for actions are generated in the robot or the simulator.
12 is a timeline structure diagram where CTimeLine shows time for an action on an object, a frame indicates a frame of time, and a layer shows the order in which the object shows.
Overlapping objects are not visible here.
CFrame has a vertical link to the block. A block is connected to an object. CLayer has a horizontal link to the block. Blocks have objects connected to them. In CActionBlock, a block represents an action section. This block is connected to only one object.
CVoiceRecognitioninfo shows information about speech recognition. CTTSinfo shows information about speech synthesis. CRobotCommandinfo shows information about the robot action. CPageVoiceRecognitioninfo contains information about page speech recognition. CFileVoiceRecognitioninfo contains information about file speech recognition.
13 is a structure diagram of a robot action, in which RBTObject stores basic information about an object. CRobotObject has a robot object. Robot objects exist only on the timeline, and unlike regular objects, they always have action sections.
CVoiceRecognition stores information about speech recognition. CTTs store information about speech synthesis. CRobotCommand stores information about robot actions. Parameter stores the parameters for robot action. Value stores the value of the parameter.
14 is a speech recognition structure diagram, where CVoiceRecognition is a speech recognition object.
CContentsLink is a link associated with speech recognition words. CSingleRecognition is a single speech recognition language, in which one word has only one link. WordList is a list of interval speech recognition words. In this recognition word, several words have one link.
이상에서 설명한 바와 같이 본 발명은 로봇의 제어에 대한 특별한 지식이 없는 사람이라도 단기간의 학습을 통해 로봇과 연동하는 멀티미디어 컨텐츠를 제작할 수 있는 프로그램 환경을 제공한다. 또한, 로봇의 신체 부위 및 동작의 특성별로 각기 다른 종류의 파라미터를 적용함으로써 정의되지 않은 다양한 로봇의 동작을 새롭게 만들어 낼 수 있는 효과가 있다. 그리고, 로봇의 표정, 감정, 머리, 바퀴 등의 하드웨어적인 제어와 음성합성 및 음성인식까지 저작툴을 통해 제어하는 기능 을 제공함으로써 GUI와 함께 상호 복합적인 완성도 높은 로봇용 컨텐츠를 개발할 수 있도록 함으로써 개발 기간의 단축과 비용 절감의 효과가 있다고 설명할 수 있다. 뿐만 아니라, 컨텐츠 플레이어 및 3차원 시뮬레이터를 통해 PC에서도 제작된 로봇 컨텐츠를 완벽한 시뮬레이션을 통해 사전 검토 및 감상등의 작업을 할 수 있다.
As described above, the present invention provides a program environment in which even a person who does not have special knowledge on the control of the robot can produce multimedia contents linked with the robot through short-term learning. In addition, by applying different types of parameters for each body part and operation characteristics of the robot, there is an effect that can newly create a variety of undefined motion of the robot. In addition, it provides hardware control of the robot's facial expressions, emotions, head, wheels, etc. through the authoring tool to control voice synthesis and speech recognition. It can be explained that there is an effect of shortening the cost and reducing the cost. In addition, through the content player and 3D simulator, robot contents created on the PC can be fully simulated and reviewed and watched.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020030067691A KR100572683B1 (en) | 2003-09-30 | 2003-09-30 | Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020030067691A KR100572683B1 (en) | 2003-09-30 | 2003-09-30 | Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050031525A KR20050031525A (en) | 2005-04-06 |
KR100572683B1 true KR100572683B1 (en) | 2006-04-19 |
Family
ID=37236378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020030067691A KR100572683B1 (en) | 2003-09-30 | 2003-09-30 | Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100572683B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100756345B1 (en) | 2006-12-04 | 2007-09-10 | (주)시뮬레이션연구소 | Robot simulation system using the network |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100738258B1 (en) * | 2005-07-04 | 2007-07-12 | 주식회사 유진로봇 | Robot Contents Authoring Method using Script Generator and Commercially-Off-the-Shelf Multimedia Authoring Tool for Control of Various Robot Platforms |
KR100760508B1 (en) * | 2005-08-19 | 2007-09-20 | 한국과학기술원 | The grammar processing module of robot language for conversing with software robot |
KR100738052B1 (en) * | 2006-12-26 | 2007-07-12 | 주식회사 이디 | System for simulating intelligent robot control |
KR101036885B1 (en) * | 2010-01-08 | 2011-05-25 | 주식회사 로보로보 | System and method for providing robot-information |
KR101241830B1 (en) * | 2012-05-23 | 2013-03-18 | (주)이공감 | Test system for assembling a driving apparatus for education |
KR101190660B1 (en) | 2012-07-23 | 2012-10-15 | (주) 퓨처로봇 | Methods and apparatus of robot control scenario making |
US9495788B2 (en) | 2013-03-22 | 2016-11-15 | Kt Corporation | Apparatus and method for developing robot contents |
KR101666488B1 (en) * | 2014-11-14 | 2016-10-14 | 이창길 | System and method for managing action block for autonomous movement of robot |
JP7128222B2 (en) * | 2019-10-28 | 2022-08-30 | ネイバー コーポレーション | Content editing support method and system based on real-time generation of synthesized sound for video content |
-
2003
- 2003-09-30 KR KR1020030067691A patent/KR100572683B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100756345B1 (en) | 2006-12-04 | 2007-09-10 | (주)시뮬레이션연구소 | Robot simulation system using the network |
Also Published As
Publication number | Publication date |
---|---|
KR20050031525A (en) | 2005-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Parmar et al. | Programming moves: Design and evaluation of applying embodied interaction in virtual environments to enhance computational thinking in middle school students | |
JP2607561B2 (en) | Synchronized speech animation | |
RU2690071C2 (en) | Methods and systems for managing robot dialogs | |
Prendinger et al. | MPML: A markup language for controlling the behavior of life-like characters | |
Gibb | New media art, design, and the Arduino microcontroller: A malleable tool | |
US8177639B2 (en) | Controlling an interactive story through manipulation of simulated character mental state | |
Mountapmbeme et al. | Addressing accessibility barriers in programming for people with visual impairments: A literature review | |
KR100572683B1 (en) | Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same | |
CN104470686A (en) | System and method for generating contextual behaviours of a mobile robot executed in real time | |
KR100738258B1 (en) | Robot Contents Authoring Method using Script Generator and Commercially-Off-the-Shelf Multimedia Authoring Tool for Control of Various Robot Platforms | |
CN107103810A (en) | Situational programming teaching method | |
CN110000777A (en) | Multi-screen display robot, multi-screen display method and device and readable storage medium | |
Dietz et al. | Visual StoryCoder: A Multimodal Programming Environment for Children’s Creation of Stories | |
Corradini et al. | Animating an interactive conversational character for an educational game system | |
Huenerfauth | Spatial representation of classifier predicates for machine translation into american sign language | |
Giunchi et al. | DreamCodeVR: Towards Democratizing Behavior Design in Virtual Reality with Speech-Driven Programming | |
Cui et al. | Animation stimuli system for research on instructor gestures in education | |
Prendinger et al. | MPML and SCREAM: Scripting the bodies and minds of life-like characters | |
CN114968054A (en) | Cognitive training interaction system and method based on mixed reality | |
Kalb | Object-oriented Python: Master OOP by Building Games and GUIs | |
Hong | Concepts and Modelling Techniques for Pervasive and Social Games | |
Rosenberg et al. | DrawTalking: Building Interactive Worlds by Sketching and Speaking | |
Al-Tahat | Alice adventures in computingland: A review | |
Pettersson et al. | Perspectives on Ozlab in the cloud: A literature review of tools supporting Wizard-of-Oz experimentation, including an historical overview of 1971-2013 and notes on methodological issues and supporting generic tools | |
Piferi | CHATCARE: an emotional-aware conversational agent for assisted therapy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130416 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140411 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160412 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20170413 Year of fee payment: 12 |
|
LAPS | Lapse due to unpaid annual fee |