KR20050031525A - Contents developing tool for intelligent robots and contents developing method using the tool - Google Patents

Contents developing tool for intelligent robots and contents developing method using the tool Download PDF

Info

Publication number
KR20050031525A
KR20050031525A KR1020030067691A KR20030067691A KR20050031525A KR 20050031525 A KR20050031525 A KR 20050031525A KR 1020030067691 A KR1020030067691 A KR 1020030067691A KR 20030067691 A KR20030067691 A KR 20030067691A KR 20050031525 A KR20050031525 A KR 20050031525A
Authority
KR
South Korea
Prior art keywords
robot
content
action
layer
recognition
Prior art date
Application number
KR1020030067691A
Other languages
Korean (ko)
Other versions
KR100572683B1 (en
Inventor
이경선
김성호
이상엽
박성주
신경철
Original Assignee
주식회사유진로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사유진로보틱스 filed Critical 주식회사유진로보틱스
Priority to KR1020030067691A priority Critical patent/KR100572683B1/en
Publication of KR20050031525A publication Critical patent/KR20050031525A/en
Application granted granted Critical
Publication of KR100572683B1 publication Critical patent/KR100572683B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Manipulator (AREA)

Abstract

A developing tool for producing contents of intelligent robots and a developing method using the same are provided to program the intelligent robots based on the multimedia, and effectively control the hardware and a display unit of the intelligent robots. A user edits contents to be displayed on a contents screen area(101). A time line area(102) is divided into two areas for displaying a list of window layers and displaying a frame and an action block. A robot action layer(103-109) includes a fixed layer for controlling the robot and a general layer for displaying a general object. A static object information window(112) registers information for robot action, voice synthesis, and voice recognition.

Description

지능형 로봇의 컨텐츠 제작용 저작툴 및 이를 이용한 지능형 로봇의 컨텐츠 제작 방법{Contents Developing Tool for Intelligent Robots and Contents Developing Method using the Tool} Contents authoring tool for intelligent robots and contents developing method using the tool}

본 발명은 지능형 로봇의 컨텐츠 제작용 저작툴 및 이를 이용한 지능형 로봇의 컨텐츠 제작 방법에 관한 것으로서, 더욱 상세하게는 로봇용 컨텐츠 제작을 목적으로 멀티미디어 기반의 지능형 로봇을 프로그래밍할 수 있도록 한 저작툴과, 이를 이용하여 지능형 로봇의 하드웨어 및 디스플레이 장치를 효과적으로 제어할 수 있도록 한 지능형 로봇의 컨텐츠 제작 방법에 관한 것이다.The present invention relates to an authoring tool for contents creation of an intelligent robot and a method for producing contents of an intelligent robot using the same, and more particularly, an authoring tool for programming a multimedia-based intelligent robot for the purpose of producing contents for a robot, and using the same. The present invention relates to a content creation method of an intelligent robot that enables effective control of hardware and display devices of an intelligent robot.

특히, 본 발명은 로봇을 프로그래밍 하기 위해 개발된 멀티미디어 기반의 제어 프로그램 및 컨텐츠 제작방법에 관한 것이다.In particular, the present invention relates to a multimedia-based control program and content production method developed for programming a robot.

현재까지 로봇을 제어하기 위해서는 프로그래머가 코드 레벨에서 로봇액션, 음성인식, 음성합성, GUI 등 전반적인 사항에 대해 케이스별로 프로그램에서 코딩을 해야 했고, 변경 및 유지 보수에도 매번 컴파일을 해야 하는 등 전문적인 지식뿐 아니라 많은 시간과 비용이 소요되는 문제가 있었다. Until now, in order to control robots, programmers had to code the entire program such as robot actions, speech recognition, speech synthesis, and GUI at the code level on a case-by-case basis. In addition, there was a problem that was time-consuming and expensive.

이러한 기술적 한계 때문에, 지능형 로봇을 상품화 하기 위해서는 다양한 로봇의 자원을 활용하여 체계적인 정보를 효과적으로 최종 사용자에게 전달하는 많은 양의 로봇용 컨텐츠의 개발의 필요성을 충족시켜줄 수 없었다.Due to these technical limitations, the commercialization of intelligent robots could not meet the necessity of developing a large amount of contents for robots that effectively deliver systematic information to end users by utilizing various robot resources.

기존에 개발된 실시간 강의용 멀티미디어 저작도구가 있었지만, 이 저작 프로그램은 서버에 존재하는 멀티미디어 컨텐츠를 실시간으로 PC에 다운로드 하여 별도의 플레이어를 통해 일반 객체와 사운드, 동영상 등의 데이터를 재생하는 기술을 가진 것으로 원격 강의 목적으로 개발되어 다양한 로봇 액션이 포함된 로봇용 컨텐츠는 제작할 수 없었다.While there was a multimedia authoring tool for real-time lectures developed previously, this authoring program has the technology of downloading multimedia contents on the server in real time to a PC and playing data such as general objects, sounds, and videos through a separate player. Developed for the purpose of remote lectures, content for robots containing various robot actions could not be produced.

본 발명은 상기와 같은 점을 감안하여 로봇을 프로그래밍하기 위해 개발된 멀티미디어 기반의 제어 프로그램 및 그 제작방법을 제공하고자 한 것으로서, 프로그래머가 아닌 일반 사용자가 로봇의 동작액션, 음성인식, 음성합성, GUI 등을 조합하여 효과적으로 로봇을 제어할 수 있도록 한 지능형 로봇의 컨텐츠 제작용 저작툴 및 이를 이용한 지능형 로봇의 컨텐츠 제작 방법을 제공하는데 그 목적이 있다.The present invention is to provide a multimedia-based control program and a method for manufacturing the robot developed for programming the robot in consideration of the above points, the general user, not the programmer, the action of the robot, speech recognition, speech synthesis, GUI It is an object of the present invention to provide an authoring tool for content creation of an intelligent robot that can effectively control the robot by combining the same, and a content producing method of the intelligent robot using the same.

이러한 목적 달성에 따라 본 발명은 변경사항의 수정 및 향후 업데이트를 용이하도록 하여 로봇용 컨텐츠 제작시 많은 비용과 시간을 절감할 수 있다.In accordance with the achievement of the above object, the present invention may facilitate modification of changes and future updates, thereby saving a lot of cost and time when producing contents for a robot.

또한, 기존의 경우 정의된 로봇의 동작 액션만을 처리할 수 있었으나, 액션의 종류별로 다양한 형태의 파라미터 속성을 부여함으로써 컨텐츠 제작자가 원하는 보다 정확한 로봇의 동작액션을 구현할 수 있도록 하는 효과를 얻을 수 있다.In addition, in the conventional case, it was possible to process only the defined action of the robot, but by providing various types of parameter attributes for each kind of action, the content creator can obtain the effect of implementing the more accurate action of the robot.

또한, 로봇에 대한 선입견과 달리 좀더 인간 친화적인 서비스를 제공하기 위해 눈과 입, 가슴 등에 부착된 LED를 효과적으로 사용할 수 있도록 타임라인의 레이어 형태로 로봇액션을 배열함으로써 로봇 컨텐츠 제작자가 좀더 효과적으로 로봇액션을 적용할 수 있다.In addition, unlike preconceived notions about robots, robot content creators can arrange robot actions in the form of timeline to effectively use LEDs attached to eyes, mouth, and chest to provide more human-friendly services. Can be applied.

특히, 본 발명에 의하면 실제 로봇을 소유하고 있지 않은 컨텐츠 제작자가 저작툴로 컨텐츠를 제작한 후 플레이어, 음성합성 및 인식엔진, 시뮬레이터 등을 통해 컨텐츠와 로봇과의 동기 등을 완벽히 시뮬레이션 해볼 수 있다. Particularly, according to the present invention, a content producer who does not own a real robot can create a content using an authoring tool, and then completely simulate the synchronization between the content and the robot through a player, a speech synthesis engine, a recognition engine, a simulator, and the like.

상기한 목적을 달성하기 위한 본 발명은 로봇액션, 음성인식, 음성합성 등의 전체 로봇제어와 멀티미디어 기반의 저작기능, 그리고 로봇이 없는 사용자도 로봇과 동일한 형태의 시뮬레이션이 가능하도록하는 컨텐츠 플레이어 및 3차원 시뮬레이터를 포함하여 구성하되; 고정 레이어에는 머리 액션 레이어(103), 바퀴 액션 레이어(104), 눈 LED 레이어(105), 입 LED 레이어(106), 가슴 LED 레이어(107)가 있고, 음성합성 레이어(108), 음성인식 레이어(109)를 포함하여 로봇과 직접적인 제어에 관련된 부분을 표시하는 레이어 목록이 있으며, 컨텐츠 제작시 필요한 그리기 툴바(110)와 일반객체 정보 윈도(111), 로봇액션 정보 및 음성합성, 음성인식 등록을 위한 정적객체 정보 윈도(112)가 있는 저작환경을 포함하는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작용 저작툴을 제공한다.The present invention for achieving the above object is the entire robot control and multimedia-based authoring function, such as robot action, speech recognition, speech synthesis, and the content player to enable the same type of simulation as the robot even without the robot 3 Including a dimensional simulator; The fixed layer includes the head action layer 103, the wheel action layer 104, the eye LED layer 105, the mouth LED layer 106, the chest LED layer 107, the speech synthesis layer 108, and the speech recognition layer. There is a layer list that displays the parts related to the direct control with the robot, including (109), the drawing toolbar 110, general object information window 111, robot action information and voice synthesis, and voice recognition registration required for content creation. Provides an authoring tool for producing content of an intelligent robot, characterized in that it comprises an authoring environment with a static object information window 112 for.

상기 고정 레이어에는 플래시와 사운드 등의 멀티미디어 객체 및 스크립트 제어를 표시하는 레이어가 포함되고, 타임라인은 각기 다른 객체 및 로봇액션을 복합적으로 제어할 수 있도록 실제 구동이 가능한 로봇액션을 타임라인의 프레임에 삽입하면 컨텐츠와 동기화 되어 실행되는 구조로 된 것을 특징으로 한다.The fixed layer includes a layer that displays multimedia objects such as flash and sound and script control, and the timeline includes a robot action that can be driven in real time so that various objects and robot actions can be controlled in a complex manner. Inserting is characterized in that the structure is executed in synchronization with the content.

저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트를 이용하되, 상기 스크립트 인터프리터는, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성되는 것을 특징으로 한다.In the authoring tool, a script used for the purpose of controlling robot contents is used, wherein the script interpreter is a lexical analyzer 901 for separating each token into input of a script source input by a user, and a generated grammar as an input. It is characterized in that it consists of a parser (902) for retrieving, and generating a table to be used at run time, and an executor (903) for executing an action on an object with the run table as input.

상기한 목적을 달성하기 위한 본 발명의 방법은 머리, 바퀴, 눈, 입, 가슴 등의 로봇 제어 부위를 구분하는 명령종류(301), 제어되는 부위별로 가능한 액션패턴에 대해 고유의 코드로 정의된 명령코드(302), 각 액션코드에 대해 부여된 명령이름(303), 로봇액션에 대해 세부적인 제어를 위한 파라미터 종류(304), 로봇의 하드웨어에서 처리할 수 있는 한계범위를 나타내는 상하한값(305)으로 구성된 로봇액션 윈도를 포함하는 청구항 1의 저작툴을 이용하여,The method of the present invention for achieving the above object is defined by a unique code for the command type 301 for distinguishing the robot control parts such as the head, wheel, eyes, mouth, chest, and the like and possible action patterns for each controlled part. Command code 302, command name 303 given for each action code, parameter type 304 for detailed control of the robot action, upper and lower limit values indicating the limit range that can be handled by the hardware of the robot 305 Using the authoring tool of claim 1 comprising a robot action window composed of

저작툴의 타임라인에서 프레임 진행 방식의 구조를 통해 머리(201), 바퀴(202)의 동작을 제어하고, 눈(203)과 입 LED(204) 제어를 통해 효과적인 얼굴의 표현을 제어하며, 가슴 LED(205)를 통해 로봇의 감정상태를 최종 사용자에게 전달할 수 있도록 한 것을 특징으로 한다.In the timeline of the authoring tool, the operation of the head 201 and the wheel 202 is controlled through the structure of the frame progress method, the effective face expression is controlled through the control of the eye 203 and the mouth LED 204, and the chest LED is controlled. Through 205, the emotional state of the robot can be delivered to the end user.

또한, 상기 저작툴을 이용하여 로봇 컨텐츠를 제작한 후, PC에서 재생을 시키면 컨텐츠 플레이어와 함께 음성인식과 합성엔진, 3차원 로봇 시뮬레이터가 모두 함께 구동되고; 컨텐츠 플레이어(801)에서 상기 저작툴에서 제작한 로봇 컨텐츠를 미리 시뮬레이션할 수 있고, 실제 로봇에서는 플레이어에서 발생되는 명령이 로봇에 전달되며, PC에서는 시뮬레이터에 명령이 전달되어; 3차원 시뮬레이터의 구동에는 실제 로봇의 동작과 동일한 머리, 바퀴, 눈, 입, 가슴 등의 움직임을 사실적으로 표현될 수 있도록 한 것을 특징으로 한다.In addition, after the robot content is produced using the authoring tool, when the PC is played on the PC, the voice recognition, the synthesis engine, and the 3D robot simulator are driven together with the content player; In the content player 801, the robot content produced by the authoring tool can be simulated in advance, and in a real robot, a command generated in the player is transmitted to the robot, and in a PC, a command is transmitted to the simulator; The driving of the three-dimensional simulator is characterized in that the movements of the head, wheels, eyes, mouth, chest, etc., which are the same as those of the actual robot, can be realistically expressed.

이때, 상기 컨텐츠 플레이어와 시뮬레이터는 TCP/IP 통신에 의해 입력을 받아 로봇과 동일하게 동작하는 것을 특징으로 한다.At this time, the content player and the simulator is characterized in that it operates in the same way as the robot receives the input by the TCP / IP communication.

특히, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성된 스크립트를 이용하여 저작툴에서 로봇용 컨텐츠를 제어하며 컨텐츠를 제작하는 단계에서 저작툴로 스크립트를 입력한 후, 제작된 컨텐츠에서 스크립트 소스가 어휘 분석 및 구문 분석되는 시점은 컨텐츠가 실행되기 이전이고, 어휘 분석 및 구문 분석의 결과로 문법상의 오류가 없을 경우 구문 트리가 만들어지며, 컨텐츠 실행시 이 구문 트리를 이용해서 스크립트로 지시한 내용들이 실행되는 것을 특징으로 한다.In particular, a lexical analyzer 901 for separating each token with input of a script source input by a user, a parser 902 for retrieving a grammar using input generated tokens, and generating a table to be used at execution time, an execution table After inputting the script with the authoring tool in the step of controlling the robot's content in the authoring tool using the script composed of the launcher 903 that executes the action on the object by inputting the script, the script source is the vocabulary in the produced content. The point of analysis and parsing is before the content is executed, and if there is no grammatical error as a result of lexical analysis and parsing, a syntax tree is created. When the content is executed, the contents instructed by the script are executed. It is characterized by.

본 발명에 따른 로봇 저작툴은 (이하, 저작툴) 로봇을 제어할 수 있는 컨텐츠의 제작을 목적으로 개발된 프로그램으로 저작툴을 이용하면 로봇 프로그래밍에 지식이 없는 제작자도 단기간의 학습으로 로봇과 연동하는 멀티미디어 컨텐츠를 제작할 수 있도록 제안된 것이다.Robot authoring tool according to the present invention (hereinafter, authoring tool) is a program developed for the purpose of producing the content that can control the robot using the authoring tool multimedia content that can be linked to the robot in a short period of time even if the creator without knowledge of robot programming It is proposed to produce.

본 발명의 저작툴은 로봇액션, 음성인식, 음성합성 등의 전체 로봇제어와 멀티미디어 기반의 저작기능, 그리고 로봇이 없는 사용자도 로봇과 동일한 형태의 시뮬레이션이 가능하도록하는 컨텐츠 플레이어 및 3차원 시뮬레이터 등으로 구성되어 있다. Authoring tool of the present invention is composed of the entire robot control, such as robot action, speech recognition, speech synthesis, multimedia-based authoring function, and the content player and 3D simulator to enable the same type of simulation even without the robot It is.

시뮬레이션에는 컨텐츠의 플레이어 재생과 음성인식 엔진, 음성합성 엔진, 시뮬레이터 등 로봇과 동일한 환경을 PC에서 제공하도록 되어있다. The simulation is designed to provide the PC with the same environment as the robot such as player playback of contents, speech recognition engine, speech synthesis engine, and simulator.

저작툴에서 제공하는 다양한 기능들을 활용하여 로봇에게 요구되는 양질의 컨텐츠를 개발함으로써 사용자가 필요로 하는 정보를 보다 효과적으로 제공할 수 있다. By utilizing the various functions provided by the authoring tool, it is possible to provide the information needed by the user more effectively by developing high quality contents required by the robot.

이하, 도면을 참조하여 본 발명을 상세히 설명한다. Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 저작환경을 보여주는 스크린샷 이다. 1 is a screenshot showing the authoring environment of the present invention.

도면부호 (101)은 로봇에서 디스플레이 될 컨텐츠를 편집하는 화면 영역이다. (102)는 타임라인 영역으로서, 타임라인 윈도의 레이어 목록을 보여주는 영역과 프레임과 액션블록을 표시하는 영역으로 구성되어 있다.Reference numeral 101 denotes a screen area for editing content to be displayed on the robot. Reference numeral 102 is a timeline area, which is composed of an area showing a layer list of a timeline window and an area displaying a frame and an action block.

레이어는 로봇제어와 관련된 고정 레이어와 일반 객체를 표시하는 일반 레이어로 구분되는데, 고정 레이어에는 머리 액션 레이어(103), 바퀴 액션 레이어(104), 눈 LED 레이어(105), 입 LED 레이어(106), 가슴 LED 레이어(107)가 있으며, 음성합성 레이어(108), 음성인식 레이어(109)를 포함하여 로봇과 직접적인 제어에 관련된 부분을 표시하는 레이어 목록이 있다.The layer is divided into a fixed layer related to robot control and a general layer displaying general objects. The fixed layer includes a head action layer 103, a wheel action layer 104, an eye LED layer 105, and an mouth LED layer 106. There is a chest LED layer 107, and there is a layer list that displays parts related to direct control with the robot, including speech synthesis layer 108 and speech recognition layer 109.

이외에도 플래시와 사운드 등의 멀티미디어 객체 및 스크립트 제어를 표시하는 레이어도 고정 레이어에 포함되어 있다. 타임라인은 각기 다른 객체 및 로봇액션을 복합적으로 제어할 수 있도록 효과적으로 설계된 것으로, 실제 구동이 가능한 로봇액션을 타임라인의 프레임에 삽입하면 컨텐츠와 동기화 되어 실행되는 구조로 되어 있다.In addition, a layer for displaying multimedia objects and script controls such as flash and sound is included in the fixed layer. The timeline is designed to effectively control different objects and robot actions in a complex manner. When the robot action that can be driven is inserted into the frame of the timeline, the timeline is synchronized with the contents and executed.

이외에도 컨텐츠 제작시 필요한 그리기 툴바(110)와 일반객체 정보 윈도(111)가 있으며, 로봇액션 정보 및 음성합성, 음성인식 등록을 위한 정적객체 정보 윈도(112)가 있다. 새로운 로봇액션의 패턴등록 및 음성합성, 음성인식 단어를 실제 등록하는 작업은 모두 정적객체 정보 윈도에서 이루어진다.In addition, there is a drawing toolbar 110 and a general object information window 111 necessary for content creation, and a static object information window 112 for robot action information, voice synthesis, and voice recognition registration. The pattern registration, voice synthesis, and voice recognition words of the new robot action are all registered in the static object information window.

도 2는 현재 개발중인 로봇으로 본 발명에서 직접 구동하는 부분을 나타내는 도면이다. 저작툴의 타임라인에서 프레임 진행 방식의 구조를 통해 머리(201), 바퀴(202)의 동작을 제어할 수 있으며, 눈(203)과 입 LED(204) 제어를 통해 효과적인 얼굴의 표현을 할 수 있고, 가슴 LED(205)를 통해 로봇의 감정상태를 최종 사용자에게 전달할 수 있다. 2 is a view showing a part directly driving in the present invention as a robot currently in development. In the timeline of the authoring tool, it is possible to control the operation of the head 201 and the wheel 202 through the structure of the frame progression method, and the effective face expression can be controlled through the control of the eye 203 and the mouth LED 204. The chest LED 205 may transmit the emotional state of the robot to the end user.

이때, LED는 감정별로 각각 3색으로 정의되어 있어 색상을 통해 로봇의 기분상태를 표현할 수 있도록 되어 있다. At this time, the LED is defined by three colors for each emotion to express the mood state of the robot through the color.

예를 들어, 가슴 LED가 오렌지색 일 때는 기쁜 감정을 표현하는 것이고, 빨간색 일 때 불안의 감정을 나타내며, 파란색을 띄고 있을 때는 슬픔의 감정을 표현하는 것으로 볼 수 있다.For example, when the chest LED is orange, it expresses a happy feeling, when it is red, it expresses feelings of anxiety, and when it is blue, it expresses feelings of sadness.

이 외에도 본 발명에서 제공하는 타임라인의 레이어 구조에서는 로봇의 한영 음성합성(TTS)와 한글 음성인식에 대한 사항도 컨텐츠 제작자가 직접 정의할 수 있도록 한 제작환경을 제공한다.In addition, the layer structure of the timeline provided by the present invention provides a production environment that allows content creators to directly define matters related to Korean-English speech synthesis (TTS) and Korean speech recognition.

도 3은 실제 로봇의 제어를 세부적으로 정의할 수 있는 도 1의 정적 객체 정보 윈도에 포함되어 있는 로봇액션 윈도이다. 저작툴에서는 기본적으로 로봇제어에 필요한 다양한 액션종류를 제공하고 있으며, 이외에 컨텐츠 제작시 요구되는 로봇액션에 대해서는 사용자가 파라미터를 정의 새로운 로봇액션을 등록하여 사용할 수 있다.FIG. 3 is a robot action window included in the static object information window of FIG. 1 that can define the control of an actual robot in detail. The authoring tool basically provides various action types for robot control. In addition, the user can register and use a new robot action by defining parameters for the robot action required for content creation.

로봇액션의 윈도는 명령종류(301), 명령코드(302), 명령이름(303), 파라미터 종류(304), 상하한값(305)으로 구성되어 있다. 명령종류(301)는 머리, 바퀴, 눈, 입, 가슴 등의 로봇 제어 부위를 구분하는 것이다.The window of the robot action is composed of an instruction type 301, an instruction code 302, an instruction name 303, a parameter type 304, and an upper and lower limit value 305. The command type 301 distinguishes robot control parts such as head, wheels, eyes, mouth, and chest.

명령코드(302)는 제어되는 부위별로 가능한 액션패턴에 대해 고유의 코드로 정의한 것이다. 예를 들어, 머리를 상하로 흔드는 액션의 경우 H(Head) U(Up) D(Down)를 조합한 HUD0로 정의되어 있고, 바퀴를 좌우로 회전하는 액션코드는 W(Wheel) L(Left) R(Right)를 조합한 WLR0로 정의되어 있다. 로봇 컨텐츠 제작자가 파라미터값 속성을 변경하여 새롭게 액션을 등록하더라도 명령코드는 변하지 않는다. The command code 302 is defined as a unique code for the action pattern possible for each part to be controlled. For example, the action of shaking the head up and down is defined as HUD0 combining H (Head) U (Up) D (Down), and the action code to rotate the wheel left and right is W (Wheel) L (Left) It is defined as WLR0 combining R (Right). The command code does not change even if the robot content creator registers a new action by changing the parameter value property.

명령이름(303)은 각 액션코드에 대해 부여된 명칭이며, 사용자 정의에 의해 액션종류가 추가될 때 액션코드는 고유하지만 명령이름을 다르게 정의해서 식별할 수 있도록 되어 있다. The command name 303 is a name given to each action code, and when the action type is added by user definition, the action code is unique, but the command name can be defined and identified differently.

파라미터(304)는 로봇액션에 대해 세부적인 제어를 할 수 있도록 고안된 것으로 제어되는 부위의 특성별로 각기 다른 파라미터 종류를 가지고 있으며, 공통적으로 유지시간과 반복횟수 파라미터값을 가진다. The parameter 304 is designed to allow detailed control of the robot action. The parameter 304 has different parameter types according to the characteristics of the controlled part, and has a holding time and a repetition frequency parameter value in common.

모든 로봇액션은 1초의 유지시간과 1회의 반복횟수 파라미터값을 가진다. 유지시간과 반복횟수는 로봇 컨텐츠 제작자가 임의로 설정할 수 있으며, 액션의 특성별로 이동각도, 이동거리, 이동길이, 이동끝점, 이동방향 등의 파라미터 종류가 다양하다. Every robot action has a holding time of one second and a value of one iteration. The retention time and the number of repetitions can be arbitrarily set by the robot content creator, and the types of parameters such as the moving angle, the moving distance, the moving length, the moving end point, and the moving direction vary depending on the characteristics of the action.

만일, 제작자가 컨텐츠 제작시 TTS나 나레이션 사운드 등의 동기를 위해 유지시간을 길게 하거나, 액션의 반복횟수를 변경하거나, 이동각도나 이동거리 등의 파라미터값을 변경하고자 하면 로봇액션 윈도에서 원하는 파라미터값을 입력하여 새로운 액션패턴을 추가할 수 있다. If the creator wants to increase the holding time, change the number of repetitions of the action, or change the parameter value such as the moving angle or the moving distance for synchronizing the TTS or narration sound, etc., the desired parameter value in the robot action window You can add a new action pattern by typing.

이때, 로봇 액션의 반복횟수는 유지시간 및 이동거리 또는 각도 등에 의해 영향을 받으며 모든 파라미터는 상하한값 제한범위가 존재한다.At this time, the repetition frequency of the robot action is affected by the holding time, the moving distance or the angle, and all parameters have an upper and lower limit value range.

상하한값(305)은 로봇의 하드웨어에서 처리할 수 있는 한계범위를 나타내는 것으로 사용자가 입력한 파라미터값에 대해 내부적으로 상하한값을 체크하여 범위 초과시 메시지로 알려 주도록 되어 있다. The upper and lower limit values 305 represent the limit ranges that can be processed by the hardware of the robot. The upper and lower limit values 305 check the upper and lower limits internally with respect to the parameter values input by the user and notify the user when a message is exceeded.

모든 로봇액션에서 기본적으로 제공되는 값은 모두 초당 1회이며, 컨텐츠 제작자는 상하한값 범위 내에서 임의로 값을 정의할 수 있다. The default values for all robot actions are once per second, and content creators can define values within the upper and lower limits.

예를 들어, 로봇 머리의 상하이동 최대 각도는 10도 인데, 이동각도 파라미터를 11도 이상 입력하면 파라미터 상한값 초과 메시지가 발생하게 된다. 또는, 1초의 유지시간에 로봇의 머리를 상하로 100번 이상 수행하는 등의 무리한 하드웨어 제어를 할 수 없도록 방지하고 있다. For example, the maximum head angle of the robot head is 10 degrees. If you enter more than 11 degrees of the moving angle parameter, the parameter upper limit exceeded message will occur. Alternatively, excessive hardware control, such as performing the head of the robot up and down 100 times or more in a holding time of 1 second, is prevented.

위와 같이 로봇액션 등록윈도에서 정의된 액션패턴은 타임라인의 원하는 프레임에 드래그 앤 드롭하면 액션 종류별로 해당 레이어에 로봇액션이 자동적으로 삽입되는 구조로 되어있다.As defined above, the action pattern defined in the robot action registration window has a structure in which the robot action is automatically inserted into the corresponding layer by action type when dragging and dropping to the desired frame of the timeline.

액션종류(306)는 로봇에서 제어되는 부분별로 사용이 가능한 액션코드의 목록을 보여주는 것으로 해당 목록을 선택하여 타임라인의 프레임에 갖다 놓으면 타임라인에 액션이 추가된다.The action type 306 shows a list of action codes that can be used for each part controlled by the robot. If the list is selected and placed in a frame of the timeline, the action is added to the timeline.

도 4a 내지 4g는 로봇액션의 종류 및 파라미터 속성을 정의한 것이다. 4A to 4G define the types and parameter attributes of robot actions.

로봇용 컨텐츠를 개발하면서 하드웨어상의 다양한 제어부분을 효과적으로 제어하여 다양한 동작패턴을 정의할 필요가 있었고, 컨텐츠 기획상 보다 정밀한 제어로 다양한 동작의 표현이 요구되게 되었는데, 이러한 필요에 의해 각각의 동작 부위별로 그 특성에 맞는 파라미터 종류 및 값을 부여함으로써 저작툴에서 컨텐츠를 제작하는 수준에서 자유롭게 로봇을 제어할 수 있는 효과를 얻게 된다.While developing contents for robots, it was necessary to define various motion patterns by effectively controlling various control parts on hardware, and it was required to express various motions with more precise control in content planning. By assigning parameter types and values appropriate to the characteristics, the robot can be freely controlled at the level of content creation in the authoring tool.

파라미터의 종류는 기본적으로 해당 로봇액션이 수행되는 유지시간과 반복횟수가 있으며 이외에 머리나 바퀴의 이동각도, 이동길이, 이동거리, 이동끝점, 이동방향 등의 다양한 종류가 있다. 본 테이블을 참조하여 하나의 액션패턴으로 다양한 로봇의 동작을 정의하는 예를 설명하면 다음과 같다.The types of parameters are basically the maintenance time and the number of repetitions of the robot action. In addition, there are various types of head and wheel movement angles, movement lengths, movement distances, movement end points, and movement directions. Referring to this table, an example of defining the operations of various robots in one action pattern will be described.

- 로봇 머리 왼쪽 상단 보기 정의 -Define the top left view of the robot head

HSE0 (특정 방향 보기) 유지시간 10초, 반복횟수 1회, 이동끝점 (좌45도, 상10도) HSE0 (View specific direction) Holding time 10 seconds, 1 repetition time, Moving end point (left 45 degrees, upper 10 degrees)

- 로봇 머리 상하로 5회 끄덕이기 -Nod five times up and down the robot head

HDN0 (상하로 끄덕이기) 유지시간 10초, 반복횟수 5회, 이동각도 (10도)HDN0 (nod up and down) holding time 10 seconds, 5 repetitions, moving angle (10 degrees)

- 머리 아래로 응시한 후 10분 후에 원위치 복귀하기 -Return to home after 10 minutes

HST0 (특정방향 응시) 유지시간 1초, 반복횟수 1회, 이동끝점 (좌0도, 상-10도)HST0 (Stare in a specific direction) Holding time 1 second, 1 repetition time, Moving end point (0 degree left, 10 degree upward)

10분 경과 후, After 10 minutes,

HST0 (특정방향 응시) 유지시간 1초, 반복횟수 1회, 이동끝점 (좌0도, 상 10도)HST0 (Stare in a specific direction) Holding time 1 second, 1 repetition number, Moving end point (0 degrees left, 10 degrees upward)

- 로봇 바퀴 좌우로 10회 회전하기 -Rotate left and right 10 times

WLR0 (좌우로 회전하기) 유지시간 20초, 반복횟수 10회, 이동각도 (45도) WLR0 (rotate left and right) holding time 20 seconds, repeat number 10 times, moving angle (45 degree)

- 파란색 가슴 LED 1분 동안 계속 켜기 -Blue chest LED keeps on for 1 minute

LHG0 (슬픈 감정) 유지시간 60초, 반복횟수 1회, 색상정의 파란색 LHG0 (Sad Feelings) Duration 60 seconds, 1 repetition time, Color Definition Blue

- 파란색 가슴 LED 1분 동안 계속 깜빡이기 -Blue chest LED flashes continuously for 1 minute

LHG0 (슬픈 감정) 유지시간 60초, 반복횟수 60회, 색상정의 파란색 LHG0 (Sad Feelings) Duration 60 seconds, 60 repetitions, Color definition Blue

- 빨간색 눈 LED 1분 동안 깜빡이기 Red Eye LED flashes for 1 minute

LES0 (놀람) 유지시간 60초, 반복횟수 30회, 색상정의 빨간색 LES0 (surprise) retention time 60 seconds, 30 repetitions, color definition red

- 녹색의 특정 입 LED 5초 동안 깜빡이기 -Specific green LED blinks for 5 seconds

LSM0 (미소) 유지시간 5초, 반복횟수 5회, 색상정의 녹색 LSM0 (Smile) Duration 5 seconds, 5 repetitions, Color definition Green

- 오렌지색의 특정 입 LED 10초 동안 깜빡이기 -Orange specific mouth LED blinks for 10 seconds

LSP0 (놀람) 유지시간 10초, 반복횟수 10회, 색상정의 녹색 LSP0 (Surprise) Retention time 10 seconds, Repetition frequency 10 times, Color definition Green

도 4a는 머리 제어에 관련된 액션 패턴으로 총 7가지 종류가 있다. 4A shows seven types of action patterns related to head control.

액션 코드별로 정의된 액션명과 각 파라미터의 기본값, 최소값, 최대값이 정의되어 있다. 유지시간은 해당 액션을 계속 유지하는 시간을 말하는 것으로 단위는 초(sec)이다. 최대 3,600초 즉, 1시간까지 정의할 수 있다. 반복횟수는 유지시간에 대해 액션을 반복하는 속성으로 반복횟수의 최대값은 유지시간 및 이동각도, 회전각도, 흔들기 횟수 등의 영향을 받는다. 반복횟수의 상하한값 제한 수식은 도 5를 참고하기 바란다.Action name defined by action code and default value, minimum value and maximum value of each parameter are defined. The holding time refers to the time to keep the action. The unit is seconds. You can define up to 3,600 seconds, or 1 hour. The number of repetitions is an attribute that repeats the action with respect to the holding time. The maximum value of the number of repetitions is affected by the holding time, the moving angle, the rotation angle, and the number of shaking times. Refer to FIG. 5 for an upper and lower limit restriction formula of the repetition number.

머리 액션의 파라미터의 종류는 동작시 제어되는 특성별로 각기 다르며 다양하다. 머리를 상하로 이동하는 액션코드 HDN0의 경우 파라미터 종류는 유지시간과 반복횟수를 제외하면 이동각도 뿐이지만, 흔들면서 숙이기 액션코드 HSK0의 경우는 흔들기횟수, 흔들기각도, 숙임각도 등으로 정의해야 할 파라미터 종류가 HDN0 보다 다양하다. The types of head action parameters vary and vary depending on the characteristics controlled during operation. In case of action code HDN0, which moves head up and down, the parameter type is only moving angle except for holding time and repetition frequency.However, in case of action code HSK0, parameter to be defined as shaking count, shaking angle, leaning angle, etc. There are more varieties than HDN0.

도 4b는 바퀴 제어에 관련된 액션 패턴으로 총 4가지 종류가 있다. 4B is a total of four types of action patterns related to wheel control.

액션코드 WFB0 앞뒤로 이동하기는 초당 1회의 속도로 10cm의 이동거리를 왕복한 후 시작위치로 복귀하는 것으로 정의되어 있다. 이때, 바퀴의 최대 이동거리는 10cm 이며, 11cm 이상의 파라미터값을 입력하면 상한값 초과 메시지가 발생하게 된다.Moving forward and backward through the action code WFB0 is defined as returning to the starting position after reciprocating a 10cm travel distance at a rate of once per second. At this time, the maximum movement distance of the wheel is 10cm, and if a parameter value of 11cm or more is input, an upper limit value exceeded message is generated.

도 4c는 가슴 LED 제어에 관련된 액션 패턴으로 총 4가지로 정의되어 있다.4C is defined as four action patterns related to chest LED control.

감정이 기쁠 때는 오렌지색 LED가 켜지고, 슬플 때는 파란색 LED가 켜지고, 불안할 때는 빨간색 LED가 켜지게 되어 있다. 평상시의 차분한 감정일 때 가슴 LED는 OFF 상태이다. The orange LED turns on when you are happy, the blue LED turns on when you are sad, and the red LED turns on when you are anxious. The chest LED is OFF when it is normal and calm feeling.

도 4d는 눈 LED 제어에 관련된 액션 패턴으로 총 10가지 종류가 있다. 4D is a total of 10 types of action patterns related to eye LED control.

기본적인 유지시간 및 반복횟수는 다른 액션과 동일하게 초당 1회의 깜빡임으로 정의되어 있다. 로봇의 기분 상태에 따라 눈의 깜빡임 속도를 조절하기 위해서는 초당 반복횟수를 가감하는 것으로 할 수 있다.The default hold time and repeat count are defined as one blink per second, just like any other action. In order to control the blinking speed of the eye according to the mood of the robot, the number of repetitions per second may be added or decreased.

예를 들어, 로봇의 지루한 감정상태를 표현하기 위해서 유지시간 10초, 반복횟수 3회로 정의하면 초당 1회 깜빡이는 기본값 보다 느리게 눈을 깜빡이는 것을 표현할 수 있다. 또한, 파란색, 오렌지색, 빨간색 3색으로 표현할 수 있도록 되어 있다.For example, in order to express the boring emotional state of a robot, if you define 10 seconds of holding time and 3 times of repetition, it can express the blinking of an eye slower than the default blinking once per second. In addition, it can be expressed in three colors: blue, orange, and red.

도 4h는 상기 눈 LED가 동작되는 프레임의 사례를 나타내는 도면으로 LEW0 (윙크) 액션을 보여주는 프레임이다. 눈의 경우, 하나의 액션당 3프레임의 LED 액션을 보여주고 있다.4H is a diagram illustrating an example of a frame in which the eye LED is operated, and shows a frame showing an LEW0 (wink) action. In the case of the eye, it shows 3 frames of LED actions per action.

도 4e,4f,4g는 입 LED 제어에 관련된 액션 패턴으로 총 44가지 종류가 있다. 가슴과 눈 LED와 마찬가지로 초당 1회의 속도로 깜빡이게 되어 있으며, LED는 녹색, 노란색, 빨간색 3색으로 감정에 따라 표현할 수 있도록 되어 있다. 4E, 4F, and 4G are 44 types of action patterns related to input LED control. Like the chest and eye LEDs, they blink at a rate of once per second, and the LEDs are designed to express emotions in three colors: green, yellow, and red.

도 4i는 입 LED가 동작되는 프레임의 사례를 나타내는 도면으로 LMR0 (메롱3) 액션을 보여주는 프레임이다. 입의 경우, 하나의 액션당 10프레임의 LED 액션을 보여주며, 재생시간은 파라미터로 조절할 수 있다.FIG. 4I is a diagram illustrating an example of a frame in which an input LED is operated, and is a frame showing an LMR0 (mock 3) action. FIG. In the case of mouth, it shows 10 frames of LED action per action, and the play time can be adjusted by parameter.

도 5a 내지 도 5c는 로봇액션 파라미터 입력값에 의한 총 반복횟수를 체크하는 수식을 나타내는 것이다.5A to 5C show equations for checking the total number of repetitions by the robot action parameter input value.

로봇액션의 반복횟수는 유지시간과 각도나 거리 등의 영향을 받으며, 각도나 거리 등의 상한값은 하드웨어상 처리할 수 있는 값의 한계치로 설정되어 있다. 유지시간에 따른 각 액션 패턴별로 부여되는 파라미터 값들에 대한 상하한값을 계산하여 값의 초과로 인해 발생되는 로봇의 오류를 방지한다. The number of repetitions of the robot action is affected by the holding time and the angle and distance, and the upper limit of the angle and distance is set as the limit of the value that can be processed in hardware. By calculating the upper and lower limits of the parameter values assigned to each action pattern according to the holding time, the robot error caused by the exceeding value is prevented.

로봇액션의 파라미터 종류에는 유지시간과 반복횟수 외에도 이동방향과 이동끝점 등의 방향제어에 해당하는 속성과 흔들각도 및 숙임각도 등의 각도제어에 해당하는 속성, 그리고 장단길이 등의 다양한 종류가 있다. In addition to the holding time and the number of repetitions, there are various types of robot action parameters such as the property corresponding to the direction control such as the moving direction and the end point, the property corresponding to the angle control such as the swing angle and the bowing angle, and the short and long lengths.

예를 들어 1초의 유지시간에 바퀴을 10cm 앞뒤로 이동할 수 있다고 할 때, 1초에 10cm를 2회 반복하는 것으로 입력한다면 반복횟수의 상한값을 초과한다는 메세지가 발생하겠지만, 1초에 5cm를 2회 이동하는 것으로 정의한다면 상한값 초과 오류를 방지할 수 있을 것이다. 상하한값 제한 수식을 저작툴에 적용함으로써 로봇에서 발생할 수 있는 하드웨어 동작의 오류를 방지할 수 있다.For example, suppose that you can move the wheel back and forth 10 cm in a holding time of 1 second. If you enter 10 cm twice a second, you will get a message that the upper limit of the number of repetitions is exceeded. If defined, it will prevent the error from exceeding the upper limit. By applying the upper and lower limit formulas to the authoring tool, it is possible to prevent errors in hardware operation that may occur in the robot.

도 6a는 로봇의 음성인식 정보를 갖고 있는 음성인식 윈도이다. 6A is a voice recognition window containing voice recognition information of a robot.

음성인식에는 인식형태에 따라 단일 인식어와 구간 인식어 두가지 종류가 있는데, 단일 인식어에 해당하는 것은 파일 인식어와 페이지 인식어 이고, 구간 인식어에는 프레임 인식어가 있다. 그 특징은 살펴보면 대략 다음과 같다. There are two types of speech recognition, a single recognition word and a section recognition word. The single recognition word corresponds to a file recognition word and a page recognition word, and the section recognition word includes a frame recognition word. The characteristics are roughly as follows.

파일과 페이지 인식어는 각각 특정 로봇 컨텐츠 파일과 특정 파일의 특정 페이지에서 전역적으로 사용되는 인식어를 정의하는 기능이고, 구간 인식어는 특정 범위의 시작과 종료 프레임 구간에서만 인식이 활성화 되는 프레임 인식어를 정의할 수 있는 기능이다. The file and page recognition words define the recognition words used globally in a specific robot content file and a specific page of a specific file, respectively. Section recognition words are frame recognition words that are activated only in the start and end frame sections of a specific range. It can be defined.

프레임 인식어는 동일한 컨텐츠 페이지 내에서 두개 이상의 동일한 인식어의 서로 다른 링크경로를 정의할 수 있는 장점이 있다. 그러나, 동일 구간에는 동일한 인식어를 중복하여 서로 다른 링크경로를 처리할 수 없도록 되어 있다.The frame identifier has the advantage of defining different link paths of two or more identical identifiers within the same content page. However, in the same section, different link paths cannot be processed by overlapping the same recognized word.

도 6b는 파일 및 페이지 전역적인 인식어를 등록하는 윈도이다. 도 6a의 음성인식 윈도에서 인식형태를 선택하고 등록창으로 이동하면 나타나는 화면으로 인식단어와 연결형태 및 경로를 설정하는 항목으로 구성되어 있다. 6B is a window for registering file and page global recognition words. 6A is a screen that appears when a recognition type is selected in the voice recognition window of FIG. 6A and moved to a registration window, and includes items for setting a recognition word, a connection type, and a path.

예를 들어, '사과나무' 라는 단어를 로봇이 인식하면 특정 컨텐츠 파일의 지정한 페이지의 특정 프레임으로 링크 연결하는 것이 가능하다. 인식결과가 성공했을 때 링크경로를 변경하는 방법으로 로봇과 사용자 간의 인터액티브한 로봇 컨텐츠 제작이 가능한 장점이 있다.For example, if the robot recognizes the word 'apple', it is possible to link to a specific frame of a specified page of a specific content file. When the recognition result is successful, there is an advantage that interactive robot contents can be produced between the robot and the user by changing the link path.

도 6c는 프레임 구간 인식어를 등록하는 윈도이다. 프레임 인식어는 파일과 페이지 인식어와는 달리 첫 프레임에서 종료 프레임까지 전역적으로 인식되지 않고, 특정 프레임 내에 국한된 인식어를 사용하거나 동일 페이지 내에서 동일한 인식어를 각기 다른 링크경로로 처리할 필요가 있을 때 사용한다. 6C is a window for registering a frame section recognition word. Unlike file and page identifiers, frame identifiers are not recognized globally from the first frame to the end frame. Instead, frame identifiers may need to use localized identifiers within a specific frame or process the same identifier as different link paths within the same page. When used.

예를 들어, 학습 컨텐츠에서 정답 인식어를 페이지 전역적으로 인식되게 하기 보다는 문제 제시후 정답 인식이 필요한 프레임에서만 인식되도록 하는 것이 필요할 때 유용하게 사용된다. 또는, 동일한 인식어가 프레임 구간에 따라 다른 처리를 필요로 할 때 사용되는 기능이다.For example, it is useful when it is necessary to ensure that the correct answer recognition word is recognized only in a frame requiring correct answer after presenting the problem, rather than making the correct answer word recognized throughout the page. Alternatively, this function is used when the same recognition word requires different processing for each frame section.

도 7은 로봇의 음성합성(TTS)을 정의하는 윈도이다. 저작툴에서 로봇과 동일한 한글과 영문 음성합성 엔진이 내장되어 있는데, 저작툴에서 컨텐츠를 제작할 때 한영 모드를 선택하여 등록할 수 있다. 음성합성을 등록할 때는 음성합성등록 윈도에서 로봇 음성합성의 피치와 속도 파라미터 값의 속성을 활용하여 다양한 감정 변화에 따른 적합한 목소리를 표현할 수 있다.7 is a window defining the voice synthesis (TTS) of the robot. In the authoring tool, the same Korean and English speech synthesis engine as the robot is embedded. When authoring content in the authoring tool, you can select and register the Korean-English mode. When registering a voice synthesis, the voice composition registration window can express the appropriate voice according to various emotion changes by utilizing the pitch and velocity parameter values of the robot voice synthesis.

도 8은 저작툴에서 제작된 컨텐츠를 재생하는 플레이어 화면이다. 저작툴을 이용하여 로봇 컨텐츠를 제작한 후 PC에서 재생을 시키면 컨텐츠 플레이어와 함께 음성인식과 합성엔진, 3차원 로봇 시뮬레이터가 모두 함께 구동된다.8 is a player screen for playing content produced by the authoring tool. When the robot content is created using the authoring tool and played on the PC, the voice recognition, synthesis engine, and 3D robot simulator are driven together with the content player.

컨텐츠 플레이어(801)는 저작툴에서 제작한 로봇 컨텐츠를 로봇의 디스플레이 장치에서 볼 수 있도록 하는 재생 프로그램이라고 할 수 있다. 플레이어에는 로봇과 피씨에서 동일하게 동작하는 구조로 되어 있으며, 프로그램 또한 하나로 구성되어 있다. 실제 로봇에서는 플레이어에서 발생되는 명령이 로봇에 전달되며, PC에서는 시뮬레이터에 명령이 전달된다. The content player 801 may be referred to as a playback program for viewing the robot content produced by the authoring tool on the display device of the robot. The player is structured to operate in the same way as the robot and PC, and the program is also configured as one. In a real robot, a command generated by a player is transmitted to the robot, and in a PC, a command is transmitted to the simulator.

그리고, PC 환경에서 플레이어가 구동될 때는 로봇과 동일한 음성합성과 음성인식 엔진이 함께 실행되므로 로봇의 입출력 환경과 동일하게 로봇 컨텐츠를 컴퓨터 상에서도 테스트 할 수 있다. When the player is driven in the PC environment, the same voice synthesis and speech recognition engine as the robot is executed together, so that the robot contents can be tested on the computer in the same manner as the input / output environment of the robot.

따라서, 로봇 컨텐츠를 제작 후 플레이어를 실행하여 컨텐츠 화면과 음성인식과 음성합성 및 로봇의 동작상태를 확인하면서 제작자가 충분히 테스트 할 수 있어 컨텐츠의 디버깅 단계 및 로봇의 작동 오류를 최소화 할 수 있다는 장점이 있다. Therefore, after producing the robot content, the player can run the player and check the content screen, voice recognition, voice synthesis, and the operation status of the robot, and fully test the content, thereby minimizing the debugging stage of the content and the operation error of the robot. have.

3차원 시뮬레이터는 컨텐츠와 동기화 되어 작동되는 실제 로봇의 구동상태를 확인하는 것으로 로봇이 없더라도 로봇과 동일하게 시뮬레이션 할 수 있도록 고안되었다. 3차원 시뮬레이터를 활용하면 많은 로봇 컨텐츠 제작자들이 각각 실제 로봇을 소유하고 있지 않더라도 로봇과 함께 구동되는 컨텐츠를 제작한 후 충분히 시뮬레이션 할 수 있는 장점이 있다.The 3D simulator checks the driving state of the actual robot that operates in synchronization with the contents. It is designed to simulate the robot even without the robot. By utilizing the 3D simulator, many robot content creators have the advantage of being able to fully simulate the contents that are driven with the robot even if they do not own the actual robot.

3차원 시뮬레이터의 구동에는 실제 로봇의 동작과 동일한 머리, 바퀴, 눈, 입, 가슴 등의 움직임을 사실적으로 표현하고 있다. 이때, 컨텐츠 플레이어와 시뮬레이터는 TCP/IP 통신에 의해 입력을 받아 로봇과 동일하게 동작한다.The driving of the 3D simulator realistically expresses the movements of the head, wheels, eyes, mouth, and chest, which are the same as those of a real robot. At this time, the content player and the simulator receive the input by TCP / IP communication and operate like a robot.

플레이어 컨트롤바(802)는 PC 상에서 컨텐츠를 재생하기 위해 필요한 도구이다. 플레이어 컨트롤 바에는 일시정지와 재생, 첫 프레임으로 이동 및 끝 프레임으로 이동, 컨텐츠의 페이지 네비게이션 이동 등을 처리할 수 있도록 되어 있다. 단, 컨텐츠 플레이어가 로봇 모드일 때는 나타나지 않는다.The player control bar 802 is a tool necessary for playing content on a PC. The player control bar allows you to pause and play, move to the first frame, move to the end frame, and move the page navigation of the content. This does not appear when the content player is in robot mode.

도 9는 저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트의 구조를 나타내는 그림으로 스크립트를 활용하면, 학습 컨텐츠의 로직을 설계할 때 정의되지 않은 다양한 처리 형태를 가진 컨텐츠를 제작할 수 있다는 장점이 있다.9 is a diagram showing the structure of the script used for the purpose of controlling the content for the robot in the authoring tool, the advantage of using the script, it is possible to produce content with a variety of processing forms that are not defined when designing the logic of the learning content have.

도 9에서 보는 바와 같이, 스크립트 인터프리터는, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성된다. As shown in FIG. 9, the script interpreter includes a lexical analyzer 901 that separates each token into input of a script source input by a user, retrieves a grammar from the generated tokens, and generates a table to be used in execution. The parser 902 is configured to include an executor 903 that executes an action on an object using the execution table as an input.

컨텐츠 제작 단계에서 저작툴로 스크립트를 입력한 후, 제작된 컨텐츠에서 스크립트 소스가 어휘 분석 및 구문 분석되는 시점은 컨텐츠가 실행되기 이전이다.After inputting the script with the authoring tool in the content production stage, the time when the script source is lexical analyzed and parsed in the produced content is before the content is executed.

어휘 분석 및 구문 분석의 결과로 문법상의 오류가 없을 경우 구문 트리가 만들어지며, 컨텐츠 실행시 이 구문 트리를 이용해서 스크립트로 지시한 내용들이 실행된다. 구체적인 예를 다음에서 설명하도록 한다.If there is no grammatical error as a result of lexical analysis and parsing, a syntax tree is created, and the contents instructed by the script are executed using this syntax tree when executing content. Specific examples will be described below.

도 10a 내지 10e는 스크립트 내장 키워드 목록으로서, 도 10a는 스크립트의 문장 종류, 10b는 스크립트 전역 함수 종류, 10c는 스크립트 이벤트의 종류, 10d는 스크립트 시스템 함수의 종류, 10e는 스크립트 사용 기호의 종류를 각각 나타낸다.10A to 10E are script built-in keyword lists, FIG. 10A is a script sentence type, 10B is a script global function type, 10c is a script event type, 10D is a script system function type, and 10e is a script usage symbol type, respectively. Indicates.

다음의 실시예를 도 11을 참조해서 설명하도록 한다.The following embodiment will be described with reference to FIG.

(1101)은 로봇의 몸체에 부착된 12.1" LCD 액정 디스플레이 장치에서 보여지는 컨텐츠 화면 영역이다. 그리기 툴바에서 제공하는 백터 드로잉 툴 등으로 직접 객체를 제작해서 생성할 수도 있고, 외부의 매크로미디어 플래시 쇽웨이브 파일을 불러와서 로봇액션만 추가해서 사용할 수도 있다. 컨텐츠에 필요한 네비게이션 등은 버튼을 삽입하여 필요한 링크속성을 부여해서 컨텐츠 내부에 삽입하여 사용할 수 있다. 1101 is a content screen area seen on a 12.1 "LCD liquid crystal display device attached to the body of a robot. An object can be created and created directly by using a vector drawing tool provided by a drawing toolbar, or an external Macromedia Flash display. You can also import wave files and add robot actions only, and you can insert navigation buttons for content by inserting buttons and inserting them into the content.

저작툴의 타임라인 윈도(1102)로 각 레이어에 해당하는 특정한 프레임에 그림과 같이 로봇제어에 필요한 액션들이 삽입되어 있는 것을 확인할 수 있다. 로봇액션을 타임라인 프레임에 삽입하는 방법은 로봇정보 윈도의 로봇액션 목록에서 원하는 로봇액션 코드를 선택하여 해당 프레임에 끌어다 놓으면 자동으로 해당 레이어를 찾아서 프레임에 추가된다.The timeline window 1102 of the authoring tool shows that the actions necessary for robot control are inserted in a specific frame corresponding to each layer as shown in the figure. In order to insert a robot action into the timeline frame, select the desired robot action code from the robot action list of the robot information window and drag it to the frame to automatically find the layer and add it to the frame.

상기 음성합성의 경우도 음성합성 윈도에서 로봇이 TTS로 말할 내용을 문자로 입력해서 등록을 한후 원하는 음성합성 목록을 원하는 프레임에 끌어다 놓으면 타임라인에 음성합성 레이어에 자동으로 추가가 되는 구조로 되어 있으며, 플레이어 실행시 해당 프레임에서 음성합성 송출이 시작되게 된다. In the case of the voice synthesis, the robot inputs the contents to be spoken by the TTS in the voice synthesis window, registers the text, and drags the desired voice synthesis list to the desired frame. The voice synthesis layer is automatically added to the voice synthesis layer. When the player runs, voice synthesis transmission starts at the corresponding frame.

상기 음성인식 단어도 타임라인의 음성인식 레이어에 표시가 되는데, 인식단어 등록 윈도(1103)에서 인식단어 및 처리할 링크경로 등을 입력하면 자동적으로 타임라인에 추가되는 구조로 되어 있다. 그림과 같이 삽입된 액션들은 컨텐츠 재생시 프레임이 진행에 따라 시간순으로 처리가 되고 로봇 또는 시뮬레이터에서 동작에 대한 액션이 발생하게 되는 구조이다. The speech recognition word is also displayed on the speech recognition layer of the timeline. When the recognition word and the link path to be processed are input in the recognition word registration window 1103, the speech recognition word is automatically added to the timeline. As shown in the figure, the inserted actions are processed in the order of time as the frame progresses when the content is played, and actions for actions are generated in the robot or the simulator.

이상에서 설명한 바와 같이 본 발명은 로봇의 제어에 대한 특별한 지식이 없는 사람이라도 단기간의 학습을 통해 로봇과 연동하는 멀티미디어 컨텐츠를 제작할 수 있는 프로그램 환경을 제공한다. 또한, 로봇의 신체 부위 및 동작의 특성별로 각기 다른 종류의 파라미터를 적용함으로써 정의되지 않은 다양한 로봇의 동작을 새롭게 만들어 낼 수 있는 효과가 있다. 그리고, 로봇의 표정, 감정, 머리, 바퀴 등의 하드웨어적인 제어와 음성합성 및 음성인식까지 저작툴을 통해 제어하는 기능을 제공함으로써 GUI와 함께 상호 복합적인 완성도 높은 로봇용 컨텐츠를 개발할 수 있도록 함으로써 개발 기간의 단축과 비용 절감의 효과가 있다고 설명할 수 있다. 뿐만 아니라, 컨텐츠 플레이어 및 3차원 시뮬레이터를 통해 PC에서도 제작된 로봇 컨텐츠를 완벽한 시뮬레이션을 통해 사전 검토 및 감상등의 작업을 할 수 있다. As described above, the present invention provides a program environment in which even a person who does not have special knowledge on the control of the robot can produce multimedia contents linked with the robot through short-term learning. In addition, by applying different types of parameters for each body part and operation characteristics of the robot, there is an effect that can newly create a variety of undefined motion of the robot. In addition, by providing the hardware control of the robot's facial expressions, emotions, head, wheels, and even voice synthesis and voice recognition through the authoring tool, it is possible to develop a highly complex robot content with a GUI. It can be explained that there is an effect of shortening the cost and reducing the cost. In addition, through the content player and 3D simulator, robot contents created on the PC can be fully simulated and reviewed and watched.

도 1은 본 발명의 저작환경을 보여주는 스크린샷,1 is a screenshot showing the authoring environment of the present invention,

도 2는 개발중인 로봇으로 본 발명에서 직접 구동하는 부분을 나타내고,2 shows a part directly driven by the present invention as a robot under development,

도 3은 실제 로봇의 제어를 세부적으로 정의할 수 있는 도 1의 정적 객체 정보 윈도에 포함되어 있는 로봇액션 윈도이며, FIG. 3 is a robot action window included in the static object information window of FIG. 1 which can define the control of an actual robot in detail.

도 4a는 머리 액션 종류 및 파라미터,4A shows head action types and parameters,

도 4b는 바퀴 액션 종류 및 파라미터, 4b shows wheel action types and parameters,

도 4c는 가슴 LED 종류 및 파라미터, 4C shows the chest LED type and parameters,

도 4d는 눈 LED 종류 및 파라미터, 4d shows eye LED types and parameters,

도 4e,4f,4g는 입 LED 종류 및 파라미터,4e, 4f and 4g show the LED type and parameters,

도 5a는 LED 액션 파라미터 상하한값 제한식, 5A is an LED action parameter upper and lower limit restriction formula,

도 5b는 머리 액션 파라미터 상하한값 제한식, 5B is a head action parameter upper and lower limit restriction formula,

도 5c는 바퀴 액션 파라미터 상하한값 제한식, 5C is a wheel action parameter upper and lower limit restriction formula,

도 6a는 로봇의 음성인식 정보를 갖고 있는 음성인식 윈도,Figure 6a is a voice recognition window having voice recognition information of the robot,

도 6b는 파일 및 페이지 전역적인 인식어를 등록하는 윈도, 6B is a window for registering file and page global recognition words;

도 6c는 프레임 구간 인식어를 등록하는 윈도, 6C is a window for registering a frame section recognition word;

도 7은 로봇의 음성합성(TTS)을 정의하는 윈도,7 is a window defining a voice synthesis (TTS) of the robot,

도 8은 저작툴에서 제작된 컨텐츠를 재생하는 플레이어 화면,8 is a player screen for playing content produced by an authoring tool;

도 9는 저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트의 구조를 나타내며,9 shows the structure of a script used for the purpose of controlling content for a robot in an authoring tool,

도 10a 내지 10e는 스크립트 내장 키워드 목록으로서, 도 10a는 스크립트의 문장 종류, 10b는 스크립트 전역 함수 종류, 10c는 스크립트 이벤트의 종류, 10d는 스크립트 시스템 함수의 종류, 10e는 스크립트 사용 기호의 종류를 각각 나타내며,10A to 10E are script built-in keyword lists, FIG. 10A is a script sentence type, 10B is a script global function type, 10c is a script event type, 10D is a script system function type, and 10e is a script usage symbol type, respectively. Indicates,

도 11은 로봇 컨텐츠 제작의 실시예를 보여주며,11 shows an embodiment of robot content creation,

도 12는 타임 라인 구조도,12 is a timeline structure diagram;

도 13은 로봇액션 구조도,13 is a robot action structure diagram,

도 14는 음성인식 구조도.14 is a speech recognition structure diagram.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

(101) 로봇에 디스플레이 되는 화면 영역 (101) Screen area displayed on the robot

(102) 저작툴의 타임라인 윈도 (103) 머리 액션 레이어 (102) Timeline window of authoring tool (103) Head action layer

(104) 바퀴 액션 레이어 (105) 눈 LED 레이어 104 Wheels Action Layer 105 Eyes LED Layer

(106) 입 LED 레이어 (107) 가슴 LED 레이어 106 mouth LED layer 107 chest LED layer

(108) 음성합성 레이어 (109) 음성인식 레이어 (108) Speech Synthesis Layer (109) Speech Recognition Layer

(110) 그리기 툴바 (111) 일반객체 정보 윈도(110) Drawing Toolbar (111) General Object Information Window

(112) 정적객체 정보 윈도(112) Static Object Information Window

(201) 머리 (202) 바퀴201 head 202 wheels

(203) 눈 (204) 입 203 Eyes 204 Mouth

(205) 가슴 (206) TFT LCD (터치 스크린)205 Chest 206 TFT LCD Touch Screen

(301) 명령종류 (302) 명령코드(301) Command type (302) Command code

(303) 명령이름 (304) 파라미터 종류(303) Command name (304) Parameter type

(305) 상하한값 (306) 액션종류(305) Upper / Lower Limit (306) Action Type

(801) 컨텐츠 플레이어 (802) 플레이어 컨트롤바(801) Content Player (802) Player Control Bar

(803) 3차원 시뮬레이터 (803) 3D Simulator

(901) 어휘분석기 (902) 구문 분석기(901) lexer (902) parser

(903) 실행기(903) Launcher

(1101) 컨텐츠 화면 영역 (1102) 타임라인 윈도(1101) content screen area (1102) timeline window

(1103) 음성인식 등록 윈도(1103) Voice recognition registration window

Claims (8)

로봇액션, 음성인식, 음성합성 등의 전체 로봇제어와 멀티미디어 기반의 저작기능, 그리고 로봇이 없는 사용자도 로봇과 동일한 형태의 시뮬레이션이 가능하도록하는 컨텐츠 플레이어 및 3차원 시뮬레이터를 포함하여 구성하되;It includes a complete robot control, such as robot action, speech recognition, speech synthesis, multimedia-based authoring function, and a content player and a three-dimensional simulator that enables a user without a robot to simulate the same form as a robot; 고정 레이어에는 머리 액션 레이어(103), 바퀴 액션 레이어(104), 눈 LED 레이어(105), 입 LED 레이어(106), 가슴 LED 레이어(107)가 있고, 음성합성 레이어(108), 음성인식 레이어(109)를 포함하여 로봇과 직접적인 제어에 관련된 부분을 표시하는 레이어 목록이 있으며, 컨텐츠 제작시 필요한 그리기 툴바(110)와 일반객체 정보 윈도(111), 로봇액션 정보 및 음성합성, 음성인식 등록을 위한 정적객체 정보 윈도(112)가 있는 저작환경을 포함하는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작용 저작툴.The fixed layer includes the head action layer 103, the wheel action layer 104, the eye LED layer 105, the mouth LED layer 106, the chest LED layer 107, the speech synthesis layer 108, and the speech recognition layer. There is a layer list that displays the parts related to the direct control with the robot, including (109), the drawing toolbar 110, general object information window 111, robot action information and voice synthesis, and voice recognition registration required for content creation. Authoring tool for content creation of an intelligent robot, characterized in that it comprises an authoring environment with a static object information window 112 for. 청구항 1에 있어서, 상기 고정 레이어에는 플래시와 사운드 등의 멀티미디어 객체 및 스크립트 제어를 표시하는 레이어가 포함되고, 타임라인은 각기 다른 객체 및 로봇액션을 복합적으로 제어할 수 있도록 실제 구동이 가능한 로봇액션을 타임라인의 프레임에 삽입하면 컨텐츠와 동기화 되어 실행되는 구조로 된 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작용 저작툴.The method of claim 1, wherein the fixed layer includes a layer for displaying multimedia objects, such as flash and sound, and script control, and the timeline includes a robot action that can be actually driven so as to control a variety of different objects and robot actions. Authoring tool for content creation of an intelligent robot, characterized in that the structure is executed in synchronization with the content when inserted into the frame of the timeline. 청구항 1에 있어서, 저작툴에서 로봇용 컨텐츠를 제어하는 목적으로 사용되는 스크립트를 이용하되, The method according to claim 1, wherein a script used for the purpose of controlling the content for the robot in the authoring tool, 상기 스크립트 인터프리터는, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성되는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작용 저작툴.The script interpreter includes a lexical analyzer 901 for separating each token into input of a script source input by a user, a parser 902 for retrieving a grammar from the generated tokens and generating a table to be used at execution time. And an executor 903 that executes an action on an object with an execution table as an input. 머리, 바퀴, 눈, 입, 가슴 등의 로봇 제어 부위를 구분하는 명령종류(301), 제어되는 부위별로 가능한 액션패턴에 대해 고유의 코드로 정의된 명령코드(302), 각 액션코드에 대해 부여된 명령이름(303), 로봇액션에 대해 세부적인 제어를 위한 파라미터 종류(304), 로봇의 하드웨어에서 처리할 수 있는 한계범위를 나타내는 상하한값(305)으로 구성된 로봇액션 윈도를 포함하는 청구항 1의 저작툴을 이용하여,Command type 301 for distinguishing robot control parts such as head, wheel, eyes, mouth and chest, command code 302 defined as a unique code for action patterns available for each controlled part, and given to each action code The robot action window of claim 1 includes a command name 303, a parameter type 304 for detailed control of the robot action, and an upper and lower limit value 305 indicating a limit range that can be processed by the hardware of the robot. Using the authoring tool, 저작툴의 타임라인에서 프레임 진행 방식의 구조를 통해 머리(201), 바퀴(202)의 동작을 제어하고, 눈(203)과 입 LED(204) 제어를 통해 효과적인 얼굴의 표현을 제어하며, 가슴 LED(205)를 통해 로봇의 감정상태를 최종 사용자에게 전달할 수 있도록 한 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작 방법.In the timeline of the authoring tool, the operation of the head 201 and the wheel 202 is controlled through the structure of the frame progress method, the effective face expression is controlled through the control of the eye 203 and the mouth LED 204, and the chest LED is controlled. The content creation method of the intelligent robot, characterized in that to transmit the emotional state of the robot to the end user through the (205). 청구항 4에 있어서, 저작툴을 이용하여 로봇 컨텐츠를 제작한 후, PC에서 재생을 시키면 컨텐츠 플레이어와 함께 음성인식과 합성엔진, 3차원 로봇 시뮬레이터가 모두 함께 구동되고; 컨텐츠 플레이어(801)에서 상기 저작툴에서 제작한 로봇 컨텐츠를 미리 시뮬레이션할 수 있고, 실제 로봇에서는 플레이어에서 발생되는 명령이 로봇에 전달되며, PC에서는 시뮬레이터에 명령이 전달되어; 3차원 시뮬레이터의 구동에는 실제 로봇의 동작과 동일한 머리, 바퀴, 눈, 입, 가슴 등의 움직임을 사실적으로 표현될 수 있도록 한 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작 방법.The method according to claim 4, after producing the robot content using the authoring tool, when playing on the PC, the voice recognition, synthesis engine, and the three-dimensional robot simulator together with the content player is driven together; In the content player 801, the robot content produced by the authoring tool can be simulated in advance, and in a real robot, a command generated in the player is transmitted to the robot, and in a PC, a command is transmitted to the simulator; The method of producing a content of an intelligent robot, characterized in that the driving of the three-dimensional simulator to realistically represent the movement of the head, wheels, eyes, mouth, chest, and the same as the actual robot motion. 청구항 5에 있어서, 상기 컨텐츠 플레이어와 시뮬레이터는 TCP/IP 통신에 의해 입력을 받아 로봇과 동일하게 동작하는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작 방법.The method of claim 5, wherein the content player and the simulator receive an input by TCP / IP communication and operate in the same manner as the robot. 청구항 4 또는 5에 있어서, The method according to claim 4 or 5, 상기 음성인식에 있어서, 파일과 페이지 인식어는 각각 특정 로봇 컨텐츠 파일과 특정 파일의 특정 페이지에서 전역적으로 사용되는 인식어를 정의하고, 구간 인식어는 특정 범위의 시작과 종료 프레임 구간에서만 인식이 활성화 되는 프레임 인식어를 정의하며, 프레임 인식어는 동일한 컨텐츠 페이지 내에서 두개 이상의 동일한 인식어의 서로 다른 링크경로를 정의할 수 있으며;In the speech recognition, a file and a page recognition word define a recognition word used globally in a specific robot content file and a specific page of the specific file, respectively, and the section recognition word is activated only in a start and end frame section of a specific range. Define a frame identifier, and the frame identifier may define different link paths of two or more identical identifiers within the same content page; 특정 단어를 로봇이 인식하면 특정 컨텐츠 파일의 지정한 페이지의 특정 프레임으로 링크 연결하는 것이 가능하고, 인식결과가 성공했을 때 링크경로를 변경하는 방법으로 로봇과 사용자 간의 인터액티브한 로봇 컨텐츠 제작이 가능하며;When the robot recognizes a certain word, it is possible to link to a specific frame of a specified page of a specific content file.When the recognition result is successful, interactive robot content can be produced between the robot and the user by changing the link path. ; 상기 프레임 인식어는 파일과 페이지 인식어와는 달리 첫 프레임에서 종료 프레임까지 전역적으로 인식되지 않고, 특정 프레임 내에 국한된 인식어를 사용하거나 동일 페이지 내에서 동일한 인식어를 각기 다른 링크경로로 처리할 필요가 있을 때 사용되는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작 방법.Unlike the file and page recognition words, the frame recognition words are not recognized globally from the first frame to the end frame, and it is not necessary to use the recognition words localized in a specific frame or to process the same recognition words as different link paths in the same page. Content creation method of intelligent robot, characterized in that used when there is. 청구항 4에 있어서, 사용자에 의하여 입력 되어진 스크립트 소스의 입력으로 각 토큰을 분리하는 어휘 분석기(901), 생성된 토큰을 입력으로 문법을 검색하고, 실행시 사용되어질 테이블을 생성하는 구문 분석기(902), 실행 테이블을 입력으로 객체에 대한 행위를 실행하는 실행기(903)로 구성된 스크립트를 이용하여 저작툴에서 로봇용 컨텐츠를 제어하며 컨텐츠를 제작하는 단계에서 저작툴로 스크립트를 입력한 후, 제작된 컨텐츠에서 스크립트 소스가 어휘 분석 및 구문 분석되는 시점은 컨텐츠가 실행되기 이전이고, 어휘 분석 및 구문 분석의 결과로 문법상의 오류가 없을 경우 구문 트리가 만들어지며, 컨텐츠 실행시 이 구문 트리를 이용해서 스크립트로 지시한 내용들이 실행되는 것을 특징으로 하는 지능형 로봇의 컨텐츠 제작 방법.The lexical analyzer 901 of claim 4, wherein each token is separated by input of a script source input by a user, and a parser 902 is configured to retrieve a grammar from the generated token and generate a table to be used at execution time. By using a script consisting of a launcher 903 that executes an action on an object with an execution table as input, the script is controlled by the authoring tool in the authoring step in the content creation step. When the source is lexical parsed and parsed before the content is executed, if there is no grammatical error as a result of lexical parsing and parsing, a syntax tree is created. Content creation method of intelligent robot, characterized in that the contents are executed.
KR1020030067691A 2003-09-30 2003-09-30 Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same KR100572683B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030067691A KR100572683B1 (en) 2003-09-30 2003-09-30 Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030067691A KR100572683B1 (en) 2003-09-30 2003-09-30 Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same

Publications (2)

Publication Number Publication Date
KR20050031525A true KR20050031525A (en) 2005-04-06
KR100572683B1 KR100572683B1 (en) 2006-04-19

Family

ID=37236378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030067691A KR100572683B1 (en) 2003-09-30 2003-09-30 Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same

Country Status (1)

Country Link
KR (1) KR100572683B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100738258B1 (en) * 2005-07-04 2007-07-12 주식회사 유진로봇 Robot Contents Authoring Method using Script Generator and Commercially-Off-the-Shelf Multimedia Authoring Tool for Control of Various Robot Platforms
KR100738052B1 (en) * 2006-12-26 2007-07-12 주식회사 이디 System for simulating intelligent robot control
KR100760508B1 (en) * 2005-08-19 2007-09-20 한국과학기술원 The grammar processing module of robot language for conversing with software robot
KR101036885B1 (en) * 2010-01-08 2011-05-25 주식회사 로보로보 System and method for providing robot-information
KR101241830B1 (en) * 2012-05-23 2013-03-18 (주)이공감 Test system for assembling a driving apparatus for education
KR20160057648A (en) * 2014-11-14 2016-05-24 이창길 System and method for managing action block for autonomous movement of robot
US9495788B2 (en) 2013-03-22 2016-11-15 Kt Corporation Apparatus and method for developing robot contents
US9636822B2 (en) 2012-07-23 2017-05-02 Future Robot Co., Ltd. Method and device for generating robot control scenario
JP2021067922A (en) * 2019-10-28 2021-04-30 ネイバー コーポレーションNAVER Corporation Content editing support method and system based on real time generation of synthetic sound for video content

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100756345B1 (en) 2006-12-04 2007-09-10 (주)시뮬레이션연구소 Robot simulation system using the network

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100738258B1 (en) * 2005-07-04 2007-07-12 주식회사 유진로봇 Robot Contents Authoring Method using Script Generator and Commercially-Off-the-Shelf Multimedia Authoring Tool for Control of Various Robot Platforms
KR100760508B1 (en) * 2005-08-19 2007-09-20 한국과학기술원 The grammar processing module of robot language for conversing with software robot
KR100738052B1 (en) * 2006-12-26 2007-07-12 주식회사 이디 System for simulating intelligent robot control
WO2008078890A1 (en) * 2006-12-26 2008-07-03 Ed Co., Ltd Intelligent robot controlling simulation system
KR101036885B1 (en) * 2010-01-08 2011-05-25 주식회사 로보로보 System and method for providing robot-information
KR101241830B1 (en) * 2012-05-23 2013-03-18 (주)이공감 Test system for assembling a driving apparatus for education
WO2013176360A1 (en) * 2012-05-23 2013-11-28 (주)이공감 Test system for assembling learning driving apparatus
US9636822B2 (en) 2012-07-23 2017-05-02 Future Robot Co., Ltd. Method and device for generating robot control scenario
US9495788B2 (en) 2013-03-22 2016-11-15 Kt Corporation Apparatus and method for developing robot contents
KR20160057648A (en) * 2014-11-14 2016-05-24 이창길 System and method for managing action block for autonomous movement of robot
JP2021067922A (en) * 2019-10-28 2021-04-30 ネイバー コーポレーションNAVER Corporation Content editing support method and system based on real time generation of synthetic sound for video content

Also Published As

Publication number Publication date
KR100572683B1 (en) 2006-04-19

Similar Documents

Publication Publication Date Title
Noble Programming interactivity
Gibb New media art, design, and the Arduino microcontroller: A malleable tool
JP2607561B2 (en) Synchronized speech animation
JP6319772B2 (en) Method and system for generating contextual behavior of a mobile robot performed in real time
KR100572683B1 (en) Authoring tool for content creation of intelligent robot and content creation method of intelligent robot using the same
KR100738258B1 (en) Robot Contents Authoring Method using Script Generator and Commercially-Off-the-Shelf Multimedia Authoring Tool for Control of Various Robot Platforms
Panëels et al. Prototyping 3D haptic data visualizations
CN107103810A (en) Situational programming teaching method
Hartmann Gaining design insight through interaction prototyping tools
Kim et al. Heyteddy: Conversational test-driven development for physical computing
Huenerfauth Spatial representation of classifier predicates for machine translation into american sign language
Gu et al. Innovative Digital Storytelling with AIGC: Exploration and Discussion of Recent Advances
Monga et al. Learning to program in a constructionist way
Xinogalos et al. Introducing novices to programming: a review of teaching approaches and educational tools
Hanser et al. Scenemaker: Intelligent multimodal visualisation of natural language scripts
Quach Agent-based programming interfaces for children supporting blind children in creative computing through conversation
Giunchi et al. DreamCodeVR: Towards Democratizing Behavior Design in Virtual Reality with Speech-Driven Programming
Kalb Object-oriented Python: Master OOP by Building Games and GUIs
Sklirou Programming in secondary education: Applications, new trends and challenges
Pettersson et al. Perspectives on Ozlab in the cloud: A literature review of tools supporting Wizard-of-Oz experimentation, including an historical overview of 1971-2013 and notes on methodological issues and supporting generic tools
Lodi et al. Learning to program in a constructionist way
Nakhal Generation of communicative intentions for virtual agents in an intelligent virtual environment: application to virtual learning environment
Bogdan Turtle Graphics for WebTigerJython-3
Hanser et al. Text-to-Animation: Affective, Intelligent and Multimodal Visualisation of Natural Language Scripts
VALSAMAKIS FULL-SCALE VISUAL PROGRAMMING IDE: PROJECTS, COLLABORATION AND DOMAIN PLUGINS

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130416

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140411

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160412

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170413

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee