KR20140115902A - Apparatus and method for developing robot contents - Google Patents

Apparatus and method for developing robot contents Download PDF

Info

Publication number
KR20140115902A
KR20140115902A KR1020130057176A KR20130057176A KR20140115902A KR 20140115902 A KR20140115902 A KR 20140115902A KR 1020130057176 A KR1020130057176 A KR 1020130057176A KR 20130057176 A KR20130057176 A KR 20130057176A KR 20140115902 A KR20140115902 A KR 20140115902A
Authority
KR
South Korea
Prior art keywords
motion
robot
event
editing
robot model
Prior art date
Application number
KR1020130057176A
Other languages
Korean (ko)
Other versions
KR101626966B1 (en
Inventor
김종철
정성택
홍미정
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to US14/039,942 priority Critical patent/US9495788B2/en
Publication of KR20140115902A publication Critical patent/KR20140115902A/en
Application granted granted Critical
Publication of KR101626966B1 publication Critical patent/KR101626966B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are an apparatus and a method for developing content which can sequentially direct motions of a robot according to time and synchronize motions of a robot with a media. The apparatus for developing robot content outputs an interface including an editing area and a motion event track, and includes: a drawer configured to implement and provide a three-dimensional robot model in the edition area; and a motion editor which generates a robot motion event according to a motional operation with respect to the robot model of the editing area and provides the robot motion event on the motion event tract according to the time.

Description

로봇 컨텐츠 저작 장치 및 방법{APPARATUS AND METHOD FOR DEVELOPING ROBOT CONTENTS}[0001] APPARATUS AND METHOD FOR DEVELOPING ROBOT CONTENTS [0002]

본 발명은 로봇을 제어할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법에 관한 것으로, 보다 구체적으로, 시간의 흐름에 따라 로봇의 모션을 순차적으로 연출할 수 있고 또한 미디어와 로봇의 모션을 동기화하여 연출할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and a method for authoring content capable of controlling a robot, and more particularly, it relates to an apparatus and a method for authoring content of a robot capable of sequentially controlling the motions of the robot in accordance with time, And more particularly, to a device and a method for authoring content that can be used in a mobile communication system.

일반적으로, 현재의 로봇 제어 방법은 대부분 필요시마다 개발자가 프로그래밍을 해서 로봇에서 직접 실행을 해보고 결과의 오류를 찾아 몇 차례의 디버깅을 거치는 일련의 과정을 거친다. 그리고, 디스플레이되는 화면과 실제 로봇과의 동작을 연결하여 동기화시키는 것도 간단치 않은 작업이다. Generally, the current robot control method is a series of processes in which a developer performs programming, executes directly in a robot, finds an error of a result, and performs a few debugging processes. It is also a simple task to connect and synchronize the motion of the displayed image with the actual robot.

이러한 기술적 한계로 인해, 실생활에 유익한 다양한 컨텐츠를 제공하는 로봇을 상품화하는 것에 어려움이 있다. 로봇마다 플랫폼과 제어가 필요한 부분이 각기 다른 이유로 특정 로봇의 제어 목적으로 개발된 저작 툴과 컨텐츠는 다른 로봇에는 적용하기 어려운 상황이 발생하게 된다. Due to these technical limitations, it is difficult to commercialize a robot that provides various contents useful for real life. Because the robot needs different platform and control parts, the authoring tool and contents developed for the control of the specific robot are difficult to apply to other robots.

예를 들어, 초기에 개발된 로봇의 경우 팔이 없어 제어할 필요가 없었으나, 차기에 개발된 로봇의 경우 팔이 추가되어 제어가 필요하게 되었는데, 기존에 개발된 구조의 저작 툴로는 새로 추가된 기능을 사용할 수 없어 매번 새로운 로봇이 개발될 때마다 그에 종속적인 새로운 저작 툴과 컨텐츠를 개발해야 한다는 문제가 발생하게 된다.For example, in the case of an initially developed robot, there was no need to control it because there was no arm, but in the case of a robot developed in the future, an arm was added and control was required. Function can not be used, so that every time a new robot is developed, there arises a problem of developing a new authoring tool and contents dependent thereon.

또한, 로봇만의 특화된 얼굴 인식, 대화 기술, 네비게이션, 사용자 응시 등의 기능을 컨텐츠에 적용하기 어려워 PC용으로 개발된 컨텐츠와 차별화된 컨텐츠를 개발하는 데 있어 한계가 있다. 로봇의 독창적인 컨텐츠 개발을 위하여 로봇 관련 개발 기술을 컨텐츠에 접목시키는 기능이 필요하다.In addition, it is difficult to apply functions such as specialized face recognition, dialogue technology, navigation, and user gazing only for robots to the contents, which is a limitation in developing contents differentiated from contents developed for PCs. In order to develop original contents of robots, it is necessary to combine robot-related development technology with contents.

최근 교육 콘텐츠 서비스를 제공하는 로봇이 개발되었다. 이러한 지능형 서비스 로봇은 외양에서 인간과 유사성을 가짐으로 자연스러운 대화가 가능하고 화면과 얼굴 LED를 통해 감정 교류가 일어날 수 있다. 또한 학습자의 상태를 음성이나 센서 등을 통해 인식하여 개별적인 학습자 필요에 반응하고 자극함으로써 자발적 학습을 촉진할 수 있다. Recently, robots have been developed to provide educational contents services. Such an intelligent service robot can have a natural dialogue with the human being in similarity with the appearance, and emotional exchange can occur through the screen and face LED. In addition, the learners' state can be recognized through voice or sensors, which can stimulate voluntary learning by responding to and stimulating individual learner needs.

이러한 로봇은 기존의 도구적인 교수 매체 개념을 넘어 유아와 함께 협력하며 공존하는 로봇 선생님이나 친구로 다가가고 있다. 이러한 지능형 서비스 로봇에도 안드로이드 운영체제와 같은 오픈 아키텍처가 채택되고 있다. 따라서 지능형 서비스 로봇의 어플리케이션 개발에도 많은 일반 개발자들이 참여할 수 있게 되었다. 그런데 전술한 바와 같이 지능형 서비스 로봇은 모바일 단말과 달리 자체 이동성이 있고 자율 주행 중 회피 기동의 기능이 있으며, 회피 기능을 위한 센서들이 채용되고, 또한 감성 서비스를 제공하기 위해 여러 부위에 터치 감지 센서 및 LED 등의 여러 종류의 하드웨어가 채용된다. These robots go beyond the traditional instrumental teaching medium concept and cooperate with the infant to reach coexisting robot teacher or friend. These intelligent service robots are also adopting the same open architecture as the Android operating system. Therefore, many general developers can participate in application development of intelligent service robots. As described above, unlike a mobile terminal, the intelligent service robot has its own mobility and has a function of avoiding start during autonomous traveling. Sensors for avoiding functions are employed, and in order to provide emotional service, Various kinds of hardware such as LED are adopted.

따라서 이러한 지능형 서비스 로봇의 하드웨어 자원을 이용하고 제어할 수 있는 컨텐츠를 자유롭게 개발할 수 있는 환경이 요구된다. Therefore, there is a need for an environment capable of freely developing contents that can utilize and control hardware resources of the intelligent service robot.

한국공개특허 2009-0078244(2009.07.17 공개)Korean Published Patent 2009-0078244 (Released on July 17, 2009)

본 발명은 상기와 같은 문제점을 해결하기 위해 제안된 것으로, 로봇의 사용자가 프로그래밍 작업 없이 로봇의 하드웨어 자원을 이용하고 제어할 수 이는 로봇용 컨텐츠를 개발할 수 있는 저작 환경을 제공하는 로봇 컨텐츠 저작 장치 및 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above problems, and it is an object of the present invention to provide a robot content authoring apparatus and a robot content authoring apparatus for providing a authoring environment in which a robot user can use and control hardware resources of a robot without programming, The purpose of the method is to provide.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

상기 목적을 달성하기 위한 로봇 컨텐츠 저작 장치는, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하고, 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함한다. In order to achieve the above object, a robot content authoring apparatus includes: a rendering unit for outputting an interface including an editing region and a motion event track, and embodying and expressing a 3D robot model in the editing region; And a motion editor for generating a robot motion event according to the motion manipulation of the robot model of the editing area and arranging the robot motion event on the motion event track according to time.

상기 모션 편집부는, 상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고, 사용자로부터 구동 시간을 입력받으며, 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치할 수 있다.Wherein the motion editing unit calculates a head movement angle in accordance with an operation of the head of the robot model, receives a drive time from a user, and displays a head having a length corresponding to the drive time, A motion event bar can be placed in the motion event track.

상기 모션 편집부는, 상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하고, 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출할 수 있다. The motion editing unit may display a line corresponding to a line of sight of the robot model and a reference line corresponding to the position of the robot model, and may calculate an angle between a line corresponding to the line of sight and the reference line as a head motion angle.

상기 모션 편집부는, 상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시할 수 있다. The motion editing unit may display an indicator on the neck joint part of the robot model and display a line corresponding to the reference line and the visual line when the display unit is selected.

상기 모션 편집부는, 머리 모션 편집 모드의 동작시 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경한다.The motion editing unit changes the screen of the editing area to a perspective view when the head motion editing mode is in operation.

상기 모션 편집부는, 이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시할 수 있다. The motion editing unit may change the screen of the editing area to a top view and display two moving images on the robot model in the editing area in the moving motion editing mode.

상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기일 수 있다. One of the two indicators may be a back and forth moving motion edit indicator and the other may be a rotational motion edit indicator.

상기 모션 편집부는, 상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고, 사용자로부터 이동 속도를 입력받으며, 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치할 수 있다. Wherein the motion editing unit calculates a moving distance in accordance with an operation of moving back and forth of the robot model when the forward / backward motion editing / display indicator is selected, receives a moving speed from the user, The event bar can be arranged in the motion event track in a length corresponding to the movement time.

상기 모션 편집부는, 상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시할 수 있다. The motion editing unit may display a position line before movement and a position line after movement of the robot model in the editing area and display the movement distance therebetween.

상기 모션 편집부는, 상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받으며, 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치할 수 있다. Wherein the motion editing unit calculates a rotation angle in accordance with an operation on the rotation of the robot model when receiving the rotation motion edit indicator, receives a rotation speed from the user, May be arranged in the motion event track in a length corresponding to the rotation time.

상기 모션 편집부는, 상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시할 수 있다. The motion editing unit may display a line at a time point before the rotation of the robot model and a line at a time point after the rotation in the editing area and display a rotation angle between the lines.

상기 모션 편집부는, 램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시할 수 있다. The motion editing unit may change the screen of the editing area to a front view and display at least one lamp position on the robot model of the editing area when the lamp expression editing mode is operated.

상기 모션 편집부는, 상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간을 입력받고, 그 입력받은 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치할 수 있다. The motion editing unit receives a selection input for the lamp position, a color and a time of the lamp, and outputs the lamp position and the lamp information including the information of the color to the motion event track at a length corresponding to the input time. Event bars can be placed.

상기 로봇 컨텐츠 저작 장치는, 상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 모션 재생부; 및 물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 동기화부;를 더 포함할 수 있다. Wherein the robot content authoring device comprises: a motion playback unit operable to operate the robot model of the editing area according to an event arranged on the motion event track; And a synchronization unit for establishing communication with the physical physical robot and synchronizing the operation of the robot model and the actual robot.

컨텐츠 편집 모드시, 상기 로봇 컨텐츠 저작 장치의 상기 편집 영역은 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환되고, 미디어의 출력을 위한 미리보기 창이 표시되며, 상기 모션 이벤트 트랙은 컨텐츠 이벤트 트랙으로 전환되고, 상기 로봇 컨텐츠 저작 장치는 상기 모션 편집부에 의해 생성된 로봇 모션 이벤트의 템플릿과 미디어 템플릿을 저장하고 리스트를 제공하는 템플릿 관리부; 및 상기 템플릿 관리부에서 제공하는 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 컨텐츠 저작부;를 더 포함할 수 있다. In the content editing mode, the editing area of the robot content authoring device is switched to an emulation area in which the robot model only operates in a virtual space, and a preview window for outputting the media is displayed. Wherein the robot content authoring device includes a template management unit for storing a template and a media template of the robot motion event generated by the motion editing unit and providing a list; And a content authoring unit for representing the robot motion event and the media selected from the list provided by the template management unit with an event bar having a length corresponding to the playback length of the robot motion event and the media, can do.

상기 컨텐츠 저작부는, 재생 입력의 수신시, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력할 수 있다. Wherein the content authoring unit operates the robot model of the emulation area in response to a robot motion event disposed on the content event track upon receiving the playback input and reproduces the media placed on the content event track, Can be output.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법은, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계; 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함한다. According to another aspect of the present invention, there is provided a method of authoring robot content in a robot content authoring apparatus, the method comprising: outputting an interface including an edit region and a motion event track; Embodying and expressing a three-dimensional robot model in the editing area; And generating a robot motion event according to a motion operation on the robot model of the editing area and arranging the robot motion event on the motion event track with time.

상기 배치하는 단계는, 상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고 구동 시간을 입력받는 단계; 및 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다. Wherein the step of arranging comprises: calculating a movement angle of the head according to an operation on the head of the robot model and receiving a driving time; And arranging a head motion event bar having a length corresponding to the driving time including the information on the motion angle of the head on the motion event track.

상기 입력받는 단계는, 상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하는 단계; 및 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 단계;를 포함할 수 있다. The receiving step may include displaying a line corresponding to a position of the robot model and a line corresponding to a line of sight of the robot model; And calculating an angle between the line along the line of sight and the reference line as a head movement angle.

상기 선을 표시하는 단계는, 상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시할 수 있다. The step of displaying the line may display a display device on the neck joint part of the robot model and display a line corresponding to the reference line and the line of sight when the display device is selected.

상기 방법은, 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 단계;를 더 포함할 수 있다.The method may further include changing a screen of the editing area to a perspective view.

상기 방법은, 상기 표현하는 단계 이후에, 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함할 수 있다. The method further includes the step of changing the screen of the editing area to a top view and displaying two moving images on the robot model of the editing area after the expressing step can do.

상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이다.One of the two indicators is a back and forth moving motion edit indicator, and the other is a rotational motion edit indicator.

상기 배치하는 단계는, 상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고 사용자로부터 이동 속도를 입력받는 단계; 및 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다. Wherein the arranging step includes the steps of: calculating a moving distance in accordance with an operation for moving the robot model back and forth when the forward / backward motion editing / displaying device is selected; And placing a moving motion event bar including information on the moving distance on the motion event track in a length corresponding to the moving time.

상기 입력받는 단계는, 상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 단계;를 포함할 수 있다. The receiving step may include displaying a position line before the movement and a position line after the movement of the robot model in the editing area and displaying a movement distance therebetween.

상기 배치하는 단계는, 상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받는 단계; 및 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다. Wherein the step of arranging includes the steps of: calculating a rotation angle in accordance with an operation on rotation of the robot model and receiving a rotation speed from a user when the rotation motion edit indicator is selected; And disposing a motion motion event bar including information on the rotation angle on the motion event track in a length corresponding to the rotation time.

상기 입력받는 단계는, 상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 단계;를 포함할 수 있다. The receiving step may include displaying a line at a time point before the rotation and a line at a time point after the rotation of the robot model in the editing area and displaying a rotation angle between the lines.

상기 방법은, 상기 표현하는 단계 이후에, 램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 단계;를 더 포함할 수 있다. The method may further include, after the expressing step, changing a screen of the editing area to a front view and displaying at least one lamp position on the robot model of the editing area in an operation of a lamp expression edit mode ; ≪ / RTI >

상기 배치하는 단계는, 상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간의 입력을 수신하는 단계; 및 상기 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 단계;를 포함할 수 있다. Wherein the disposing comprises receiving a selection input for the lamp position and an input of color and time of the lamp; And disposing a lamp expression event bar including information of the lamp position and the color in the motion event track at a length corresponding to the time.

상기 방법은, 물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 단계; 및 상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 단계;를 더 포함할 수 있다. The method includes communicating with a physical physical robot and synchronizing the operation of the robot model with the actual robot; And operating the robot model of the editing area according to an event disposed on the motion event track.

상기 방법은, 상기 편집 영역을 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환하고, 미디어의 출력을 위한 미리보기 창을 표시하며, 상기 모션 이벤트 트랙을 컨텐츠 이벤트 트랙으로 전환하는 단계; 로봇 모션 이벤트의 템플릿과 미디어 템플릿의 리스트를 제공하는 단계; 및 상기 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 단계;를 더 포함할 수 있다. Converting the editing area into an emulation area in which the robot model only operates in a virtual space, displaying a preview window for outputting the media, and converting the motion event track into a content event track; Providing a template of a robot motion event and a list of media templates; And displaying the robot motion event and the media selected from the list as an event bar having a length corresponding to a playback length of the robot motion event and the media, and arranging the robot motion event and the media on the content event track.

상기 방법은, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 단계;를 더 포함할 수 있다. The method may further include operating the robot model of the emulation area in accordance with a robot motion event disposed on the content event track and reproducing the media placed on the content event track and outputting the media to the preview window can do.

본 발명은 로봇 개발자가 아닌 일반 로봇 사용자가 로봇용 컨텐츠를 손쉽게 저작할 수 있게 한다. 따라서 로봇을 이용한 교육 등에서 교사들이 학습 커리큘럼에 맞는 다양한 교육 컨텐츠를 저작하여 활용할 수 있다.The present invention enables a general robot user, not a robot developer, to easily author content for robots. Therefore, teachers can utilize various educational contents suitable for learning curriculum by using robot.

도 1은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 장치의 구성을 나타낸 도면이다.
도 2는 도 1의 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 프로그램의 기본 인터페이스 화면이다.
도 4는 본 발명의 일 실시예에 따른 머리 모션 편집 모드의 화면을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 머리 모션의 각도 및 시간을 설명하는 화면을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면이다.
도 7은 이동 모션 편집 모드에서 로봇 모델의 이동 전후의 위치 선을 나타낸 도면이다.
도 8은 본 발명의 다른 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 LED 표현 편집 모드의 화면을 나타낸 도면이다.
도 10은 본 발명의 다른 실시예에 따른 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 컨텐츠 편집 모드의 화면이다.
도 12는 본 발명의 일 실시예에 따른 로봇의 구성을 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른 모션 디버거의 구성을 나타낸 도면이다.
1 is a block diagram of a robot content authoring apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of a robot content authoring program of FIG. 1. FIG.
3 is a basic interface screen of a robot content authoring program according to an embodiment of the present invention.
4 is a view showing a screen of a head motion editing mode according to an embodiment of the present invention.
FIG. 5 is a view illustrating an angle and time of a head motion according to an embodiment of the present invention.
6 is a diagram illustrating a screen of a moving motion editing mode according to an embodiment of the present invention.
Fig. 7 is a diagram showing position lines before and after movement of the robot model in the moving motion edit mode. Fig.
FIG. 8 is a view showing a screen of a moving motion editing mode according to another embodiment of the present invention.
9 is a diagram illustrating a screen of an LED expression edit mode according to an embodiment of the present invention.
10 is a block diagram of a robot content authoring program according to another embodiment of the present invention.
11 is a screen of a content editing mode according to an embodiment of the present invention.
12 is a block diagram of a robot according to an embodiment of the present invention.
13 is a block diagram of a motion debugger according to an embodiment of the present invention.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 장치의 구성을 나타낸 도면이다.1 is a block diagram of a robot content authoring apparatus according to an embodiment of the present invention.

도 1을 참조하면, 로봇 컨텐츠 저작 장치(100)는 메모리(110), 메모리 제어기(121), 하나 이상의 프로세서(CPU)(122), 주변 인터페이스(123), 입출력(I/O) 서브시스템(130), 디스플레이 장치(141), 입력 장치(142) 및 RF 회로(152)를 포함한다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 통하여 통신한다. 도 1에 도시한 여러 구성요소는 하나 이상의 신호 처리 및/또는 애플리케이션 전용 집적 회로(application specific integrated circuit)를 포함하여, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어 둘의 조합으로 구현될 수 있다.1, a robot content authoring apparatus 100 includes a memory 110, a memory controller 121, one or more processors (CPU) 122, a peripheral interface 123, an input / output (I / O) 130, a display device 141, an input device 142, and an RF circuit 152. These components communicate through one or more communication buses or signal lines. The various components shown in FIG. 1 may be implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing and / or application specific integrated circuits.

메모리(110)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치와 같은 불휘발성 메모리, 또는 다른 불휘발성 반도체 메모리 장치를 포함할 수 있다. 일부 실시예에서, 메모리(110)는 하나 이상의 프로세서(122)로부터 멀리 떨어져 위치하는 저장 장치, 예를 들어 RF 회로(152)와, 인터넷, 인트라넷, LAN(Local Area Network), WLAN(Wide LAN), SAN(Storage Area Network) 등, 또는 이들의 적절한 조합과 같은 통신 네트워크(도시하지 않음)를 통하여 액세스되는 네트워크 부착형(attached) 저장 장치를 더 포함할 수 있다. 프로세서(122) 및 주변 인터페이스(123)와 같은 로봇 컨텐츠 저작 장치(100)의 다른 구성요소에 의한 메모리(110)로의 액세스는 메모리 제어기(121)에 의하여 제어될 수 있다.The memory 110 may include a high-speed random access memory and may also include one or more magnetic disk storage devices, non-volatile memory such as a flash memory device, or other non-volatile semiconductor memory device. In some embodiments, the memory 110 may include a storage device, e.g., RF circuitry 152, located remotely from the one or more processors 122, and an Internet, Intranet, Local Area Network (WLAN) , A Storage Area Network (SAN), or the like, or any suitable combination thereof, via a network (not shown). Access to the memory 110 by other components of the robot content authoring apparatus 100 such as the processor 122 and the peripheral interface 123 may be controlled by the memory controller 121. [

주변 인터페이스(123)는 로봇 컨텐츠 저작 장치의 입출력 주변 장치를 프로세서(122) 및 메모리(110)와 연결시킨다. 하나 이상의 프로세서(122)는 다양한 소프트웨어 프로그램 및/또는 메모리(110)에 저장되어 있는 명령어 세트를 실행하여 로봇 컨텐츠 저작 장치(100)를 위한 여러 기능을 수행하고 데이터를 처리한다.The peripheral interface 123 connects the input / output peripheral device of the robot content authoring device with the processor 122 and the memory 110. The one or more processors 122 execute various software programs and / or a set of instructions stored in the memory 110 to perform various functions and process data for the robot content authoring apparatus 100.

일부 실시예에서, 주변 인터페이스(123), 프로세서(122) 및 메모리 제어기(121)는 칩(120)과 같은 단일 칩 상에서 구현될 수 있다. 일부 다른 실시예에서, 이들은 별개의 칩으로 구현될 수 있다.In some embodiments, peripheral interface 123, processor 122, and memory controller 121 may be implemented on a single chip, such as chip 120. In some other embodiments, these may be implemented as separate chips.

I/O 서브시스템(130)은 디스플레이 장치(141) 및 기타 입력 장치(142)와 같은 로봇 컨텐츠 저작 장치(100)의 입출력 주변장치와 주변 인터페이스(123) 사이에 인터페이스를 제공한다. The I / O subsystem 130 provides an interface between the input / output peripheral of the robotic content authoring device 100, such as the display device 141 and other input devices 142, and the peripheral interface 123.

디스플레이 장치(141)는 LCD(liquid crystal display) 기술 또는 LPD(light emitting polymer display) 기술을 사용할 수 있고, 이러한 디스플레이 장치(141)는 용량형, 저항형, 적외선형 등의 터치 디스플레이일 수 있다. 터치 디스플레이는 로봇 컨텐츠 저작 장치와 사용자 사이에 출력 인터페이스 및 입력 인터페이스를 제공한다. 터치 디스플레이는 사용자에게 시각적인 출력을 표시한다. 시각적 출력은 텍스트, 그래픽, 비디오와 이들의 조합을 포함할 수 있다. 시각적 출력의 일부 또는 전부는 사용자 인터페이스 대상에 대응할 수 있다. 터치 디스플레이는 사용자 입력을 수용하는 터치 감지면을 형성한다.The display device 141 may be a liquid crystal display (LCD) technology or a light emitting polymer display (LPD) technology. The display device 141 may be capacitive, resistive, infrared, or the like. The touch display provides an output interface and an input interface between the robotic content authoring device and the user. The touch display displays a visual output to the user. The visual output may include text, graphics, video, and combinations thereof. Some or all of the visual output may correspond to a user interface object. The touch display forms a touch sensitive surface that accommodates user input.

프로세서(122)는 로봇 컨텐츠 저작 장치(100)에 연관된 동작을 수행하고 명령어들을 수행하도록 구성된 프로세서로서, 예를 들어, 메모리(110)로부터 검색된 명령어들을 이용하여, 로봇 컨텐츠 저작 장치(100)의 컴포넌트 간의 입력 및 출력 데이터의 수신과 조작을 제어할 수 있다. The processor 122 is a processor configured to perform an operation associated with the robot content authoring apparatus 100 and to execute instructions, for example, using the instructions retrieved from the memory 110, It is possible to control the reception and the operation of the input and output data.

일부 실시예에서, 소프트웨어 구성요소는 운영 체제(111), 그래픽 모듈(명령어 세트)(112) 및 로봇 컨텐츠 저작 프로그램(명령어 세트)(113)이 메모리(110)에 탑재(설치)된다. In some embodiments, the software components are installed in the memory 110, such as an operating system 111, a graphics module (instruction set) 112, and a robot content authoring program (instruction set)

운영 체제(111)는, 예를 들어, 다윈(Darwin), RTXC, LINUX, UNIX, OS X, WINDOWS 또는 VxWorks, 안드로이드 등과 같은 내장 운영체제일 수 있고, 일반적인 시스템 태스크(task)(예를 들어, 메모리 관리, 저장 장치 제어, 전력 관리 등)를 제어 및 관리하는 다양한 소프트웨어 구성요소 및/또는 장치를 포함하고, 다양한 하드웨어와 소프트웨어 구성요소 사이의 통신을 촉진시킨다.The operating system 111 may be an embedded operating system such as, for example, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS or VxWorks, Android, Management, storage control, power management, etc.), and facilitates communication between the various hardware and software components.

그래픽 모듈(112)은 디스플레이 장치(141) 상에 그래픽을 제공하고 표시하기 위한 주지의 여러 소프트웨어 구성요소를 포함한다. "그래픽(graphics)"이란 용어는 텍스트, 웹 페이지, 아이콘(예컨대, 소프트 키를 포함하는 사용자 인터페이스 대상), 디지털 이미지, 비디오, 애니메이션 등을 제한 없이 포함하여, 사용자에게 표시될 수 있는 모든 대상을 포함한다.Graphics module 112 includes a number of well known software components for providing and displaying graphics on display device 141. The term "graphics" includes, without limitation, text, web pages, icons (e.g., user interface targets including soft keys), digital images, video, animations, .

RF 회로(152)는 전자파를 송수신한다. RF 회로(152)는 전기 신호를 전자파로 또는 그 반대로 변환하며 이 전자파를 통하여 통신 네트워크, 다른 이동형 게이트웨이 및 통신 장치와 통신한다. RF 회로(152)는 예를 들어 안테나 시스템, RF 트랜시버, 하나 이상의 증폭기, 튜너, 하나 이상의 오실레이터, 디지털 신호 처리기, CODEC 칩셋, 가입자 식별 모듈(subscriber identity module, SIM) 카드, 메모리 등을 포함하지만 이에 한정되지 않는, 이러한 기능을 수행하기 위한 주지의 회로를 포함할 수 있다. RF 회로(152)는 월드 와이드 웹(World Wide Web, WWW)으로 불리는 인터넷, 인트라넷과 네트워크 및/또는, 셀룰러 전화 네트워크, 무선 LAN 및/또는 MAN(metropolitan area network)와 같은 무선 네트워크, 그리고 근거리 무선 통신에 의하여 다른 장치와 통신할 수 있다. 무선 통신은 GSM(Global System for Mobile Communication), EDGE(Enhanced Data GSM Environment), WCDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), VoIP(voice over Internet Protocol), Wi-MAX, 블루투스(Bluetooth), 지그비(zigbee), 엔에프씨(NFC:Near Field Communication), 이메일, 인스턴트 메시징(instant messaging) 및/또는 단문 문자 서비스(SMS)용 프로토콜 또는 본 출원의 출원 시점에 아직 개발되지 않은 통신 프로토콜을 포함하는 기타 다른 적절한 통신 프로토콜을 포함하지만 이에 한정되지 않는 복수의 통신 표준, 프로토콜 및 기술 중 어느 것을 이용할 수 있다.The RF circuit 152 transmits and receives electromagnetic waves. The RF circuit 152 converts electrical signals to electromagnetic waves and vice versa and communicates with the communication network, other mobile gateways, and communication devices through the electromagnetic waves. The RF circuit 152 includes, for example, an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, a subscriber identity module But are not limited to, well known circuits for performing such functions. The RF circuitry 152 may be an Internet, referred to as the World Wide Web (WWW), a network such as an intranet and / or a cellular telephone network, a wireless LAN and / or a metropolitan area network (MAN) It can communicate with other devices by communication. The wireless communication may be implemented in a variety of communication systems such as Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), wideband code division multiple access (WCDMA), code division multiple access (CDMA), time division multiple access (TDMA) Protocol, Wi-MAX, Bluetooth, zigbee, Near Field Communication (NFC), email, instant messaging and / Any of a plurality of communication standards, protocols, and techniques may be used, including, but not limited to, any other suitable communication protocol including a communication protocol not yet developed at the time of filing.

로봇 컨텐츠 저작 프로그램(113)은 디스플레이 장치(141) 및 입력 장치(142)와 연동하여 로봇 컨텐츠의 저작을 수행한다. 로봇 컨텐츠 저작 프로그램에 관해서는 이하에서 자세히 설명한다.The robot content authoring program 113 cooperates with the display device 141 and the input device 142 to author the robot content. The robot content authoring program will be described in detail below.

도 2는 도 1의 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이고, 도 3은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 프로그램의 기본 인터페이스 화면이다.FIG. 2 is a block diagram of a robot content authoring program of FIG. 1, and FIG. 3 is a basic interface screen of a robot content authoring program according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램은 구동시 로봇 모델(350)이 구현되어 사용자가 로봇 모델을 직접 조작하여 모션을 편집할 수 있는 편집 영역(310) 그리고 그 편집 영역(310)에서 조작되는 모션, 즉 머리 모션, 이동 모션, LED 표현의 이벤트를 시간에 따라 배치하는 모션 이벤트 트랙(330)을 표시한다. 모션 이벤트 트랙(330)에 배치된 이벤트들의 재생시 상기 편집 영역(310)에 구현된 로봇 모델(350)은 지정된 시간에 이벤트에 따른 모션, 예를 들어 고개를 돌리거나, 전진 또는 후진하거나, LED를 깜박이는 등의 행위를 한다.3, the robot content authoring program includes an editing region 310 in which a robot model 350 is implemented at the time of driving and a user can edit the motion by directly manipulating the robot model, And displays a motion event track 330 that arranges an event of the operated motion, that is, the head motion, the moving motion, and the LED expression with respect to time. The robot model 350 implemented in the editing area 310 at the time of reproducing the events arranged in the motion event track 330 may be configured to move the motion according to the event at a designated time, for example, turning the head, And blinking.

도 2에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램(113)은 모션 편집부(210), 모션 재생부(220), 동기화부(230), 템플릿 관리부(240), 파일 처리기(250) 및 3D 묘화부(260)를 포함한다.2, the robot contents authoring program 113 includes a motion editing unit 210, a motion reproducing unit 220, a synchronizing unit 230, a template managing unit 240, a file processor 250, (260).

3D 묘화부(260)는 로봇 기능을 3D 공간에서 표현할 수 있는 3D 엔진을 포함하고 편집 영역(310)을 가상의 3D 공간으로 표현하며 그 편집 영역(310) 내에 3D 로봇 모델(350)을 표현한다. 3D 묘화부(260)는 2D 또는 3D 이펙트를 표현하고 2D 또는 3D UI(User Interface)를 표현한다.The 3D rendering unit 260 includes a 3D engine that can represent robot functions in 3D space and expresses the editing area 310 in a virtual 3D space and expresses the 3D robot model 350 in the editing area 310 . The 3D rendering unit 260 represents a 2D or 3D effect and represents a 2D or 3D UI (User Interface).

모션 편집부(210)는 로봇의 기능인 목 관절, 바퀴, 그리고 로봇에 장착되는 LED를 시간 흐름에 따라 순차적으로 연출하는 일련의 동작, 즉 애니메이션을 작성한다. The motion editing unit 210 creates a series of operations, that is, an animation, sequentially sequencing the LEDs mounted on the robot, such as the neck joint, the wheel, and the robot.

모션 편집부(210)는 세 가지의 편집 모드를 제공한다. 여기서 세 가지의 편집 모드는 머리 모션 편집, 이동 모션 편집, LED 표현 편집을 포함한다. 모션 편집부(210)는 메뉴 도구에 편집 모드 종류를 표시하여 사용자로부터 편집 모드를 선택받을 수 있고, 또는 모션 이벤트 트랙(330)에 표시된 편집 부위 이름이 사용자로부터 선택됨으로써 편집 모드를 선택받을 수 있다.The motion editing unit 210 provides three editing modes. Here, three editing modes include head motion editing, moving motion editing, and LED expression editing. The motion editing unit 210 can select an editing mode from the user by displaying the editing mode type in the menu tool or can select the editing mode by selecting the editing site name displayed on the motion event track 330 from the user.

머리 head 모션motion 편집 edit

모션 편집부(210)는 머리 모션 편집 모드의 동작시 편집 영역(310)의 화면을 사선 시점(Perspective view)로 변경하고 편집 영역(310)에 표시되는 로봇 모델(350)의 목 부분에 표시기를 표시한다. 예를 들어 로봇 모델의 목 부분에 노란색 원을 표시한다. The motion editing unit 210 changes the screen of the editing area 310 to a perspective view and displays an indicator on the neck of the robot model 350 displayed in the editing area 310 do. For example, a yellow circle appears on the neck of the robot model.

도 4는 본 발명의 일 실시예에 따른 머리 모션 편집 모드의 화면을 나타낸 도면으로, 도 4에 도시된 바와 같이 사선 시점으로 변경된 편집 영역(310)에 표시되는 로봇 모델(350)의 목 부분에 색이 있는 원(410)이 표시된다.FIG. 4 is a view showing a screen of the head motion editing mode according to an embodiment of the present invention. As shown in FIG. 4, the robot model 350 displayed on the editing area 310 changed to the oblique view A colored circle 410 is displayed.

도 5는 본 발명의 일 실시예에 따른 머리 모션의 각도 및 시간을 설명하는 화면을 나타낸 도면이다.FIG. 5 is a view illustrating an angle and time of a head motion according to an embodiment of the present invention.

도 5를 참조하면, 모션 편집부(210)는 편집 영역(310)에서 로봇 모델(350)의 목 부분에 표시된 표시기(410)를 중심으로 로봇의 시선에 따른 선(510)과 로봇의 위치에 따른 기준선(530)을 표시하고 사용자에 의한 마우스 입력에 따라 그 선 사이의 각도를 변경하여 사용자가 선택할 수 있도록 한다. 바람직하게, 로봇의 위치에 따른 기준선(530)을 중심으로 좌우 각각 30도씩 선택할 수 있다.5, the motion editing unit 210 extracts, from the editing area 310, a line 510 along the line of sight of the robot and a position of the robot, centering the indicator 410 displayed on the neck of the robot model 350 A reference line 530 is displayed and the angle between the lines is changed according to the mouse input by the user so that the user can select the angle. Preferably, each of the right and left bases 530 may be selected by 30 degrees based on the position of the robot.

모션 편집부(210)는 각도의 설정 후 시간을 선택할 수 있는 창(550)을 표시하고, 그 창(550)을 통해 로봇의 머리 모션의 구동 시간을 입력받는다. 즉, 상기 사용자가 선택한 각도를 실제 움직일 시간을 입력받는 것이다. 모션 편집부(210)는 구동 시간이 입력되면 모션 이벤트 트랙(330)에 예상 길이를 표시하여 점멸하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 구동 시간을 갖는 머리 모션의 이벤트(570)를 막대 형태로 추가한다.The motion editing unit 210 displays a window 550 for selecting the time after setting the angle and receives the driving time of the head motion of the robot through the window 550. [ That is, the user inputs a time at which the user actually moves the selected angle. When the driving time is input, the motion editing unit 210 displays the estimated length in the motion event track 330 and blinks. When the final input is received, the motion editing unit 210 outputs the motion information of the head motion having the set driving time to the motion event track 330 Event 570 is added in the form of a bar.

이동 move 모션motion 편집 edit

모션 편집부(210)는 이동 모션 편집 모드의 동작시 편집 영역(310)의 화면을 높이 시점(Top view)로 변경하고 편집 영역(310)에 표시되는 로봇 모델(350)에 두 개의 선택 가능한 원을 표시한다. 두 개의 원 중 하나는 로봇의 전진/후진을 처리하는 역할을 하고, 나머지 원은 로봇의 회전을 처리하는 역할을 한다. The motion editing unit 210 changes the screen of the editing area 310 to a top view and operates the robot model 350 displayed in the editing area 310 to select two selectable circles Display. One of the two circles serves to process the robot forward / backward, and the other circle handles the rotation of the robot.

도 6은 본 발명의 일 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면으로, 도 6에 도시된 바와 같이 높이 시점으로 변경되어 편집 영역(310)에 표시되는 로봇 모델(350)은 위에서 본 형태로 표시되고 로봇 모델에 두 개의 원(610)이 표시된다.6, the robot model 350, which is changed to the height view and displayed in the editing area 310 as shown in FIG. 6, is displayed in the moving motion editing mode according to an embodiment of the present invention. And two circles 610 are displayed on the robot model.

모션 편집부(210)는 편집 영역에 속도 설정 창(630)을 출력하고, 그 속도 설정 창(630)을 통해 사용자로부터 이동 로봇의 이동 속도 및 회전 속도를 입력받는다. 이동 속도는 전진/후진에 관계된 값으로서 단위는 초당 센치미터로 1초에 갈 수 있는 거리를 의미하고, 회전 속도는 좌회전/우회전에 관계된 값으로 각속도를 의미한다. 회전 속도는 초당 회전하는 각도일 수 있다. The motion editing unit 210 outputs the speed setting window 630 to the editing area and receives the moving speed and the rotating speed of the mobile robot from the user through the speed setting window 630. [ The moving speed is a value related to forward / backward, and the unit means a distance in one second to the centimeter per second, and the rotational speed means a value related to the leftward / rightward rotation and the angular speed. The rotational speed may be an angle that rotates per second.

(1) 전진/후진 편집(1) Forward / Reverse editing

모션 편집부(210)는 모션 이벤트 트랙(330)에서 전진/후진 모션 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 전진/후진에 관련된 원(610)이 사용자에 의해 선택되면 전진/후진 편집 동작을 시작하고 사용자가 선택한 위치로 로봇 모델(350)을 이동시킨다. 모션 편집부(210)는 도 7에 도시된 바와 같이 로봇 모델의 원래 위치의 선(710) 그리고 이동 후의 위치의 선(730)을 서로 구분하여 표시하면서(예컨대 색을 달리함) 그 사이의 이동 거리 선(750)을 거리 값과 함께 표시한다. 그리고 모션 편집부(210)는 전진/후진과 관련된 원(610)이 사용자에 의해 다시 선택되면 모션 이벤트 트랙(330)에 예상 이동 시간을 점멸하여 표시하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 전진/후진의 이벤트를 추가한다.The motion editing unit 210 receives a position from the user to add the forward / backward motion event in the motion event track 330. The motion editing unit 210 starts the forward / backward editing operation and moves the robot model 350 to the position selected by the user when the circle 610 relating to the forward / backward movement is selected by the user. 7, the motion editing unit 210 divides the line 710 of the original position of the robot model and the line 730 of the moved position of the robot model (for example, different colors) A line 750 is displayed along with the distance value. The motion editing unit 210 blinks and displays the expected movement time on the motion event track 330 when the circle 610 associated with the forward / backward motion is selected again by the user. When the motion input event is finally received, 330 to the forward / backward events.

(2) 회전 편집(2) Edit rotation

도 8은 본 발명의 다른 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면으로, 회전 편집시의 화면이다. FIG. 8 is a view showing a screen of a moving motion editing mode according to another embodiment of the present invention, which is a screen at the time of rotation editing.

모션 편집부(210)는 모션 이벤트 트랙(330)에서 회전 모션 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 회전에 관련된 원(610)이 사용자에 의해 선택되면 회전 편집 동작을 시작하고 사용자의 마우스가 움직이는 위치에 따라 로봇 모델(350)의 회전 값을 산출한다. 모션 편집부(210)는 로봇 모델(210)의 회전하기 전 원래 바라보는 각도의 선(810)과 회전 후의 각도를 나타내는 선(830)을 표시며 회전각을 표시하고, 또한 두 선 사이에 실선 또는 점선을 둥글게 표시한다. The motion editing unit 210 receives a position from the user to add a rotating motion event in the motion event track 330. The motion editing unit 210 starts the rotation editing operation when the circle 610 associated with the rotation is selected by the user and calculates the rotation value of the robot model 350 according to the position where the user's mouse moves. The motion editing unit 210 displays a line 810 representing an angle of view originally before rotation of the robot model 210 and a line 830 representing an angle after rotation of the robot model 210. The motion editing unit 210 displays a rotation angle, Mark the dotted circle.

사용자의 마우스의 절대 위치로 각도를 산출하는 경우 로봇 모델(350)의 회전하기 전 원래 바라보는 각도의 선(810)를 중심으로 좌우 180도까지만 표현할 수 있고, 마우스의 상대 위치로 각도를 산출하는 경우 0~360도까지 표현할 수 있으며, 상대 위치로 각도를 산출하는 경우 사용자에 의해 특수키(예컨대 쉬프트 키)가 눌려진 상태로 마우스가 움직이는 경우 마우스의 좌우 이동 상대 값으로 각도를 누적하여 회전각을 산출할 수 있다.When the angle is calculated by the user's absolute position of the mouse, the robot model 350 can be expressed only up to 180 degrees around the line 810 of the original viewing angle before the rotation of the robot model 350, In the case of calculating the angle to the relative position, when the user moves the mouse in a state in which the special key (for example, the shift key) is pressed by the user, the angle is accumulated by the relative value of the left and right movement of the mouse, Can be calculated.

모션 편집부(210)는 회전과 관련된 원(610)이 사용자에 의해 다시 선택되면 모션 이벤트 트랙(330)에 예상 이동 시간을 점멸하여 표시하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 회전의 이벤트 막대를 추가한다.The motion editing unit 210 blinks and displays the expected movement time on the motion event track 330 when the circle 610 associated with the rotation is selected again by the user. When the motion input event is finally received, And adds the event bar of the set rotation.

LEDLED 표현 편집 Edit expression

모션 편집부(210)는 LED 표현 편집 모드의 동작시 편집 영역(330)의 화면을 정면 시점(Front view)로 변경하고 편집 영역(330)에 표시되는 로봇 모델(350)에 LED 위치에 관련 표시기, 예를 들어 원을 표시한다. 도 9는 본 발명의 일 실시예에 따른 LED 표현 편집 모드의 화면을 나타낸 도면으로, 편집 영역(330)의 화면은 정면 시점으로 변경되고 로봇 모델(350)에 LED 표시기(910)가 표시된다. 도 9에서는 총 5 개의 원이 LED 표시기(910)로 표시된다.The motion editing unit 210 changes the screen of the editing area 330 to the front view and operates the robot model 350 displayed in the editing area 330 to display an LED, For example, a circle. 9 is a view showing a screen of the LED expression editing mode according to an embodiment of the present invention. The screen of the editing area 330 is changed to the front view and the LED indicator 910 is displayed on the robot model 350. In Fig. 9, a total of five circles are indicated by LED indicators 910.

모션 편집부(210)는 모션 이벤트 트랙(330)에서 LED 표현 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 로봇 모델(350)의 어느 한 LED 표시기(910)가 사용자에 의해 선택되면 색 및 시간을 설정할 수 있는 창(930)을 표시하고 그 창(930)을 통해 LED의 색 그리고 LED가 켜져 있을 시간을 입력받는다. 모션 편집부(210)는 사용자에 의해 입력된 LED의 색으로 LED 표시기(910)를 표시한다. 모션 편집부(210)는 색 및 시간이 입력되면 모션 이벤트 트랙(330)에 예상 길이를 표시하여 점멸하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 색 및 시간을 갖는 LED 표현의 이벤트 막대를 추가한다.The motion editing unit 210 receives a position from the user to add an LED presentation event in the motion event track 330. [ The motion editing unit 210 displays a window 930 in which one of the LED indicators 910 of the robot model 350 is set by the user and can set the color and the time, The LED is turned on. The motion editing unit 210 displays the LED indicator 910 with the color of the LED input by the user. When the color and time are input, the motion editing unit 210 displays an expected length on the motion event track 330 and blinks. When the additional input is finally received, the motion edit track 210 displays the LED having the set color and time Add an expression event bar.

모션 재생부(220)는 상기 모션 편집부(210)에 의해 로봇의 머리 모션, 이동 모션, LED 표현의 이벤트 편집이 완료된 후 사용자에 의해 재생 입력이 수신되면 그 설정된 이벤트를 재생한다. 즉, 모션 재생부(220)는 모션 이벤트 트랙(330)에서 사용자가 선택한 위치의 시점부터 또는 처음 시점부터 재생을 시작하여 머리 모션, 이동 모션 또는 LED 표현의 이벤트가 있는 지점에서 해당 이벤트에 따라 편집 영역(310)의 로봇 모델(350)을 동작시킨다. The motion reproduction unit 220 reproduces the set event when the reproduction input is received by the user after the event editing of the head motion, the moving motion, and the LED expression of the robot is completed by the motion editing unit 210. That is, the motion reproducing unit 220 starts to reproduce from the point of time selected by the user or from the point of time selected by the user in the motion event track 330, and edits in accordance with the event at the point of the event of head motion, The robot model 350 of the region 310 is operated.

동기화부(230)는 물리적인 실제 로봇과 원격으로 연결하여 상기 모션 편집부(210)를 통해 생성된 로봇의 모션 이벤트에 대한 동기화를 수행한다. 동기화부(230)는 자동 연결 또는 수동 연결을 제공한다. The synchronization unit 230 performs remote synchronization with the physical robot to synchronize the motion events of the robots generated through the motion editing unit 210. The synchronization unit 230 provides an automatic connection or a manual connection.

동기화부(230)는, 사용자로부터 자동 연결 입력시 원격으로 연결 가능한 로봇을 검색하여 리스트를 사용자에게 제공하고 이 중 선택되는 로봇과 원격 연결한다. 또한 동기화부(230)는 사용자로부터 수동 연결 입력시 IP 주소 입력창을 표시하고 그 IP 주소 입력창을 통해 원격 연결할 로봇의 IP 주소를 입력받으며 입력된 IP 주소를 이용하여 로봇과 연결한다.The synchronization unit 230 searches for a robot that can be remotely connected when an automatic connection is input from the user, provides the list to the user, and remotely connects with the selected robot. In addition, the synchronization unit 230 displays an IP address input window when a manual connection is input from a user, receives an IP address of a robot to be remotely connected through the IP address input window, and connects to the robot using the input IP address.

동기화부(230)는 상기 모션 재생부(220)에 의해 로봇의 이벤트가 재생되는 경우 또는 모션 이벤트 트랙(330)에서 특정 이벤트가 선택되어 재생되는 경우 실제 로봇이 편집 영역(310)의 로봇 모델(350)과 동기화되어 동작하도록 한다.The synchronizer 230 synchronizes the robot model of the editing area 310 with the actual robot when the event of the robot is reproduced by the motion reproducing unit 220 or when a specific event is selected and reproduced from the motion event track 330. [ 350).

템플릿 관리부(240)는 로봇의 모션에 관한 템플릿을 저장하고 템플릿 개체를 실제 편집 데이터로 만들어준다. 여기서 템플릿은 로봇의 모션에 관한 파일로서 저작 프로그램에 기본적으로 포함되어 있는 기본 템플릿과 사용자가 저작 프로그램으로 만들어 낸 사용자 템플릿을 포함한다. 전술한 모션 편집부(210)를 통해 만들어진 모션 파일을 사용자가 템플릿 디렉토리에 넣으면, 템플릿 관리부(240)는 해당 템플릿 디렉토리에 저장된 사용자 템플릿을 관리하며 사용자의 요청시 리스트로 제공한다.The template management unit 240 stores a template related to the motion of the robot and converts the template object into actual editing data. Here, the template includes a basic template included in the authoring program as a file related to the motion of the robot and a user template created by the user as an authoring program. When the user inserts the motion file created through the motion editing unit 210 into the template directory, the template management unit 240 manages the user templates stored in the template directory and provides the list as a list upon request of the user.

템플릿 관리부(240)는 기본 템플릿 및 사용자 템플릿을 포함하는 템플릿 리스트를 별도의 템플릿 창을 통해 표시하고, 사용자에 의해 선택된 템플릿을 모션 이벤트 트랙(330)에 추가할 수 있다. 바람직하게, 템플릿 관리부(240)는 기본 템플릿과 사용자 템플릿의 리스트를 표시할 때 그 둘을 구분할 수 있는 표시를 한다. 예컨대 이름 앞에 '+' 기호를 붙여 기본 템플릿을 사용자 템플릿과 구별하여 표시할 수 있다.The template management unit 240 may display the template list including the basic template and the user template through a separate template window and add the template selected by the user to the motion event track 330. [ Preferably, the template management unit 240 displays a list of the basic template and the user template so that they can be distinguished from each other. For example, you can distinguish the default template from the user template by prefixing the name with a '+' sign.

파일 처리기(250)는 모션 편집부에서 생성된 이벤트들을 종합하여 모션 파일을 생성하고 동기화부(230)를 통해 모션 파일을 실제 로봇으로 전송할 수 있다. 모션 파일의 확장자는 rmm이다.The file processor 250 generates a motion file by combining the events generated in the motion editing unit and transmits the motion file to the actual robot through the synchronization unit 230. The extension of the motion file is rmm.

도 10은 본 발명의 다른 실시예에 따른 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다. 도 10에 있어서 도 2와 동일한 참조부호의 구성요소는 동일한 기능 및 동작을 포함하므로 여기서는 상세한 설명을 생략한다.10 is a block diagram of a robot content authoring program according to another embodiment of the present invention. In FIG. 10, the same reference numerals as in FIG. 2 denote the same functions and operations, and a detailed description thereof will be omitted.

도 10을 참조하면, 본 실시예에 따른 로봇 컨텐츠 저작 프로그램(113)은 컨텐츠 저작부(1010)를 더 포함한다. 여기서 컨텐츠는 로봇의 모션 그리고 그 로봇의 모션과 동기화된 미디어를 포함하는 개념이다. 따라서 로봇이 컨텐츠를 재생한다는 것은, 로봇이 모션 파일에 따라 모션을 동작하면서 그 모션에 동기화된 미디어 파일, 예를 들어 노래, 또는 동영상 등을 동시에 재생하는 것을 의미한다. 본 실시예에 따른 로봇 컨텐츠 저작 프로그램(113)은 이러한 컨텐츠를 저작한다.Referring to FIG. 10, the robot content authoring program 113 according to the present embodiment further includes a content authoring unit 1010. Here, the content is a concept including the motion of the robot and the media synchronized with the motion of the robot. Therefore, playback of the content by the robot means that the robot simultaneously reproduces a media file synchronized with the motion file, for example, a song, a moving image, or the like while operating the motion file according to the motion file. The robot contents authoring program 113 according to the present embodiment authorizes such contents.

로봇 컨텐츠 저작 프로그램(113)은 컨텐츠 편집 모드와 모션 편집 모드에서 유사한 인터페이스를 제공한다. 도 11은 본 발명의 일 실시예에 따른 컨텐츠 편집 모드의 화면으로, 도 11에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램(113)은 모션 편집 모드의 3D 편집 영역을 에뮬레이션 영역(1110)으로 전환하고, 모션 이벤트 트랙을 컨텐츠 이벤트 트랙(1130)으로 전환한다. 그리고 미리보기 창(1150)을 표시한다.The robot content authoring program 113 provides a similar interface in the content editing mode and the motion editing mode. 11, the robot content authoring program 113 switches the 3D editing area in the motion editing mode to the emulation area 1110, as shown in FIG. 11, in the contents editing mode according to an embodiment of the present invention. , And switches the motion event track to the content event track 1130. Then, a preview window 1150 is displayed.

에뮬레이션 영역(1110)은 로봇 모델(1170)이 표시되는 부분으로 일종의 가상 공간이며 로봇 모델(1170)은 모션 이벤트에 따라 에뮬레이션 영역(1110)에서 실제 로봇이 구동되는 것을 흉내내며 움직인다. 모션 편집 모드에서 사용자는 편집 영역의 로봇 모델(350)을 직접 조작하여 모션 편집을 수행하는 반면, 컨텐츠 편집 모드에서 사용자는 에뮬레이션 영역(1110)의 로봇 모델(1170)에 직접적인 조작을 전혀 하지 않고, 에뮬레이션 영역(1110)의 로봇 모델(1170)은 컨텐츠에 포함된 모션 이벤트에 따라 실제 로봇과 같이 구동할 뿐이다.The emulation region 1110 is a virtual space where the robot model 1170 is displayed, and the robot model 1170 moves in accordance with a motion event, mimicking that an actual robot is driven in the emulation region 1110. In the content edit mode, the user does not directly manipulate the robot model 1170 of the emulation region 1110 at all, while the user performs the motion edit by directly manipulating the robot model 350 in the edit region in the motion edit mode, The robot model 1170 of the emulation area 1110 only operates as an actual robot in accordance with a motion event included in the content.

컨텐츠 이벤트 트랙(1130)은 모션 이벤트 트랙(330)과 유사하지만 구성하는 항목이 모션 이벤트 트랙(330)과는 상이하다. 모션 이벤트 트랙(330)은 시간의 순서에 따라 로봇의 모션과 관련된 머리 이벤트, 이동 이벤트, LED 표현 이벤트를 구성 항목으로 배치하는 반면, 컨텐츠 이벤트 트랙(1130)은 모션 이벤트, 미디어 이벤트, 그림 이벤트를 구성 항목으로 배치한다. 여기서 모션 이벤트는 모션 편집 모드에서 생성된 머리, 이동 및 LED 표현의 이벤트가 모두 포함된 항목이다. 미디어는 소리 또는 영상을 의미하고, 그림은 일반적인 정지 영상을 의미한다.The content event track 1130 is similar to the motion event track 330, but the constituent items are different from the motion event track 330. The motion event track 330 arranges a head event, a movement event, and an LED expression event related to the motion of the robot as a configuration item in the order of time, while the content event track 1130 is a motion event, a media event, Arrange as a configuration item. Here, the motion event is an item including all the events of head, movement, and LED expression generated in the motion edit mode. The medium means sound or image, and the picture means a normal still image.

템플릿 관리부(240)는 로봇의 모션에 관한 템플릿 뿐만 아니라 미디어의 템플릿도 저장 및 관리한다. 로봇의 모션에 관한 템플릿은 전술한 바와 같고, 미디어의 템플릿은 소리 또는 영상, 그림을 포함한다. 템플릿 관리부(240)는 사용자의 선택에 따라 모션의 템플릿 리스트를 템플릿 창(1190)에 표시하거나, 미디어의 템플릿 리스트를 템플릿 창(1190)에 표시한다. The template management unit 240 stores and manages templates of media as well as templates related to motion of the robot. The template for motion of the robot is as described above, and the template of the medium includes sound, image, and picture. The template management unit 240 displays the template list of the motion in the template window 1190 or displays the template list of the media in the template window 1190 according to the user's selection.

컨텐츠 저작부(1010)는, 사용자에 의해 컨텐츠 저작 편집 모드가 선택되는 경우, 컨텐츠 이벤트 트랙(1130)을 활성화하고, 상기 템플릿 관리부(240)와 연동하여 사용자가 템플릿 창(1190)에서 선택한 템플릿을 상기 컨텐츠 이벤트 트랙(1130)에 배치한다. 컨텐츠 저작부(1010)는 사용자가 선택한 템플릿을 컨텐츠 이벤트 트랙(1130)의 대응하는 항목에 자동 배치한다. 즉 모션 템플릿은 모션 트랙에 배치하고, 소리 또는 영상 템플릿은 미디어 트랙에 배치하며, 그림은 그림 트랙에 배치한다. The content authoring unit 1010 activates the content event track 1130 when the content authoring editing mode is selected by the user and selects the template selected by the user in the template window 1190 in cooperation with the template managing unit 240 And places it in the content event track 1130. The content authoring unit 1010 automatically arranges the template selected by the user in a corresponding item of the content event track 1130. The motion template is placed on the motion track, the sound or video template is placed on the media track, and the picture is placed on the picture track.

이때 컨텐츠 저작부(1010)는 모션 또는 미디어 등의 실제 재생 길이에 대응하는 막대 형태로 이벤트를 트랙(1130)에 배치하는데 해당 이벤트의 시작 시점은 사용자가 선택한 시점이다. 소리나 영상의 경우에는 절대적인 길이가 있어 해당하는 길이만큼 막대를 표시하지만, 그림의 경우에는 길이를 가지지 않으므로 미리 설정된 기본 값만큼의 길이 막대로 그림 이벤트를 배치한다.At this time, the content authoring unit 1010 arranges the event on the track 1130 in the form of a bar corresponding to the actual reproduction length of the motion or the media, and the start point of the event is a point selected by the user. In the case of sound or video, there is an absolute length and the bar is displayed by the corresponding length. However, since the picture does not have a length, the picture event is arranged by the length bar of the preset basic value.

컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트들을 편집할 수 있다. 컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트에 대한 사용자의 드래그 앤 드롭 입력에 따라 이벤트를 좌우로 움직여 배치한다. 또한 컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트의 끝단에 대한 사용자의 드래그 앤 드롭 입력에 따라 이벤트의 길이를 조정한다.The content authoring unit 1010 can edit events disposed in the content event track 1130. [ The content authoring unit 1010 moves and arranges the event in the left and right according to the drag and drop input of the user for the event disposed in the content event track 1130. The content authoring unit 1010 adjusts the length of the event according to the drag and drop input of the user to the end of the event disposed in the content event track 1130.

컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 이벤트 배치가 완료된 후 사용자의 재생 입력이 있는 경우 시간 순서에 따라 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트를 해석하여 에뮬레이션 영역(1110)에 구현된 로봇 모델(1170)을 구동시킨다. 즉, 컨텐츠 저작부(1010)는 로봇 모델(1170)의 머리를 돌리거나, 로봇 모델(1170)을 전/후진 또는 회전시키거나, 또는 LED를 표시하면서 여기에 동기화된 소리 또는 영상 또는 그림이 있는 경우 로봇 모델(1170)의 모션과 함께 소리/영상/그림을 출력한다. 영상이나 그림의 경우 미리보기 창(1150)에 표시할 수 있고, 또는 로봇 모델(1170)의 디스플레이 영역에 표시할 수 있다.The content authoring unit 1010 interprets the event placed in the content event track 1130 according to the time order when the user inputs the playback after the event placement in the content event track 1130 is completed and implements the implementation in the emulation region 1110 Thereby driving the robot model 1170. That is, the content authoring unit 1010 may be configured to rotate the head of the robot model 1170, forward / backward or rotate the robot model 1170, or display the LEDs, The sound / video / picture is outputted together with the motion of the robot model 1170. In the case of a video or picture, it can be displayed in the preview window 1150 or displayed in the display area of the robot model 1170.

파일 처리기(250)는 컨텐츠 저작부(1010)에서 생성된 이벤트들을 종합하여 컨텐츠 파일을 생성한다. 바람직하게, 모션 편집부(210)에서 생성된 모션 파일과 컨텐츠 저작부(1010)에서 생성된 모션 파일의 확장자를 서로 다르게 한다.The file processor 250 synthesizes the events generated by the content authoring unit 1010 to generate a content file. Preferably, the motion file generated by the motion editing unit 210 and the motion file generated by the content authoring unit 1010 have different extensions.

도 12는 본 발명의 일 실시예에 따른 로봇의 구성을 나타낸 도면으로, 전술한 로봇 컨텐츠 저작 장치에서 저작된 로봇 컨텐츠를 재생하는 로봇에 관한 것이다.FIG. 12 is a block diagram of a robot according to an embodiment of the present invention. FIG. 12 is a block diagram of a robot for reproducing robot content authored by the robot content authoring apparatus.

도 12를 참조하면, 본 실시예에 따른 로봇은 디스플레이 관리자(1210), 오디오 출력부(1220), 로봇 매니저 추상 인터페이스(1230) 및 컨텐츠 엔진(1240)을 포함한다. 여기서 디스플레이 관리자(1210), 오디오 출력부(1220), 로봇 매니저 추상 인터페이스(1230)는 로봇 시스템의 어플리케이션 계층(application layer)에 존재하고, 컨텐츠 엔진(1240)은 프레임워크 네이티브 런타임 라이브러리 계층에 존재한다. 12, the robot according to the present embodiment includes a display manager 1210, an audio output unit 1220, a robot manager abstract interface 1230, and a content engine 1240. Here, the display manager 1210, the audio output unit 1220, and the robot manager abstract interface 1230 exist in the application layer of the robot system, and the content engine 1240 exists in the framework native runtime library layer .

디스플레이 관리자(1210)는 컨텐츠 엔진(1240)에서 처리된 영상을 로봇의 디스플레이 장치에 출력하고, 또한 컨텐츠 엔진(1240)에서 처리되어 전달되는 그림 이미지를 비트맵 이미지로 만들어 디스플레이 장치에 출력한다. 로봇에 설치되는 운영 체제가 안드로이드 시스템인 경우 디스플레이 관리자(1210)는 안드로이드 캔버스를 이용하여 이미지를 만들어 낸다.The display manager 1210 outputs the image processed by the content engine 1240 to the display device of the robot, and further outputs the bitmap image to the display device by processing the image processed and delivered by the content engine 1240. If the operating system installed in the robot is an Android system, the display manager 1210 generates an image using the Android canvas.

오디오 출력부(1220)는 컨텐츠 엔진(1240)에서 만들어진 오디오 출력 데이터를 스피커와 같은 오디오 디바이스로 전송하여 출력한다. The audio output unit 1220 transmits the audio output data generated by the content engine 1240 to an audio device such as a speaker and outputs the audio output data.

로봇 매니저 추상 인터페이스(1230)는 로봇의 운영 체제에 탑재되는 로봇 매니저(예컨대, 안드로이드 서비스)를 래핑(wrapping)한 것으로서 로봇 컨텐츠의 정보를 로봇 매니저에서 필요한 정보로 변환하는 기능을 수행한다. 로봇에 탑재된 상기 로봇 매니저는 로봇 컨텐츠가 포함하고 있는 복합 데이터를 처리할 수 없기 때문에 별도의 로봇 매니저 추상 인터페이스를 구현하여 로봇 컨텐츠의 정보를 로봇 매니저에서 필요한 정보로 변환한다.The robot manager abstract interface 1230 is a wrapping of a robot manager (e.g., Android service) mounted on the operating system of the robot, and performs a function of converting information of robot contents into information required by the robot manager. Since the robot manager mounted on the robot can not process the complex data included in the robot contents, a separate robot manager abstract interface is implemented to convert information of the robot contents into information required by the robot manager.

로봇 매니저 추상 인터페이스(1230)는 로봇 컨텐츠에 포함된 모션의 일부 기능을 로봇 매니저에서 지원하는 경우 로봇 매니저를 호출하여 재생되도록 하고, 로봇 매니저에서 지원하지 않는 기능의 경우 로봇 드라이버 안의 기능, 즉 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)을 호출하여 모션이 재생되도록 한다.The robot manager abstract interface 1230 calls a robot manager when the robot manager supports some functions of motion included in the robot contents. In the case of a function not supported by the robot manager, the robot manager abstract interface 1230 performs functions in the robot driver, And calls the Hardware Abstract Layer (HAL) to play the motion.

로봇 매니저 추상 인터페이스(1230)는 모션의 동기화를 위해 로보틱스 컨트롤 동기화 기능을 포함한다. 컨텐츠 엔진(1240)이 만들어 내는 모션은 최적화 과정을 거치기 때문에, 모션들의 실제 동기화를 위해서는 별도의 작업을 해야 하고, 로봇 매니저 추상 인터페이스(1230)는 상기 로보틱스 컨트롤 동기화 기능을 통해 모션의 동기화를 수행한다.The robot manager abstract interface 1230 includes a robotics control synchronization function for motion synchronization. Since the motion generated by the content engine 1240 undergoes an optimization process, a separate task must be performed for the actual synchronization of the motions, and the robot manager abstract interface 1230 performs synchronization of motions through the robotics control synchronization function .

컨텐츠 엔진(1240)은 도 12에 점선으로 도시한 바와 같이, 로봇 컨텐츠 파일의 관리, 그리고 로봇 컨텐츠 파일로부터 이미지 만들기, 소리 만들기, 영상 재생, 그리고 로봇 모션 만들기 기능을 수행한다.The content engine 1240 manages the robot contents file and performs image creation, sound creation, image reproduction, and robot motion creation from the robot contents file, as shown by a dotted line in FIG.

컨텐츠 엔진(1240)는 관리되는 자바(java) 영역에서 파일을 처리할 수 있게 해주는 컨텐츠 복제 기능을 구비하고, 또한 로봇 컨텐츠에서 원시 이미지를 추출하여 디스플레이 관리자(1210)로 전달한다.The content engine 1240 has a content duplication function that allows a file to be processed in a managed Java domain and also extracts a raw image from the robot content and delivers the raw image to the display manager 1210.

또한, 컨텐츠 엔진(1240)은 WAV, MP3, OGG 등 오디오 파일을 처리하여 재생할 수 있는 코덱을 포함하고 로봇 컨텐츠에서 오디오 파일을 추출하여 상기 코덱으로 재생한 소리를 합성하여 PCM 데이터로 만들어 상기 오디오 출력부(1220)로 전달한다.The content engine 1240 includes a codec that can process and play back audio files such as WAV, MP3, and OGG, extracts audio files from the robot contents, synthesizes sounds reproduced by the codec, and generates PCM data, (1220).

또한, 컨텐츠 엔진(1240)은 영상 처리를 위한 오픈 소스 프로젝트 라이브러리 및 영상 코덱을 포함하고 로봇 컨텐츠에서 영상 파일을 추출하여 상기 코덱으로 만들어 낸 데이터를 실제 재생할 수 있는 동기화 논리에 맞춰 영상 이미지로 처리하여 상기 디스플레이 관리자(1210)로 전달한다.Also, the content engine 1240 includes an open source project library and an image codec for image processing, extracts an image file from the robot contents, processes the data created by the codec into an image image in accordance with synchronization logic that can actually reproduce the image file To the display manager (1210).

또한, 컨텐츠 엔진(1240)은 로봇 컨텐츠에서 모션 파일을 추출하여 모션 최적화를 수행한 후 로봇 매니저 추상 인터페이스(1230)로 전송한다. 즉, 모션 파일에 포함된 모든 모션을 하나의 모션처럼 처리하기 위해 전체 모션을 블렌딩(blending)하고 이어지거나 누락에 따른 중간 과정을 최적화한다. The content engine 1240 extracts a motion file from the robot content, performs motion optimization, and transmits the motion file to the robot manager abstract interface 1230. That is, all the motion included in the motion file is blended to process one motion as one motion, and the intermediate process due to the missing or missing is optimized.

도 13은 본 발명의 일 실시예에 따른 모션 디버거의 구성을 나타낸 도면이다. 모션 디버거(1300)는 로봇 컨텐츠 저작 장치와 서로 통신하면서 로봇 컨텐츠 저작 장치에서 만들어진 모션을 확인하고 데이터를 처리하는 미들웨어로서, 로봇에 설치된다.13 is a block diagram of a motion debugger according to an embodiment of the present invention. The motion debugger 1300 is installed in the robot as middleware for communicating with the robot content authoring device and confirming motions generated by the robot content authoring device and processing data.

도 13에 도시된 바와 같이, 모션 디버거(1300)는 파일 탐색기(1310), 다운로더(1330), 로봇 어플리케이션 인터페이스(1350)를 포함한다.13, the motion debugger 1300 includes a file explorer 1310, a downloader 1330, and a robot application interface 1350. [

파일 탐색기(1310)는 로봇의 메모리에 저장된 모션 파일을 관리한다. 다운로더(1330)는 로봇 컨텐츠 저작 장치에서 만들어진 모션 파일을 다운로드하여 상기 로봇의 메모리에 저장한다. The file explorer 1310 manages the motion file stored in the memory of the robot. The downloader 1330 downloads the motion file created by the robot content authoring apparatus and stores the downloaded motion file in the memory of the robot.

로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치에서 원격으로 로봇의 기능을 제어하기 위한 기능을 제공한다. 즉 실제 디버깅 기능을 제공하는 역할을 수행한다. The robot application interface 1350 provides a function for remotely controlling functions of the robot in the robot content authoring apparatus. In other words, it provides the actual debugging function.

로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치로부터 수신되는 제어 데이터에 따라 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)(1370)을 호출하여 모션 수행을 제어하고 로봇의 움직임 정보 그리고 하드웨어 상태를 로봇의 디스플레이 장치에 표시한다.The robot application interface 1350 calls a robotics hardware abstract layer (HAL) 1370 according to the control data received from the robot content authoring apparatus to control motion execution, And displays it on the display device.

로봇 어플리케이션 인터페이스(1350)는 디버거의 구동시 로봇 드라이버, 즉 상기 로보틱스 하드웨어 추상 계층의 기능을 정지하고 오직 원격에서 접속하는 로봇 컨텐츠 저작 장치에 의해서만 구동될 수 있도록 원격 코어로 변환하도록 처리한다.The robot application interface 1350 processes the robot driver, that is, the robotics abstraction layer, to stop the function of the robotics abstraction layer and convert it to a remote core so that it can be operated only by a robot content authoring device that is connected remotely.

로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치로부터 수신된 제어 데이터를 로봇에 설치된 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)(1370)으로 전달하면서, 로봇 컨텐츠 저작 장치와 상기 로보틱스 하드웨어 추상 계층(1370) 사이에 동시간에 동일한 처리가 일어나도록 동기화한다. 바람직하게 로봇 어플리케이션 인터페이스(1350)는 시분할 기법을 이용한 동기화 기술을 사용한다.The robot application interface 1350 transfers the control data received from the robot content authoring device to a robotics hardware abstract layer (HAL) 1370 installed in the robot, and transmits the robot content authoring device and the robotic hardware abstract layer 1370 ) So that the same processing occurs at the same time. Preferably, the robotic application interface 1350 uses a synchronization technique using time division techniques.

바람직하게, 로봇 어플리케이션 인터페이스(1350)는 프레임 단위(약 0.5초)로 로봇의 모션을 제어한다. 로보틱스 하드웨어 추상 계층(1370)은 제어 데이터에 따라 로봇 컨트롤 보드(1390)를 제어하여 로봇의 모션을 구동시킨다.Preferably, the robotic application interface 1350 controls the motion of the robot in frame units (about 0.5 second). The robotics hardware abstraction layer 1370 controls the robot control board 1390 according to the control data to drive the motion of the robot.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. The method of the present invention as described above may be embodied as a program and stored in a computer-readable recording medium (such as a CD-ROM, a RAM, a ROM, a floppy disk, a hard disk, or a magneto-optical disk).

본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 아니된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절한 부결합(subcombination)에서 구현될 수 있다. While the specification contains many features, such features should not be construed as limiting the scope of the invention or the scope of the claims. In addition, the features described in the individual embodiments herein may be combined and implemented in a single embodiment. Conversely, various features described herein in a single embodiment may be implemented in various embodiments individually or in a suitable subcombination.

도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 아니된다. 어떤 환경에서, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.It is to be understood that, although the operations have been described in a particular order in the figures, it should be understood that such operations are performed in a particular order as shown, or that a series of sequential orders, or all described operations, . In some circumstances, multitasking and parallel processing may be advantageous. It should also be understood that the division of various system components in the above embodiments does not require such distinction in all embodiments. The above-described program components and systems can generally be implemented as a single software product or as a package in multiple software products.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.

210 : 모션 편집부 220 : 모션 재생부
230 : 동기화부 240 : 템플릿 관리부
250 : 파일 처리기 260 : 3D 묘화부
210: Motion Editing Unit 220:
230: synchronization unit 240: template management unit
250: file processor 260: 3D rendering unit

Claims (32)

편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 로봇 컨텐츠 저작 장치에 있어서,
상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및
상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함하는 로봇 컨텐츠 저작 장치.
A robot content authoring apparatus for outputting an interface including an edit region and a motion event track,
A rendering unit for implementing and expressing a 3D robot model in the editing area; And
And a motion editing unit for generating a robot motion event in accordance with a motion operation on the robot model of the editing area and arranging the robot motion event on the motion event track according to time.
제 1 항에 있어서,
상기 모션 편집부는,
상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고, 사용자로부터 구동 시간을 입력받으며, 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
The method according to claim 1,
The motion-
A head motion event bar having a length corresponding to the driving time including information on a motion angle of the head, the motion information including a head motion of the robot model, Wherein the robot is placed on a motion event track.
제 2 항에 있어서,
상기 모션 편집부는,
상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하고, 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
3. The method of claim 2,
The motion-
Wherein a line corresponding to a line of sight of the robot model and a reference line corresponding to a position of the robot model are displayed and an angle between a line corresponding to the line of sight and the reference line is calculated as a movement angle of the head.
제 3 항에 있어서,
상기 모션 편집부는,
상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
The method of claim 3,
The motion-
Wherein a display device is displayed on the neck joint part of the robot model and a line corresponding to the reference line and the line of sight is displayed when the display device is selected.
제 4 항에 있어서,
상기 모션 편집부는,
머리 모션 편집 모드의 동작시 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
5. The method of claim 4,
The motion-
And changes the screen of the editing area to a perspective view when the head motion editing mode is operated.
제 1 항에 있어서,
상기 모션 편집부는,
이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
The method according to claim 1,
The motion-
Changes the screen of the editing area to a top view and displays two moving images on the robot model of the editing area when the moving motion editing mode is operated.
제 6 항에 있어서,
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기인 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
The method according to claim 6,
Wherein one of the two indicators is a forward / backward motion edit indicator and the other is a rotational motion edit indicator.
제 7 항에 있어서,
상기 모션 편집부는,
상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고, 사용자로부터 이동 속도를 입력받으며, 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
8. The method of claim 7,
The motion-
When the forward / backward motion editing / editing indicator is selected, a movement distance is calculated in accordance with an operation for moving the robot model back and forth, a movement speed is input from a user, and a movement motion event bar including information of the movement distance Is arranged in the motion event track in a length corresponding to the motion event track.
제 8 항에 있어서,
상기 모션 편집부는,
상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
9. The method of claim 8,
The motion-
Wherein the editing area displays the position line before movement and the position line after movement of the robot model and displays the movement distance therebetween.
제 7 항에 있어서,
상기 모션 편집부는,
상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받으며, 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
8. The method of claim 7,
The motion-
When the user selects the rotation motion edit indicator, the rotation angle is calculated in accordance with the operation of the robot model rotation, the rotation speed is input from the user, and the motion motion event bar including the rotation angle information corresponds to the rotation time Wherein the motion event track is arranged in the motion event track.
제 10 항에 있어서,
상기 모션 편집부는,
상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
11. The method of claim 10,
The motion-
A line at a time point before the rotation of the robot model and a line at a time point after the rotation are displayed in the editing area, and a rotation angle is displayed between the lines.
제 1 항에 있어서,
상기 모션 편집부는,
램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
The method according to claim 1,
The motion-
Wherein the controller changes the screen of the editing area to a front view and displays at least one lamp position on the robot model of the editing area when the lamp expression editing mode is operated.
제 12 항에 있어서,
상기 모션 편집부는,
상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간을 입력받고, 그 입력받은 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
13. The method of claim 12,
The motion-
A selection input for the lamp position, a color and a time of the lamp, and a lamp expression event bar including the lamp position and the color information in the motion event track at a length corresponding to the input time Wherein said robot content authoring device comprises:
제 1 항 내지 제 13 항 중 어느 한 항에 있어서,
상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 모션 재생부; 및
물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 동기화부;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
14. The method according to any one of claims 1 to 13,
A motion reproducing unit for operating the robot model of the editing region according to an event disposed on the motion event track; And
And a synchronization unit for establishing communication with the physical physical robot and synchronizing the operation of the robot model with the operation of the actual robot.
제 1 항 내지 제 13 항 중 어느 한 항에 있어서,
컨텐츠 편집 모드시, 상기 편집 영역은 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환되고, 미디어의 출력을 위한 미리보기 창이 표시되며, 상기 모션 이벤트 트랙은 컨텐츠 이벤트 트랙으로 전환되고,
상기 모션 편집부에 의해 생성된 로봇 모션 이벤트의 템플릿과 미디어 템플릿을 저장하고 리스트를 제공하는 템플릿 관리부; 및
상기 템플릿 관리부에서 제공하는 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 컨텐츠 저작부;를 더 포함하는 로봇 컨텐츠 저작 장치.
14. The method according to any one of claims 1 to 13,
In the content editing mode, the editing area is switched to an emulation area where the robot model only operates in a virtual space, a preview window for outputting the media is displayed, the motion event track is switched to a content event track,
A template management unit for storing a template and a media template of the robot motion event generated by the motion editing unit and providing a list; And
And a content authoring unit for presenting the robot motion event and the media selected from the list provided by the template management unit with the robot motion event and an event bar having a length corresponding to the playback length of the media, Robot content authoring device.
제 15 항에 있어서,
상기 컨텐츠 저작부는,
재생 입력의 수신시, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
16. The method of claim 15,
The content authoring unit,
When the reproduction input is received, the robot model of the emulation area is operated according to the robot motion event arranged in the content event track, and the media arranged in the content event track is reproduced and output to the preview window A robot content authoring device.
로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법으로서,
편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계;
상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및
상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 로봇 컨텐츠 저작 방법.
As a method for authoring robot contents in a robot content authoring apparatus,
Outputting an interface including an edit area and a motion event track;
Embodying and expressing a three-dimensional robot model in the editing area; And
Generating a robot motion event according to a motion operation on the robot model of the editing area and arranging the robot motion event on the motion event track according to time.
제 17 항에 있어서,
상기 배치하는 단계는,
상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고 구동 시간을 입력받는 단계; 및
상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 로봇 컨텐츠 저작 방법.
18. The method of claim 17,
Wherein the disposing comprises:
Calculating a movement angle of the head according to an operation of the head of the robot model and receiving a driving time; And
And arranging a head motion event bar having a length corresponding to the driving time in the motion event track including information on the motion angle of the head.
제 18 항에 있어서,
상기 입력받는 단계는,
상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하는 단계; 및
상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
19. The method of claim 18,
The method of claim 1,
Displaying a line according to a line of sight of the robot model and a reference line according to the position of the robot model; And
And calculating an angle between the line along the line of sight and the reference line as a head movement angle.
제 19 항에 있어서,
상기 선을 표시하는 단계는,
상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
20. The method of claim 19,
Wherein the step of displaying the line comprises:
Wherein a display device is displayed on a neck joint portion of the robot model, and when the display device is selected, a line corresponding to the reference line and the line of sight is displayed.
제 20 항에 있어서,
상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
21. The method of claim 20,
And changing a screen of the editing area to a perspective view.
제 17 항에 있어서,
상기 표현하는 단계 이후에,
상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
18. The method of claim 17,
After the expressing step,
Further comprising changing the screen of the editing area to a top view and displaying two displays related to moving motion editing on the robot model of the editing area.
제 22 항에 있어서,
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기인 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
23. The method of claim 22,
Wherein one of the two indicators is a forward / backward motion edit indicator and the other is a rotational motion edit indicator.
제 23 항에 있어서,
상기 배치하는 단계는,
상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고 사용자로부터 이동 속도를 입력받는 단계; 및
상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
24. The method of claim 23,
Wherein the disposing comprises:
Calculating a movement distance in accordance with an operation for back and forth movement of the robot model and receiving a movement speed from a user when the forward / backward motion edit / display controller is selected; And
And arranging a moving motion event bar including information on the moving distance on the motion event track in a length corresponding to the moving time.
제 24 항에 있어서,
상기 입력받는 단계는,
상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
25. The method of claim 24,
The method of claim 1,
And displaying the position line before movement and the position line after movement of the robot model in the editing area, and displaying the movement distance therebetween.
제 23 항에 있어서,
상기 배치하는 단계는,
상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받는 단계; 및
상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
24. The method of claim 23,
Wherein the disposing comprises:
Calculating a rotation angle according to an operation on the rotation of the robot model and receiving a rotation speed from a user when the rotation motion edit indicator is selected; And
And arranging a moving motion event bar including information on the rotation angle on the motion event track in a length corresponding to the rotation time.
제 26 항에 있어서,
상기 입력받는 단계는,
상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
27. The method of claim 26,
The method of claim 1,
And displaying a line at a time point before the rotation and a line at a time point after the rotation of the robot model in the editing area, and displaying a rotation angle between the lines.
제 17 항에 있어서,
상기 표현하는 단계 이후에,
램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
18. The method of claim 17,
After the expressing step,
Changing the screen of the editing area to a front view and displaying at least one lamp position on the robot model of the editing area when the lamp expression editing mode is operated. Authoring method.
제 28 항에 있어서,
상기 배치하는 단계는,
상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간의 입력을 수신하는 단계; 및
상기 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
29. The method of claim 28,
Wherein the disposing comprises:
Receiving a selection input for the lamp position and an input of color and time of the lamp; And
And arranging a lamp expression event bar including the lamp position and the color information in the motion event track at a length corresponding to the time.
제 17 항 내지 제 29 항 중 어느 한 항에 있어서,
물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 단계; 및
상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
30. The method according to any one of claims 17 to 29,
Communicating with a physical physical robot and synchronizing the operation of the robot model and the actual robot; And
And operating the robot model of the editing area according to an event arranged on the motion event track.
제 17 항 내지 제 29 항 중 어느 한 항에 있어서,
상기 편집 영역을 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환하고, 미디어의 출력을 위한 미리보기 창을 표시하며, 상기 모션 이벤트 트랙을 컨텐츠 이벤트 트랙으로 전환하는 단계;,
로봇 모션 이벤트의 템플릿과 미디어 템플릿의 리스트를 제공하는 단계; 및
상기 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 단계;를 더 포함하는 로봇 컨텐츠 저작 방법.
30. The method according to any one of claims 17 to 29,
Converting the editing area into an emulation area in which the robot model only operates in a virtual space, displaying a preview window for outputting the media, and converting the motion event track into a content event track;
Providing a template of a robot motion event and a list of media templates; And
And displaying the robot motion event and the media selected from the list in an event bar having a length corresponding to a playback length of the robot motion event and the media, and arranging the robot motion event and the media on the content event track.
제 31 항에 있어서,
상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
32. The method of claim 31,
And operating the robot model of the emulation area in accordance with the robot motion event arranged in the content event track and reproducing the media arranged in the content event track and outputting the media to the preview window. A method of authoring robot contents.
KR1020130057176A 2013-03-22 2013-05-21 Apparatus and method for developing robot contents KR101626966B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/039,942 US9495788B2 (en) 2013-03-22 2013-09-27 Apparatus and method for developing robot contents

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130030897 2013-03-22
KR20130030897 2013-03-22

Publications (2)

Publication Number Publication Date
KR20140115902A true KR20140115902A (en) 2014-10-01
KR101626966B1 KR101626966B1 (en) 2016-06-02

Family

ID=51990120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130057176A KR101626966B1 (en) 2013-03-22 2013-05-21 Apparatus and method for developing robot contents

Country Status (1)

Country Link
KR (1) KR101626966B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166731A1 (en) * 2019-02-11 2020-08-20 엘지전자 주식회사 Action robot terminal and operating method therefor
CN114347061A (en) * 2022-01-24 2022-04-15 美的集团(上海)有限公司 Atmosphere lamp setting method and setting device for robot and robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020056949A (en) * 2000-09-28 2002-07-10 이데이 노부유끼 Authoring system and authoring method, and storage medium
JP2008254074A (en) * 2007-03-30 2008-10-23 Sega Corp Motion editing device, and its program
US20090078244A1 (en) 2007-09-21 2009-03-26 Samsung Electronics Co., Ltd. Metal panel, manufacturing method thereof and cooking device using the metal panel
US8447428B2 (en) * 2007-07-04 2013-05-21 Aldebaran Robotics S.A. Method for editing movements of a robot
US8560118B2 (en) * 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020056949A (en) * 2000-09-28 2002-07-10 이데이 노부유끼 Authoring system and authoring method, and storage medium
JP2008254074A (en) * 2007-03-30 2008-10-23 Sega Corp Motion editing device, and its program
US8560118B2 (en) * 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
US8447428B2 (en) * 2007-07-04 2013-05-21 Aldebaran Robotics S.A. Method for editing movements of a robot
US20090078244A1 (en) 2007-09-21 2009-03-26 Samsung Electronics Co., Ltd. Metal panel, manufacturing method thereof and cooking device using the metal panel

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166731A1 (en) * 2019-02-11 2020-08-20 엘지전자 주식회사 Action robot terminal and operating method therefor
CN114347061A (en) * 2022-01-24 2022-04-15 美的集团(上海)有限公司 Atmosphere lamp setting method and setting device for robot and robot

Also Published As

Publication number Publication date
KR101626966B1 (en) 2016-06-02

Similar Documents

Publication Publication Date Title
US10403050B1 (en) Multi-user virtual and augmented reality tracking systems
US6718231B2 (en) Authoring system and authoring method, and storage medium
US20120107790A1 (en) Apparatus and method for authoring experiential learning content
CN103258338A (en) Method and system for driving simulated virtual environments with real data
US9495788B2 (en) Apparatus and method for developing robot contents
KR102186607B1 (en) System and method for ballet performance via augumented reality
CN113359994B (en) Teaching content configuration and interaction scheme implementation method suitable for AR education application
WO2018173791A1 (en) Image processing device and method, and program
JP2022500795A (en) Avatar animation
CN112783320A (en) Immersive virtual reality case teaching display method and system
KR102095951B1 (en) A system for coding education using generating an application for robot control
JP2012252609A5 (en)
KR101626966B1 (en) Apparatus and method for developing robot contents
AU2023201083A1 (en) Recorded physical interaction playback
Jeong et al. WIKA: A projected augmented reality workbench for interactive kinetic art
CA2916295A1 (en) Method and apparatus for mixing media tracks
US20180165877A1 (en) Method and apparatus for virtual reality animation
KR20200003437A (en) A system for coding education using generating an application for robot control
KR20140115900A (en) System for producing teaching plan content and method therefor
JP7070547B2 (en) Image processing equipment and methods, as well as programs
US20240112418A1 (en) XR World Build Capture and Playback Engine
Mullen et al. Blender studio projects: digital movie-making
Ucchesu A Mixed Reality application to support TV Studio Production
Hillmann et al. VR Production Tools, Workflow, and Pipeline
CN114505847A (en) Interaction system of co-building modular robot and method for participating in co-building modular robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190502

Year of fee payment: 4