KR20140115902A - Apparatus and method for developing robot contents - Google Patents
Apparatus and method for developing robot contents Download PDFInfo
- Publication number
- KR20140115902A KR20140115902A KR1020130057176A KR20130057176A KR20140115902A KR 20140115902 A KR20140115902 A KR 20140115902A KR 1020130057176 A KR1020130057176 A KR 1020130057176A KR 20130057176 A KR20130057176 A KR 20130057176A KR 20140115902 A KR20140115902 A KR 20140115902A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- robot
- event
- editing
- robot model
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 로봇을 제어할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법에 관한 것으로, 보다 구체적으로, 시간의 흐름에 따라 로봇의 모션을 순차적으로 연출할 수 있고 또한 미디어와 로봇의 모션을 동기화하여 연출할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and a method for authoring content capable of controlling a robot, and more particularly, it relates to an apparatus and a method for authoring content of a robot capable of sequentially controlling the motions of the robot in accordance with time, And more particularly, to a device and a method for authoring content that can be used in a mobile communication system.
일반적으로, 현재의 로봇 제어 방법은 대부분 필요시마다 개발자가 프로그래밍을 해서 로봇에서 직접 실행을 해보고 결과의 오류를 찾아 몇 차례의 디버깅을 거치는 일련의 과정을 거친다. 그리고, 디스플레이되는 화면과 실제 로봇과의 동작을 연결하여 동기화시키는 것도 간단치 않은 작업이다. Generally, the current robot control method is a series of processes in which a developer performs programming, executes directly in a robot, finds an error of a result, and performs a few debugging processes. It is also a simple task to connect and synchronize the motion of the displayed image with the actual robot.
이러한 기술적 한계로 인해, 실생활에 유익한 다양한 컨텐츠를 제공하는 로봇을 상품화하는 것에 어려움이 있다. 로봇마다 플랫폼과 제어가 필요한 부분이 각기 다른 이유로 특정 로봇의 제어 목적으로 개발된 저작 툴과 컨텐츠는 다른 로봇에는 적용하기 어려운 상황이 발생하게 된다. Due to these technical limitations, it is difficult to commercialize a robot that provides various contents useful for real life. Because the robot needs different platform and control parts, the authoring tool and contents developed for the control of the specific robot are difficult to apply to other robots.
예를 들어, 초기에 개발된 로봇의 경우 팔이 없어 제어할 필요가 없었으나, 차기에 개발된 로봇의 경우 팔이 추가되어 제어가 필요하게 되었는데, 기존에 개발된 구조의 저작 툴로는 새로 추가된 기능을 사용할 수 없어 매번 새로운 로봇이 개발될 때마다 그에 종속적인 새로운 저작 툴과 컨텐츠를 개발해야 한다는 문제가 발생하게 된다.For example, in the case of an initially developed robot, there was no need to control it because there was no arm, but in the case of a robot developed in the future, an arm was added and control was required. Function can not be used, so that every time a new robot is developed, there arises a problem of developing a new authoring tool and contents dependent thereon.
또한, 로봇만의 특화된 얼굴 인식, 대화 기술, 네비게이션, 사용자 응시 등의 기능을 컨텐츠에 적용하기 어려워 PC용으로 개발된 컨텐츠와 차별화된 컨텐츠를 개발하는 데 있어 한계가 있다. 로봇의 독창적인 컨텐츠 개발을 위하여 로봇 관련 개발 기술을 컨텐츠에 접목시키는 기능이 필요하다.In addition, it is difficult to apply functions such as specialized face recognition, dialogue technology, navigation, and user gazing only for robots to the contents, which is a limitation in developing contents differentiated from contents developed for PCs. In order to develop original contents of robots, it is necessary to combine robot-related development technology with contents.
최근 교육 콘텐츠 서비스를 제공하는 로봇이 개발되었다. 이러한 지능형 서비스 로봇은 외양에서 인간과 유사성을 가짐으로 자연스러운 대화가 가능하고 화면과 얼굴 LED를 통해 감정 교류가 일어날 수 있다. 또한 학습자의 상태를 음성이나 센서 등을 통해 인식하여 개별적인 학습자 필요에 반응하고 자극함으로써 자발적 학습을 촉진할 수 있다. Recently, robots have been developed to provide educational contents services. Such an intelligent service robot can have a natural dialogue with the human being in similarity with the appearance, and emotional exchange can occur through the screen and face LED. In addition, the learners' state can be recognized through voice or sensors, which can stimulate voluntary learning by responding to and stimulating individual learner needs.
이러한 로봇은 기존의 도구적인 교수 매체 개념을 넘어 유아와 함께 협력하며 공존하는 로봇 선생님이나 친구로 다가가고 있다. 이러한 지능형 서비스 로봇에도 안드로이드 운영체제와 같은 오픈 아키텍처가 채택되고 있다. 따라서 지능형 서비스 로봇의 어플리케이션 개발에도 많은 일반 개발자들이 참여할 수 있게 되었다. 그런데 전술한 바와 같이 지능형 서비스 로봇은 모바일 단말과 달리 자체 이동성이 있고 자율 주행 중 회피 기동의 기능이 있으며, 회피 기능을 위한 센서들이 채용되고, 또한 감성 서비스를 제공하기 위해 여러 부위에 터치 감지 센서 및 LED 등의 여러 종류의 하드웨어가 채용된다. These robots go beyond the traditional instrumental teaching medium concept and cooperate with the infant to reach coexisting robot teacher or friend. These intelligent service robots are also adopting the same open architecture as the Android operating system. Therefore, many general developers can participate in application development of intelligent service robots. As described above, unlike a mobile terminal, the intelligent service robot has its own mobility and has a function of avoiding start during autonomous traveling. Sensors for avoiding functions are employed, and in order to provide emotional service, Various kinds of hardware such as LED are adopted.
따라서 이러한 지능형 서비스 로봇의 하드웨어 자원을 이용하고 제어할 수 있는 컨텐츠를 자유롭게 개발할 수 있는 환경이 요구된다. Therefore, there is a need for an environment capable of freely developing contents that can utilize and control hardware resources of the intelligent service robot.
본 발명은 상기와 같은 문제점을 해결하기 위해 제안된 것으로, 로봇의 사용자가 프로그래밍 작업 없이 로봇의 하드웨어 자원을 이용하고 제어할 수 이는 로봇용 컨텐츠를 개발할 수 있는 저작 환경을 제공하는 로봇 컨텐츠 저작 장치 및 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above problems, and it is an object of the present invention to provide a robot content authoring apparatus and a robot content authoring apparatus for providing a authoring environment in which a robot user can use and control hardware resources of a robot without programming, The purpose of the method is to provide.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.
상기 목적을 달성하기 위한 로봇 컨텐츠 저작 장치는, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하고, 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함한다. In order to achieve the above object, a robot content authoring apparatus includes: a rendering unit for outputting an interface including an editing region and a motion event track, and embodying and expressing a 3D robot model in the editing region; And a motion editor for generating a robot motion event according to the motion manipulation of the robot model of the editing area and arranging the robot motion event on the motion event track according to time.
상기 모션 편집부는, 상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고, 사용자로부터 구동 시간을 입력받으며, 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치할 수 있다.Wherein the motion editing unit calculates a head movement angle in accordance with an operation of the head of the robot model, receives a drive time from a user, and displays a head having a length corresponding to the drive time, A motion event bar can be placed in the motion event track.
상기 모션 편집부는, 상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하고, 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출할 수 있다. The motion editing unit may display a line corresponding to a line of sight of the robot model and a reference line corresponding to the position of the robot model, and may calculate an angle between a line corresponding to the line of sight and the reference line as a head motion angle.
상기 모션 편집부는, 상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시할 수 있다. The motion editing unit may display an indicator on the neck joint part of the robot model and display a line corresponding to the reference line and the visual line when the display unit is selected.
상기 모션 편집부는, 머리 모션 편집 모드의 동작시 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경한다.The motion editing unit changes the screen of the editing area to a perspective view when the head motion editing mode is in operation.
상기 모션 편집부는, 이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시할 수 있다. The motion editing unit may change the screen of the editing area to a top view and display two moving images on the robot model in the editing area in the moving motion editing mode.
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기일 수 있다. One of the two indicators may be a back and forth moving motion edit indicator and the other may be a rotational motion edit indicator.
상기 모션 편집부는, 상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고, 사용자로부터 이동 속도를 입력받으며, 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치할 수 있다. Wherein the motion editing unit calculates a moving distance in accordance with an operation of moving back and forth of the robot model when the forward / backward motion editing / display indicator is selected, receives a moving speed from the user, The event bar can be arranged in the motion event track in a length corresponding to the movement time.
상기 모션 편집부는, 상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시할 수 있다. The motion editing unit may display a position line before movement and a position line after movement of the robot model in the editing area and display the movement distance therebetween.
상기 모션 편집부는, 상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받으며, 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치할 수 있다. Wherein the motion editing unit calculates a rotation angle in accordance with an operation on the rotation of the robot model when receiving the rotation motion edit indicator, receives a rotation speed from the user, May be arranged in the motion event track in a length corresponding to the rotation time.
상기 모션 편집부는, 상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시할 수 있다. The motion editing unit may display a line at a time point before the rotation of the robot model and a line at a time point after the rotation in the editing area and display a rotation angle between the lines.
상기 모션 편집부는, 램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시할 수 있다. The motion editing unit may change the screen of the editing area to a front view and display at least one lamp position on the robot model of the editing area when the lamp expression editing mode is operated.
상기 모션 편집부는, 상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간을 입력받고, 그 입력받은 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치할 수 있다. The motion editing unit receives a selection input for the lamp position, a color and a time of the lamp, and outputs the lamp position and the lamp information including the information of the color to the motion event track at a length corresponding to the input time. Event bars can be placed.
상기 로봇 컨텐츠 저작 장치는, 상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 모션 재생부; 및 물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 동기화부;를 더 포함할 수 있다. Wherein the robot content authoring device comprises: a motion playback unit operable to operate the robot model of the editing area according to an event arranged on the motion event track; And a synchronization unit for establishing communication with the physical physical robot and synchronizing the operation of the robot model and the actual robot.
컨텐츠 편집 모드시, 상기 로봇 컨텐츠 저작 장치의 상기 편집 영역은 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환되고, 미디어의 출력을 위한 미리보기 창이 표시되며, 상기 모션 이벤트 트랙은 컨텐츠 이벤트 트랙으로 전환되고, 상기 로봇 컨텐츠 저작 장치는 상기 모션 편집부에 의해 생성된 로봇 모션 이벤트의 템플릿과 미디어 템플릿을 저장하고 리스트를 제공하는 템플릿 관리부; 및 상기 템플릿 관리부에서 제공하는 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 컨텐츠 저작부;를 더 포함할 수 있다. In the content editing mode, the editing area of the robot content authoring device is switched to an emulation area in which the robot model only operates in a virtual space, and a preview window for outputting the media is displayed. Wherein the robot content authoring device includes a template management unit for storing a template and a media template of the robot motion event generated by the motion editing unit and providing a list; And a content authoring unit for representing the robot motion event and the media selected from the list provided by the template management unit with an event bar having a length corresponding to the playback length of the robot motion event and the media, can do.
상기 컨텐츠 저작부는, 재생 입력의 수신시, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력할 수 있다. Wherein the content authoring unit operates the robot model of the emulation area in response to a robot motion event disposed on the content event track upon receiving the playback input and reproduces the media placed on the content event track, Can be output.
상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법은, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계; 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함한다. According to another aspect of the present invention, there is provided a method of authoring robot content in a robot content authoring apparatus, the method comprising: outputting an interface including an edit region and a motion event track; Embodying and expressing a three-dimensional robot model in the editing area; And generating a robot motion event according to a motion operation on the robot model of the editing area and arranging the robot motion event on the motion event track with time.
상기 배치하는 단계는, 상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고 구동 시간을 입력받는 단계; 및 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다. Wherein the step of arranging comprises: calculating a movement angle of the head according to an operation on the head of the robot model and receiving a driving time; And arranging a head motion event bar having a length corresponding to the driving time including the information on the motion angle of the head on the motion event track.
상기 입력받는 단계는, 상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하는 단계; 및 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 단계;를 포함할 수 있다. The receiving step may include displaying a line corresponding to a position of the robot model and a line corresponding to a line of sight of the robot model; And calculating an angle between the line along the line of sight and the reference line as a head movement angle.
상기 선을 표시하는 단계는, 상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시할 수 있다. The step of displaying the line may display a display device on the neck joint part of the robot model and display a line corresponding to the reference line and the line of sight when the display device is selected.
상기 방법은, 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 단계;를 더 포함할 수 있다.The method may further include changing a screen of the editing area to a perspective view.
상기 방법은, 상기 표현하는 단계 이후에, 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함할 수 있다. The method further includes the step of changing the screen of the editing area to a top view and displaying two moving images on the robot model of the editing area after the expressing step can do.
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이다.One of the two indicators is a back and forth moving motion edit indicator, and the other is a rotational motion edit indicator.
상기 배치하는 단계는, 상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고 사용자로부터 이동 속도를 입력받는 단계; 및 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다. Wherein the arranging step includes the steps of: calculating a moving distance in accordance with an operation for moving the robot model back and forth when the forward / backward motion editing / displaying device is selected; And placing a moving motion event bar including information on the moving distance on the motion event track in a length corresponding to the moving time.
상기 입력받는 단계는, 상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 단계;를 포함할 수 있다. The receiving step may include displaying a position line before the movement and a position line after the movement of the robot model in the editing area and displaying a movement distance therebetween.
상기 배치하는 단계는, 상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받는 단계; 및 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다. Wherein the step of arranging includes the steps of: calculating a rotation angle in accordance with an operation on rotation of the robot model and receiving a rotation speed from a user when the rotation motion edit indicator is selected; And disposing a motion motion event bar including information on the rotation angle on the motion event track in a length corresponding to the rotation time.
상기 입력받는 단계는, 상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 단계;를 포함할 수 있다. The receiving step may include displaying a line at a time point before the rotation and a line at a time point after the rotation of the robot model in the editing area and displaying a rotation angle between the lines.
상기 방법은, 상기 표현하는 단계 이후에, 램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 단계;를 더 포함할 수 있다. The method may further include, after the expressing step, changing a screen of the editing area to a front view and displaying at least one lamp position on the robot model of the editing area in an operation of a lamp expression edit mode ; ≪ / RTI >
상기 배치하는 단계는, 상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간의 입력을 수신하는 단계; 및 상기 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 단계;를 포함할 수 있다. Wherein the disposing comprises receiving a selection input for the lamp position and an input of color and time of the lamp; And disposing a lamp expression event bar including information of the lamp position and the color in the motion event track at a length corresponding to the time.
상기 방법은, 물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 단계; 및 상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 단계;를 더 포함할 수 있다. The method includes communicating with a physical physical robot and synchronizing the operation of the robot model with the actual robot; And operating the robot model of the editing area according to an event disposed on the motion event track.
상기 방법은, 상기 편집 영역을 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환하고, 미디어의 출력을 위한 미리보기 창을 표시하며, 상기 모션 이벤트 트랙을 컨텐츠 이벤트 트랙으로 전환하는 단계; 로봇 모션 이벤트의 템플릿과 미디어 템플릿의 리스트를 제공하는 단계; 및 상기 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 단계;를 더 포함할 수 있다. Converting the editing area into an emulation area in which the robot model only operates in a virtual space, displaying a preview window for outputting the media, and converting the motion event track into a content event track; Providing a template of a robot motion event and a list of media templates; And displaying the robot motion event and the media selected from the list as an event bar having a length corresponding to a playback length of the robot motion event and the media, and arranging the robot motion event and the media on the content event track.
상기 방법은, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 단계;를 더 포함할 수 있다. The method may further include operating the robot model of the emulation area in accordance with a robot motion event disposed on the content event track and reproducing the media placed on the content event track and outputting the media to the preview window can do.
본 발명은 로봇 개발자가 아닌 일반 로봇 사용자가 로봇용 컨텐츠를 손쉽게 저작할 수 있게 한다. 따라서 로봇을 이용한 교육 등에서 교사들이 학습 커리큘럼에 맞는 다양한 교육 컨텐츠를 저작하여 활용할 수 있다.The present invention enables a general robot user, not a robot developer, to easily author content for robots. Therefore, teachers can utilize various educational contents suitable for learning curriculum by using robot.
도 1은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 장치의 구성을 나타낸 도면이다.
도 2는 도 1의 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 프로그램의 기본 인터페이스 화면이다.
도 4는 본 발명의 일 실시예에 따른 머리 모션 편집 모드의 화면을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 머리 모션의 각도 및 시간을 설명하는 화면을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면이다.
도 7은 이동 모션 편집 모드에서 로봇 모델의 이동 전후의 위치 선을 나타낸 도면이다.
도 8은 본 발명의 다른 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 LED 표현 편집 모드의 화면을 나타낸 도면이다.
도 10은 본 발명의 다른 실시예에 따른 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 컨텐츠 편집 모드의 화면이다.
도 12는 본 발명의 일 실시예에 따른 로봇의 구성을 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른 모션 디버거의 구성을 나타낸 도면이다.1 is a block diagram of a robot content authoring apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of a robot content authoring program of FIG. 1. FIG.
3 is a basic interface screen of a robot content authoring program according to an embodiment of the present invention.
4 is a view showing a screen of a head motion editing mode according to an embodiment of the present invention.
FIG. 5 is a view illustrating an angle and time of a head motion according to an embodiment of the present invention.
6 is a diagram illustrating a screen of a moving motion editing mode according to an embodiment of the present invention.
Fig. 7 is a diagram showing position lines before and after movement of the robot model in the moving motion edit mode. Fig.
FIG. 8 is a view showing a screen of a moving motion editing mode according to another embodiment of the present invention.
9 is a diagram illustrating a screen of an LED expression edit mode according to an embodiment of the present invention.
10 is a block diagram of a robot content authoring program according to another embodiment of the present invention.
11 is a screen of a content editing mode according to an embodiment of the present invention.
12 is a block diagram of a robot according to an embodiment of the present invention.
13 is a block diagram of a motion debugger according to an embodiment of the present invention.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 장치의 구성을 나타낸 도면이다.1 is a block diagram of a robot content authoring apparatus according to an embodiment of the present invention.
도 1을 참조하면, 로봇 컨텐츠 저작 장치(100)는 메모리(110), 메모리 제어기(121), 하나 이상의 프로세서(CPU)(122), 주변 인터페이스(123), 입출력(I/O) 서브시스템(130), 디스플레이 장치(141), 입력 장치(142) 및 RF 회로(152)를 포함한다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 통하여 통신한다. 도 1에 도시한 여러 구성요소는 하나 이상의 신호 처리 및/또는 애플리케이션 전용 집적 회로(application specific integrated circuit)를 포함하여, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어 둘의 조합으로 구현될 수 있다.1, a robot
메모리(110)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치와 같은 불휘발성 메모리, 또는 다른 불휘발성 반도체 메모리 장치를 포함할 수 있다. 일부 실시예에서, 메모리(110)는 하나 이상의 프로세서(122)로부터 멀리 떨어져 위치하는 저장 장치, 예를 들어 RF 회로(152)와, 인터넷, 인트라넷, LAN(Local Area Network), WLAN(Wide LAN), SAN(Storage Area Network) 등, 또는 이들의 적절한 조합과 같은 통신 네트워크(도시하지 않음)를 통하여 액세스되는 네트워크 부착형(attached) 저장 장치를 더 포함할 수 있다. 프로세서(122) 및 주변 인터페이스(123)와 같은 로봇 컨텐츠 저작 장치(100)의 다른 구성요소에 의한 메모리(110)로의 액세스는 메모리 제어기(121)에 의하여 제어될 수 있다.The
주변 인터페이스(123)는 로봇 컨텐츠 저작 장치의 입출력 주변 장치를 프로세서(122) 및 메모리(110)와 연결시킨다. 하나 이상의 프로세서(122)는 다양한 소프트웨어 프로그램 및/또는 메모리(110)에 저장되어 있는 명령어 세트를 실행하여 로봇 컨텐츠 저작 장치(100)를 위한 여러 기능을 수행하고 데이터를 처리한다.The
일부 실시예에서, 주변 인터페이스(123), 프로세서(122) 및 메모리 제어기(121)는 칩(120)과 같은 단일 칩 상에서 구현될 수 있다. 일부 다른 실시예에서, 이들은 별개의 칩으로 구현될 수 있다.In some embodiments,
I/O 서브시스템(130)은 디스플레이 장치(141) 및 기타 입력 장치(142)와 같은 로봇 컨텐츠 저작 장치(100)의 입출력 주변장치와 주변 인터페이스(123) 사이에 인터페이스를 제공한다. The I /
디스플레이 장치(141)는 LCD(liquid crystal display) 기술 또는 LPD(light emitting polymer display) 기술을 사용할 수 있고, 이러한 디스플레이 장치(141)는 용량형, 저항형, 적외선형 등의 터치 디스플레이일 수 있다. 터치 디스플레이는 로봇 컨텐츠 저작 장치와 사용자 사이에 출력 인터페이스 및 입력 인터페이스를 제공한다. 터치 디스플레이는 사용자에게 시각적인 출력을 표시한다. 시각적 출력은 텍스트, 그래픽, 비디오와 이들의 조합을 포함할 수 있다. 시각적 출력의 일부 또는 전부는 사용자 인터페이스 대상에 대응할 수 있다. 터치 디스플레이는 사용자 입력을 수용하는 터치 감지면을 형성한다.The
프로세서(122)는 로봇 컨텐츠 저작 장치(100)에 연관된 동작을 수행하고 명령어들을 수행하도록 구성된 프로세서로서, 예를 들어, 메모리(110)로부터 검색된 명령어들을 이용하여, 로봇 컨텐츠 저작 장치(100)의 컴포넌트 간의 입력 및 출력 데이터의 수신과 조작을 제어할 수 있다. The
일부 실시예에서, 소프트웨어 구성요소는 운영 체제(111), 그래픽 모듈(명령어 세트)(112) 및 로봇 컨텐츠 저작 프로그램(명령어 세트)(113)이 메모리(110)에 탑재(설치)된다. In some embodiments, the software components are installed in the
운영 체제(111)는, 예를 들어, 다윈(Darwin), RTXC, LINUX, UNIX, OS X, WINDOWS 또는 VxWorks, 안드로이드 등과 같은 내장 운영체제일 수 있고, 일반적인 시스템 태스크(task)(예를 들어, 메모리 관리, 저장 장치 제어, 전력 관리 등)를 제어 및 관리하는 다양한 소프트웨어 구성요소 및/또는 장치를 포함하고, 다양한 하드웨어와 소프트웨어 구성요소 사이의 통신을 촉진시킨다.The
그래픽 모듈(112)은 디스플레이 장치(141) 상에 그래픽을 제공하고 표시하기 위한 주지의 여러 소프트웨어 구성요소를 포함한다. "그래픽(graphics)"이란 용어는 텍스트, 웹 페이지, 아이콘(예컨대, 소프트 키를 포함하는 사용자 인터페이스 대상), 디지털 이미지, 비디오, 애니메이션 등을 제한 없이 포함하여, 사용자에게 표시될 수 있는 모든 대상을 포함한다.
RF 회로(152)는 전자파를 송수신한다. RF 회로(152)는 전기 신호를 전자파로 또는 그 반대로 변환하며 이 전자파를 통하여 통신 네트워크, 다른 이동형 게이트웨이 및 통신 장치와 통신한다. RF 회로(152)는 예를 들어 안테나 시스템, RF 트랜시버, 하나 이상의 증폭기, 튜너, 하나 이상의 오실레이터, 디지털 신호 처리기, CODEC 칩셋, 가입자 식별 모듈(subscriber identity module, SIM) 카드, 메모리 등을 포함하지만 이에 한정되지 않는, 이러한 기능을 수행하기 위한 주지의 회로를 포함할 수 있다. RF 회로(152)는 월드 와이드 웹(World Wide Web, WWW)으로 불리는 인터넷, 인트라넷과 네트워크 및/또는, 셀룰러 전화 네트워크, 무선 LAN 및/또는 MAN(metropolitan area network)와 같은 무선 네트워크, 그리고 근거리 무선 통신에 의하여 다른 장치와 통신할 수 있다. 무선 통신은 GSM(Global System for Mobile Communication), EDGE(Enhanced Data GSM Environment), WCDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), VoIP(voice over Internet Protocol), Wi-MAX, 블루투스(Bluetooth), 지그비(zigbee), 엔에프씨(NFC:Near Field Communication), 이메일, 인스턴트 메시징(instant messaging) 및/또는 단문 문자 서비스(SMS)용 프로토콜 또는 본 출원의 출원 시점에 아직 개발되지 않은 통신 프로토콜을 포함하는 기타 다른 적절한 통신 프로토콜을 포함하지만 이에 한정되지 않는 복수의 통신 표준, 프로토콜 및 기술 중 어느 것을 이용할 수 있다.The
로봇 컨텐츠 저작 프로그램(113)은 디스플레이 장치(141) 및 입력 장치(142)와 연동하여 로봇 컨텐츠의 저작을 수행한다. 로봇 컨텐츠 저작 프로그램에 관해서는 이하에서 자세히 설명한다.The robot
도 2는 도 1의 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이고, 도 3은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 프로그램의 기본 인터페이스 화면이다.FIG. 2 is a block diagram of a robot content authoring program of FIG. 1, and FIG. 3 is a basic interface screen of a robot content authoring program according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램은 구동시 로봇 모델(350)이 구현되어 사용자가 로봇 모델을 직접 조작하여 모션을 편집할 수 있는 편집 영역(310) 그리고 그 편집 영역(310)에서 조작되는 모션, 즉 머리 모션, 이동 모션, LED 표현의 이벤트를 시간에 따라 배치하는 모션 이벤트 트랙(330)을 표시한다. 모션 이벤트 트랙(330)에 배치된 이벤트들의 재생시 상기 편집 영역(310)에 구현된 로봇 모델(350)은 지정된 시간에 이벤트에 따른 모션, 예를 들어 고개를 돌리거나, 전진 또는 후진하거나, LED를 깜박이는 등의 행위를 한다.3, the robot content authoring program includes an
도 2에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램(113)은 모션 편집부(210), 모션 재생부(220), 동기화부(230), 템플릿 관리부(240), 파일 처리기(250) 및 3D 묘화부(260)를 포함한다.2, the robot
3D 묘화부(260)는 로봇 기능을 3D 공간에서 표현할 수 있는 3D 엔진을 포함하고 편집 영역(310)을 가상의 3D 공간으로 표현하며 그 편집 영역(310) 내에 3D 로봇 모델(350)을 표현한다. 3D 묘화부(260)는 2D 또는 3D 이펙트를 표현하고 2D 또는 3D UI(User Interface)를 표현한다.The
모션 편집부(210)는 로봇의 기능인 목 관절, 바퀴, 그리고 로봇에 장착되는 LED를 시간 흐름에 따라 순차적으로 연출하는 일련의 동작, 즉 애니메이션을 작성한다. The
모션 편집부(210)는 세 가지의 편집 모드를 제공한다. 여기서 세 가지의 편집 모드는 머리 모션 편집, 이동 모션 편집, LED 표현 편집을 포함한다. 모션 편집부(210)는 메뉴 도구에 편집 모드 종류를 표시하여 사용자로부터 편집 모드를 선택받을 수 있고, 또는 모션 이벤트 트랙(330)에 표시된 편집 부위 이름이 사용자로부터 선택됨으로써 편집 모드를 선택받을 수 있다.The
머리 head 모션motion 편집 edit
모션 편집부(210)는 머리 모션 편집 모드의 동작시 편집 영역(310)의 화면을 사선 시점(Perspective view)로 변경하고 편집 영역(310)에 표시되는 로봇 모델(350)의 목 부분에 표시기를 표시한다. 예를 들어 로봇 모델의 목 부분에 노란색 원을 표시한다. The
도 4는 본 발명의 일 실시예에 따른 머리 모션 편집 모드의 화면을 나타낸 도면으로, 도 4에 도시된 바와 같이 사선 시점으로 변경된 편집 영역(310)에 표시되는 로봇 모델(350)의 목 부분에 색이 있는 원(410)이 표시된다.FIG. 4 is a view showing a screen of the head motion editing mode according to an embodiment of the present invention. As shown in FIG. 4, the
도 5는 본 발명의 일 실시예에 따른 머리 모션의 각도 및 시간을 설명하는 화면을 나타낸 도면이다.FIG. 5 is a view illustrating an angle and time of a head motion according to an embodiment of the present invention.
도 5를 참조하면, 모션 편집부(210)는 편집 영역(310)에서 로봇 모델(350)의 목 부분에 표시된 표시기(410)를 중심으로 로봇의 시선에 따른 선(510)과 로봇의 위치에 따른 기준선(530)을 표시하고 사용자에 의한 마우스 입력에 따라 그 선 사이의 각도를 변경하여 사용자가 선택할 수 있도록 한다. 바람직하게, 로봇의 위치에 따른 기준선(530)을 중심으로 좌우 각각 30도씩 선택할 수 있다.5, the
모션 편집부(210)는 각도의 설정 후 시간을 선택할 수 있는 창(550)을 표시하고, 그 창(550)을 통해 로봇의 머리 모션의 구동 시간을 입력받는다. 즉, 상기 사용자가 선택한 각도를 실제 움직일 시간을 입력받는 것이다. 모션 편집부(210)는 구동 시간이 입력되면 모션 이벤트 트랙(330)에 예상 길이를 표시하여 점멸하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 구동 시간을 갖는 머리 모션의 이벤트(570)를 막대 형태로 추가한다.The
이동 move 모션motion 편집 edit
모션 편집부(210)는 이동 모션 편집 모드의 동작시 편집 영역(310)의 화면을 높이 시점(Top view)로 변경하고 편집 영역(310)에 표시되는 로봇 모델(350)에 두 개의 선택 가능한 원을 표시한다. 두 개의 원 중 하나는 로봇의 전진/후진을 처리하는 역할을 하고, 나머지 원은 로봇의 회전을 처리하는 역할을 한다. The
도 6은 본 발명의 일 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면으로, 도 6에 도시된 바와 같이 높이 시점으로 변경되어 편집 영역(310)에 표시되는 로봇 모델(350)은 위에서 본 형태로 표시되고 로봇 모델에 두 개의 원(610)이 표시된다.6, the
모션 편집부(210)는 편집 영역에 속도 설정 창(630)을 출력하고, 그 속도 설정 창(630)을 통해 사용자로부터 이동 로봇의 이동 속도 및 회전 속도를 입력받는다. 이동 속도는 전진/후진에 관계된 값으로서 단위는 초당 센치미터로 1초에 갈 수 있는 거리를 의미하고, 회전 속도는 좌회전/우회전에 관계된 값으로 각속도를 의미한다. 회전 속도는 초당 회전하는 각도일 수 있다. The
(1) 전진/후진 편집(1) Forward / Reverse editing
모션 편집부(210)는 모션 이벤트 트랙(330)에서 전진/후진 모션 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 전진/후진에 관련된 원(610)이 사용자에 의해 선택되면 전진/후진 편집 동작을 시작하고 사용자가 선택한 위치로 로봇 모델(350)을 이동시킨다. 모션 편집부(210)는 도 7에 도시된 바와 같이 로봇 모델의 원래 위치의 선(710) 그리고 이동 후의 위치의 선(730)을 서로 구분하여 표시하면서(예컨대 색을 달리함) 그 사이의 이동 거리 선(750)을 거리 값과 함께 표시한다. 그리고 모션 편집부(210)는 전진/후진과 관련된 원(610)이 사용자에 의해 다시 선택되면 모션 이벤트 트랙(330)에 예상 이동 시간을 점멸하여 표시하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 전진/후진의 이벤트를 추가한다.The
(2) 회전 편집(2) Edit rotation
도 8은 본 발명의 다른 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면으로, 회전 편집시의 화면이다. FIG. 8 is a view showing a screen of a moving motion editing mode according to another embodiment of the present invention, which is a screen at the time of rotation editing.
모션 편집부(210)는 모션 이벤트 트랙(330)에서 회전 모션 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 회전에 관련된 원(610)이 사용자에 의해 선택되면 회전 편집 동작을 시작하고 사용자의 마우스가 움직이는 위치에 따라 로봇 모델(350)의 회전 값을 산출한다. 모션 편집부(210)는 로봇 모델(210)의 회전하기 전 원래 바라보는 각도의 선(810)과 회전 후의 각도를 나타내는 선(830)을 표시며 회전각을 표시하고, 또한 두 선 사이에 실선 또는 점선을 둥글게 표시한다. The
사용자의 마우스의 절대 위치로 각도를 산출하는 경우 로봇 모델(350)의 회전하기 전 원래 바라보는 각도의 선(810)를 중심으로 좌우 180도까지만 표현할 수 있고, 마우스의 상대 위치로 각도를 산출하는 경우 0~360도까지 표현할 수 있으며, 상대 위치로 각도를 산출하는 경우 사용자에 의해 특수키(예컨대 쉬프트 키)가 눌려진 상태로 마우스가 움직이는 경우 마우스의 좌우 이동 상대 값으로 각도를 누적하여 회전각을 산출할 수 있다.When the angle is calculated by the user's absolute position of the mouse, the
모션 편집부(210)는 회전과 관련된 원(610)이 사용자에 의해 다시 선택되면 모션 이벤트 트랙(330)에 예상 이동 시간을 점멸하여 표시하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 회전의 이벤트 막대를 추가한다.The
LEDLED 표현 편집 Edit expression
모션 편집부(210)는 LED 표현 편집 모드의 동작시 편집 영역(330)의 화면을 정면 시점(Front view)로 변경하고 편집 영역(330)에 표시되는 로봇 모델(350)에 LED 위치에 관련 표시기, 예를 들어 원을 표시한다. 도 9는 본 발명의 일 실시예에 따른 LED 표현 편집 모드의 화면을 나타낸 도면으로, 편집 영역(330)의 화면은 정면 시점으로 변경되고 로봇 모델(350)에 LED 표시기(910)가 표시된다. 도 9에서는 총 5 개의 원이 LED 표시기(910)로 표시된다.The
모션 편집부(210)는 모션 이벤트 트랙(330)에서 LED 표현 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 로봇 모델(350)의 어느 한 LED 표시기(910)가 사용자에 의해 선택되면 색 및 시간을 설정할 수 있는 창(930)을 표시하고 그 창(930)을 통해 LED의 색 그리고 LED가 켜져 있을 시간을 입력받는다. 모션 편집부(210)는 사용자에 의해 입력된 LED의 색으로 LED 표시기(910)를 표시한다. 모션 편집부(210)는 색 및 시간이 입력되면 모션 이벤트 트랙(330)에 예상 길이를 표시하여 점멸하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 색 및 시간을 갖는 LED 표현의 이벤트 막대를 추가한다.The
모션 재생부(220)는 상기 모션 편집부(210)에 의해 로봇의 머리 모션, 이동 모션, LED 표현의 이벤트 편집이 완료된 후 사용자에 의해 재생 입력이 수신되면 그 설정된 이벤트를 재생한다. 즉, 모션 재생부(220)는 모션 이벤트 트랙(330)에서 사용자가 선택한 위치의 시점부터 또는 처음 시점부터 재생을 시작하여 머리 모션, 이동 모션 또는 LED 표현의 이벤트가 있는 지점에서 해당 이벤트에 따라 편집 영역(310)의 로봇 모델(350)을 동작시킨다. The
동기화부(230)는 물리적인 실제 로봇과 원격으로 연결하여 상기 모션 편집부(210)를 통해 생성된 로봇의 모션 이벤트에 대한 동기화를 수행한다. 동기화부(230)는 자동 연결 또는 수동 연결을 제공한다. The
동기화부(230)는, 사용자로부터 자동 연결 입력시 원격으로 연결 가능한 로봇을 검색하여 리스트를 사용자에게 제공하고 이 중 선택되는 로봇과 원격 연결한다. 또한 동기화부(230)는 사용자로부터 수동 연결 입력시 IP 주소 입력창을 표시하고 그 IP 주소 입력창을 통해 원격 연결할 로봇의 IP 주소를 입력받으며 입력된 IP 주소를 이용하여 로봇과 연결한다.The
동기화부(230)는 상기 모션 재생부(220)에 의해 로봇의 이벤트가 재생되는 경우 또는 모션 이벤트 트랙(330)에서 특정 이벤트가 선택되어 재생되는 경우 실제 로봇이 편집 영역(310)의 로봇 모델(350)과 동기화되어 동작하도록 한다.The
템플릿 관리부(240)는 로봇의 모션에 관한 템플릿을 저장하고 템플릿 개체를 실제 편집 데이터로 만들어준다. 여기서 템플릿은 로봇의 모션에 관한 파일로서 저작 프로그램에 기본적으로 포함되어 있는 기본 템플릿과 사용자가 저작 프로그램으로 만들어 낸 사용자 템플릿을 포함한다. 전술한 모션 편집부(210)를 통해 만들어진 모션 파일을 사용자가 템플릿 디렉토리에 넣으면, 템플릿 관리부(240)는 해당 템플릿 디렉토리에 저장된 사용자 템플릿을 관리하며 사용자의 요청시 리스트로 제공한다.The
템플릿 관리부(240)는 기본 템플릿 및 사용자 템플릿을 포함하는 템플릿 리스트를 별도의 템플릿 창을 통해 표시하고, 사용자에 의해 선택된 템플릿을 모션 이벤트 트랙(330)에 추가할 수 있다. 바람직하게, 템플릿 관리부(240)는 기본 템플릿과 사용자 템플릿의 리스트를 표시할 때 그 둘을 구분할 수 있는 표시를 한다. 예컨대 이름 앞에 '+' 기호를 붙여 기본 템플릿을 사용자 템플릿과 구별하여 표시할 수 있다.The
파일 처리기(250)는 모션 편집부에서 생성된 이벤트들을 종합하여 모션 파일을 생성하고 동기화부(230)를 통해 모션 파일을 실제 로봇으로 전송할 수 있다. 모션 파일의 확장자는 rmm이다.The
도 10은 본 발명의 다른 실시예에 따른 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다. 도 10에 있어서 도 2와 동일한 참조부호의 구성요소는 동일한 기능 및 동작을 포함하므로 여기서는 상세한 설명을 생략한다.10 is a block diagram of a robot content authoring program according to another embodiment of the present invention. In FIG. 10, the same reference numerals as in FIG. 2 denote the same functions and operations, and a detailed description thereof will be omitted.
도 10을 참조하면, 본 실시예에 따른 로봇 컨텐츠 저작 프로그램(113)은 컨텐츠 저작부(1010)를 더 포함한다. 여기서 컨텐츠는 로봇의 모션 그리고 그 로봇의 모션과 동기화된 미디어를 포함하는 개념이다. 따라서 로봇이 컨텐츠를 재생한다는 것은, 로봇이 모션 파일에 따라 모션을 동작하면서 그 모션에 동기화된 미디어 파일, 예를 들어 노래, 또는 동영상 등을 동시에 재생하는 것을 의미한다. 본 실시예에 따른 로봇 컨텐츠 저작 프로그램(113)은 이러한 컨텐츠를 저작한다.Referring to FIG. 10, the robot
로봇 컨텐츠 저작 프로그램(113)은 컨텐츠 편집 모드와 모션 편집 모드에서 유사한 인터페이스를 제공한다. 도 11은 본 발명의 일 실시예에 따른 컨텐츠 편집 모드의 화면으로, 도 11에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램(113)은 모션 편집 모드의 3D 편집 영역을 에뮬레이션 영역(1110)으로 전환하고, 모션 이벤트 트랙을 컨텐츠 이벤트 트랙(1130)으로 전환한다. 그리고 미리보기 창(1150)을 표시한다.The robot
에뮬레이션 영역(1110)은 로봇 모델(1170)이 표시되는 부분으로 일종의 가상 공간이며 로봇 모델(1170)은 모션 이벤트에 따라 에뮬레이션 영역(1110)에서 실제 로봇이 구동되는 것을 흉내내며 움직인다. 모션 편집 모드에서 사용자는 편집 영역의 로봇 모델(350)을 직접 조작하여 모션 편집을 수행하는 반면, 컨텐츠 편집 모드에서 사용자는 에뮬레이션 영역(1110)의 로봇 모델(1170)에 직접적인 조작을 전혀 하지 않고, 에뮬레이션 영역(1110)의 로봇 모델(1170)은 컨텐츠에 포함된 모션 이벤트에 따라 실제 로봇과 같이 구동할 뿐이다.The
컨텐츠 이벤트 트랙(1130)은 모션 이벤트 트랙(330)과 유사하지만 구성하는 항목이 모션 이벤트 트랙(330)과는 상이하다. 모션 이벤트 트랙(330)은 시간의 순서에 따라 로봇의 모션과 관련된 머리 이벤트, 이동 이벤트, LED 표현 이벤트를 구성 항목으로 배치하는 반면, 컨텐츠 이벤트 트랙(1130)은 모션 이벤트, 미디어 이벤트, 그림 이벤트를 구성 항목으로 배치한다. 여기서 모션 이벤트는 모션 편집 모드에서 생성된 머리, 이동 및 LED 표현의 이벤트가 모두 포함된 항목이다. 미디어는 소리 또는 영상을 의미하고, 그림은 일반적인 정지 영상을 의미한다.The
템플릿 관리부(240)는 로봇의 모션에 관한 템플릿 뿐만 아니라 미디어의 템플릿도 저장 및 관리한다. 로봇의 모션에 관한 템플릿은 전술한 바와 같고, 미디어의 템플릿은 소리 또는 영상, 그림을 포함한다. 템플릿 관리부(240)는 사용자의 선택에 따라 모션의 템플릿 리스트를 템플릿 창(1190)에 표시하거나, 미디어의 템플릿 리스트를 템플릿 창(1190)에 표시한다. The
컨텐츠 저작부(1010)는, 사용자에 의해 컨텐츠 저작 편집 모드가 선택되는 경우, 컨텐츠 이벤트 트랙(1130)을 활성화하고, 상기 템플릿 관리부(240)와 연동하여 사용자가 템플릿 창(1190)에서 선택한 템플릿을 상기 컨텐츠 이벤트 트랙(1130)에 배치한다. 컨텐츠 저작부(1010)는 사용자가 선택한 템플릿을 컨텐츠 이벤트 트랙(1130)의 대응하는 항목에 자동 배치한다. 즉 모션 템플릿은 모션 트랙에 배치하고, 소리 또는 영상 템플릿은 미디어 트랙에 배치하며, 그림은 그림 트랙에 배치한다. The
이때 컨텐츠 저작부(1010)는 모션 또는 미디어 등의 실제 재생 길이에 대응하는 막대 형태로 이벤트를 트랙(1130)에 배치하는데 해당 이벤트의 시작 시점은 사용자가 선택한 시점이다. 소리나 영상의 경우에는 절대적인 길이가 있어 해당하는 길이만큼 막대를 표시하지만, 그림의 경우에는 길이를 가지지 않으므로 미리 설정된 기본 값만큼의 길이 막대로 그림 이벤트를 배치한다.At this time, the
컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트들을 편집할 수 있다. 컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트에 대한 사용자의 드래그 앤 드롭 입력에 따라 이벤트를 좌우로 움직여 배치한다. 또한 컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트의 끝단에 대한 사용자의 드래그 앤 드롭 입력에 따라 이벤트의 길이를 조정한다.The
컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 이벤트 배치가 완료된 후 사용자의 재생 입력이 있는 경우 시간 순서에 따라 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트를 해석하여 에뮬레이션 영역(1110)에 구현된 로봇 모델(1170)을 구동시킨다. 즉, 컨텐츠 저작부(1010)는 로봇 모델(1170)의 머리를 돌리거나, 로봇 모델(1170)을 전/후진 또는 회전시키거나, 또는 LED를 표시하면서 여기에 동기화된 소리 또는 영상 또는 그림이 있는 경우 로봇 모델(1170)의 모션과 함께 소리/영상/그림을 출력한다. 영상이나 그림의 경우 미리보기 창(1150)에 표시할 수 있고, 또는 로봇 모델(1170)의 디스플레이 영역에 표시할 수 있다.The
파일 처리기(250)는 컨텐츠 저작부(1010)에서 생성된 이벤트들을 종합하여 컨텐츠 파일을 생성한다. 바람직하게, 모션 편집부(210)에서 생성된 모션 파일과 컨텐츠 저작부(1010)에서 생성된 모션 파일의 확장자를 서로 다르게 한다.The
도 12는 본 발명의 일 실시예에 따른 로봇의 구성을 나타낸 도면으로, 전술한 로봇 컨텐츠 저작 장치에서 저작된 로봇 컨텐츠를 재생하는 로봇에 관한 것이다.FIG. 12 is a block diagram of a robot according to an embodiment of the present invention. FIG. 12 is a block diagram of a robot for reproducing robot content authored by the robot content authoring apparatus.
도 12를 참조하면, 본 실시예에 따른 로봇은 디스플레이 관리자(1210), 오디오 출력부(1220), 로봇 매니저 추상 인터페이스(1230) 및 컨텐츠 엔진(1240)을 포함한다. 여기서 디스플레이 관리자(1210), 오디오 출력부(1220), 로봇 매니저 추상 인터페이스(1230)는 로봇 시스템의 어플리케이션 계층(application layer)에 존재하고, 컨텐츠 엔진(1240)은 프레임워크 네이티브 런타임 라이브러리 계층에 존재한다. 12, the robot according to the present embodiment includes a display manager 1210, an
디스플레이 관리자(1210)는 컨텐츠 엔진(1240)에서 처리된 영상을 로봇의 디스플레이 장치에 출력하고, 또한 컨텐츠 엔진(1240)에서 처리되어 전달되는 그림 이미지를 비트맵 이미지로 만들어 디스플레이 장치에 출력한다. 로봇에 설치되는 운영 체제가 안드로이드 시스템인 경우 디스플레이 관리자(1210)는 안드로이드 캔버스를 이용하여 이미지를 만들어 낸다.The display manager 1210 outputs the image processed by the
오디오 출력부(1220)는 컨텐츠 엔진(1240)에서 만들어진 오디오 출력 데이터를 스피커와 같은 오디오 디바이스로 전송하여 출력한다. The
로봇 매니저 추상 인터페이스(1230)는 로봇의 운영 체제에 탑재되는 로봇 매니저(예컨대, 안드로이드 서비스)를 래핑(wrapping)한 것으로서 로봇 컨텐츠의 정보를 로봇 매니저에서 필요한 정보로 변환하는 기능을 수행한다. 로봇에 탑재된 상기 로봇 매니저는 로봇 컨텐츠가 포함하고 있는 복합 데이터를 처리할 수 없기 때문에 별도의 로봇 매니저 추상 인터페이스를 구현하여 로봇 컨텐츠의 정보를 로봇 매니저에서 필요한 정보로 변환한다.The robot manager
로봇 매니저 추상 인터페이스(1230)는 로봇 컨텐츠에 포함된 모션의 일부 기능을 로봇 매니저에서 지원하는 경우 로봇 매니저를 호출하여 재생되도록 하고, 로봇 매니저에서 지원하지 않는 기능의 경우 로봇 드라이버 안의 기능, 즉 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)을 호출하여 모션이 재생되도록 한다.The robot manager
로봇 매니저 추상 인터페이스(1230)는 모션의 동기화를 위해 로보틱스 컨트롤 동기화 기능을 포함한다. 컨텐츠 엔진(1240)이 만들어 내는 모션은 최적화 과정을 거치기 때문에, 모션들의 실제 동기화를 위해서는 별도의 작업을 해야 하고, 로봇 매니저 추상 인터페이스(1230)는 상기 로보틱스 컨트롤 동기화 기능을 통해 모션의 동기화를 수행한다.The robot manager
컨텐츠 엔진(1240)은 도 12에 점선으로 도시한 바와 같이, 로봇 컨텐츠 파일의 관리, 그리고 로봇 컨텐츠 파일로부터 이미지 만들기, 소리 만들기, 영상 재생, 그리고 로봇 모션 만들기 기능을 수행한다.The
컨텐츠 엔진(1240)는 관리되는 자바(java) 영역에서 파일을 처리할 수 있게 해주는 컨텐츠 복제 기능을 구비하고, 또한 로봇 컨텐츠에서 원시 이미지를 추출하여 디스플레이 관리자(1210)로 전달한다.The
또한, 컨텐츠 엔진(1240)은 WAV, MP3, OGG 등 오디오 파일을 처리하여 재생할 수 있는 코덱을 포함하고 로봇 컨텐츠에서 오디오 파일을 추출하여 상기 코덱으로 재생한 소리를 합성하여 PCM 데이터로 만들어 상기 오디오 출력부(1220)로 전달한다.The
또한, 컨텐츠 엔진(1240)은 영상 처리를 위한 오픈 소스 프로젝트 라이브러리 및 영상 코덱을 포함하고 로봇 컨텐츠에서 영상 파일을 추출하여 상기 코덱으로 만들어 낸 데이터를 실제 재생할 수 있는 동기화 논리에 맞춰 영상 이미지로 처리하여 상기 디스플레이 관리자(1210)로 전달한다.Also, the
또한, 컨텐츠 엔진(1240)은 로봇 컨텐츠에서 모션 파일을 추출하여 모션 최적화를 수행한 후 로봇 매니저 추상 인터페이스(1230)로 전송한다. 즉, 모션 파일에 포함된 모든 모션을 하나의 모션처럼 처리하기 위해 전체 모션을 블렌딩(blending)하고 이어지거나 누락에 따른 중간 과정을 최적화한다. The
도 13은 본 발명의 일 실시예에 따른 모션 디버거의 구성을 나타낸 도면이다. 모션 디버거(1300)는 로봇 컨텐츠 저작 장치와 서로 통신하면서 로봇 컨텐츠 저작 장치에서 만들어진 모션을 확인하고 데이터를 처리하는 미들웨어로서, 로봇에 설치된다.13 is a block diagram of a motion debugger according to an embodiment of the present invention. The
도 13에 도시된 바와 같이, 모션 디버거(1300)는 파일 탐색기(1310), 다운로더(1330), 로봇 어플리케이션 인터페이스(1350)를 포함한다.13, the
파일 탐색기(1310)는 로봇의 메모리에 저장된 모션 파일을 관리한다. 다운로더(1330)는 로봇 컨텐츠 저작 장치에서 만들어진 모션 파일을 다운로드하여 상기 로봇의 메모리에 저장한다. The
로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치에서 원격으로 로봇의 기능을 제어하기 위한 기능을 제공한다. 즉 실제 디버깅 기능을 제공하는 역할을 수행한다. The
로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치로부터 수신되는 제어 데이터에 따라 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)(1370)을 호출하여 모션 수행을 제어하고 로봇의 움직임 정보 그리고 하드웨어 상태를 로봇의 디스플레이 장치에 표시한다.The
로봇 어플리케이션 인터페이스(1350)는 디버거의 구동시 로봇 드라이버, 즉 상기 로보틱스 하드웨어 추상 계층의 기능을 정지하고 오직 원격에서 접속하는 로봇 컨텐츠 저작 장치에 의해서만 구동될 수 있도록 원격 코어로 변환하도록 처리한다.The
로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치로부터 수신된 제어 데이터를 로봇에 설치된 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)(1370)으로 전달하면서, 로봇 컨텐츠 저작 장치와 상기 로보틱스 하드웨어 추상 계층(1370) 사이에 동시간에 동일한 처리가 일어나도록 동기화한다. 바람직하게 로봇 어플리케이션 인터페이스(1350)는 시분할 기법을 이용한 동기화 기술을 사용한다.The
바람직하게, 로봇 어플리케이션 인터페이스(1350)는 프레임 단위(약 0.5초)로 로봇의 모션을 제어한다. 로보틱스 하드웨어 추상 계층(1370)은 제어 데이터에 따라 로봇 컨트롤 보드(1390)를 제어하여 로봇의 모션을 구동시킨다.Preferably, the
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. The method of the present invention as described above may be embodied as a program and stored in a computer-readable recording medium (such as a CD-ROM, a RAM, a ROM, a floppy disk, a hard disk, or a magneto-optical disk).
본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 아니된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절한 부결합(subcombination)에서 구현될 수 있다. While the specification contains many features, such features should not be construed as limiting the scope of the invention or the scope of the claims. In addition, the features described in the individual embodiments herein may be combined and implemented in a single embodiment. Conversely, various features described herein in a single embodiment may be implemented in various embodiments individually or in a suitable subcombination.
도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 아니된다. 어떤 환경에서, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.It is to be understood that, although the operations have been described in a particular order in the figures, it should be understood that such operations are performed in a particular order as shown, or that a series of sequential orders, or all described operations, . In some circumstances, multitasking and parallel processing may be advantageous. It should also be understood that the division of various system components in the above embodiments does not require such distinction in all embodiments. The above-described program components and systems can generally be implemented as a single software product or as a package in multiple software products.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.
210 : 모션 편집부 220 : 모션 재생부
230 : 동기화부 240 : 템플릿 관리부
250 : 파일 처리기 260 : 3D 묘화부210: Motion Editing Unit 220:
230: synchronization unit 240: template management unit
250: file processor 260: 3D rendering unit
Claims (32)
상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및
상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함하는 로봇 컨텐츠 저작 장치.A robot content authoring apparatus for outputting an interface including an edit region and a motion event track,
A rendering unit for implementing and expressing a 3D robot model in the editing area; And
And a motion editing unit for generating a robot motion event in accordance with a motion operation on the robot model of the editing area and arranging the robot motion event on the motion event track according to time.
상기 모션 편집부는,
상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고, 사용자로부터 구동 시간을 입력받으며, 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.The method according to claim 1,
The motion-
A head motion event bar having a length corresponding to the driving time including information on a motion angle of the head, the motion information including a head motion of the robot model, Wherein the robot is placed on a motion event track.
상기 모션 편집부는,
상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하고, 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.3. The method of claim 2,
The motion-
Wherein a line corresponding to a line of sight of the robot model and a reference line corresponding to a position of the robot model are displayed and an angle between a line corresponding to the line of sight and the reference line is calculated as a movement angle of the head.
상기 모션 편집부는,
상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.The method of claim 3,
The motion-
Wherein a display device is displayed on the neck joint part of the robot model and a line corresponding to the reference line and the line of sight is displayed when the display device is selected.
상기 모션 편집부는,
머리 모션 편집 모드의 동작시 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.5. The method of claim 4,
The motion-
And changes the screen of the editing area to a perspective view when the head motion editing mode is operated.
상기 모션 편집부는,
이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.The method according to claim 1,
The motion-
Changes the screen of the editing area to a top view and displays two moving images on the robot model of the editing area when the moving motion editing mode is operated.
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기인 것을 특징으로 하는 로봇 컨텐츠 저작 장치.The method according to claim 6,
Wherein one of the two indicators is a forward / backward motion edit indicator and the other is a rotational motion edit indicator.
상기 모션 편집부는,
상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고, 사용자로부터 이동 속도를 입력받으며, 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.8. The method of claim 7,
The motion-
When the forward / backward motion editing / editing indicator is selected, a movement distance is calculated in accordance with an operation for moving the robot model back and forth, a movement speed is input from a user, and a movement motion event bar including information of the movement distance Is arranged in the motion event track in a length corresponding to the motion event track.
상기 모션 편집부는,
상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.9. The method of claim 8,
The motion-
Wherein the editing area displays the position line before movement and the position line after movement of the robot model and displays the movement distance therebetween.
상기 모션 편집부는,
상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받으며, 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.8. The method of claim 7,
The motion-
When the user selects the rotation motion edit indicator, the rotation angle is calculated in accordance with the operation of the robot model rotation, the rotation speed is input from the user, and the motion motion event bar including the rotation angle information corresponds to the rotation time Wherein the motion event track is arranged in the motion event track.
상기 모션 편집부는,
상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.11. The method of claim 10,
The motion-
A line at a time point before the rotation of the robot model and a line at a time point after the rotation are displayed in the editing area, and a rotation angle is displayed between the lines.
상기 모션 편집부는,
램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.The method according to claim 1,
The motion-
Wherein the controller changes the screen of the editing area to a front view and displays at least one lamp position on the robot model of the editing area when the lamp expression editing mode is operated.
상기 모션 편집부는,
상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간을 입력받고, 그 입력받은 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.13. The method of claim 12,
The motion-
A selection input for the lamp position, a color and a time of the lamp, and a lamp expression event bar including the lamp position and the color information in the motion event track at a length corresponding to the input time Wherein said robot content authoring device comprises:
상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 모션 재생부; 및
물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 동기화부;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.14. The method according to any one of claims 1 to 13,
A motion reproducing unit for operating the robot model of the editing region according to an event disposed on the motion event track; And
And a synchronization unit for establishing communication with the physical physical robot and synchronizing the operation of the robot model with the operation of the actual robot.
컨텐츠 편집 모드시, 상기 편집 영역은 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환되고, 미디어의 출력을 위한 미리보기 창이 표시되며, 상기 모션 이벤트 트랙은 컨텐츠 이벤트 트랙으로 전환되고,
상기 모션 편집부에 의해 생성된 로봇 모션 이벤트의 템플릿과 미디어 템플릿을 저장하고 리스트를 제공하는 템플릿 관리부; 및
상기 템플릿 관리부에서 제공하는 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 컨텐츠 저작부;를 더 포함하는 로봇 컨텐츠 저작 장치.14. The method according to any one of claims 1 to 13,
In the content editing mode, the editing area is switched to an emulation area where the robot model only operates in a virtual space, a preview window for outputting the media is displayed, the motion event track is switched to a content event track,
A template management unit for storing a template and a media template of the robot motion event generated by the motion editing unit and providing a list; And
And a content authoring unit for presenting the robot motion event and the media selected from the list provided by the template management unit with the robot motion event and an event bar having a length corresponding to the playback length of the media, Robot content authoring device.
상기 컨텐츠 저작부는,
재생 입력의 수신시, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.16. The method of claim 15,
The content authoring unit,
When the reproduction input is received, the robot model of the emulation area is operated according to the robot motion event arranged in the content event track, and the media arranged in the content event track is reproduced and output to the preview window A robot content authoring device.
편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계;
상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및
상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 로봇 컨텐츠 저작 방법.As a method for authoring robot contents in a robot content authoring apparatus,
Outputting an interface including an edit area and a motion event track;
Embodying and expressing a three-dimensional robot model in the editing area; And
Generating a robot motion event according to a motion operation on the robot model of the editing area and arranging the robot motion event on the motion event track according to time.
상기 배치하는 단계는,
상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고 구동 시간을 입력받는 단계; 및
상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 로봇 컨텐츠 저작 방법.18. The method of claim 17,
Wherein the disposing comprises:
Calculating a movement angle of the head according to an operation of the head of the robot model and receiving a driving time; And
And arranging a head motion event bar having a length corresponding to the driving time in the motion event track including information on the motion angle of the head.
상기 입력받는 단계는,
상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하는 단계; 및
상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.19. The method of claim 18,
The method of claim 1,
Displaying a line according to a line of sight of the robot model and a reference line according to the position of the robot model; And
And calculating an angle between the line along the line of sight and the reference line as a head movement angle.
상기 선을 표시하는 단계는,
상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.20. The method of claim 19,
Wherein the step of displaying the line comprises:
Wherein a display device is displayed on a neck joint portion of the robot model, and when the display device is selected, a line corresponding to the reference line and the line of sight is displayed.
상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.21. The method of claim 20,
And changing a screen of the editing area to a perspective view.
상기 표현하는 단계 이후에,
상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.18. The method of claim 17,
After the expressing step,
Further comprising changing the screen of the editing area to a top view and displaying two displays related to moving motion editing on the robot model of the editing area.
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기인 것을 특징으로 하는 로봇 컨텐츠 저작 방법.23. The method of claim 22,
Wherein one of the two indicators is a forward / backward motion edit indicator and the other is a rotational motion edit indicator.
상기 배치하는 단계는,
상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고 사용자로부터 이동 속도를 입력받는 단계; 및
상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.24. The method of claim 23,
Wherein the disposing comprises:
Calculating a movement distance in accordance with an operation for back and forth movement of the robot model and receiving a movement speed from a user when the forward / backward motion edit / display controller is selected; And
And arranging a moving motion event bar including information on the moving distance on the motion event track in a length corresponding to the moving time.
상기 입력받는 단계는,
상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.25. The method of claim 24,
The method of claim 1,
And displaying the position line before movement and the position line after movement of the robot model in the editing area, and displaying the movement distance therebetween.
상기 배치하는 단계는,
상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받는 단계; 및
상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.24. The method of claim 23,
Wherein the disposing comprises:
Calculating a rotation angle according to an operation on the rotation of the robot model and receiving a rotation speed from a user when the rotation motion edit indicator is selected; And
And arranging a moving motion event bar including information on the rotation angle on the motion event track in a length corresponding to the rotation time.
상기 입력받는 단계는,
상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.27. The method of claim 26,
The method of claim 1,
And displaying a line at a time point before the rotation and a line at a time point after the rotation of the robot model in the editing area, and displaying a rotation angle between the lines.
상기 표현하는 단계 이후에,
램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.18. The method of claim 17,
After the expressing step,
Changing the screen of the editing area to a front view and displaying at least one lamp position on the robot model of the editing area when the lamp expression editing mode is operated. Authoring method.
상기 배치하는 단계는,
상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간의 입력을 수신하는 단계; 및
상기 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.29. The method of claim 28,
Wherein the disposing comprises:
Receiving a selection input for the lamp position and an input of color and time of the lamp; And
And arranging a lamp expression event bar including the lamp position and the color information in the motion event track at a length corresponding to the time.
물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 단계; 및
상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.30. The method according to any one of claims 17 to 29,
Communicating with a physical physical robot and synchronizing the operation of the robot model and the actual robot; And
And operating the robot model of the editing area according to an event arranged on the motion event track.
상기 편집 영역을 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환하고, 미디어의 출력을 위한 미리보기 창을 표시하며, 상기 모션 이벤트 트랙을 컨텐츠 이벤트 트랙으로 전환하는 단계;,
로봇 모션 이벤트의 템플릿과 미디어 템플릿의 리스트를 제공하는 단계; 및
상기 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 단계;를 더 포함하는 로봇 컨텐츠 저작 방법.30. The method according to any one of claims 17 to 29,
Converting the editing area into an emulation area in which the robot model only operates in a virtual space, displaying a preview window for outputting the media, and converting the motion event track into a content event track;
Providing a template of a robot motion event and a list of media templates; And
And displaying the robot motion event and the media selected from the list in an event bar having a length corresponding to a playback length of the robot motion event and the media, and arranging the robot motion event and the media on the content event track.
상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.32. The method of claim 31,
And operating the robot model of the emulation area in accordance with the robot motion event arranged in the content event track and reproducing the media arranged in the content event track and outputting the media to the preview window. A method of authoring robot contents.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/039,942 US9495788B2 (en) | 2013-03-22 | 2013-09-27 | Apparatus and method for developing robot contents |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130030897 | 2013-03-22 | ||
KR20130030897 | 2013-03-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140115902A true KR20140115902A (en) | 2014-10-01 |
KR101626966B1 KR101626966B1 (en) | 2016-06-02 |
Family
ID=51990120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130057176A KR101626966B1 (en) | 2013-03-22 | 2013-05-21 | Apparatus and method for developing robot contents |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101626966B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166731A1 (en) * | 2019-02-11 | 2020-08-20 | 엘지전자 주식회사 | Action robot terminal and operating method therefor |
CN114347061A (en) * | 2022-01-24 | 2022-04-15 | 美的集团(上海)有限公司 | Atmosphere lamp setting method and setting device for robot and robot |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020056949A (en) * | 2000-09-28 | 2002-07-10 | 이데이 노부유끼 | Authoring system and authoring method, and storage medium |
JP2008254074A (en) * | 2007-03-30 | 2008-10-23 | Sega Corp | Motion editing device, and its program |
US20090078244A1 (en) | 2007-09-21 | 2009-03-26 | Samsung Electronics Co., Ltd. | Metal panel, manufacturing method thereof and cooking device using the metal panel |
US8447428B2 (en) * | 2007-07-04 | 2013-05-21 | Aldebaran Robotics S.A. | Method for editing movements of a robot |
US8560118B2 (en) * | 2007-04-16 | 2013-10-15 | Neuroarm Surgical Ltd. | Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis |
-
2013
- 2013-05-21 KR KR1020130057176A patent/KR101626966B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020056949A (en) * | 2000-09-28 | 2002-07-10 | 이데이 노부유끼 | Authoring system and authoring method, and storage medium |
JP2008254074A (en) * | 2007-03-30 | 2008-10-23 | Sega Corp | Motion editing device, and its program |
US8560118B2 (en) * | 2007-04-16 | 2013-10-15 | Neuroarm Surgical Ltd. | Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis |
US8447428B2 (en) * | 2007-07-04 | 2013-05-21 | Aldebaran Robotics S.A. | Method for editing movements of a robot |
US20090078244A1 (en) | 2007-09-21 | 2009-03-26 | Samsung Electronics Co., Ltd. | Metal panel, manufacturing method thereof and cooking device using the metal panel |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020166731A1 (en) * | 2019-02-11 | 2020-08-20 | 엘지전자 주식회사 | Action robot terminal and operating method therefor |
CN114347061A (en) * | 2022-01-24 | 2022-04-15 | 美的集团(上海)有限公司 | Atmosphere lamp setting method and setting device for robot and robot |
Also Published As
Publication number | Publication date |
---|---|
KR101626966B1 (en) | 2016-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10403050B1 (en) | Multi-user virtual and augmented reality tracking systems | |
US6718231B2 (en) | Authoring system and authoring method, and storage medium | |
US20120107790A1 (en) | Apparatus and method for authoring experiential learning content | |
CN103258338A (en) | Method and system for driving simulated virtual environments with real data | |
US9495788B2 (en) | Apparatus and method for developing robot contents | |
KR102186607B1 (en) | System and method for ballet performance via augumented reality | |
CN113359994B (en) | Teaching content configuration and interaction scheme implementation method suitable for AR education application | |
WO2018173791A1 (en) | Image processing device and method, and program | |
JP2022500795A (en) | Avatar animation | |
CN112783320A (en) | Immersive virtual reality case teaching display method and system | |
KR102095951B1 (en) | A system for coding education using generating an application for robot control | |
JP2012252609A5 (en) | ||
KR101626966B1 (en) | Apparatus and method for developing robot contents | |
AU2023201083A1 (en) | Recorded physical interaction playback | |
Jeong et al. | WIKA: A projected augmented reality workbench for interactive kinetic art | |
CA2916295A1 (en) | Method and apparatus for mixing media tracks | |
US20180165877A1 (en) | Method and apparatus for virtual reality animation | |
KR20200003437A (en) | A system for coding education using generating an application for robot control | |
KR20140115900A (en) | System for producing teaching plan content and method therefor | |
JP7070547B2 (en) | Image processing equipment and methods, as well as programs | |
US20240112418A1 (en) | XR World Build Capture and Playback Engine | |
Mullen et al. | Blender studio projects: digital movie-making | |
Ucchesu | A Mixed Reality application to support TV Studio Production | |
Hillmann et al. | VR Production Tools, Workflow, and Pipeline | |
CN114505847A (en) | Interaction system of co-building modular robot and method for participating in co-building modular robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190502 Year of fee payment: 4 |