KR20120118824A - 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체 - Google Patents

로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체 Download PDF

Info

Publication number
KR20120118824A
KR20120118824A KR1020110036438A KR20110036438A KR20120118824A KR 20120118824 A KR20120118824 A KR 20120118824A KR 1020110036438 A KR1020110036438 A KR 1020110036438A KR 20110036438 A KR20110036438 A KR 20110036438A KR 20120118824 A KR20120118824 A KR 20120118824A
Authority
KR
South Korea
Prior art keywords
information
robot
command
multimedia content
multimedia
Prior art date
Application number
KR1020110036438A
Other languages
English (en)
Other versions
KR101343869B1 (ko
Inventor
조혜경
김효용
이득우
김준태
김진성
Original Assignee
한성대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한성대학교 산학협력단 filed Critical 한성대학교 산학협력단
Priority to KR1020110036438A priority Critical patent/KR101343869B1/ko
Publication of KR20120118824A publication Critical patent/KR20120118824A/ko
Application granted granted Critical
Publication of KR101343869B1 publication Critical patent/KR101343869B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40089Tele-programming, transmit task as a program, plus extra info needed by robot

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Marketing (AREA)
  • Mechanical Engineering (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시예는 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
본 발명의 일 실시예는 로봇 관련 정보(UCR: User Created Robot)에 대응하는 제 1 정보 및 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보에 근거한 가상 상위 명령어를 생성하는 명령어 생성부; 상기 가상 상위 명령어를 이용한 중간 어셋(Intermediate Asset) 정보 생성하는 중간 어셋 정보 생성부; 및 상기 중간 어셋 정보에 따라 연동하는 로봇이 개별 동작하도록 하며, 상기 로봇의 동작과 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 중간 어셋 정보 실행부를 포함하는 로봇과 멀티미디어 컨텐츠 제어 장치를 제공한다.
본 발명의 일 실시예에 의하면, 공학적 프로그래밍 원리를 통해 제작한 제작도구의 한계를 벗어나, 멀티미디어와 로봇이 결합된 융합 컨텐츠를 구성하는 중요 요소인 상호작용에 대한 부분을 분리하여, 공학적 사고가 부족한 사람들도 손쉽게 융합 컨텐츠를 제작할 수 있도록 하는 효과가 있다.

Description

로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체{Method for Controlling Robot And Multimedia Content, Apparatus And Computer-Readable Recording Medium with Program Therefor}
본 발명의 일 실시예는 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다. 더욱 상세하게는, 로봇과 멀티미디어 간의 융합형 컨텐츠 제작 시 로우 레벨 프로그래밍을 통해 멀티미디어 컨텐츠 제작을 통한 공학적 사고를 유지하도록 하며, 멀티미디어 컨텐츠 내의 객체들이 상호작용만을 담당하는 하이 레벨 프로그래밍을 별도로 분리하여 제공함으로써, 로우 레벨 프로그램에 대한 깊이 있는 이해 없이도 멀티미디어와 로봇을 융합하는 컨텐츠를 제작할 수 있도록 하는 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
최근 영상을 제작하기 위한 영상 제작도구들이 출시되고 있는데, 사용자는 이러한 영상 제작도구를 이용하여 영상을 편집 또는 생성할 수 있다. 즉, 플래시(Flash) 편집기, 어도브의 프리미어(Adobe Premiere) 등과 같은 제작도구를 사용하여 동영상, 애니메이션 영상 등을 편집하거나 생성할 수 있다. 이와 같은 영상 편집 또는 제작 도구들은 영상을 글자로 표현한 텍스트(Text)를 기반으로 하여 영상을 다루는 것으로서, 영상 제작자가 그 텍스트의 의미를 이해하여야만 영상을 제작할 수 있다.
한편, 로봇 기술은 기계, 전자, 제어 공학 등이 종합적으로 집약된 기술로, 최근 기계, 전자, 제어 공학 등의 비약적인 발전에 따라 로봇 기술 또한 비약적으로 발전하고 있고, 그 결과 컴퓨터, 이동통신 단말기 등 정보통신 기기를 통해 로봇의 동작의 제어가 가능하다.
하지만, 종래에는 컴퓨터나 이동통신 단말기 등과 같은 정보통신 기기를 통해 디스플레이되는 가상공간 상의 객체와 실제 로봇을 서로 연동되는 상태로 제어지 못하는 문제가 있다. 또한, 종래의 공학에 대한 지식이 부족한 사용자들을 위한 컨텐츠를 제작 시 프로그래밍에 어려움이 있으며, 컨텐츠 내의 객체들의 상호 작용을 표현하지 못하는 어려움이 있다.
전술한 문제점을 해결하기 위해 본 발명의 일 실시예는, 멀티미디어와 로봇이 상호 연동하는 융합 컨텐츠의 제작 시 로우 레벨과 하이 레벨로 구분된 두 단계의 절차를 제공하고 각각의 레벨에 맞는 프로그래밍을 제공하는 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 주된 목적이 있다.
전술한 목적을 달성하기 위해 본 발명의 일 실시예는, 로봇 관련 정보(UCR: User Created Robot)에 대응하는 제 1 정보 및 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보에 근거한 가상 상위 명령어를 생성하는 명령어 생성부; 상기 가상 상위 명령어를 이용한 중간 어셋(Intermediate Asset) 정보 생성하는 중간 어셋 정보 생성부; 및 상기 중간 어셋 정보에 따라 연동하는 로봇이 개별 동작하도록 하며, 상기 로봇의 동작과 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 중간 어셋 정보 실행부를 포함하는 로봇과 멀티미디어 컨텐츠 제어 장치를 제공한다.
또한, 본 발명의 다른 목적에 의하면, 로봇 관련 정보(UCR: User Created Robot)에 대응하는 제 1 정보 및 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보에 근거한 가상 상위 명령어를 생성하는 명령어 생성 단계; 상기 가상 상위 명령어를 이용한 중간 어셋(Intermediate Asset) 정보 생성하는 중간 어셋 정보 생성 단계; 및 상기 중간 어셋 정보에 따라 연동하는 로봇이 개별 동작하도록 하며, 상기 로봇의 동작과 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 중간 어셋 정보 실행 단계를 포함하는 로봇과 멀티미디어 컨텐츠 제어 방법을 제공한다.
또한, 본 발명의 다른 목적에 의하면, 전술한 로봇과 멀티미디어 컨텐츠 제어 방법의 각 단계를 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 로봇과 멀티미디어 간의 융합형 컨텐츠 제작 시 로우 레벨 프로그래밍을 통해 멀티미디어 컨텐츠 제작을 통한 공학적 사고를 유지하도록 하며, 멀티미디어 컨텐츠 내의 객체들이 상호작용만을 담당하는 하이 레벨 프로그래밍을 별도로 분리하여 제공함으로써, 로우 레벨 프로그램에 대한 깊이 있는 이해 없이도 멀티미디어와 로봇을 융합하는 컨텐츠를 제작할 수 있도록 하는 효과가 있다.
또한, 본 발명의 일 실시예에 의하면, 멀티미디어와 로봇이 상호 연동하는 융합 컨텐츠의 제작 시 로우 레벨과 하이 레벨로 구분된 두 단계의 절차를 제공하고 각각의 레벨에 맞는 프로그래밍을 제공하는 효과가 있다.
또한, 본 발명의 일 실시예에 의하면, 공학적 프로그래밍 원리를 통해 제작한 제작도구의 한계를 벗어나, 멀티미디어와 로봇이 결합된 융합 컨텐츠를 구성하는 중요 요소인 상호작용에 대한 부분을 분리하여, 공학적 사고가 부족한 사람들도 손쉽게 융합 컨텐츠를 제작할 수 있도록 하는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하는 시스템을 개략적으로 나타낸 블럭 구성도,
도 2는 본 발명의 일 실시예에 따른 일 실시예에 따른 단말기와 로봇을 개략적으로 나타낸 블럭 구성도,
도 3은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠 제어 장치를 개략적으로 나타낸 블럭 구성도,
도 4는 본 발명의 일 실시예에 따른 중간 어셋 정보 생성부를 개략적으로 나타낸 블럭 구성도,
도 5는 본 발명의 일 실시예에 따른 로우 레벨 프로그래밍부를 개략적으로 나타낸 블럭 구성도,
도 6은 본 발명의 일 실시예에 따른 중간 어셋 정보 실행부를 개략적으로 나타낸 블럭 구성도,
도 7은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 생성하는 방법을 설명하기 위한 순서도,
도 8은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 실행하는 방법을 설명하기 위한 순서도,
도 9는 본 발명의 일 실시예에 따른 가상 상위 명령어의 예시도,
도 10은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠의 예시도,
도 11은 본 발명의 일 실시예에 따른 이벤트 루틴 정보에 대한 예시도,
도 12는 본 발명의 일 실시예에 따른 행동 루틴 정보에 대한 예시도,
도 13은 본 발명의 일 실시예에 따른 상호작용 설정에 대한 예시도,
도 14는 본 발명의 일 실시예에 따른 이벤트 발생 점검에 대한 예시도,
도 15는 본 발명의 일 실시예에 따른 현재 이벤트에 대응되는 멀티미디어 화면에 대한 예시도이다.
이하, 본 발명에 따른 일 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 발명에 기재되는 엔티티(Entity)란 의미있는 정보의 단위로서, 파일 처리시스템에서는 한 건의 자료를 구성하는 레코드가 하나의 엔티티에 해당한다. 이러한 엔티티는 사물을 표현하는데 사용되는 모델로서, 물체를 추상화(Abstraction)하는 개념으로 정의한다.
도 1은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하는 시스템을 개략적으로 나타낸 블럭 구성도이다.
본 발명의 일 실시예에 따른 가상 상위 명령어를 이용하여 로봇과 멀티미디어 컨텐츠를 제어하는 시스템은 단말기(110), 타인 단말기(112), 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120), 로봇과 멀티미디어 컨텐츠 제어 장치(122), 로봇(130), 통신망(140) 및 애플리케이션 제공 장치(150)를 포함한다. 본 발명의 일 실시예에서는 가상 상위 명령어를 이용하여 로봇과 멀티미디어 컨텐츠를 제어하는 시스템이 단말기(110), 타인 단말기(112), 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120), 로봇과 멀티미디어 컨텐츠 제어 장치(122), 로봇(130), 통신망(140) 및 애플리케이션 제공 장치(150)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 가상 상위 명령어를 이용하여 로봇과 멀티미디어 컨텐츠를 제어하는 시스템에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
단말기(110) 및 타인 단말기(112)는 사용자의 키 조작에 따라 통신망(140)을 경유하여 각종 데이터를 송수신할 수 있는 단말기를 말하는 것이며, 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 스마트폰(Smart Phone), 개인휴대용 정보단말기(PDA: Personal Digital Assistant) 및 이동통신 단말기(Mobile Communication Terminal) 등 중 어느 하나일 수 있다. 또한, 단말기(110) 및 타인 단말기(112)는 통신망(140)을 통하여 데이터 읽고 쓰기 및 저장, 네트워크, 컨텐츠 사용 등의 서비스를 이용할 수 있는 클라우드 컴퓨팅(Cloud Computing)을 지원하는 클라우드 컴퓨팅 단말기가 될 수 있다.
즉, 단말기(110) 및 타인 단말기(112)는 통신망(140)을 이용하여 음성통화를 수행하는 단말기이며, 통신망(140)을 경유하여 애플리케이션 제공 장치(150)에 접속하기 위한 브라우저와 프로그램을 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하고 있는 단말기를 의미한다. 즉, 단말기(110) 및 타인 단말기(112)는 개인 PC인 것이 일반적이지만, 애플리케이션 제공 장치(150)와 서버-클라이언트 통신이 가능하다면 그 어떠한 단말기도 가능하며, 노트북 컴퓨터, 이동통신 단말기, PDA 등 여하한 통신 컴퓨팅 장치를 모두 포함하는 넓은 개념이다. 한편, 단말기(110)는 터치 스크린을 구비한 형태로 제작되는 것이 바람직하나 반드시 이에 한정되는 것은 아니다.
본 발명에서는 단말기(110) 및 타인 단말기(112)는 애플리케이션 제공 장치(150)와 별도의 장치로 구현된 것으로 기재하고 있으나, 실제 발명의 구현에 있어서, 단말기(110) 및 타인 단말기(112)는 애플리케이션 제공 장치(150)를 모두 포함하여 자립형(Stand Alone) 장치로 구현될 수 있을 것이다.
또한, 단말기(110) 및 타인 단말기(112)는 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 탑재한 단말기이다. 단말기(110) 및 타인 단말기(112)는 사용자의 조작 또는 명령에 의해 탑재된 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 구동하며, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 통해 중간 어셋 정보를 생성할 수 있다. 여기서, 단말기(110) 및 타인 단말기(112)가 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 탑재하는 방식에 대해 설명하자면, 단말기(110) 및 타인 단말기(112)가 스마트 폰인 경우 애플리케이션 스토어를 통해 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 다운로드한 후 이를 인스톨할 수 있으며, 단말기(110)가 피쳐 폰(Feature Phone)인 경우 통신사 서버를 통해 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 다운로드한 후 VM(Virtual Machine) 상에서 구동할 수 있다.
본 발명의 일 실시예에 따른 단말기(110) 및 타인 단말기(112)는 로봇(130)으로 로봇 실행 명령어를 전송(Export)하여 로봇(130)이 로봇 실행 명령어를 저장하도록 한다. 이때, 단말기(110) 및 타인 단말기(112)는 로봇(130)으로 근거리 통신을 이용하여 로봇 실행 명령어를 전송하며, 근거리 통신으로는, 블루투스(Bluetooth), 적외선 통신(IrDA), 지그비(ZigBee), UWB(Ultra Wide Band), 와이파이(Wi-Fi), 무선랜(WLAN), NFC(Near Field Communication) 중 적어도 하나 이상의 지원할 수 있다.
한편, 타인 단말기(112)에서 중간 어셋(Intermediate Asset) 정보를 공유하는 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 중간 어셋 정보를 통신망(140)을 경유해 특정 서버인 애플리케이션 제공 장치(150)에 등록한다. 이후 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 탑재한 타인 단말기(112)에서 중간 어셋 정보를 다운로드하고, 타인 단말기(112)에서 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분하고, 타인 단말기의 플랫폼(Platform) 또는 OS(Operating System)에 따라 로봇 실행 명령어와 멀티미디어 명령어를 각각 실행하도록 한다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)의 전반적인 개념에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 멀티미디어 컨텐츠를 물리 엔진을 기반으로 하는 그래픽 정보로 디스플레이되도록 편집 또는 생성하는 기능을 수행한다. 즉, 로봇(130)에 물리적인 힘이 가해지면 로봇(130)이 동작하고, 이러한 로봇(130)의 동작이 멀티미디어 객체에 전달되어 멀티미디어 객체가 그에 반응하는 동작을 수행하도록 하는 멀티미디어 컨텐츠를 형성할 수 있다. 다시 말해, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 로봇(130)이 자신에게 발생한 외부 작용에 반응하는 동시에 멀티미디어 객체 또는 가상 환경에 대한 외부 반응에 대해서도 반응할 수 있는 형태로 멀티미디어 컨텐츠를 생성 또는 편집하고, 역으로 멀티미디어 객체 또는 가상 환경에서 발생한 외부 작용에 반응하는 동시에 로봇(130)에 대한 외부 반응에 대해서도 연계되어 반응할 수 있는 형태로 멀티미디어 컨텐츠를 생성 또는 편집할 수 있다. 이를 위해 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 멀티미디어 객체 또는 가상 환경과 로봇(130)과의 상호작용을 직관적으로 편집할 수 있다. 여기서, 로봇(130)과 멀티미디어 객체 또는 가상 환경의 상호작용에 대해 가상 상위 명령어를 적용하면, 해당 명령어를 받는 대상이 1차 작용에 반응하는 2차 작용을 수행하는 형태로 중간 어셋 정보가 프로그램밍될 수 있다.
또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 상호작용 편집기, PC 기반의 멀티미디어 객체 또는 가상 환경용 가상 머신과 물리적 상호작용 처리기, 그래픽 상호작용 처리기를 포함할 수 있다. 즉, 물리적 상호작용 처리기는 물리 엔진을 사용하여 가상 상위 명령어에 대한 멀티미디어 객체의 움직임을 사실적으로 표현할 수 있고, 가상 상위 명령어의 물리적인 특성을 물리 엔진 상에서 표현할 수 있다. 또한, 그래픽 상호작용 처리기는 로봇(130)의 물리적 법칙에 의해 움직이는 동작과 멀티미디어 객체의 동작 또는 멀티미디어 가상 환경의 변화를 구분하여 렌더링하고, 로봇(130)의 물리적 법칙에 의한 동작의 표현은 위치 정보를 받아 표현하며, 멀티미디어 객체의 동작 또는 멀티미디어 가상 환경의 변화를 해석하여 위치 정보를 받아 표현하고, 애니메이션을 위한 로봇 또는 멀티미디어 객체의 이미지 변경을 처리한다. 또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 상호작용 실행기에서 실행 중인 멀티미디어 컨텐츠의 편집 또는 생성 내용에 사전에 생성되어 저장된 다양한 컴포넌트를 제공한다. 또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 멀티미디어 객체 또는 가상 환경이 이미지 변경, 힘의 가함, 물리적 속성의 변경, 사운드 출력, 문자출력, 정해진 패턴의 이동, 정해진 패턴의 회전 중 적어도 하나의 조건을 반영하는 상태로 출력되어 멀티미디어 컨텐츠가 디스플레이되도록 한다.
또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 단말기(110) 또는 타인 단말기(112) 내에 탑재되어 구동되는 애플리케이션을 말한다. 물론, 이러한 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 반드시 단말기(110) 또는 타인 단말기(112)에 탑재되는 형식의 소프트웨어가 아닌 모듈 형태로 제작되어 별도의 장치인 로봇과 멀티미디어 컨텐츠 제어 장치(122)로 구현될 수 있을 것이다.
본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 로봇 관련 정보(UCR: User Created Robot)를 제공하고, 로봇 관련 정보에 대응하는 제 1 정보를 수신하고, 멀티미디어 컨텐츠 설정 정보를 제공하고, 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보를 수신한다. 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 제 1 정보 및 제 2 정보에 근거한 가상 상위 명령어를 생성하고, 가상 상위 명령어를 이용한 중간 어셋 정보 생성하며, 중간 어셋 정보를 실행하여 중간 어셋 정보에 따라 연동하는 로봇(130)이 개별 동작하도록 하며, 로봇의 동작과 상호 연동하여 멀티미디어 객체가 개별 동작하도록 한다.
여기서, 로봇 관련 정보, 멀티미디어 컨텐츠 설정 정보, 중간 어셋 정보에 대해 설명하자면, 로봇 관련 정보는 연동하는 로봇에 대한 기종 정보, 부품 정보, 형태 정보 및 지원 명령어 정보 중 적어도 하나 이상의 정보를 포함하는 정보이다. 또한, 멀티미디어 컨텐츠 설정 정보는 멀티미디어 객체인 캐릭터 정보, 캐릭터 설정 정보, 캐릭터 움직임 정보, 배경 정보, 캐릭터 동작 정보, 효과음 정보, 배경음악 정보 중 적어도 이상의 정보를 포함하는 정보이다. 또한, 중간 어셋 정보는 로봇(130)이 개별 동작하도록 하는 로봇 실행 명령어와 로봇 실행 명령어와 연동하여 멀티미디어 객체가 개별 동작하도록 하는 멀티미디어 명령어를 포함한다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 중간 어셋 정보를 생성하는 과정에 대해 보다 구체적으로 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴(Sub Routine) 정보를 생성한다. 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 서브 루틴 정보의 조합으로 상호작용 루틴(Interplay Routine) 정보를 생성하고, 상호작용 루틴 정보를 이용하여 중간 어셋 정보 생성한다.
한편, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 상호작용 루틴 정보를 생성하는 또 다른 과정을 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 외부 서버인 애플리케이션 제공 장치(150)로부터 다운로드한 타인의 서브 루틴 정보를 조합하여 상호작용 루틴 정보를 생성한다. 또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 서브 루틴 정보를 조합한 상호작용 루틴 정보를 로봇 실행 명령어와 멀티미디어 명령어로 구분한 중간 어셋 정보를 생성한다.
여기서, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 가상 상위 명령어를 어떻게 조합하는지에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 가상 상위 명령어를 블럭 단위로 제공하며, 선택된 블럭들의 조합으로 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴 정보를 생성한다. 또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 서브 루틴 정보를 어떻게 조합하는지에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 서브 루틴 정보에 포함된 이벤트 루틴 정보 및 행동 루틴 정보를 기어(Gear) 형태의 UI로 나타내며, 기어들의 조합으로 상호작용 루틴 정보를 생성한다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)에서 서브 루틴 정보를 생성하는 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 가상 상위 명령어에 대한 엔티티를 선택하고, 가상 상위 명령어에 대한 파라미터를 입력하고, 가상 상위 명령어를 저장한다. 이때, 엔티티 선택을 위해 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 가상 상위 명령어 중 사용자의 명령 또는 조작에 의해 선택된 명령어 들을 블럭 단위로 조합한 펑션 정보를 특정 멀티미디어 객체에 부여한다. 또한, 파라미터 입력을 위해 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 선택된 엔티티에 대한 세부 정보를 입력한다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 중산 어셋 정보 실행 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분하고, 근거리 통신을 이용하여 로봇(130)으로 로봇 실행 명령어를 전송(Export)하여 로봇(130)이 중간 어셋 정보를 저장하도록 하고, 로봇 실행 명령어에 따라 로봇(130)이 개별 동작하도록 하며, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어에 따라 멀티미디어 객체가 개별 동작하도록 한다. 여기서, 근거리 통신은 블루투스, 적외선 통신, 지그비, UWB, 와이파이, 무선랜, NFC 중 적어도 하나 이상의 지원한다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 중간 어셋 정보를 실행하는 과정에 대해 보다 구체적으로 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 중간 어셋 정보 실행 과정 중 이벤트 판별 과정과 행동 실행 과정을 거치는데, 이중 이벤트 판별 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 로봇 실행 명령어와 멀티미디어 명령어에 포함된 서브 루틴 정보를 확인하고, 서브 루틴 정보에 포함된 이벤트 루틴 정보를 확인하고, 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부를 참 또는 거짓으로 확인한다.
또한, 중간 어셋 정보 실행 과정 중 행동 실행 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 이벤트 판별 확인 결과에 근거하여 이벤트 루틴 정보에 해당하는 이벤트가 발생한 경우 이벤트 루틴 정보 매칭된 행동 루틴 정보를 실행한다. 이때, 이벤트 판별을 위해 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 구비된 장치 센서부(217) 또는 로봇에 구비된 로봇 센서부(226)를 통해 감지된 외부 작용에 근거하여 이벤트 루틴 정보에 해당하는 이벤트의 발생 여부를 판별한다. 또한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 중간 어셋 정보 실행할 때, 이벤트 루틴 정보에 매칭된 행동 루틴 정보에 근거하여 로봇 및 멀티미디어 객체가 동작하도록 한다.
중간 어셋 정보 실행 과정 중 상호작용 실행 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 로봇 실행 명령어와 멀티미디어 명령어에 포함된 상호작용 루틴 정보를 확인하고, 상호작용 루틴 정보에 근거한 상호작용 정보가 수행되도록 한다. 이러한, 상호작용 정보는 하나의 이벤트 루틴 정보를 포함하며, 하나의 이벤트 루틴 정보에 행동 루틴 정보가 매칭된 정보이다. 또한, 상호작용 실행 과정에서 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 이벤트 루틴 정보에 매칭된 복수 개의 행동 루틴 정보들의 우선 순위 정보를 확인하여 우선 순위 정보가 가장 높은 행동 루틴 정보부터 수행하도록 한다.
또한, 행동 실행 과정에서 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 이벤트 판별 확인 결과에 근거하여 이벤트 루틴 정보에 해당하는 이벤트가 발생하지 않은 경우, 서브 루틴 정보에 포함된 행동 루틴 정보 중 이벤트 루틴 정보와 매칭되지 않은 행동 루틴 정보를 기본 행동으로 수행되도록 한다. 한편, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 서브 루틴 정보 또는 중간 어셋 정보를 타인(즉, 타인 단말기(112))와 공유하기 위해 서브 루틴 정보 또는 중간 어셋 정보를 통신망을 경유해 특정 서버인 애플리케이션 제공 장치(150)에 등록한다.
한편, 가상 상위 명령어 및 가상 상위 명령어에 포함된 각각의 명령어에 대해 설명하자면, 가상 상위 명령어는 로봇 실행 명령어, 멀티미디어 명령어, 로봇(130)과 멀티미디어 객체를 모두 포함하는 공통 명령어로 구분된다. 로봇 실행 명령어, 멀티미디어 명령어, 공통 명령어는 각각의 아이콘과 매칭되며, 사용자의 명령 또는 조작에 의해 선택된 명령에 매칭된 아이콘이 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 탑재된 단말기(110) 상에 디스플레이된다.
또한, 로봇 실행 명령어에 대해 설명하자면, 로봇 실행 명령어는 모터 기능 제어 명령어, 제어기 기능 명령어를 포함한다. 모터 기능 제어 명령어는 모터 켜기 명령어, 모터 끄기 명령어, 모터의 위치 이동 명령어, 모터의 속도 설정 명령어, 모터의 힘 설정 명령어 중 적어도 하나 이상의 명령어를 포함한다. 제어기 기능 명령어는 타이머 설정 명령어, 멜로디 연주 명령어 중 적어도 하나 이상의 명령어를 포함한다.
또한, 멀티미디어 명령어에 대해 설명하자면, 멀티미디어 명령어는 멀티미디어 객체에 대한 동작 명령어, 모양 명령어, 사운드 명령어, 물리 기능 명령어, 카메라 기능 명령어 중 적어도 하나 이상의 명령어를 포함한다. 동작 명령어는 멀티미디어 객체에 대한 이동방향과 이동 반경 명령어, 특정 각도만큼 시계방향 회전 명령어, 특정 각도만큼 반시계방향 회전 명령어, 이동방향 설정 명령어, 가로방향 또는 세로방향 이동 명령어, 가로방향으로 특정 영역까지 이동 명령어, 세로방향으로 특정 영역까지 이동 명령어 및 기 설정된 시간동안 쉬기 명령어 중 적어도 하나 이상의 명령어를 포함한다. 모양 명령어는 멀티미디어 객체에 대한 보여주기 명령어, 숨기기 명령어, 애니메이션 바꾸기 명령어, 특정 효과 설정 명령어, 특정 효과 지우기 명령어, 크기 증가 명령어, 크기 감소 명령어, 맨앞으로 가져오기 명령어, 뒤로 보내기 명령어 중 적어도 하나 이상의 명령어를 포함한다. 사운드 명령어는 소리내기 명령어, 불륨 변경 명령어, 템포(Tempo) 변경 명령어 중 적어도 하나 이상의 명령어를 포함한다. 물리 기능 명령어는 물리적인 힘 설정 명령어, 질량 설정 명령어, 회전력 설정 명령어, 마찰력 설정 명령어 중 적어도 하나 이상의 명령어를 포함한다. 카메라 기능 명령어는 카메라 조절 명령어를 포함한다.
한편, 단말기(110)와 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 하나의 장치인 로봇과 멀티미디어 컨텐츠 제어 장치(122)로 구현될 수 있다. 즉, 도 1에서는 단말기(110)와 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 각각 도시하고 있지만, 단말기(110)와 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)를 포함한 자립형 장치인 로봇과 멀티미디어 컨텐츠 제어 장치(122)로 구현될 수 있다. 이하 도 3 내지 도 6에서는 이러한 로봇과 멀티미디어 컨텐츠 제어 장치(122)를 기준으로 설명하도록 한다.
로봇(130)은 사람의 모습을 한 인형 내부에 기계장치를 조립하여 탑재시키고, 손발과 그 밖의 부분을 사람처럼 동작되도록 하는 자동인형을 말한다. 물론, 이는 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 로봇(130)이 산업용, 의료용, 우주용, 해저용, 극한작업용, 기상관측용, 바이오로보틱스, 시각용, 안드로이드, 오토마톤 등에 적용되도록 다양하게 수정 및 변형하여 적용 가능할 것이다.
로봇(130)은 별도로 제작된 로봇을 말하며, 반드시 사람의 모습으로 한정되는 것은 아니나 인간형 손발을 가지고 있으며, 구비된 모터(232)를 이용하여 인간형 손발을 제어할 수 있는 형태인 것이 바람직하다. 또한, 로봇(130)은 단말기(110) 또는 타인 단말기(112)와 근거리 통신을 수행하며, 단말기(110) 또는 타인 단말기(112)로부터 수신된 로봇 실행 명령어에 따라 특정 동작을 수행한다.
본 발명의 일 실시예에 다른 로봇(130)은 모터(232), 로봇 센서부(224) 및 로봇 근거리 통신부(220)를 구비하는 것이 바람직하며, 로봇 센서부(224)는 적외선센서, 거리센서, 접촉센서 및 소리감지센서 중 적어도 하나 이상의 센서를 포함하는 것이 바람직하다. 로봇(130)은 구비된 로봇 센서부(224)를 이용하여 외부 작용이 발생하는 지의 여부를 감지하고, 외부 작용이 감지되는 경우, 외부 작용에 반응하는 기 설정된 로봇 실행 명령어가 실행되도록 한다. 이때, 로봇(130)은 로봇 실행 명령어와 연계된 멀티미디어 명령어가 실행되도록 로봇(130)과 연동하는 단말기(110)로 특정 신호를 전송하여, 단말기(110)에서 로봇 실행 명령어에 대응되는 멀티미디어 명령어가 실행되도록 한다.
통신망(140)은 인터넷망, 인트라넷망, 이동통신망, 위성 통신망 등 다양한 유무선 통신 기술을 이용하여 인터넷 프로토콜로 데이터를 송수신할 수 있는 망을 말한다. 또한, 통신망(140)은 애플리케이션 제공 장치(150)와 결합되어 하드웨어, 소프트웨어 등의 컴퓨팅 자원을 저장하고, 클라이언트가 필요로 하는 컴퓨팅 자원을 해당 단말기(110)로 제공할 수 있는 클라우드 컴퓨팅망을 포함할 수 있다. 여기서, 클라우드 컴퓨팅이란 정보가 인터넷 상의 서버에 영구적으로 저장되고, 데스크톱, 태블릿 컴퓨터, 노트북, 넷북, 스마트폰 등의 클라이언트 단말기에는 일시적으로 보관되는 컴퓨터 환경을 의미하며, 클라우드 컴퓨팅은 이용자의 모든 정보를 인터넷 상의 서버에 저장하고, 이 정보를 각종 IT 기기를 통하여 언제 어디서든 이용할 수 있도록 하는 컴퓨터 환경 접속망을 의미한다.
이러한, 통신망(140)의 개념에 대해 추가적으로 부연 설명하자면, 통신망(140)은 LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크, 인터넷(Internet)과 같은 개방형 네크워크뿐만 아니라, CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), GSM(Global System for Mobile Communications), LTE(Long Term Evolution), EPC(Evolved Packet Core) 등의 네트워크와 향후 구현될 차세대 네트워크 및 클라우드 컴퓨팅 네트워크를 통칭하는 개념이다.
애플리케이션 제공 장치(150)는 하드웨어적으로는 통상적인 웹서버(Web Server) 또는 네트워크 서버와 동일한 구성을 하고 있다. 소프트웨어적으로는 C, C++, Java, Visual Basic, Visual C 등 여하한 언어를 통하여 구현되는 프로그램 모듈(Module)을 포함한다. 애플리케이션 제공 장치(150)는 웹서버 또는 네트워크 서버의 형태로 구현될 수 있으며, 웹서버는 일반적으로 인터넷과 같은 개방형 컴퓨터 네트워크를 통하여 불특정 다수 클라이언트 및/또는 다른 서버와 연결되어 있고, 클라이언트 또는 다른 웹서버의 작업수행 요청을 접수하고 그에 대한 작업 결과를 도출하여 제공하는 컴퓨터 시스템 및 그를 위하여 설치되어 있는 컴퓨터 소프트웨어(웹서버 프로그램)를 뜻하는 것이다. 그러나, 전술한 웹서버 프로그램 이외에도, 웹서버상에서 동작하는 일련의 응용 프로그램(Application Program)과 경우에 따라서는 내부에 구축되어 있는 각종 데이터베이스를 포함하는 넓은 개념으로 이해되어야 할 것이다. 이러한 애플리케이션 제공 장치(150)는 일반적인 서버용 하드웨어에 도스(DOS), 윈도우(windows), 리눅스(Linux), 유닉스(UNIX), 매킨토시(Macintosh)등의 운영체제에 따라 다양하게 제공되고 있는 웹서버 프로그램을 이용하여 구현될 수 있으며, 대표적인 것으로는 윈도우 환경에서 사용되는 웹사이트(Website), IIS(Internet Information Server)와 유닉스환경에서 사용되는 CERN, NCSA, APPACH등이 이용될 수 있다.
또한, 애플리케이션 제공 장치(150)는 명령어 실행 애플리케이션 제공 또는 중간 어셋 정보를 공유를 위한 인증 시스템 및 결제 시스템과 연동할 수도 있다. 또한, 애플리케이션 제공 장치(150)는 회원 가입 정보와, 명령어 실행 애플리케이션 제공 또는 중간 어셋 정보를 공유에 대한 정보를 분류하여 데이터베이스(Database)에 저장시키고 관리하는데, 이러한 데이터베이스는 애플리케이션 제공 장치(150)의 내부 또는 외부에 구현될 수 있다. 이러한 데이터베이스는 데이터베이스 관리 프로그램(DBMS)을 이용하여 컴퓨터 시스템의 저장공간(하드디스크 또는 메모리)에 구현된 일반적인 데이터구조를 의미하는 것으로, 데이터의 검색(추출), 삭제, 편집, 추가 등을 자유롭게 행할 수 있는 데이터 저장형태를 뜻하는 것으로, 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), DB2와 같은 관계형 데이타베이스 관리 시스템(RDBMS)이나, 겜스톤(Gemston), 오리온(Orion), O2 등과 같은 객체 지향 데이타베이스 관리 시스템(OODBMS) 및 엑셀론(Excelon), 타미노(Tamino), 세카이주(Sekaiju) 등의 XML 전용 데이터베이스(XML Native Database)를 이용하여 본 발명의 일 실시예의 목적에 맞게 구현될 수 있고, 자신의 기능을 달성하기 위하여 적당한 필드(Field) 또는 엘리먼트들을 가지고 있다.
한편, 애플리케이션 제공 장치(150)는 클라우드 컴퓨팅을 위해 클라우드 컴퓨팅 저장부 및 클라우드 컴퓨팅부를 추가로 포함할 수 있다. 즉, 클라우드 컴퓨팅 저장부는 명령어 실행 애플리케이션 제공 또는 중간 어셋 정보를 공유하는 저장 매체를 저장하며, 클라우드 컴퓨팅부는 단말기(110)로 하여금 클라우드 컴퓨팅 저장부에 저장된 저장 매체에 대한 데이터의 읽기 및 쓰기가 수행되도록 할 수 있다. 또한, 이러한 애플리케이션 제공 장치(150)는 단말기(110) 또는 타인 단말기(112)로 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 제공할 수 있으며, 단말기(110) 또는 타인 단말기(112)로부터 수신되는 중간 어셋 정보를 저장하며, 다른 단말기와 공유되도록 하는 기능을 수행한다.
도 2는 본 발명의 일 실시예에 따른 일 실시예에 따른 단말기와 로봇을 개략적으로 나타낸 블럭 구성도이다.
본 발명의 일 실시예에 따른 단말기(110)는 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120), 디스플레이부(210), 단말 입출력부(212), 단말 제어부(214), 단말 근거리 통신부(216) 및 무선통신 처리부(218)를 포함한다. 본 발명의 일 실시예에서는 단말기(110)가 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120), 디스플레이부(210), 단말 입출력부(212), 단말 제어부(214), 단말 근거리 통신부(216) 및 무선통신 처리부(218)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 단말기(110)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 단말기(110) 내에 탑재되며, 로봇 관련 정보를 제공하고, 로봇 관련 정보에 대응하는 제 1 정보를 수신하고, 멀티미디어 컨텐츠 설정 정보를 제공하고, 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보를 수신한다. 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 제 1 정보 및 제 2 정보에 근거한 가상 상위 명령어를 생성하고, 가상 상위 명령어를 이용한 중간 어셋 정보 생성하고, 생성된 중간 어셋 정보를 실행하여 중간 어셋 정보에 따라 연동하는 로봇(130)이 개별 동작하도록 하며, 로봇(130)의 동작과 상호 연동하는 멀티미디어 객체가 개별 동작하도록 한다. 이러한, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)에 대한 기재는 도 1을 통해 설명하였으며 구체적인 설명은 생략한다.
디스플레이부(210)는 단말기(110)의 동작 상태(예컨대, 전원의 사용 상태, 전파의 수신 강도, 날짜와 시간)를 표시해 주며, 문자, 숫자, 이미지 등의 형태로 정보가 전달되는 경우에는 이 정보를 출력하는 화면 표시 수단이다. 또한, 디스플레이부(210)는 단말 제어부(214)의 제어에 따라 단말 저장부에 저장된 다양한 애플리케이션을 수행하는 중에 발생하는 메시지들을 표시하며, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 수행하는 중에 발생하는 메시지들을 표시한다. 여기서, 디스플레이부(210)로는 LCD를 사용할 수 있으며, 이를 위해 디스플레이부(210)는 디스플레이 제어부(LCD Controller), 영상 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비할 수 있다. 단말 입출력부(212)는 전화번호 등의 숫자를 입력하기 위한 숫자 버튼, 문자 입력을 위한 문자 버튼과 메뉴 선택 버튼 등을 구비하여 단말기(110)를 사용하는 사용자로부터 키 또는 명령을 입력받는 키 입력 수단이다. 여기서, 단말 입출력부(212)는 터치스크린을 포함한다.
단말 제어부(214)는 단말기(110)의 전반적인 동작을 제어하는 제어 수단으로서, 단말 입출력부(212) 또는 무선통신 처리부(218)로부터 입력되는 신호에 따라 음성 및 데이터 통신을 수행하기 위한 기본 기능뿐만 아니라 부가 기능을 수행하기 위해 단말 저장부에 저장된 각종 애플리케이션을 실행한다. 또한, 단말 제어부(214)는 즉시 실행되지 않는 데이터가 입력된 경우에는 해당 데이터를 단말 저장부로 송신하여 저장하도록 제어한다.
단말 제어부(214)는 단말기(110)의 각 구성요소를 제어하며 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 실행하여 소정의 알고리즘을 구동하도록 하는 단말기(110)의 전반적인 동작을 제어한다. 단말 근거리 통신부(216)는 근거리 통신을 수행하는 모듈로서, 로봇(130)의 로봇 근거리 통신부(220)로 로봇 실행 명령어를 전송하여 로봇(130)이 로봇 실행 명령어를 저장하도록 한다. 이러한, 근거리 통신으로는, 블루투스, 적외선 통신, 지그비, UWB, 와이파이, 무선랜, NFC 중 적어도 하나 이상의 지원할 수 있다. 장치 센서부(217)는 외부 작용이 발생하는 지의 여부를 감지하며, 적외선센서, 거리센서, 접촉센서 및 소리감지센서 중 적어도 하나 이상의 센서를 포함한다. 단말 제어부(214)는 구비된 장치 센서부(217)를 이용하여 외부 작용이 발생하는 지의 여부를 감지하고, 외부 작용이 감지되는 경우, 외부 작용에 반응하는 기 설정된 멀티미디어 명령어가 실행되도록 한다. 이때, 단말 제어부(214)는 멀티미디어 명령어와 연계된 로봇 실행 명령어가 실행되도록 로봇(130)으로 특정 신호를 전송하여, 로봇(130)에서 멀티미디어 명령어에 대응되는 로봇 실행 명령어가 실행되도록 한다. 무선통신 처리부(218)는 음성 신호를 코딩 또는 디코딩하고 다중 경로 잡음 제거를 위해 이퀄라이저 기능을 수행하며 음향 데이터 처리 기능 등을 수행하는 디지털 신호 처리 기능, 송수신되는 신호에 대해 기저 대역의 신호로 변환하며, 디지털-아날로그 변환 및 아날로그-디지털 변환 처리 등을 수행하는 베이스밴드 변환 기능, RF(Radio Frequency) 신호를 수신하여 IF(Intermediate Frequency) 신호로 변환하고, IF 신호를 RF 신호로 변화하며, RF 신호를 복조 및 증폭하는 RF 신호 처리 기능, 공기 중으로 무선 신호를 송수신하는 안테나 기능 등을 수행하여 무선통신을 처리하는 무선통신 처리 수단이다.
한편, 본 발명의 일 실시예에 따른 로봇(130)은 로봇 근거리 통신부(220), 로봇 제어부(222), 로봇 센서부(224), 로봇 입출력부(226), 로봇 저장부(228), 전원부(230) 및 모터(232)를 포함한다. 본 발명의 일 실시예에서는 로봇(130)이 로봇 근거리 통신부(220), 로봇 제어부(222), 로봇 센서부(224), 로봇 입출력부(226), 로봇 저장부(228), 전원부(230) 및 모터(232)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 로봇(130)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
로봇 근거리 통신부(220)는 근거리 통신을 수행하는 모듈로서, 단말기(110)의 단말 근거리 통신부(216)로부터 로봇 실행 명령어를 수신한다. 여기서, 수신된 로봇 실행 명령어는 로봇 제어부(222)의 제어에 따라 로봇 저장부(228)에 저장된다. 이러한, 근거리 통신으로는, 블루투스, 적외선 통신, 지그비, UWB, 와이파이, 무선랜, NFC 중 적어도 하나 이상의 지원할 수 있다.
로봇 제어부(222)는 로봇(130)의 각 구성요소를 제어하며 모터(232)를 구동하여 로봇(130)의 전반적인 동작을 제어한다. 또한, 로봇 제어부(222)는 로봇 저장부(228)에 저장된 데이터를 액세스한다. 또한, 로봇 제어부(222)는 로봇 센서부(224)를 통해 입력되는 신호를 변환하여 연동하는 단말기(110) 또는 타인 단말기(112)로 전송할 수 있다. 로봇 센서부(224)는 외부 작용이 발생하는 지의 여부를 감지하며, 적외선센서, 거리센서, 접촉센서 및 소리감지센서 중 적어도 하나 이상의 센서를 포함한다. 로봇 제어부(222)는 구비된 로봇 센서부(224)를 이용하여 외부 작용이 발생하는 지의 여부를 감지하고, 외부 작용이 감지되는 경우, 외부 작용에 반응하는 기 설정된 로봇 실행 명령어가 실행되도록 한다. 이때, 로봇 제어부(222)는 로봇 실행 명령어와 연계된 멀티미디어 명령어가 실행되도록 로봇(130)과 연동하는 단말기(110)로 특정 신호를 전송하여, 단말기(110)에서 로봇 실행 명령어에 대응되는 멀티미디어 명령어가 실행되도록 한다.
로봇 입출력부(226)는 로봇(130)에 대한 명령을 입력할 수 있는 버튼 등을 구비하여 로봇(130)을 사용하는 사용자로부터 키 또는 명령을 입력받는 수단이다. 로봇 저장부(228)는 로봇(130)을 제어하는 데이터, 프로토콜 등을 저장하는 저장 수단이다. 한편, 로봇 저장부(228)는 단말기(110)로부터 수신된 로봇 실행 명령어를 저장한다. 전원부(230)는 로봇(130) 내로 전원을 공급하며, 모터(232)는 로봇(130)이 특정 동작을 수행할 수 있도록 전원부(230)로부터 공급된 전력을 이용하여 회전운동의 힘을 얻어 각각의 기계 장치로 전달한다.
도 3은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠 제어 장치를 개략적으로 나타낸 블럭 구성도이다.
본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 로봇 관련 정보 제공부(310), 멀티미디어 컨텐츠 설정부(320), 명령어 생성부(330), 중간 어셋 정보 생성부(340) 및 중간 어셋 정보 실행부(350)를 포함한다. 본 발명의 일 실시예에서는 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 로봇 관련 정보 제공부(310), 멀티미디어 컨텐츠 설정부(320), 명령어 생성부(330), 중간 어셋 정보 생성부 및 중간 어셋 정보 실행부(350)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
로봇 관련 정보 제공부(310)는 로봇 관련 정보를 탑재된 단말기(110)에 디스플레이되도록 하며, 디스플레이된 로봇 관련 정보에 대응하는 제 1 정보를 수신한다. 여기서, 로봇 관련 정보는 연동하는 로봇(130)에 대한 기종 정보, 부품 정보, 형태 정보 및 지원 명령어 정보 중 적어도 하나 이상의 정보를 포함하는 정보이다. 멀티미디어 컨텐츠 설정부(320)는 멀티미디어 컨텐츠 설정 정보를 탑재된 단말기(110)에 디스플레이되도록 하며, 디스플레이된 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보를 수신한다. 여기서, 멀티미디어 컨텐츠 설정 정보는 멀티미디어 객체인 캐릭터 정보, 캐릭터 설정 정보, 캐릭터 움직임 정보, 배경 정보, 캐릭터 동작 정보, 효과음 정보, 배경음악 정보 중 적어도 이상의 정보를 포함하는 정보이다.
명령어 생성부(330)는 수신된 제 1 정보 및 제 2 정보에 근거한 가상 상위 명령어를 생성한다. 여기서, 가상 상위 명령어는 로봇 실행 명령어, 멀티미디어 명령어, 로봇과 멀티미디어 객체를 모두 포함하는 공통 명령어로 구분된다. 로봇 실행 명령어, 멀티미디어 명령어, 공통 명령어는 각각의 아이콘과 매칭되며, 사용자의 명령 또는 조작에 의해 선택된 명령에 매칭된 아이콘이 디스플레이된다.
중간 어셋 정보 생성부(340)는 가상 상위 명령어를 이용한 중간 어셋 정보 생성한다. 여기서, 중간 어셋 정보는 로봇(130)이 개별 동작하도록 하는 로봇 실행 명령어와 로봇 실행 명령어와 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 멀티미디어 명령어를 포함한다. 중간 어셋 정보 실행부(350)는 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분하고, 로봇(130)으로 로봇 실행 명령어를 전송하여 로봇(130)이 중간 어셋 정보를 저장하도록 하며, 로봇 실행 명령어에 따라 로봇(130)이 개별 동작하도록 하며, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어에 따라 멀티미디어 객체가 개별 동작하도록 한다. 또한, 중간 어셋 정보 실행부(350)는 중간 어셋 정보를 통신망(140)을 경유해 특정 서버인 애플리케이션 제공 장치(150)에 등록한다. 즉, 중간 어셋 정보가 애플리케이션 제공 장치(150)에 등록되면, 애플리케이션 제공 장치(150)는 등록된 중간 어셋 정보를 통신망(140)을 통해 공유할 수 있다.
도 4는 본 발명의 일 실시예에 따른 중간 어셋 정보 생성부를 개략적으로 나타낸 블럭 구성도이다.
본 발명의 일 실시예에 따른 중간 어셋 정보 생성부(340)는 로우 레벨 프로그래밍부(410) 및 하이 레벨 프로그래밍부(420)를 포함한다. 본 발명의 일 실시예에서는 중간 어셋 정보 생성부(340)가 로우 레벨 프로그래밍부(410) 및 하이 레벨 프로그래밍부(420)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 중간 어셋 정보 생성부(340)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
로우 레벨 프로그래밍부(410)는 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴 정보를 생성한다. 로우 레벨 프로그래밍부(410)가 서브 루틴 정보를 생성하는 과정에 대해 설명하자면, 로우 레벨 프로그래밍부(410)는 가상 상위 명령어를 블럭 단위로 제공하며, 선택된 블럭들의 조합으로 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴 정보를 생성한다.
하이 레벨 프로그래밍부(420)는 서브 루틴 정보의 조합으로 상호작용 루틴 정보를 생성하고, 상호작용 루틴 정보를 이용하여 중간 어셋 정보 생성한다. 또한, 하이 레벨 프로그래밍부(420)는 외부 서버인 애플리케이션 제공 장치(150)로부터 다운로드한 타인의 서브 루틴 정보를 조합하여 상호작용 루틴 정보를 생성한다. 또한, 하이 레벨 프로그래밍부(420)는 서브 루틴 정보를 조합한 상호작용 루틴 정보를 로봇 실행 명령어와 멀티미디어 명령어로 구분한 중간 어셋 정보를 생성한다. 하이 레벨 프로그래밍부(420)가 상호작용 루틴 정보를 생성하는 과정에 대해 설명하자면, 하이 레벨 프로그래밍부(420)는 서브 루틴 정보에 포함된 이벤트 루틴 정보 및 상기 행동 루틴 정보를 기어 형태의 UI로 나타내며, 기어들의 조합으로 상호작용 루틴 정보를 생성한다.
도 5는 본 발명의 일 실시예에 따른 로우 레벨 프로그래밍부를 개략적으로 나타낸 블럭 구성도이다.
본 발명의 일 실시예에 따른 로우 레벨 프로그래밍부(410)는 엔티티 선택부(510), 파라미터 입력부(520) 및 저장부(530)를 포함한다. 본 발명의 일 실시예에서는 로우 레벨 프로그래밍부(410)가 엔티티 선택부(510), 파라미터 입력부(520) 및 저장부(530)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 로우 레벨 프로그래밍부(410)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
엔티티 선택부(510)는 가상 상위 명령어에 대한 엔티티를 선택한다. 즉, 엔티티 선택부(510)는 가상 상위 명령어 중 사용자의 명령 또는 조작에 의해 선택된 명령어 들을 블럭 단위로 조합한 펑션 정보를 특정 멀티미디어 객체에 부여한다. 파라미터 입력부(520)는 가상 상위 명령어에 대한 파라미터를 입력한다. 즉, 파라미터 입력부(520)는 선택된 엔티티에 대한 세부 정보를 입력한다. 저장부(530)는 가상 상위 명령어를 저장한다.
도 6은 본 발명의 일 실시예에 따른 중간 어셋 정보 실행부를 개략적으로 나타낸 블럭 구성도이다.
본 발명의 일 실시예에 따른 중간 어셋 정보 실행부(350)는 명령어 구분부(610), 로봇 명령어 전송부(620), 멀티미디어 객체 제어부(630), 이벤트 판별부(640), 행동 실행부(650) 및 상호작용 실행부(660)를 포함한다. 본 발명의 일 실시예에서는 중간 어셋 정보 실행부(350)가 명령어 구분부(610), 로봇 명령어 전송부(620), 멀티미디어 객체 제어부(630), 이벤트 판별부(640), 행동 실행부(650) 및 상호작용 실행부(660)만을 포함하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 중간 어셋 정보 실행부(350)에 포함되는 구성 요소에 대하여 다양하게 수정 및 변형하여 적용 가능할 것이다.
명령어 구분부(610)는 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분한다. 로봇 명령어 전송부(620)는 구비된 단말 근거리 통신부(216)를 이용하여 로봇(130)으로 로봇 실행 명령어를 전송(Export)하여 로봇(130)이 중간 어셋 정보를 저장하도록 한다. 멀티미디어 객체 제어부(630)는 로봇 실행 명령어에 따라 로봇(130)이 개별 동작하도록 하며, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어에 따라 멀티미디어 객체가 개별 동작하도록 한다.
이벤트 판별부(640)는 로봇 실행 명령어와 멀티미디어 명령어에 포함된 서브 루틴 정보를 확인하고, 서브 루틴 정보에 포함된 이벤트 루틴 정보를 확인하고, 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부를 참 또는 거짓으로 확인하고, 확인 결과를 행동 실행부(650)로 전송한다. 또한, 이벤트 판별부(640)는 구비된 장치 센서부(217) 또는 로봇에 구비된 로봇 센서부(226)를 통해 감지된 외부 작용에 근거하여 이벤트 루틴 정보에 해당하는 이벤트의 발생 여부를 판별한다.
행동 실행부(650)는 이벤트 판별부(640)의 이벤트 판별 확인 결과에 근거하여 이벤트 루틴 정보에 해당하는 이벤트가 발생한 경우 이벤트 루틴 정보 매칭된 행동 루틴 정보를 실행한다. 또한, 행동 실행부(650)는 이벤트 루틴 정보에 매칭된 행동 루틴 정보에 근거하여 로봇(130) 및 멀티미디어 객체가 동작하도록 한다. 또한, 행동 실행부(650)는 확인 결과에 근거하여 이벤트 루틴 정보에 해당하는 이벤트가 발생하지 않은 경우, 서브 루틴 정보에 포함된 행동 루틴 정보 중 이벤트 루틴 정보와 매칭되지 않은 행동 루틴 정보를 기본 행동으로 수행되도록 한다.
상호작용 실행부(660)는 로봇 실행 명령어와 멀티미디어 명령어에 포함된 상호작용 루틴 정보를 확인하고, 상호작용 루틴 정보에 근거한 상호작용 정보가 수행되도록 한다. 이러한, 상호작용 정보는 하나의 이벤트 루틴 정보를 포함하며, 하나의 이벤트 루틴 정보에 행동 루틴 정보가 매칭된 정보이다. 또한, 상호작용 실행부(660)는 이벤트 루틴 정보에 매칭된 복수 개의 행동 루틴 정보들의 우선 순위 정보를 확인하여 우선 순위 정보가 가장 높은 행동 루틴 정보부터 수행하도록 한다.
도 7은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 생성하는 방법을 설명하기 위한 순서도이다.
도 7에서는 로봇과 멀티미디어 컨텐츠 제어 장치(122)가 중간 어셋 정보를 생성하는 과정에 대해 설명하도록 한다. 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 로봇 관련 정보가 구비된 디스플레이부(210)에 디스플레이되도록 한다(S710). 여기서, 로봇 관련 정보는 연동하는 로봇에 대한 기종 정보, 부품 정보, 형태 정보 및 지원 명령어 정보 중 적어도 하나 이상의 정보를 포함하는 정보이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 로봇 관련 정보에 대응하는 제 1 정보를 수신한다(S720). 즉, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 디스플레이된 로봇 관련 정보 중 사용자의 명령 또는 조작에 의해 선택된 정보를 제 1 정보로 수신하는 것이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 멀티미디어 컨텐츠 설정 정보가 디스플레이부(210)를 통해 디스플레이되도록 한다(S730). 여기서, 멀티미디어 컨텐츠 설정 정보는 멀티미디어 객체인 캐릭터 정보, 캐릭터 설정 정보, 캐릭터 움직임 정보, 배경 정보, 캐릭터 동작 정보, 효과음 정보, 배경음악 정보 중 적어도 이상의 정보를 포함하는 정보이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보를 수신한다(S740). 즉, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는디스플레이된 멀티미디어 컨텐츠 설정 정보 중 사용자의 명령 또는 조작에 의해 선택된 정보를 제 2 정보로 수신하는 것이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 제 1 정보 및 제 2 정보에 근거한 가상 상위 명령어를 생성한다(S750). 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴 정보를 생성하는 로우 레벨 프로그래밍을 수행한다(S760). 단계 S760에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)가 가상 상위 명령어를 어떻게 조합하는지에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 가상 상위 명령어를 블럭 단위로 제공하며, 선택된 블럭들의 조합으로 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴 정보를 생성한다.
또한, 단계 S760에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)에서 서브 루틴 정보를 생성하는 로우 레벨 프로그래밍 과정에 대해 보다 구체적으로 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어에 대한 엔티티를 선택하고, 가상 상위 명령어에 대한 파라미터를 입력하고, 가상 상위 명령어를 저장한다. 즉, 엔티티 선택을 위해 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어 중 사용자의 명령 또는 조작에 의해 선택된 명령어 들을 블럭 단위로 조합한 펑션 정보를 특정 멀티미디어 객체에 부여한다. 파라미터 입력을 위해 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 선택된 엔티티에 대한 세부 정보를 입력한다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 서브 루틴 정보의 조합으로 상호작용 루틴 정보를 생성하는 하이 레벨 프로그래밍을 수행한다(S770). 한편, 단계 S770에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)가 상호작용 루틴 정보를 생성하는 또 다른 과정을 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 외부 서버인 애플리케이션 제공 장치(150)로부터 다운로드한 타인의 서브 루틴 정보를 조합하여 상호작용 루틴 정보를 생성하는 하이 레벨 프로그램을 수행할 수 있다. 또한, 단계 S770에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)가 서브 루틴 정보를 어떻게 조합하는지에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 서브 루틴 정보에 포함된 이벤트 루틴 정보 및 행동 루틴 정보를 기어 형태의 UI로 나타내며, 기어들의 조합으로 상호작용 루틴 정보를 생성한다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 상호작용 루틴 정보를 이용하여 중간 어셋 정보 생성한다(S780). 단계 S780을 보다 구체적으로 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 서브 루틴 정보를 조합한 상호작용 루틴 정보를 로봇 실행 명령어와 멀티미디어 명령어로 구분한 중간 어셋 정보를 생성한다.
한편, 단계 S780에 대해 보다 구체적으로 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어에 대한 엔티티를 선택하고, 가상 상위 명령어에 대한 파라미터를 입력하고, 가상 상위 명령어를 저장한다. 한편, 중간 어셋 정보 생성하는 과정 중 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 엔티티를 선택하는 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 가상 상위 명령어 중 사용자의 명령 또는 조작에 의해 선택된 명령어 들을 블럭 단위로 조합한 펑션 정보를 특정 멀티미디어 객체에 부여한다. 또한, 중간 어셋 정보 생성하는 과정 중 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 파라미터를 입력하는 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 선택된 엔티티에 대한 세부 정보를 입력하는 과정을 제공한다.
도 7에서는 단계 S710 내지 단계 S780을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 7에 기재된 순서를 변경하여 실행하거나 단계 S710 내지 단계 S780 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 7은 시계열적인 순서로 한정되는 것은 아니다.
전술한 바와 같이 도 7에 기재된 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 생성하는 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 생성하는 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 발명의 일 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명의 일 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
도 8은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 실행하는 방법을 설명하기 위한 순서도이다.
도 8에서는 로봇과 멀티미디어 컨텐츠 제어 장치(122)가 중간 어셋 정보를 실행하는 과정에 대해 설명하도록 한다. 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 생성된 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분한다(S810).
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 구비된 단말 근거리 통신부(216)을 이용하여 로봇(130)으로 로봇 실행 명령어를 전송하여 로봇(130)이 중간 어셋 정보를 저장하도록 한다(S820). 여기서, 근거리 통신은 블루투스, 적외선 통신, 지그비, UWB, 와이파이, 무선랜, NFC 중 적어도 하나 이상의 지원한다. 즉, 단계 S820을 수행하면, 로봇 실행 명령어에 따라 로봇(130)이 개별 동작하도록 하며, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어에 따라 멀티미디어 객체가 개별 동작하는 것이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 중간 어셋 정보를 실행하는 과정에서 이벤트가 발생하는 지의 여부를 판별한다(S830). 단계 S830에 대해 보다 구체적으로 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 로봇 실행 명령어와 멀티미디어 명령어에 포함된 서브 루틴 정보를 확인하고, 서브 루틴 정보에 포함된 이벤트 루틴 정보를 확인하고, 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부를 참 또는 거짓으로 확인한다. 이때, 이벤트 판별을 위해 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 구비된 장치 센서부(217) 또는 로봇에 구비된 로봇 센서부(226)를 통해 감지된 외부 작용에 근거하여 이벤트 루틴 정보에 해당하는 이벤트의 발생 여부를 판별할 수 있다.
단계 S830의 확인 결과 이벤트 루틴 정보에 해당하는 이벤트가 발생한 경우, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 이벤트 루틴 정보 매칭된 행동 루틴 정보를 실행한다(S840). 즉, 단계 S840에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 중간 어셋 정보 실행할 때, 이벤트 루틴 정보에 매칭된 행동 루틴 정보에 근거하여 로봇 및 멀티미디어 객체가 동작하도록 한다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 로봇 실행 명령어와 멀티미디어 명령어에 포함된 상호작용 루틴 정보를 확인하고, 상호작용 루틴 정보에 근거한 상호작용 정보가 수행되도록 한다(S850). 이러한, 상호작용 정보는 하나의 이벤트 루틴 정보를 포함하며, 하나의 이벤트 루틴 정보에 행동 루틴 정보가 매칭된 정보이다. 또한, 단계 S850에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 이벤트 루틴 정보에 매칭된 복수 개의 행동 루틴 정보들의 우선 순위 정보를 확인하여 우선 순위 정보가 가장 높은 행동 루틴 정보부터 수행하도록 한다.
한편, 단계 S830에서 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)은 이벤트 판별 확인 결과에 근거하여 이벤트 루틴 정보에 해당하는 이벤트가 발생하지 않은 경우, 서브 루틴 정보에 포함된 행동 루틴 정보 중 이벤트 루틴 정보와 매칭되지 않은 행동 루틴 정보를 기본 행동으로 수행되도록 할 수 있다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 서브 루틴 정보 또는 중간 어셋 정보를 타인(즉, 타인 단말기(112))와 공유하기 위해 서브 루틴 정보 또는 중간 어셋 정보를 통신망을 경유해 특정 서버인 애플리케이션 제공 장치(150)에 등록한다(S860). 물론, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 단계 S860을 반드시 수행하는 것은 아니며, 생성된 중간 어셋 정보 또는 서브 루틴 정보를 공유하고자 하는 경우에만 선택적으로 수행될 수 있다.
로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)을 탑재한 타인 단말기(112)는 애플리케이션 제공 장치(150)로부터 서브 루틴 정보 또는 중간 어셋 정보를 다운로드(S870)한다. 타인 단말기(112)는 다운로드된 서브 루틴 정보를 이용하여 중간 어셋 정보를 생성하거나 다운로드된 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분하고, 타인 단말기의 플랫폼 또는 OS에 따라 로봇 실행 명령어와 멀티미디어 명령어를 각각 실행한다(S880).
도 8에서는 단계 S810 내지 단계 S880을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 8에 기재된 순서를 변경하여 실행하거나 단계 S810 내지 단계 S880 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 8은 시계열적인 순서로 한정되는 것은 아니다.
전술한 바와 같이 도 8에 기재된 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 실행하는 방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠를 제어하기 위해 중간 어셋 정보를 실행하는 방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 발명의 일 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명의 일 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
도 9는 본 발명의 일 실시예에 따른 가상 상위 명령어의 예시도이다.
본 발명에 기재되는 엔티티란 의미있는 정보의 단위로서, 파일 처리시스템에서는 한 건의 자료를 구성하는 레코드가 하나의 엔티티에 해당한다. 이러한 엔티티는 사물을 표현하는데 사용되는 모델로서, 물체를 추상화하는 개념으로 정의한다.
또한, 본 발명에 기재된 가상 상위 명령어는 엔티티, 프라퍼티(Property), 벨류(Value)를 포함한다. 여기서, 엔티티는 사물을 표현하는데 사용되는 모델의 개념이고, 프라퍼티는 사물이 가지고 있는 속성의 개념이며, 벨류는 컨텐츠의 가상세계 내에서 통용되는 단위 값의 개념이다.
또한, 이러한 가상 상위 명령어의 구조에 대해 설명하자면, 컴퓨터가 직접적으로 해석하지 못하는 가상 명령어 체계로 구성되며, 각각의 명령어는 자체적으로 존재할 수 없으며, 시스템 또는 컨텐츠 내의 엔티티에 속하며, 필요에 따라 특정 엔티티를 가리키는 정보를 수용할 수 있다. 또한, 컴퓨터가 직접적으로 해석할 수 있는 컴퓨터 명령어를 가지며, 필요에 따라 단위 명령어들이 참조하는 값이 될 수 있다.
또한, 이러한 가상 상위 명령어 중 단일 명령어는 일반적인 사람이 이해할 수 있는 언어의 서술형 문장(즉, 주어, 서술어, 목적어, 보어를 포함하는)이 되어야 한다. 즉, 명령어는 다음과 같은 대응을 통해 서술형 문장으로 변환될 수 있는데, 이에 대해 설명하자면, 주어는 현 명령어를 소유하는 엔티티이고, 목적어는 필요에 따라 기입된 대상 엔티티이며, 서술어는 단위 컴퓨터 명령어들의 집합이며, 보어는 벨류값이 된다.
또한, 가상 상위 명령어를 구성하는 부가정보인 파라미터에 대해 설명하자면, 명령어를 수행하는 대상 엔티티의 유무 및 이의 참조 값이며, 행동의 구체적인 지시를 위해 보조하는 다수의 벨류값이며, 행동의 결과값을 나타낸다.
또한, 가상 상위 명령어의 속성을 설명하자면, 서술형 문장의 변환을 위한 대응 정보, 대응 언어 정보(가령, 한국어, 영어 등), 문장 포멧팅(Formatting), 목적어의 유무 및 대상 엔티티 정보, 보어의 개수 및 벨류 정보, 특정 플랫폼에서의 구동을 위한 컴퓨터 명령어 정보, 대상 플랫폼, 대상 플랫폼에서 사용하는 명령어를 가진다.
도 9에 도시된 바와 같이 가상 상위 명령어 및 가상 상위 명령어에 포함된 각각의 명령어에 대해 설명하자면, 가상 상위 명령어는 로봇 실행 명령어, 멀티미디어 명령어, 로봇(130)과 멀티미디어 객체를 모두 포함하는 공통 명령어로 구분된다. 로봇 실행 명령어, 멀티미디어 명령어, 공통 명령어는 각각의 아이콘과 매칭되며, 사용자의 명령 또는 조작에 의해 선택된 명령에 매칭된 아이콘이 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 탑재된 단말기(110) 상에 디스플레이된다.
또한, 로봇 실행 명령어에 대해 설명하자면, 로봇 실행 명령어는 모터 기능 제어 명령어, 제어기 기능 명령어를 포함한다. 모터 기능 제어 명령어는 모터 켜기 명령어, 모터 끄기 명령어, 모터의 위치 이동 명령어, 모터의 속도 설정 명령어, 모터의 힘 설정 명령어 중 적어도 하나 이상의 명령어를 포함한다. 제어기 기능 명령어는 타이머 설정 명령어, 멜로디 연주 명령어 중 적어도 하나 이상의 명령어를 포함한다.
또한, 멀티미디어 명령어에 대해 설명하자면, 멀티미디어 명령어는 멀티미디어 객체에 대한 동작 명령어, 모양 명령어, 사운드 명령어, 물리 기능 명령어, 카메라 기능 명령어 중 적어도 하나 이상의 명령어를 포함한다. 동작 명령어는 멀티미디어 객체에 대한 이동방향과 이동 반경 명령어, 특정 각도만큼 시계방향 회전 명령어, 특정 각도만큼 반시계방향 회전 명령어, 이동방향 설정 명령어, 가로방향 또는 세로방향 이동 명령어, 가로방향으로 특정 영역까지 이동 명령어, 세로방향으로 특정 영역까지 이동 명령어 및 기 설정된 시간동안 쉬기 명령어 중 적어도 하나 이상의 명령어를 포함한다. 모양 명령어는 멀티미디어 객체에 대한 보여주기 명령어, 숨기기 명령어, 애니메이션 바꾸기 명령어, 특정 효과 설정 명령어, 특정 효과 지우기 명령어, 크기 증가 명령어, 크기 감소 명령어, 맨앞으로 가져오기 명령어, 뒤로 보내기 명령어 중 적어도 하나 이상의 명령어를 포함한다. 사운드 명령어는 소리내기 명령어, 불륨 변경 명령어, 템포(Tempo) 변경 명령어 중 적어도 하나 이상의 명령어를 포함한다. 물리 기능 명령어는 물리적인 힘 설정 명령어, 질량 설정 명령어, 회전력 설정 명령어, 마찰력 설정 명령어 중 적어도 하나 이상의 명령어를 포함한다. 카메라 기능 명령어는 카메라 조절 명령어를 포함한다.
한편, 도 9에 도시된 바와 같이, 로봇 실행 명령어, 멀티미디어 명령어, 공통 명령어는 각각의 아이콘과 매칭되며, 사용자의 명령 또는 조작에 의해 선택된 명령에 매칭된 아이콘이 로봇과 멀티미디어 컨텐츠 제어 애플리케이션(120)이 탑재된 단말기(110) 상에 디스플레이된다.
도 10은 본 발명의 일 실시예에 따른 로봇과 멀티미디어 컨텐츠의 예시도이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)에서 생성된 중간 어셋 정보를 이용하여 로봇(130)을 제어하고, 멀티미디어 객체를 제어하는 과정에 대해 설명하자면, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분하고, 로봇(130)으로 로봇 실행 명령어를 전송하여 로봇(130)이 중간 어셋 정보를 저장하도록 하며, 로봇 실행 명령어에 따라 로봇(130)이 개별 동작하도록 하며, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어에 따라 멀티미디어 객체가 개별 동작하도록 한다.
즉, 도 10의 (A)에 도시된 바와 같이, 로봇(130)으로 로봇 실행 명령어를 전송하여 로봇(130)이 중간 어셋 정보를 저장하다가, 로봇(130)에 구비된 로봇 센서부(224)를 이용하여 외부 작용이 발생하는 지의 여부를 감지하고, 외부 작용이 감지되는 경우, 외부 작용에 반응하는 기 설정된 로봇 실행 명령어가 실행되도록 하여 도 10의 (B)와 같이 동작할 수 있다. 이때, 로봇(130)은 로봇 실행 명령어와 연계된 멀티미디어 명령어가 실행되도록 로봇(130)과 연동하는 단말기(110)로 특정 신호를 전송하여, 단말기(110)에서 로봇 실행 명령어에 대응되는 멀티미디어 명령어가 실행되도록 할 수 있다.
도 11은 본 발명의 일 실시예에 따른 이벤트 루틴 정보에 대한 예시도이다.
도 11에 도시된 바와 같이, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보가 설정된 서브 루틴 정보를 생성하는 로우 레벨 프로그래밍을 수행한다.
이러한 로우 레벨 프로그래밍에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보를 도 11과 같이 설정하고, 이에 대한 서브 루틴 정보를 생성할 수 있다. 이때, 도 11에 도시된 봐와 같이 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 블럭 단위로 제공하며, 선택된 블럭들의 조합으로 이벤트 루틴 정보가 설정된 서브 루틴 정보를 생성한다. 즉, 이벤트 루틴 정보를 생성하기 위한 블럭 중 어느 하나를 사용자가 드래그 앤드 드롭(Drag and Drop)을 통해 복수 개의 명령어를 플로우 차트(Flow Chart)처럼 연결할 수 있다.
도 12는 본 발명의 일 실시예에 따른 행동 루틴 정보에 대한 예시도이다.
도 12에 도시된 바와 같이, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 행동 루틴 정보가 설정된 서브 루틴 정보를 생성하는 로우 레벨 프로그래밍을 수행한다. 이러한 로우 레벨 프로그래밍에서 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 조합하여 로봇(130), 로봇(130)과 상호 연동하는 멀티미디어 객체에 대한 해동 루틴 정보를 도 12과 같이 설정하고, 이에 대한 서브 루틴 정보를 생성할 수 있다. 이때, 도 12에 도시된 봐와 같이 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 가상 상위 명령어를 블럭 단위로 제공하며, 선택된 블럭들의 조합으로 해동 루틴 정보가 설정된 서브 루틴 정보를 생성한다. 즉, 해동 루틴 정보를 생성하기 위한 블럭 중 어느 하나를 사용자가 드래그 앤드 드롭을 통해 복수 개의 명령어를 플로우 차트처럼 연결할 수 있다.
도 13은 본 발명의 일 실시예에 따른 상호작용 설정에 대한 예시도이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 서브 루틴 정보의 조합으로 상호작용 루틴 정보를 생성하고, 상호작용 루틴 정보를 이용하여 중간 어셋 정보 생성한다. 도 13에 도시된 바와 같이, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 서브 루틴 정보에 포함된 이벤트 루틴 정보 및 상기 행동 루틴 정보를 기어 형태의 UI로 나타내며, 기어들의 조합으로 상호작용 루틴 정보를 생성한다. 한편, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 외부 서버인 애플리케이션 제공 장치(150)로부터 다운로드한 타인의 서브 루틴 정보를 조합하여 상호작용 루틴 정보를 생성할 수 있다.
도 14는 본 발명의 일 실시예에 따른 이벤트 발생 점검에 대한 예시도이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 생성된 중간 어셋 정보를 이용하여 로봇 실행 명령어와, 로봇 실행 명령어와 상호 연동하는 멀티미디어 명령어를 구분한다. 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 구비된 단말 근거리 통신부(216)을 이용하여 로봇(130)으로 로봇 실행 명령어를 전송하여 로봇(130)이 중간 어셋 정보를 저장하도록 한다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 중간 어셋 정보를 실행하는 과정에서 이벤트가 발생하는 지의 여부를 판별한다. 즉, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 로봇 실행 명령어와 멀티미디어 명령어에 포함된 서브 루틴 정보를 확인하고, 서브 루틴 정보에 포함된 이벤트 루틴 정보를 확인하고, 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부를 '참' 또는 '거짓'으로 확인한다. 이때, 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부가 '참'으로 확인되는 경우 도 14에 도시된 바와 같이 해당 기어가 돌아가는 형태로 나타날 수 있다.
도 15는 본 발명의 일 실시예에 따른 현재 이벤트에 대응되는 멀티미디어 화면에 대한 예시도이다.
로봇과 멀티미디어 컨텐츠 제어 장치(122)는 이벤트 루틴 정보 매칭된 행동 루틴 정보를 실행한다. 즉, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 중간 어셋 정보 실행할 때, 이벤트 루틴 정보에 매칭된 행동 루틴 정보에 근거하여 로봇 및 멀티미디어 객체가 동작하도록 하는데, 이때 도 15에 도시된 바와 같이, 해당 이벤트에 대응되는 멀티미디어 객체의 행동 루틴 정보를 미리보기(Preview) 할 수 있다. 한편, 로봇과 멀티미디어 컨텐츠 제어 장치(122)는 로봇 실행 명령어와 멀티미디어 명령어에 포함된 상호작용 루틴 정보를 확인하고, 상호작용 루틴 정보에 근거한 상호작용 정보가 수행되도록 한다. 이때에도 도 15에 도시된 바와 같이, 해당 이벤트에 대응되는 멀티미디어 객체의 상호작용 정보를 미리보기 할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
110: 단말기 112: 타인 단말기
120: 로봇과 멀티미디어 컨텐츠 제어 애플리케이션
122: 로봇과 멀티미디어 컨텐츠 제어 장치
130: 로봇 140: 통신망
150: 애플리케이션 제공 장치
210: 디스플레이부 212: 단말 입출력부
214: 단말 제어부 216: 단말 근거리 통신부
217: 장치 센서부
218: 무선통신 처리부 220: 로봇 근거리 통신부
222: 로봇 제어부 224: 로봇 센서부
226: 로봇 입출력부 228: 로봇 저장부
230: 전원 232: 모터
310: 로봇 관련 정보 제공부 320: 멀티미디어 컨텐츠 설정부
330: 명령어 생성부 340: 중간 어셋 정보 생성부
350: 중간 어셋 정보 실행부
410: 로우 레벨 프로그래밍부 420: 하이레벨 프로그래밍부
510: 엔티티 선택부 520: 파라미터 입력부
530: 저장부
610: 명령어 구분부 620: 로봇 명령어 전송부
630: 멀티미디어 객체 제어부 640: 이벤트 판별부
650: 행동 실행부 660: 상호작용 실행부

Claims (31)

  1. 로봇 관련 정보(UCR: User Created Robot)에 대응하는 제 1 정보 및 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보에 근거한 가상 상위 명령어를 생성하는 명령어 생성부;
    상기 가상 상위 명령어를 이용한 중간 어셋(Intermediate Asset) 정보 생성하는 중간 어셋 정보 생성부; 및
    상기 중간 어셋 정보에 따라 연동하는 로봇이 개별 동작하도록 하며, 상기 로봇의 동작과 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 중간 어셋 정보 실행부
    를 포함하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  2. 제 1 항에 있어서,
    상기 중간 어셋 정보 생성부는,
    상기 가상 상위 명령어를 조합하여 상기 로봇, 상기 로봇과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴(Sub Routine) 정보를 생성하는 로우 레벨(Low Level) 프로그래밍부; 및
    상기 서브 루틴 정보의 조합으로 상호작용 루틴(Interplay Routine) 정보를 생성하고, 상기 상호작용 루틴 정보를 이용하여 상기 중간 어셋 정보 생성하는 하이 레벨(High Level) 프로그래밍부
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  3. 제 2 항에 있어서,
    상기 하이 레벨 프로그래밍부는,
    외부 서버인 애플리케이션 제공 장치로부터 다운로드한 타인의 서브 루틴 정보를 조합하여 상기 상호작용 루틴 정보를 생성하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  4. 제 2 항에 있어서,
    상기 하이 레벨 프로그래밍부는,
    상기 서브 루틴 정보를 조합한 상기 상호작용 루틴 정보를 로봇 실행 명령어와 멀티미디어 명령어로 구분한 상기 중간 어셋 정보를 생성하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  5. 제 2 항에 있어서,
    상기 로우 레벨 프로그래밍부는,
    상기 가상 상위 명령어를 블럭 단위로 제공하며, 선택된 상기 블럭들의 조합으로 상기 이벤트 루틴 정보 및 상기 행동 루틴 정보가 설정된 상기 서브 루틴 정보를 생성하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  6. 제 2 항에 있어서,
    상기 하이 레벨 프로그래밍부는,
    상기 서브 루틴 정보에 포함된 상기 이벤트 루틴 정보 및 상기 행동 루틴 정보를 기어(Gear) 형태의 UI로 나타내며, 상기 기어들의 조합으로 상기 상호작용 루틴 정보를 생성하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  7. 제 2 항에 있어서,
    상기 로우 레벨 프로그래밍부는,
    상기 가상 상위 명령어에 대한 엔티티(Entity)를 선택하는 엔티티 선택부;
    상기 가상 상위 명령어에 대한 파라미터(Parameter)를 입력하는 파라미터 입력부; 및
    상기 가상 상위 명령어를 저장하는 저장부
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  8. 제 7 항에 있어서,
    상기 엔티티 선택부는,
    상기 가상 상위 명령어 중 사용자의 명령 또는 조작에 의해 선택된 명령어 들을 블럭 단위로 조합한 펑션(Function) 정보를 특정 멀티미디어 객체에 부여하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  9. 제 7 항에 있어서,
    상기 파라미터 입력부는,
    상기 선택된 엔티티에 대한 세부 정보를 입력하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  10. 제 2 항에 있어서,
    상기 중간 어셋 정보 실행부는,
    상기 로봇 실행 명령어와 상기 멀티미디어 명령어에 포함된 상기 서브 루틴 정보를 확인하고, 상기 서브 루틴 정보에 포함된 상기 이벤트 루틴 정보를 확인하고, 상기 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부를 참 또는 거짓으로 확인하고, 확인 결과를 전송하는 이벤트 판별부
    를 포함하는 것을 특징으로 하는
  11. 제 10 항에 있어서,
    상기 중간 어셋 정보 실행부는,
    상기 이벤트 판별부의 상기 확인 결과에 근거하여 상기 이벤트 루틴 정보에 해당하는 이벤트가 발생한 경우 상기 이벤트 루틴 정보 매칭된 행동 루틴 정보를 실행하는 행동 실행부
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  12. 제 10 항에 있어서,
    상기 이벤트 판별부는,
    구비된 장치 센서부 또는 상기 로봇에 구비된 로봇 센서부를 통해 감지된 외부 작용에 근거하여 상기 이벤트 루틴 정보에 해당하는 이벤트의 발생 여부를 판별하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  13. 제 11 항에 있어서,
    상기 행동 실행부는,
    상기 이벤트 루틴 정보에 매칭된 상기 행동 루틴 정보에 근거하여 상기 로봇 및 상기 멀티미디어 객체가 동작하도록 하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  14. 제 11 항에 있어서,
    상기 중간 어셋 정보 실행부는,
    상기 로봇 실행 명령어와 상기 멀티미디어 명령어에 포함된 상호작용 루틴 정보를 확인하고, 상기 상호작용 루틴 정보에 근거한 상호작용 정보가 수행되도록 하는 상호작용 실행부
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  15. 제 14 항에 있어서,
    상기 상호작용 정보는 하나의 상기 이벤트 루틴 정보를 포함하며, 하나의 상기 이벤트 루틴 정보에 행동 루틴 정보가 매칭된 정보인 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  16. 제 15 항에 있어서,
    상기 상호작용 실행부는,
    상기 이벤트 루틴 정보에 매칭된 상기 복수 개의 상기 행동 루틴 정보들의 우선 순위 정보를 확인하여 우선 순위 정보가 가장 높은 행동 루틴 정보부터 수행하도록 하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  17. 제 11 항에 있어서,
    상기 행동 실행부는,
    상기 확인 결과에 근거하여 상기 이벤트 루틴 정보에 해당하는 이벤트가 발생하지 않은 경우, 상기 서브 루틴 정보에 포함된 상기 행동 루틴 정보 중 상기 이벤트 루틴 정보와 매칭되지 않은 행동 루틴 정보를 기본 행동으로 수행되도록 하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  18. 제 1 항에 있어서,
    상기 중간 어셋 정보는,
    상기 로봇이 개별 동작하도록 하는 로봇 실행 명령어와 상기 로봇 실행 명령어와 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 멀티미디어 명령어를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  19. 제 18 항에 있어서,
    상기 중산 어셋 정보 실행부는,
    상기 중간 어셋 정보를 이용하여 상기 로봇 실행 명령어와, 상기 로봇 실행 명령어와 상호 연동하는 상기 멀티미디어 명령어를 구분하는 명령어 구분부;
    구비된 단말 근거리 통신부을 이용하여 상기 로봇으로 상기 로봇 실행 명령어를 전송(Export)하여 상기 로봇이 상기 중간 어셋 정보를 저장하도록 하는 로봇 명령어 전송부; 및
    상기 로봇 실행 명령어에 따라 로봇이 개별 동작하도록 하며, 상기 로봇 실행 명령어와 상호 연동하는 상기 멀티미디어 명령어에 따라 멀티미디어 객체가 개별 동작하도록 하는 멀티미디어 객체 제어부
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  20. 제 19 항에 있어서,
    상기 단말 근거리 통신부는,
    블루투스(Bluetooth), 적외선 통신(IrDA), 지그비(ZigBee), UWB(Ultra Wide Band), 와이파이(Wi-Fi), 무선랜(WLAN), NFC(Near Field Communication) 중 적어도 하나 이상의 지원하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  21. 제 2 항에 있어서,
    상기 중간 어셋 정보 실행부는,
    상기 서브 루틴 정보 또는 상기 중간 어셋 정보를 통신망을 경유해 특정 서버인 애플리케이션 제공 장치에 등록하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  22. 제 1 항에 있어서,
    상기 가상 상위 명령어는,
    상기 로봇 실행 명령어, 상기 멀티미디어 명령어, 상기 로봇과 상기 멀티미디어 객체를 모두 포함하는 공통 명령어로 구분되는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  23. 제 22 항에 있어서,
    상기 로봇 실행 명령어, 상기 멀티미디어 명령어, 상기 공통 명령어는 각각의 아이콘과 매칭되며, 사용자의 명령 또는 조작에 의해 선택된 명령에 매칭된 아이콘이 디스플레이되도록 하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  24. 제 1 항에 있어서,
    상기 로봇 관련 정보는,
    연동하는 로봇에 대한 기종 정보, 부품 정보, 형태 정보 및 지원 명령어 정보 중 적어도 하나 이상의 정보를 포함하는 정보인 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  25. 제 1 항에 있어서,
    상기 멀티미디어 컨텐츠 설정 정보는,
    멀티미디어 객체인 캐릭터 정보, 캐릭터 설정 정보, 캐릭터 움직임 정보, 배경 정보, 캐릭터 동작 정보, 효과음 정보, 배경음악 정보 중 적어도 이상의 정보를 포함하는 정보인 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  26. 제 1 항에 있어서,
    상기 로봇 관련 정보를 디스플레이부로 제공하고, 상기 로봇 관련 정보에 대응하는 상기 제 1 정보를 수신하는 로봇 관련 정보 제공부; 및
    상기 멀티미디어 컨텐츠 설정 정보를 상기 디스플레이부로 제공하고, 상기 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보를 수신하는 멀티미디어 컨텐츠 설정 정보부
    를 추가로 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 장치.
  27. 로봇 관련 정보(UCR: User Created Robot)에 대응하는 제 1 정보 및 멀티미디어 컨텐츠 설정 정보에 대응하는 제 2 정보에 근거한 가상 상위 명령어를 생성하는 명령어 생성 단계;
    상기 가상 상위 명령어를 이용한 중간 어셋(Intermediate Asset) 정보 생성하는 중간 어셋 정보 생성 단계; 및
    상기 중간 어셋 정보에 따라 연동하는 로봇이 개별 동작하도록 하며, 상기 로봇의 동작과 상호 연동하여 멀티미디어 객체가 개별 동작하도록 하는 중간 어셋 정보 실행 단계
    를 포함하는 로봇과 멀티미디어 컨텐츠 제어 방법.
  28. 제 27 항에 있어서,
    상기 중간 어셋 정보 생성 단계는,
    상기 가상 상위 명령어를 조합하여 상기 로봇, 상기 로봇과 상호 연동하는 멀티미디어 객체에 대한 이벤트 루틴 정보 및 행동 루틴 정보가 설정된 서브 루틴(Sub Routine) 정보를 생성하는 로우 레벨(Low Level) 프로그래밍 단계; 및
    상기 서브 루틴 정보의 조합으로 상호작용 루틴(Interplay Routine) 정보를 생성하고, 상기 상호작용 루틴 정보를 이용하여 상기 중간 어셋 정보 생성하는 하이 레벨(High Level) 프로그래밍 단계
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 방법.
  29. 제 27 항에 있어서,
    상기 중간 어셋 정보 실행 단계는,
    상기 로봇 실행 명령어와 상기 멀티미디어 명령어에 포함된 상기 서브 루틴 정보를 확인하고, 상기 서브 루틴 정보에 포함된 상기 이벤트 루틴 정보를 확인하고, 상기 이벤트 루틴 정보에 해당하는 이벤트가 발생하는 지의 여부를 참 또는 거짓으로 확인하고, 확인 결과를 전송하는 이벤트 판별 단계
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 방법.
  30. 제 27 항에 있어서,
    상기 중간 어셋 정보 실행 단계는,
    상기 이벤트 판별부의 상기 확인 결과에 근거하여 상기 이벤트 루틴 정보에 해당하는 이벤트가 발생한 경우 상기 이벤트 루틴 정보 매칭된 행동 루틴 정보를 실행하는 행동 실행 단계
    를 포함하는 것을 특징으로 하는 로봇과 멀티미디어 컨텐츠 제어 방법.
  31. 제 27 항 내지 제 30 항 중 어느 한 항에 의한 로봇과 멀티미디어 컨텐츠 제어 방법의 각 단계를 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020110036438A 2011-04-19 2011-04-19 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체 KR101343869B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110036438A KR101343869B1 (ko) 2011-04-19 2011-04-19 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110036438A KR101343869B1 (ko) 2011-04-19 2011-04-19 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체

Publications (2)

Publication Number Publication Date
KR20120118824A true KR20120118824A (ko) 2012-10-29
KR101343869B1 KR101343869B1 (ko) 2013-12-20

Family

ID=47286167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110036438A KR101343869B1 (ko) 2011-04-19 2011-04-19 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체

Country Status (1)

Country Link
KR (1) KR101343869B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103170977A (zh) * 2013-03-29 2013-06-26 上海大学 多自由度机器人无线控制系统
KR101323148B1 (ko) * 2013-04-19 2013-10-30 한성대학교 산학협력단 Ucr 융합 컨텐츠 에디터 장치
CN104720691A (zh) * 2013-12-19 2015-06-24 Lg电子株式会社 机器人吸尘器、机器人吸尘器系统及其控制方法
WO2015133881A1 (ko) * 2014-03-07 2015-09-11 주식회사 와이엘캠퍼스 수신 스마트폰을 매개로 하여 송신 스마트폰에 의해 제어되는 전자 인형 구현 시스템 및 방법
KR20160035402A (ko) * 2014-09-23 2016-03-31 주식회사 엘지유플러스 커뮤니케이션 단말을 이용한 쌍방향의 커뮤니케이션 방법 및 그 단말
KR20200019298A (ko) * 2018-08-10 2020-02-24 백으뜸 스마트 컨텐츠를 제어하는 IoT 완구 시스템
WO2020162710A1 (ko) * 2019-02-08 2020-08-13 주식회사 센스톤 가상코드 기반의 무인이동체 제어시스템, 방법 및 프로그램, 제어디바이스 및 제어신호생성수단

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103170977A (zh) * 2013-03-29 2013-06-26 上海大学 多自由度机器人无线控制系统
KR101323148B1 (ko) * 2013-04-19 2013-10-30 한성대학교 산학협력단 Ucr 융합 컨텐츠 에디터 장치
CN104720691A (zh) * 2013-12-19 2015-06-24 Lg电子株式会社 机器人吸尘器、机器人吸尘器系统及其控制方法
US9815190B2 (en) 2013-12-19 2017-11-14 Lg Electronics Inc. Robot cleaner, robot cleaner system and control method of the same
US10744636B2 (en) 2013-12-19 2020-08-18 Lg Electronics Inc. Robot cleaner, robot cleaner system and control method of the same
WO2015133881A1 (ko) * 2014-03-07 2015-09-11 주식회사 와이엘캠퍼스 수신 스마트폰을 매개로 하여 송신 스마트폰에 의해 제어되는 전자 인형 구현 시스템 및 방법
CN106068652A (zh) * 2014-03-07 2016-11-02 Yl园区公司 以接收方智能手机为媒介由发送方智能手机进行控制的电子玩偶实现系统以及方法
KR20160035402A (ko) * 2014-09-23 2016-03-31 주식회사 엘지유플러스 커뮤니케이션 단말을 이용한 쌍방향의 커뮤니케이션 방법 및 그 단말
KR20200019298A (ko) * 2018-08-10 2020-02-24 백으뜸 스마트 컨텐츠를 제어하는 IoT 완구 시스템
WO2020162710A1 (ko) * 2019-02-08 2020-08-13 주식회사 센스톤 가상코드 기반의 무인이동체 제어시스템, 방법 및 프로그램, 제어디바이스 및 제어신호생성수단

Also Published As

Publication number Publication date
KR101343869B1 (ko) 2013-12-20

Similar Documents

Publication Publication Date Title
KR101343869B1 (ko) 로봇과 멀티미디어 컨텐츠 제어 방법과 그를 위한 장치 및 컴퓨터로 읽을 수 있는 기록매체
EP3874461B1 (en) 3d avatar rendering
US11432049B2 (en) Subtitle splitter
US11798243B2 (en) Crowd sourced mapping system
US11263459B2 (en) Shared augmented reality system
US11741294B2 (en) Decoupling website service from presentation layer
US11012388B2 (en) Media enhancement system
CN105190469B (zh) 使对象的指定位置被提供给设备
US20230300286A1 (en) Subtitle presentation based on volume control
KR101237252B1 (ko) 가상 상위 명령어를 이용하여 로봇과 멀티미디어 컨텐츠를 제어하는 방법과 그를 위한 컴퓨터로 읽을 수 있는 기록매체
CN111265875A (zh) 一种用于游戏角色装备展示的方法与设备
US11893204B2 (en) Context cards for media supplementation
US20240053959A1 (en) Automatic quantization of a floating point model
US20240013450A1 (en) Mobile AR Prototyping for Proxemic and Gestural Interactions with Real-world IoT Enhanced Spaces
US20230368117A1 (en) Virtual organization process simulator
US20240168753A1 (en) Machine learning-based target simulator
US20230305630A1 (en) Universal hand controller
US20240193482A1 (en) Music recommendations via camera system
US20240071006A1 (en) Mixing and matching volumetric contents for new augmented reality experiences
CN118001740A (zh) 虚拟模型的处理方法、装置、计算机设备及存储介质
US20230377223A1 (en) Hand-tracked text selection and modification
WO2024036082A1 (en) Automatic quantization of a floating point model
CN118012407A (zh) 一种数据处理方法、装置、设备以及存储介质
WO2024076986A1 (en) Generating user interfaces in augmented reality environments
CN116704083A (zh) 动作合成方法、装置、终端和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170111

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171117

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181008

Year of fee payment: 6