KR101014884B1 - Motion control device for robot by music recognition - Google Patents
Motion control device for robot by music recognition Download PDFInfo
- Publication number
- KR101014884B1 KR101014884B1 KR1020080098649A KR20080098649A KR101014884B1 KR 101014884 B1 KR101014884 B1 KR 101014884B1 KR 1020080098649 A KR1020080098649 A KR 1020080098649A KR 20080098649 A KR20080098649 A KR 20080098649A KR 101014884 B1 KR101014884 B1 KR 101014884B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- music
- motion
- information
- module
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
본 발명은 음악인식모듈을 통하여 인식된 음악에 의해 로봇의 움직임을 제어할 수 있게 한 음악 인식을 통한 로봇의 동작제어장치에 관한 것이다. The present invention relates to an operation control apparatus of a robot through music recognition, which enables the movement of the robot by music recognized through a music recognition module.
즉, 음악 인식모듈을 이용하여 외부의 음악으로부터 음악의 정보를 분석하고 분석된 음악에 맞추어 능동적으로 로봇이 움직일 수 있도록 로봇의 동작을 제어할 수 있게 한 음악 인식을 통한 로봇의 동작제어장치에 관한 것이다. In other words, by using the music recognition module to analyze the information of the music from the outside music and to control the operation of the robot so that the robot can move actively in accordance with the analyzed music to the motion control device of the robot through the music recognition will be.
이러한 본 발명의 따른 음악 인식을 통한 로봇의 동작제어장치는 입력된 음악을 인식하여 음원의 기본정보인 비트시각, 박자, 피치를 추출하는 음악인식모듈과 ; 상기 음악인식모듈에서 인식된 음악정보와 동작정보DB에 저장된 정보를 동기화하여 로봇의 동작을 생성하는 동작생성모듈과 ; 상기 동작생성모듈에서 생성된 로봇동작 제어정보가 저장되는 로봇동작DB와 ; 상기 로봇동작DB에 저장된 정보를 불러들여 로봇의 동작을 제어하는 로봇동작제어모듈을 포함하여 구성된다.The robot motion control apparatus using the music recognition according to the present invention includes a music recognition module for recognizing input music and extracting beat time, time signature, and pitch which are basic information of a sound source; A motion generation module for generating a robot motion by synchronizing the music information recognized by the music recognition module with the information stored in the motion information DB; A robot motion DB for storing robot motion control information generated by the motion generation module; It comprises a robot motion control module for controlling the operation of the robot by reading the information stored in the robot motion DB.
비트 정보 추출, 비트 동기화 Bit Information Extraction, Bit Synchronization
Description
본 발명은 로봇의 동작제어장치 및 방법에 관한 것으로써, 상세하게는 음악인식모듈을 통하여 인식된 음악에 의해 로봇의 움직임을 제어할 수 있게 한 음악 인식을 통한 로봇의 동작제어장치에 관한 것이다. The present invention relates to a motion control apparatus and a method of a robot, and more particularly, to a motion control apparatus of a robot through music recognition that enables the movement of the robot by music recognized through a music recognition module.
즉, 음악 인식모듈을 이용하여 외부의 음악으로부터 음악의 정보를 분석하고 분석된 음악에 맞추어 능동적으로 로봇이 움직일 수 있도록 로봇의 동작을 제어할 수 있게 한 음악 인식을 통한 로봇의 동작제어장치에 관한 것이다. In other words, by using the music recognition module to analyze the information of the music from the outside music and to control the operation of the robot so that the robot can move actively in accordance with the analyzed music to the motion control device of the robot through the music recognition will be.
산업이 발달함에 따라 최근 다양한 로봇이 개발되어 제공되고 있다. As the industry develops, various robots have recently been developed and provided.
이러한 로봇 들 중에는 특정한 소리에 반응하여 움직이는 로봇이 있고 특히, 특정 소리를 들으면 춤을 추는 로봇이 있다. Among these robots are robots that move in response to specific sounds, and in particular, robots that dance when they hear certain sounds.
이러한 종래의 로봇 동작 기술의 경우 동작을 미리 정의하여 정해진 동작에 맞추어 로봇이 움직인다. 즉, 종래의 로봇은 기 입력된 특정한 음악에 맞추어서 동작을 하므로 다양한 빠르기나 장르의 음악에 대한 동작 생성의 경우 매번 동작을 재구성 및 재정의 해야 하는 방식이다. In the conventional robot operation technology, the robot moves according to a predetermined motion by defining an operation in advance. That is, since the conventional robot operates according to specific music inputted in advance, in the case of generating motions for music of various speeds or genres, the motions must be reconfigured and redefined each time.
이렇게 음악에 맞추어 로봇의 동작을 제어하는 방법의 경우, 특정 음악에 맞추어 미리 정의된 동작이 아닌 다른 음악에 대하여는 반응을 하지 않거나 음악과 다른 동작으로 움직여 다양한 음악에 맞추어 능동적으로 동작을 할 수 없는 문제가 있었다. In the case of controlling the robot's movement in accordance with the music, the robot does not respond to the music other than the predefined movement for the specific music or moves differently from the music, so that the robot cannot move actively to the various music. There was.
본 발명은 위와 같은 종래 기술의 문제점을 해소하기 위해 개발된 것으로써, 음악을 인식할 수 있는 음악인식모듈을 구비하여 특정한 음악이 아닌 다양한 장르의 음악을 분석하고 이 분석된 음악에 맞추어 로봇이 동작할 수 있게 한 음악 인식을 통한 로봇의 동작제어장치를 제공함을 목적으로 한다. The present invention has been developed to solve the problems of the prior art as described above, equipped with a music recognition module that can recognize the music to analyze the music of various genres instead of specific music and the robot operates in accordance with the analyzed music An object of the present invention is to provide a robot motion control apparatus through music recognition.
즉, 본 발명은 음악 신호로부터의 비트 및 박자 인식하고, 인식된 음악정보와 동기화되어 동작을 하는 음악 인식을 통한 로봇의 동작제어장치를 제공함을 목적으로 한다. That is, an object of the present invention is to provide a motion control apparatus for a robot through music recognition, which recognizes beats and beats from a music signal and operates in synchronization with the recognized music information.
이러한 본 발명의 따른 음악 인식을 통한 로봇의 동작제어장치는 입력된 음악을 인식하여 음원의 기본정보인 비트시각, 박자, 피치를 추출하는 음악인식모듈과 ; 상기 음악인식모듈에서 인식된 음악정보와 동작정보DB에 저장된 정보를 동기 화하여 로봇의 동작을 생성하는 동작생성모듈과 ; 상기 동작생성모듈에서 생성된 로봇동작 제어정보가 저장되는 로봇동작DB와 ; 상기 로봇동작DB에 저장된 정보를 불러들여 로봇의 동작을 제어하는 로봇동작제어모듈을 포함하여 구성된다.The robot motion control apparatus using the music recognition according to the present invention includes a music recognition module for recognizing input music and extracting beat time, time signature, and pitch which are basic information of a sound source; A motion generation module for generating a robot motion by synchronizing the music information recognized by the music recognition module with the information stored in the motion information DB; A robot motion DB for storing robot motion control information generated by the motion generation module; It comprises a robot motion control module for controlling the operation of the robot by reading the information stored in the robot motion DB.
본 발명은 입력된 음악을 음악인식모듈에서 음악 정보를 추출하여 동작생성모듈에서 로봇의 동작을 생성하여 로봇이 입력되는 음악에 따라 동작할 수 있게 함으로써 로봇이 다양한 음악에 능동적으로 반응하여 동작할 수 있는 효과가 있다. The present invention extracts the music information from the music recognition module of the input music to generate the robot's motion in the motion generation module so that the robot can operate according to the input music so that the robot can actively respond to various music. It has an effect.
이하, 본 발명에 따른 음악 인식을 통한 로봇의 동작제어장치를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, an operation control apparatus of a robot through music recognition according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 음악 인식을 통한 로봇의 동작제어장치의 구성도이다. 1 is a block diagram of a robot motion control apparatus through music recognition according to the present invention.
도시한 바와 같이 본 발명에 따른 음악 인식을 통한 로봇의 동작제어장치는 입력된 음악을 인식하여 음원의 기본정보인 비트시각, 박자, 피치를 추출하는 음악인식모듈(1)과 ; 상기 음악인식모듈에서 인식된 음악정보와 동작정보DB(21)에 저장된 정보를 동기화하여 로봇의 동작을 생성하는 동작생성모듈(2)과 ; 상기 동작생성모듈(2)에서 생성된 로봇동작 제어정보가 저장되는 로봇동작DB(3)와 ; 상기 로봇동작DB(3)에 저장된 정보를 불러들여 로봇(100)의 동작을 제어하는 로봇동작제어모 듈(4)를 포함하여 구성된다. As shown, the motion control apparatus of the robot through music recognition according to the present invention includes a music recognition module (1) for recognizing input music and extracting beat times, beats, and pitches as basic information of a sound source; A
상기 음악인식모듈(1)은 입력되는 음원을 읽어 기본정보, 즉 비트시각, 박자, 피치 등을 추출하는 수단으로 그 일예를 설명하면 아래와 같다. The music recognition module 1 reads an input sound source and extracts basic information, that is, beat time, time signature, pitch, and the like.
즉, 실시간으로 입력되는 음악을 분석하여 비트정보를 추출하기 위해서 음원은 4/4박자, 60~120BPM, Stable & effective beat sound로 가정하였다. That is, in order to extract the beat information by analyzing the music input in real time, the sound source is assumed to be 4/4 beats, 60 ~ 120BPM, Stable & effective beat sound.
음악신호를 16KHz, 1-channel, 16-bit 형식으로 캡춰하였으며, 512 sample 단위로 FFT를 실행하여 0~125Hz, 125~250Hz, 250~500Hz, 500~1KHz, 1~2KHz, 2~4KHz, 4~8KHz로 7-band Onset-agents를 구성하였다.Music signal was captured in 16KHz, 1-channel, 16-bit format, and FFT was executed in 512 sample unit, 0 ~ 125Hz, 125 ~ 250Hz, 250 ~ 500Hz, 500 ~ 1KHz, 1 ~ 2KHz, 2 ~ 4KHz, 4 7-band Onset-agents were configured at ~ 8KHz.
이렇게 구성된 각 Onset-agents는 새로운 음이 시작되는 Onset-time을 추출하며, 독립적인 7개의 Onset-values가 시간의 흐름에 따라서 관리된다. 이러한 과정에서 도출된 7-band Onset-time Vector 중에서 가장 규칙적으로 비트가 반복되는 Onset-agents을 선택하고 그 결과를 다시 7-band Onset-time Vector와 Cross-correlation을 적용하여 현재 입력된 음악신호에 비트가 포함되었는지 여부를 도출함으로써 음악의 정보를 추출한다. Each configured Onset-agents extracts Onset-time at which a new note starts, and seven independent Onset-values are managed over time. From the 7-band Onset-time Vector derived from this process, select the Onset-agents whose beats repeat regularly and apply the result to the 7-band Onset-time Vector and Cross-correlation again to the currently input music signal. The music information is extracted by deriving whether or not the beat is included.
상기 동작생성모듈(2)은 동작정보DB(21)에 기 저장된 동작정보와 상기 음악인식모듈(1)에서 인식한 음악정보를 동기화시켜 로봇의 동작을 생성한다. The
상기 동작정보DB(21)에는 다양한 음악에 따른 인간의 동작 장보가 저장되어 있으며, 이러한 동작정보들 중 음악정보와 일치되는 동작정보를 추출하여 로봇의 동작정보를 생성한다. The motion information DB 21 stores human motion information according to various music, and extracts motion information matching the music information from the motion information to generate motion information of the robot.
상기 음악정보와 동기화시키기 위한 동작정보로는 춤 동작을 선택하였고, 댄 서가 이들 음악에 맞추어 추는 춤동작에 대하여 모션 캡쳐를 수행하였다. Dance motion was selected as the motion information for synchronizing with the music information, and motion capture was performed on the dance motions that the dancer dances to the music.
모션 캡쳐 장비로는 한국과학기술연구원(KIST) 내 지능형 로봇 연구센터에 설치된 Motion Analysis의 광학식 모션캡쳐 장비를 사용하였다. 모션 캡쳐를 시작하기 전에 댄서가 선정된 곡을 2~3회 정도 듣고 춤동작을 구상할 수 있도록 하였으며, 광학식 모션캡쳐 장비의 특성상 캡쳐가 어렵다고 판단되는 동작, 즉 마커 트래킹의 sampling rate에 비해 상대적으로 너무 빠른 동작, 양팔을 어깨주위로 접어 감싸는 것과 같이 마커를 신체의 일부가 가리는 것과 같은 동작 등은 포함하지 않게 하였다. As motion capture device, we used optical motion capture device of Motion Analysis installed in intelligent robot research center of KIST. Before starting to capture the motion, the dancer listened to the selected song about 2 ~ 3 times and envisioned the dance movement.The characteristics of the optical motion capture equipment make it difficult to capture, that is, compared to the sampling rate of marker tracking. Do not include too fast movements, such as covering part of your body with your arms folded around your shoulders.
위와 같은 과정을 거쳐 획득한 모션 데이터는 Motion Analysis의 EVaRT를 사용하여 끊어짐(gap)이나 튐(spike) 등을 제거한 후 HTR형식의 파일로 저장하였다. HTR 형식은 모션캡쳐시의 기본 포즈를 이용해 Base Position부분에 저장하고, Base Position으로부터의 상대적인 위치, 회전정보를 각 세그먼트의 프레임 부분에 저장하고 있다. The motion data obtained through the above process was removed in the HTR format after removing gaps and spikes using EV Analysis of Motion Analysis. The HTR format uses the basic pose when capturing motion and stores it in the Base Position part, and stores the relative position and rotation information from the Base Position in the frame part of each segment.
본 발명의 프로토타입 시스템에서는 캡쳐된 동작을 공연에 사용된 음악과 함께 사용하는 방법을 택함으로써 가장 단순한 형태의 동기화를 먼저 테스트하였으나, 동작들 간의 연결이 늘 동일하게 반복되며, 음악의 선택에 있어서도 공연에 사용된 음악만으로 제한된다는 단점이 있어 동작을 최소 단위의 기본 동작들로 세분화하고, 음악 신호에 의해 기본 동작들이 수동, 혹은 자동으로 선택되게 하였다. In the prototype system of the present invention, the simplest form of synchronization was first tested by using the captured motions with the music used in the performance, but the connections between the motions are always repeated in the same way. The disadvantage is that it is limited to only the music used in the performance, which breaks down the movement into the minimum basic movements, and allows the basic movements to be manually or automatically selected by the music signal.
위와 같이 동작생성모듈(2)에서 생성된 로봇동작정보는 상기 로봇동작DB(3)에 저장되고, 이 로봇동작DB(3)에 저장된 정보를 읽어들여 캐릭터의 움직임을 화면 에 재생하는 프로그램이 구성되어 있고, 이러한 프로그램을 위해 애니메이션의 주기를 손쉽게 제어할 수 있는 기능과, 데이터의 보간(interpolation) 기능이 내장되어 있는 실시간 그래픽스 라이브러리인 OpenGL Performer가 사용되었다.The robot motion information generated by the
프로그램은 먼저, 읽어들인 모션데이터의 계층구조 정보를 이용하여 장면그래프 내에 세그먼트들 간의 계층구조를 설정하고, 다음으로 기본자세 정보를 읽어들여 세그먼트들의 기준이 되는 위치와 회전각을 설정하며, 이후, 각 세그먼트들의 기본자세에 대한 상대적인 위치와 회전각을 프레임 단위로 배열에 저장한다. The program first sets the hierarchical structure between the segments in the scene graph by using the hierarchical information of the read motion data, and then sets the position and the rotation angle of the segments by reading the basic posture information. The position and rotation angle of each segment relative to the basic position are stored in the array in units of frames.
마지막으로, OpenGL Performer에서 제공하는 보간 기능을 사용하여 캐릭터의 동작을 디스플레이 한다.Finally, the interpolation feature provided by OpenGL Performer is used to display the character's behavior.
하나의 세그먼트에 대하여 OpenGL Performer 라이브러리에서 제공하는 Animation engine과 Time engine을 설정하여야 하고, Animation Engine은 프레임 단위로 설정된 위치와 회전각에 대해 자동으로 보간하는 기능을 가지며, Time engine은 재생될 모션 동작의 프레임 범위와 재생의 빈도를 설정하는 데 사용된다.The animation engine and time engine provided by OpenGL Performer library should be set for one segment. The animation engine has the function to automatically interpolate the position and rotation angle set in units of frames. Used to set the frame range and playback frequency.
Animation engine은 time scale을 적용한 Time engine의 출력을 토대로 세그먼트의 프레임 범위, 재생 빈도를 제어한다.The animation engine controls the frame range and refresh rate of the segment based on the output of the time engine with time scale applied.
Animation engine은 각 세그먼트마다 하나씩 존재하며, 한 세그먼트에의 변환 정보는 기본포즈의 변환 정보와 각 프레임에서의 변환 정보를 결합하여 결정되고, Animation engine 과정의 출력인 동적 데이터(pfFlux)를 매개변수로 하여 변환노드(pfFCS)를 생성한다. 이 변환 노드는 프레임 단위로 세그먼트(pfGeode)를 변환하는 역할을 한다.There is one animation engine for each segment, and the transformation information of one segment is determined by combining the transformation information of the basic pose and the transformation information in each frame. To generate the conversion node (pfFCS). This transform node is responsible for converting segments (pfGeode) on a frame basis.
상기 로봇동작제어모듈(4)은 상기 로봇동작DB(3)에 기 저장된 로봇동작정보를 불러들여 입력되는 음원과 동기화시켜 로봇에 전송하여 로봇이 동작하게 하는 것으로 상기 음악인식모듈(1)과 연동 환경을 구축하고, 간단한 형태의 동기화를 구현하였다. 즉, 문제를 단순화하여 리듬과 비트시각, 그리고 주기가 이미 알려져 있는 모션 데이터를 사용하였고, 음악과 모션을 동시에 재생하면서 임의의 순간에 음원의 비트 시각과 모션의 그것이 최대한 일치할 수 있도록, 모션의 위상(phase)과 주기(period)를 조절하는 Greedy 알고리즘을 사용하였다. The robot
상기와 같이 구성된 음악 인식을 통한 로봇의 동작제어장치는 상기 음악인식모듈(1)을 음악 서버로 구현하여, 읽어들인 음악에 대한 비트 정보와 기타 정보를 메시지 패킷에 담아 스트리밍 하도록 구현하였으며, 로봇동작제어모듈(4)은 클라이언트캡슐화(encapsulation)하여 음악 서버로부터 실시간에 비트 정보를 전달받을 수 있도록 하였으며, 음악인식모듈(1)서버를 실행한 뒤 음악 파일을 열면 서버가 비트를 인식하기 시작하여, 인식 결과에 대한 메시지화 및 스트리밍 서비스를 시작하면서 클라이언트 대기 상태가 된 후 서버에 접속한 클라이언트는 서버로부터 받은 메시지를 열어 현재 시각이 비트 시각인지의 여부를 읽은 뒤, 비트인 경우 자신이 재생하고 있는 모션의 비트 시각과의 차이를 최소화하고 주기를 일치시킬 수 있도록 모션 데이터의 주기와 위상을 변경할 수 있게 하였다. The motion control apparatus of the robot through the music recognition configured as described above implements the music recognition module 1 as a music server so as to stream bit information and other information about the read music in a message packet and to operate the robot. The
상기 음악인식모듈(1)과 로봇동작제어모듈은 모두 윈도우즈 Visual Studio 6.0작업 환경에서 개발되었으며, 실험에 사용한 PC의 사양은 Intel Pentium4 3.02GH, 1GB RAM, ATI Radeon X300/X550 그래픽 카드이고, 서버 즉 음악인식모듈과 로봇동작제어모듈(클라이언트)을 연동하여 모션 와핑에 의한 동기화가 이루어지게 하였다.The music recognition module (1) and the robot motion control module were both developed in the Windows Visual Studio 6.0 working environment, and the specifications of the PC used in the experiment were Intel Pentium4 3.02GH, 1GB RAM, ATI Radeon X300 / X550 graphics card, The music recognition module and the robot motion control module (client) are interlocked to achieve synchronization by motion warping.
위와 같이 구성된 음악 인식을 통한 로봇의 동작제어장치에 있어서 상기 로봇동작DB(3)와 로봇동작제어모듈(4)을 로봇(100)에 일체로 구성되어 있고, 상기 음악인식모듈(1)과 동작생성모듈(2)은 TCP/IP프로토콜로 신호의 전송이 이루어진다. In the robot motion control apparatus through the music recognition configured as described above, the robot motion DB 3 and the robot
또한, 상기 동작생성모듈(2)과 로봇동작제어모듈(4)사이의 통신은 블루투스(bluetooth) 무선 통신으로 이루어지게 함으로써 로봇이 보다 자유롭게 동작을 할 수 있게 하였다. In addition, the communication between the
도 1은 본 발명에 따른 음악 인식을 통한 로봇의 동작제어장치의 구성도이다. 1 is a block diagram of a robot motion control apparatus through music recognition according to the present invention.
<도면의 주요 부분에 대한 부호설명><Code Description of Main Parts of Drawing>
1 : 음악인식모듈1: Music recognition module
2 : 동작생성모듈2: motion generation module
21 : 동작정보DB 21: motion information DB
3 : 로봇동작DB3: Robot operation DB
4 : 로봇동작제어모듈4: Robot motion control module
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080098649A KR101014884B1 (en) | 2008-10-08 | 2008-10-08 | Motion control device for robot by music recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080098649A KR101014884B1 (en) | 2008-10-08 | 2008-10-08 | Motion control device for robot by music recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100039613A KR20100039613A (en) | 2010-04-16 |
KR101014884B1 true KR101014884B1 (en) | 2011-02-15 |
Family
ID=42215983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080098649A KR101014884B1 (en) | 2008-10-08 | 2008-10-08 | Motion control device for robot by music recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101014884B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101403599B1 (en) | 2013-03-19 | 2014-06-03 | 한국과학기술원 | Motion generation method of a robot dancing with music |
KR20160120843A (en) | 2015-04-08 | 2016-10-19 | (주)이산솔루션 | Protocol processing method for integrated performance of robot |
US11410679B2 (en) | 2018-12-04 | 2022-08-09 | Samsung Electronics Co., Ltd. | Electronic device for outputting sound and operating method thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101958076B1 (en) * | 2017-02-22 | 2019-03-13 | 강원대학교산학협력단 | Real time autonomous dancing robot system |
KR102227489B1 (en) | 2019-07-10 | 2021-03-15 | 김영언 | Apparatus and method for visualizing sound source |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010112957A (en) * | 2000-06-15 | 2001-12-24 | 전성택 | Programmable computer-based dancing toy control system |
JP2003117865A (en) | 2001-10-04 | 2003-04-23 | Yamaha Corp | Robot, its motion pattern control program, and music information file |
JP2008200843A (en) * | 2007-01-22 | 2008-09-04 | Zmp:Kk | Sound reproducing robot |
-
2008
- 2008-10-08 KR KR1020080098649A patent/KR101014884B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010112957A (en) * | 2000-06-15 | 2001-12-24 | 전성택 | Programmable computer-based dancing toy control system |
JP2003117865A (en) | 2001-10-04 | 2003-04-23 | Yamaha Corp | Robot, its motion pattern control program, and music information file |
JP2008200843A (en) * | 2007-01-22 | 2008-09-04 | Zmp:Kk | Sound reproducing robot |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101403599B1 (en) | 2013-03-19 | 2014-06-03 | 한국과학기술원 | Motion generation method of a robot dancing with music |
KR20160120843A (en) | 2015-04-08 | 2016-10-19 | (주)이산솔루션 | Protocol processing method for integrated performance of robot |
US11410679B2 (en) | 2018-12-04 | 2022-08-09 | Samsung Electronics Co., Ltd. | Electronic device for outputting sound and operating method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20100039613A (en) | 2010-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI793344B (en) | Method, device, storage medium, and computer equipment of processing image | |
KR101014884B1 (en) | Motion control device for robot by music recognition | |
Camurri et al. | Communicating expressiveness and affect in multimodal interactive systems | |
KR100948600B1 (en) | System and method for integrating gesture and voice | |
KR102488530B1 (en) | Method and apparatus for generating video | |
US20120191460A1 (en) | Synchronized gesture and speech production for humanoid robots | |
JP7177631B2 (en) | Acoustic scene reconstruction device, acoustic scene reconstruction method, and program | |
EP1408443A1 (en) | Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition | |
EP3940690A1 (en) | Method and device for processing music file, terminal and storage medium | |
KR20140095976A (en) | Haptic sensation recording and playback | |
CA2228901A1 (en) | Automated speech alignment for image synthesis | |
KR20160120722A (en) | Video metadata | |
EP2845188A1 (en) | Evaluation of beats, chords and downbeats from a musical audio signal | |
US20130032023A1 (en) | Real time control of midi parameters for live performance of midi sequences using a natural interaction device | |
CN112005556B (en) | Method of determining position of sound source, sound source localization system, and storage medium | |
KR20110115174A (en) | Device and method for controlling the playback of a file of signals to be reproduced | |
WO2023040520A1 (en) | Method and apparatus for performing music matching of video, and computer device and storage medium | |
CN113822972A (en) | Video-based processing method, device and readable medium | |
CN116528016A (en) | Audio/video synthesis method, server and readable storage medium | |
US20210390937A1 (en) | System And Method Generating Synchronized Reactive Video Stream From Auditory Input | |
TWI585614B (en) | Composite beat effect system and method for processing composite beat effect | |
CN117315102A (en) | Virtual anchor processing method, device, computing equipment and storage medium | |
Panagiotakis et al. | Beat synchronous dance animation based on visual analysis of human motion and audio analysis of music tempo | |
Kolesnik | Conducting gesture recognition, analysis and performance system | |
JP2024503957A (en) | Video editing methods, equipment, electronic equipment, and media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140129 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150130 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160201 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180118 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190131 Year of fee payment: 9 |