KR20150059932A - 사운드 출력 방법 및 장치 - Google Patents

사운드 출력 방법 및 장치 Download PDF

Info

Publication number
KR20150059932A
KR20150059932A KR1020130143682A KR20130143682A KR20150059932A KR 20150059932 A KR20150059932 A KR 20150059932A KR 1020130143682 A KR1020130143682 A KR 1020130143682A KR 20130143682 A KR20130143682 A KR 20130143682A KR 20150059932 A KR20150059932 A KR 20150059932A
Authority
KR
South Korea
Prior art keywords
sound
output
original
voice
user
Prior art date
Application number
KR1020130143682A
Other languages
English (en)
Other versions
KR102161237B1 (ko
Inventor
오해석
김정연
박대범
방래혁
양철형
최규철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130143682A priority Critical patent/KR102161237B1/ko
Priority to US14/553,066 priority patent/US9368095B2/en
Publication of KR20150059932A publication Critical patent/KR20150059932A/ko
Application granted granted Critical
Publication of KR102161237B1 publication Critical patent/KR102161237B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/125Extracting or recognising the pitch or fundamental frequency of the picked up signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/005Voice controlled instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

본 발명은 악기 연주를 음성을 사용하여 입력할 수 있도록 하는 사운드 출력 방법 및 장치를 제공한다. 이를 고려하여, 본 발명의 일 실시예에 따른 사운드 출력 방법은, 원본 사운드를 포함하는 사운드를 확인하는 과정과, 상기 원본 사운드의 음향적 특성에 대응되는 출력 사운드 객체를 확인하는 과정과, 상기 원본 사운드의 음악적 특성을 반영한 상기 출력 사운드 객체를 출력하는 과정을 포함한다. 나아가, 본 발명은, 악기 연주를 음성을 사용하여 입력할 수 있도록 하는 방법 및 장치와 관련된 다양한 실시예를 포함한다.

Description

사운드 출력 방법 및 장치{METHOD FOR OUTPUTTING SOUND AND APPARATUS FOR THE SAME}
본 발명의 다양한 실시예는 입력되는 사운드를 악기 사운드로 변경하여 출력하는 방법 및 장치에 관한 것이다.
최근 전자장치(특히 모바일(mobile) 단말 장치)에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대되고 있다. 이러한 전자장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 전자장치에서 실행 가능한 다양한 어플리케이션들이 개발되고 있다.
전자장치에는 해당 장치의 제조사에 의해 제작되어 해당 장치에 설치되는 기본 어플리케이션들과, 인터넷을 통하여 어플리케이션 판매 웹사이트로부터 다운로드 되는 추가 어플리케이션들 등이 저장되고 실행될 수 있다. 상기 추가 어플리케이션들은 일반 개발자들에 의해 개발되고, 상기 판매 웹사이트에 등록될 수 있다. 따라서, 누구든지 자신이 개발한 어플리케이션들을 상기 어플리케이션 판매 웹사이트를 통하여 자유롭게 상기 전자장치의 사용자에게 판매할 수 있다. 이에 따라 현재 전자장치에는 그 제품에 따라 수만에서 수십 만개의 어플리케이션들이 무료 또는 유료로 제공되고 있다.
한편, 전자장치에 제공되는 수만에서 수십 만개의 어플리케이션들 중에는, 악기의 소리를 연주하기 위한 악기 연주 어플리케이션이 존재한다. 이러한 악기 연주 어플리케이션은 일반적으로 악기의 실제 모양과 닮은 UI, 즉 악기 UI를 사용자에게 제공함으로써 사용자로 하여금 실물 악기를 연주하는 방법에 대응되는 동작으로 악기를 연주할 수 있도록 제공한다.
그러나, 전술한 악기 연주 어플리케이션은, 악기 UI만을 사용하여, 전자장치에 악기를 실제와 같이 구현하는데 어려움이 있을 수 있다. 예를 들어, 실제 악기는 손뿐만 아니라, 입이나 발과 같은 사용자의 다양한 신체를 사용하여 실물 악기를 연주하여야 하지만, 악기 UI의 경우, 손만을 이용하여 제어할 수 있도록 구비될 수 있다. 이에 따라, 사용자가 다양한 신체 부위를 사용하여 연주하기 어려워, 실제 악기 연주 방식과 동일한 연주 기술로 연주하기 어렵다는 문제점이 있다.
또한, 전자장치에 구비된 디스플레이의 크기에 한계가 있으므로, 제한적인 크기의 디스플레이에 다양한 악기가 표현되는 UI를 구성하기 어렵다는 문제가 있다.
본 발명의 다양한 실시예는 전술한 점을 고려하여 안출된 것으로써, 악기 연주를 음성을 사용하여 입력할 수 있도록 하는 사운드 출력 방법 및 장치를 제공한다.
또한, 본 발명의 다양한 실시예는, 입력되는 사용자의 음성에 포함된 다양한 성분(예, 음장(音長), 음고(音高), 음량(音量) 등)을 반영하여 사운드를 출력할 수 있는 방법 및 장치를 제공한다.
본 발명의 일 측면에 따른 사운드 출력 방법은, 원본 사운드를 입력받는 과정과, 상기 원본 사운드에 대응되는 출력 사운드 객체를 확인하는 과정과, 상기 출력 사운드 객체에, 상기 원본 사운드의 음악적 특성을 반영하여, 출력 사운드를 생성 및 출력하는 과정을 포함한다.
상기 출력 사운드 객체를 확인하는 과정은 원본 사운드의 음절단위를 확인하는 과정과, 원본 사운드의 음향적 특성을 확인하는 과정과, 원본 사운드에 대응되는 음향적 특성에 대응되는 출력 사운드 객체를 확인하는 과정을 포함할 수 있다.
또한, 출력 사운드 객체를 출력하는 과정은 원본 사운드의 음장과 음고를 확인하는 과정과, 상기 확인된 출력 사운드 객체의 음원을 출력하되, 상기 확인된 원본 사운드의 음악적 특성을 반영하여 출력하는 과정을 포함할 수 있다.
본 발명의 다른 측면에 따른 전자 장치는 원본 사운드를 입력받는 입출력 모듈과, 상기 원본 사운드의 입력을 확인하고, 상기 원본 사운드에 대응되는 출력 사운드 객체를 확인하고, 상기 출력 사운드 객체에 상기 원본 사운드의 음악적 특성을 반영하여 출력 사운드를 생성하는 제어부와, 상기 출력 사운드를 재생하는 멀티미디어 모듈을 포함할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사운드 출력 방법의 순서를 도시하는 흐름도,
도 2는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 구비되는 출력 사운드 객체를 확인하는 과정의 순서를 도시하는 흐름도,
도 3a는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 원본 사운드를 예시하는 도면,
도 3b는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 원본 사운드의 음절단위를 예시하는 도면,
도 3c는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 음절단위의 음성과 음향 특성값 사이의 관계를 예시하는 도면,
도 4a는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 드럼에 구비된 악기를 예시하는 도면,
도 4b는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 음향 특성값과, 드럼에 구비된 악기의 사운드 사이의 관계를 예시하는 도면,
도 4c는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 출력 사운드 객체의 일 예시도,
도 5는 본 발명의 또 다른 실시예에 따른 사운드 출력 방법에 구비되는 출력 사운드를 출력하는 과정의 순서를 도시하는 흐름도,
도 6은 본 발명의 또 다른 실시예에 따른 사운드 출력 방법에서 생성되는 사운드 데이터의 일 예시도,
도 7은 본 발명의 또 다른 실시예에 따른 사운드 출력 방법에 사용되는 원본 사운드, 음향 특성값, 및 출력 사운드 객체 사이의 관계를 예시하는 도면,
도 8은 본 발명의 다양한 실시예에 따른 사운드 출력 방법이 적용되는 전자장치의 예시도.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하에서 후술되는 본 발명의 다양한 실시예에서, 음성(音聲)은, 사용자의 신체에 구비된 발음 기관을 통해 내는 구체적이고 물리적인 소리(또는 사운드)를 지시한다. 그리고, 음향(音響)은, 물체에서 나는 소리(사운드)와 그 울림을 지시하는 것으로써 상기 음성(音聲)의 다양한 특성을 포함한다. 그리고, 음악은, 음의 높낮이(pitch)와 박자(rhythm)를 포함하여 표시되는 소리(사운드)의 조합을 지시하고, 음장(音長)은 하나의 음성이나 음성결합체가 발음되는 시간상의 길이를 지시하는 것으로써, 음악에 포함되는 박자(rhythm)를 구성한다. 그리고, 음고(音高)는 음의 높낮이를 지시하는 것으로써, 소리(사운드)의 주파수의 높고 낮음을 지시한다. 음량(音量)은 소리(사운드)의 크고 작음을 지시하는 것으로써, 소리(사운드)의 진폭의 크기를 지시한다.
도 1은 본 발명의 일 실시예에 따른 사운드출력 방법의 순서를 도시하는 흐름도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 사운드 출력 방법은 원본 사운드를 입력받는 과정(10)을 포함한다.
원본 사운드를 입력받는 과정(10)은 사용자로부터 직접 원본 사운드를 입력받는 과정을 포함할 수 있다. 예컨대, 원본 사운드를 입력받는 과정(10)은 본 발명의 일 실시예에 따른 사운드출력 방법의 동작을 처리하는 전자장치에 구비된 마이크를 통해 사용자의 음성을 입력받는 과정이나, 상기 사용자의 음성을 녹음하는 등의 과정을 포함할 수 있다. 나아가, 상기 원본 사운드는 비트박스나, 악기의 소리, 동물 소리, 자연의 소리 등을 사용자의 음성으로 표현한 사운드를 포함할 수 있다.
나아가, 다른 실시예로써, 상기 원본 사운드를 입력받는 과정(10)은 본 발명의 실시예에 따른 사운드 출력 방법의 동작을 처리하는 전자장치의 저장부에 지정되어 저장된 원본 사운드를 읽어들이거나, 통신수단을 통해 외부의 전자장치로부터 지정되어 저장된 원본 사운드를 수신하는 과정을 포함할 수도 있다.
다음으로, 본 발명의 일 실시예에 따른 사운드 출력 방법은 상기 원본 사운드에 대응되는 출력 사운드 객체를 확인하는 과정(20)을 포함한다.
상기 출력 사운드 객체는 사용자(또는 사운드 출력 방법을 설계한 설계자)에 의해 지정되어 저장될 수 있다. 예컨대, 상기 출력 사운드 객체는 드럼과 같은 악기의 사운드 객체를 포함할 수 있으며, 상기 출력 사운드 객체는 해당 악기의 사운드에 대응되는 각각의 음원을 포함할 수 있다.
그리고, 본 발명의 일 실시예에 따른 사운드 출력 방법의 동작을 처리하는 전자장치의 저장부는 출력 사운드 객체(예, 악기의 음원)를 저장할 수 있다.
나아가, 상기 출력 사운드 객체는 사용자의 음성 등(비트박스나, 악기의 소리를 사용자의 음성으로 표현한 사운드 등)과 매칭되어 저장될 수 있다. 예컨대, 사용자의 음성으로부터 음향 특성값을 검출하고, 상기 출력 사운드 객체는 상기 검출된 음향 특성값과 연결되어 저장될 수 있다. 여기서, 상기 출력 사운드 객체와 상기 음향 특성값은 사용자(또는 사운드출력 방법을 설계한 설계자)에 의해 연결될 수 있다. 예컨대, 사용자(또는 사운드 출력 방법을 설계한 설계자)는 사용자의 음성(비트박스나, 악기의 소리를 사용자의 음성으로 표현한 사운드 등)을 전자장치에 구비된 녹음 기능을 통해 입력한다. 그리고, 상기 전자장치는 상기 입력된 사용자의 음성으로부터 상기 음향 특성값을 검출한다. 또한, 상기 전자장치는 저장부에 저장된 복수의 출력 사운드 객체(예, 음원)에 대한 리스트(이하, 사운드 객체 리스트라 함)를 제공하고, 상기 사운드 객체 리스트로부터, 상기 입력된 사용자의 음성과 매칭되는 적어도 하나의 출력 사운드 객체를 선택받을 수 있는 환경(예컨대, UI, 메뉴 등)을 제공한다. 이와 같은 전자장치에 구비된 환경을 사용하여, 사용자(또는 사운드 출력 방법을 설계한 설계자)는 사용자의 음성(비트박스나, 악기의 소리를 사용자의 음성으로 표현한 사운드 등)을 상기 출력 사운드 객체와 매칭하여 저장할 수 있다.
예컨대, 전자장치는 사용자의 음성을 입력받아 녹음하기 위한 음성 입력 메뉴(또는 음성 입력 UI)를 제공하고, 상기 음성 입력 메뉴(또는 음성 입력 UI)를 통해 입력되는 음성을 녹음한다. 상기 음성 입력 메뉴(또는 음성 입력 UI)는 사용자에게 소정의 음성 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 전자장치는 디스플레이 상에 "'Kung'을 입력하시오."라는 정보를 표시하고, 마이크를 통해 입력되는 소리의 녹음을 진행한다. 그리고, 전자장치는 상기 녹음된 소리 중, 소정의 레벨 이상의 크기를 갖는 소리의 영역을 검출하여 사용자 음성으로 인식하고, 인식된 영역을 저장한다. 이후, 전자장치는 출력 사운드 객체 리스트와, 상기 출력 사운드 객체 리스트에 포함된 적어도 하나의 출력 사운드 객체의 선택을 가이드하는 정보를 제공하는 사운드 객체 리스트 메뉴(또는 사운드 객체 리스트 UI)를 디스플레이에 표시하고, 상기 출력 사운드 객체 리스트로부터 적어도 하나의 출력 사운드 객체를 선택 받는다. 그리고, 상기 사용자 음성과 상기 적어도 하나의 선택된 출력 사운드 객체를 매칭하여 저장할 수 있다. 나아가, 상기 사용자 음성을 저장하는 과정에서, 상기 사용자의 음성을 보다 정확하게 분류 및 인식하기 위하여, 즉 사용자가 동일한 문자(예, 'Kung'에 대응되는 동일한 음성을 만들어 내더라도 음성이 입력되는 환경의 변화에 따라 서로 다른 음성으로 인식하게 되는 문제가 발생될 수 있다. 따라서, 상기 전자장치는 상기 저장된 사용자 음성으로부터 음향적 특성을 검출하고, 상기 음향적 특성을 기반으로 상기 사용자 음성을 저장 및 관리할 수 있다. 나아가, 상기 사용자의 음성을 표준화하여 보다 정확하게 저장 및 관리하기 위하여, 상기 전자장치는 문자(예, 'Kung')에 대응되는 사용자 음성을 복수회 반복하여 입력받고, 상기 복수회 입력된 사용자 음성에 대한 복수의 음향적 특성을 검출하고, 상기 복수의 음향적 특성을 표준화하여 저장 및 관리할 수도 있다. 이와 같이, 상기 음향적 특성을 표준화하여 저장 및 관리하는 동작은 상기 음성 입력 메뉴(또는 음성 입력 UI)를 통해 상기 사용자의 음성을 복수회 입력받아 처리할 수 있다.
나아가, 전술한 본 발명의 일 실시예에 따른 사운드 출력 방법에서, 상기 전자장치가 내부에 저장된 사운드 객체 리스트를 제공하고, 상기 사운드 객체 리스트로부터, 상기 입력된 사용자의 음성과 매칭되는 적어도 하나의 출력 사운드 객체를 사용자에 의해 선택받아, 사용자의 음성을 상기 출력 사운드 객체와 매칭하여 저장하는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니다. 이와 다른 예로써, 전자장치가 사용자의 음성(비트박스나, 악기의 소리를 사용자의 음성으로 표현한 사운드 등)의 음향적 특성과, 음원의 음향적 특성을 분석하고, 서로 일치되는 또는 유사한 음향적 특성을 구비하는 사용자의 음성과 출력 사운드 객체를 매칭하여 저장하는 것도 가능함은 물론이다.
더 나아가, 상기 전자장치가 복수의 출력 사운드 객체를 지정하여 저장하고, 상기 출력 사운드 객체 리스트를 제공하여, 대응되는 출력 사운드 객체를 선택하는 것을 예시하였으나, 이와 다른 실시예로써, 상기 전자장치가 복수의 출력 사운드 객체를 지정하여 저장하지 않고, 상기 사용자의 음성을 저장하는 과정에서 대응되는 출력 사운드 객체를 직접 녹음하여 저장할 수도 있다.
전술한 바와 같이, 상기 음향적 특성을 기반으로 상기 사용자 음성을 저장 및 관리하므로, 상기 출력 사운드 객체를 확인하는 과정(20)은 상기 원본 사운드의 음향 특성값을 확인하고, 상기 확인된 음향 특성값에 대응되는 상기 지정되어 저장된 음향 특성값을 확인한다. 그리고, 상기 지정되어 저장된 음향 특성값에 매칭된 출력 사운드 객체(예컨대, 상기 드럼에 구비된 악기 사운드)(또는 상기 출력 사운드 객체에 매칭된 음원)를 확인한다.
한편, 본 발명의 일 실시예에 따른 사운드 출력 방법은 원본 사운드의 음악적 특성을 반영출력 사운드를 생성 및 출력하는 과정(30)을 포함한다. 예컨대, 출력 사운드를 생성 및 출력하는 과정(30)은 원본 사운드의 음악적 특성(예컨대, 음장, 음고 등)을 확인하고, 상기 20과정에서 확인된 출력 사운드 객체, 즉 음원에, 상기 확인된 원본 사운드의 음악적 특성(예컨대, 음장, 음고, 음량 등)을 반영하여 출력 사운드를 생성하고, 상기 출력 사운드를 출력할 수 있다.
예컨대, 상기 원본 사운드의 음악적 특성(예컨대, 음장, 음고, 음량 등)의 정보를 포함하는 MIDI 노트를 생성할 수 있다. 그리고, 출력 사운드 객체, 즉 음원을 포함하는 데이터(예컨대, WAVE 파일 데이터)에 상기 MIDI 노트를 적용함으로써, 상기 출력 사운드 객체, 즉 음원을 포함하는 데이터(예컨대, WAVE 파일 데이터)를 수정한 형태의 출력 사운드를 생성하여 저장할 수 있다.
상기 원본 사운드의 음악적 특성에 포함되는 성분으로써, 음장과, 음고를 예시하고 있으나, 본 발명이 이를 한정하는 것은 아니며, 상기 원본 사운드의 음악적 특성을 반영할 수 있는 성분이면 충분하다.
도 2는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 구비되는 출력 사운드 객체를 확인하는 과정의 순서를 도시하는 흐름도이다.
본 발명의 일 실시예에 따른 사운드 출력 방법은 전술한 본 발명의 일 실시예에 따른 사운드 출력 방법에 구비된 사운드를 확인하는 과정(10)과 출력 사운드 객체를 출력하는 과정(30)를 포함할 수 있다. 특히, 본 발명의 일 실시예에 따른 사운드 출력 방법은 출력 사운드 객체를 확인하는 과정(20)의 다른 실시예로써, 도 2에 예시되는 과정들을 포함할 수 있다. 이하, 발명의 일 실시예에 따른 사운드 출력 방법에 구비된 출력 사운드 객체를 확인하는 과정(20')은, 전술한 본 발명의 일 실시예에 따른 사운드 출력 방법에 구비된 출력 사운드 객체를 확인하는 과정(20)과 그 식별번호를 다르게 부여함으로써, 본 발명의 일 실시예의 출력 사운드 객체를 확인하는 과정(20)과 구분한다.
도 2를 참조하면, 출력 사운드 객체를 확인하는 과정(20')은 원본 사운드의 음절단위를 확인하는 과정(22)과, 원본 사운드의 음향적 특성을 확인하는 과정(23)과, 원본 사운드의 음향적 특성에 대응되는 출력 사운드 객체를 확인하는 과정(24)을 포함할 수 있다.
도 3a는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 원본 사운드를 예시하는 도면이고, 도 3b는 본 발명의 일 실시예에 따른 사운드 출력 방법에 사용되는 원본 사운드의 음절단위를 예시하는 도면이고, 도 3c는 본 발명의 일 실시예에 따른 사운드 출력 방법에 사용되는 음절단위의 음성과 음향 특성값 사이의 관계를 예시하는 도면이다.
원본 사운드의 음절단위를 확인하는 과정(22)은 10과정에서 확인된 원본 사운드(도 3a, 301)의 음절단위를 확인하는 과정이다. 예컨대, 원본 사운드가 "Kung - Ta - Chi - Du - Ta - Kung - Kung - Dung - Cha - Du"와 같은 음성을 포함하는 비트박스 음성임을 예시한다. 상기 22과정은 상기 원본 사운드(301)(예컨대, "Kung - Ta - Chi - Du - Ta - Kung - Kung - Dung - Cha - Du")에 소정의 음성처리 알고리즘을 적용하여, 상기 원본 사운드(301)에 포함된 음성을 음절단위로 분할하는 처리를 수행한다. 이러한 음절단위를 분할하는 처리는 본 발명의 기술분야에서 통상적으로 사용되는 음성인식 알고리즘을 사용할 수 있다. 이와 같이 22과정은 도 3a예 예시되는 "Kung - Ta - Chi - Du - Ta - Kung - Kung - Dung - Cha - Du"와 같은 음성을 포함하는 원본 사운드(301)를 도 3b에 예시되는 바와 같이 음절단위의 음성(311~320)을 검출할 수 있다.
나아가, 전술한 22과정은 원본 사운드(301)를 음절단위로 분할하여 제공하거나, 상기 원본 사운드(301)를 분할하지 않고 음절단위를 구분할 수 있는 분할정보를 제공하는 동작을 통해, 상기 검출된 음절단위를 제공할 수 있다.
한편, 10과정에서 확인된 원본 사운드(301)에 소정의 노이즈가 포함되거나, 원본 사운드에 포함된 음성의 크기가 너무 크거나 또는 너무 작게 구비되면, 원본 사운드(301)에 포함된 음성, 예컨대, "Kung - Ta - Chi - Du - Ta - Kung - Kung - Dung - Cha - Du"을 구분할 수 없는 문제가 발생할 수 있다. 따라서, 출력 사운드 객체를 확인하는 과정(20')은 원본 사운드의 음절단위를 확인하는 과정(22)을 처리하기에 앞서, 상기 원본 사운드(301)의 노이즈를 제거하거나, 음성의 크기를 지정된 정해진 수준으로 유지하는 등의 전처리 과정(21)을 더 포함할 수 있다. 원본 사운드의 음절단위를 확인하는 과정(22)은 원본 사운드(301)에 포함된 음성의 음절단위를 구분하고, 상기 음절단위의 음성의 음향적 특성을 정확하게 검출할 수 있으면 충분하다. 따라서, 원본 사운드(301)가 음절단위의 구분과, 상기 음성의 음향적 특성을 정확하게 검출할 수 있을 정도이면, 전처리 과정(21)이 실행되지 않아도 무방하다. 따라서, 이러한 전처리 과정(21)은, 원본 사운드(301)의 상태에 따라서 선택적으로 실행되도록 구비될 수도 있다. 예컨대, 출력 사운드 객체를 확인하는 과정(20')은, 상기 원본 사운드(301)의 노이즈를 확인하고, 상기 노이즈가 지정되어 정해진 임계값 이하인 경우, 전처리 과정(21)을 처리하지 않고 바로 원본 사운드의 음절단위를 확인하는 과정(22)으로 진행되도록 구비될 수도 있다. 또는 다른 실시예로써, 상기 원본 사운드(301)의 음성의 크기가 지정되어 정해진 범위 내에 존재할 경우, 출력 사운드 객체를 확인하는 과정(20')은 전처리 과정(21)을 처리하지 않고 바로 원본 사운드의 음절단위를 확인하는 과정(22)으로 진행되도록 구비될 수도 있다. 더 나아가, 출력 사운드 객체를 확인하는 과정(20')은 상기 원본 사운드(301)의 노이즈와 음성의 크기를 복합적으로 고려하여 전처리 과정(21)을 처리하지 않고 바로 원본 사운드의 음절단위를 확인하는 과정(22)으로 진행되도록 구비될 수도 있음은 물론이다.
다음으로, 상기 원본 사운드의 음향적 특성을 확인하는 과정(23)은 22과정에서 확인된 음절단위의 음성(311~320)에 대한 음향 특성값을 검출한다. 예컨대, 상기 음향 특성값의 검출은 음성 처리 기술에서 사용되는 다양한 방식이 사용될 수 있으며, 특히 상기 음절단위의 음성(311~320)에 대한 다양한 특성 벡터를 검출하고, 상기 다양한 특성 벡터 중에서 두드러지게 나타나는(예컨대, 지정되어 정해진 임계값의 범위를 벗어나는) 특성 파라미터 값을 검출하는 방식이 사용될 수 있다.
이와 같은 상기 원본 사운드의 음향적 특성을 확인하는 과정(23)을 통해, 도 3c에 예시되는 바와 같이 음절단위의 음성(311~320)에 대한 음향 특성값을 검출할 수 있다. 예컨대, "Kung"은 제1음향 특성값을 구비하고, "Ta"는 제2음향 특성값을 구비하고, "Chi"는 제3음향 특성값을 구비하고, "Du"는 제4음향 특성값을 구비하고, "Dung"은 제5음향 특성값을 구비하고, "Cha"는 제6음향 특성값을 구비할 수 있다.
한편, 도 4a는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 드럼에 구비된 악기를 예시하는 도면이고, 도 4b는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 음향 특성값과, 드럼에 구비된 악기의 사운드 사이의 관계를 예시하는 도면이고, 도 4c는 본 발명의 다른 실시예에 따른 사운드 출력 방법에 사용되는 출력 사운드 객체의 일 예시도 이다.
도 4a를 참조하면, 드럼에 구비되는 악기는 베이스 드럼(base drum)(401), 스네어 드럼(snare drum)(402), 하이 텀텀(high tom-tom)(403), 미드 텀텀(mid tom-tom)(404), 플로어 텀텀(floor tom-tom)(405), 하이-햇 심벌(hi-hat cymbals)(406), 크래쉬 심벌(Crash-Cymbol)(407) 및 라이드 심벌(ride cymbals)(408)을 포함할 수 있다.
한편, 상기 출력 사운드 객체는 사용자(또는 사운드 출력 방법을 설계한 설계자)에 의해 지정되어 저장될 수 있다. 예컨대, 상기 출력 사운드 객체는 드럼과 같은 악기의 사운드를 포함할 수 있으며, 상기 드럼에 구비된 악기의 사운드는 각각의 음원으로 저장될 수 있다. 따라서, 본 발명의 일 실시예에 따른 사운드 출력 방법의 동작을 처리하는 전자장치의 저장부는 베이스 드럼(base drum)(401), 스네어 드럼(snare drum)(402), 하이 텀텀(high tom-tom)(403), 미드 텀텀(mid tom-tom)(404), 플로어 텀텀(floor tom-tom)(405), 하이-햇 심벌(hi-hat cymbals)(406), 크래쉬 심벌(Crash-Cymbol)(407) 및 라이드 심벌(ride cymbals)(408)의 사운드를 각각 포함하고 있는 각각의 출력 사운드 객체, 즉 음원을 저장할 수 있다.
나아가, 상기 각각의 출력 사운드 객체는 사용자의 음성 등(비트박스나, 악기의 소리를 사용자의 음성으로 표현한 사운드 등)과 매칭되어 저장될 수 있는데, 사용자의 음성으로부터 음향 특성값을 검출하고, 상기 각각의 출력 사운드 객체는 상기 검출된 음향 특성값과 연결되어 저장될 수 있다. 여기서, 상기 출력 사운드 객체와 상기 음향 특성값은 사용자(또는 사운드 출력 방법을 설계한 설계자)에 의해 연결될 수 있다. 예컨대, 전술한 음성 입력 메뉴(또는 음성 입력 UI) 또는 사운드 객체 리스트 메뉴(또는 사운드 객체 리스트 UI) 등을 사용하여 상기 출력 사운드 객체와 상기 음향 특성값을 매칭하여 저장할 수 있다.
구체적으로, 베이스 드럼(base drum)(401)의 사운드를 포함하는 출력 사운드 객체(음원)는 제1음향 특성값에 대응되는 음성에, 스네어 드럼(snare drum)(402)의 사운드를 포함하는 출력 사운드 객체(음원)는 제2음향 특성값에 대응되는 음성에, 하이 텀텀(high tom-tom)(403)의 사운드를 포함하는 출력 사운드 객체(음원)는 제3음향 특성값에 대응되는 음성에, 미드 텀텀(mid tom-tom)(404)의 사운드를 포함하는 출력 사운드 객체(음원)는 제4음향 특성값에 대응되는 음성에, 플로어 텀텀(floor tom-tom)(405)의 사운드를 포함하는 출력 사운드 객체(음원)는 제5음향 특성값에 대응되는 음성에, 하이-햇 심벌(hi-hat cymbals)(406)의 사운드를 포함하는 출력 사운드 객체(음원)는 제6음향 특성값에 대응되는 음성에, 크래쉬 심벌(Crash-Cymbol)(407)의 사운드를 포함하는 출력 사운드 객체(음원)는 제7음향 특성값에 대응되는 음성에, 라이드 심벌(ride cymbals)(408)의 사운드를 포함하는 출력 사운드 객체(음원)는 제8음향 특성값에 대응되는 음성에 각각 매칭되어 저장될 수 있다.
나아가, 전술한 본 발명의 다양한 실시예에 따른 사운드 출력 방법에서, 상기 전자장치가 내부에 저장된 복수의 출력 사운드 객체(음원)에 대한 리스트(이하, 출력 사운드 객체 리스트라 함)를 제공하고, 상기 출력 사운드 객체 리스트로부터, 상기 입력된 사용자의 음성과 매칭되는 적어도 하나의 출력 사운드 객체(음원)를 사용자에 의해 선택받아, 사용자의 음성을 상기 출력 사운드 객체(음원)와 매칭하여 저장하는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니다. 이와 다른 예로써, 전자장치가 사용자의 음성(비트박스나, 악기의 소리를 사용자의 음성으로 표현한 사운드 등)의 음향적 특성과, 출력 사운드 객체(음원)(예컨대, 베이스 드럼(base drum)(401), 스네어 드럼(snare drum)(402), 하이 텀텀(high tom-tom)(403), 미드 텀텀(mid tom-tom)(404), 플로어 텀텀(floor tom-tom)(405), 하이-햇 심벌(hi-hat cymbals)(406), 크래쉬 심벌(Crash-Cymbol)(407) 및 라이드 심벌(ride cymbals)(408))의 음향적 특성을 분석하고, 서로 일치되는 또는 유사한 음향적 특성을 구비하는 사용자의 음성과 출력 사운드 객체(음원)를 매칭하여 저장하는 것도 가능함은 물론이다. 나아가, 본 발명의 다양한 실시예에서 상기 출력 사운드 객체와 상기 사용자 음성을 매칭하는 방법을 예시하고 있으나, 본 발명이 이를 한정하는 것은 아니다. 본 발명의 다양한 실시예에서 예시된 상기 출력 사운드 객체와 상기 사용자 음성을 매칭하는 방법 외에도, 상기 출력 사운드 객체와 상기 사용자 음성을 서로 연결하여 저장할 수 있는 다양한 방법이 사용될 수 있음은 물론이다.
이와 같은 환경에서, 상기 출력 사운드 객체를 확인하는 과정(24)은 23과정에서 확인된 음절단위의 음성(311~320)에 대한 음향 특성값과 대응되는 출력 사운드 객체, 예컨대, 드럼에 구비된 악기의 사운드를 각각 확인한다. 예컨대, "Kung - Ta - Chi - Du - Ta - Kung - Kung - Dung - Cha - Du"의 음성이 입력되는 것을 예시하면, 우선, 23과정에서, "Kung"의 음성에 대응되는 제1음향 특성값을 검출함에 따라, 24과정에서는 상기 제1음향값에 매칭되어 저장된 출력 사운드 객체, 예컨대, 상기 드럼에 구비된 베이스 드럼("Base drum")(411)의 사운드 객체를 확인할 수 있다. 이와 같은 방식을 통해 입력된 음성(즉, "Kung - Ta - Chi - Du - Ta - Kung - Kung - Dung - Cha - Du")의 음절단위에 대해, 각각 대응되는 악기의 사운드 객체를 확인하여, 도 4c에 예시되는 바와 같이, 베이스 드럼("Base drum")(411), 스네어 드럼("Snare drum")(412), 하이-햇 심벌("Hi-hat cymbals")(413), 미드/하이 텀텀("Mid/High Tom-Tom")(414), 스네어 드럼("Snare drum")(415), 베이스 드럼("Base drum")(416), 베이스 드럼("Base drum")(417), 플로어 텀텀("Floor Tom-Tom")(418), 라이드 심벌즈("Ride cymbals")(419), 미드/하이 텀텀("Mid/High Tom-Tom")(420)을 포함하는 출력 사운드 객체를 확인할 수 있다.
본 발명의 다양한 실시예에서, 원본 사운드에 대응되는 출력 사운드 객체를 확인하는 과정은, 원본 사운드의 음향 특성값에 대응되는 출력 사운드 객체를 검출하는 것을 예시하였다. 이와 다른 실시예로써, 원본 사운드에 대응되는 출력 사운드 객체를 확인하는 과정을 처리함에 있어서, 원본 사운드의 음향 특성값과 함께, 원본 사운드의 음고를 더 반영하여 출력 사운드 객체를 결정할 수도 있다. 예컨대, 1차적으로 원본 사운드에 대응되는 파형을 검출하고, 상기 검출된 파형에 대응되는 적어도 하나의 악기의 사운드를 확인한다. 그리고, 2차적으로 원본 사운드의 음고를 확인하고, 상기 확인된 원본 사운드의 음고를 더 반영하여 상기 확인된 적어도 하나의 악기의 사운드 중, 상기 원본 사운드의 음고에 대응되는 악기의 사운드를 확인할 수 있다. 구체적으로, 1차적으로 원본 사운드에 대응되는 파형을 고려하여, 텀텀("Tom-Tom")의 종류에 포함되는 적어도 하나의 악기(하이 텀텀(high tom-tom)(403), 미드 텀텀(mid tom-tom)(404), 플로어 텀텀(floor tom-tom)(405))를 확인하고, 상기 원본 사운드의 음고를 고려하여 하이 텀텀(high tom-tom)(403)의 사운드를 출력 사운드 객체로 결정할 수 있다.
도 5는 본 발명의 또 다른 실시예에 따른 사운드 출력 방법에 구비되는 출력 사운드 객체를 출력하는 과정의 순서를 도시하는 흐름도이다.
본 발명의 일 실시예에 따른 사운드 출력 방법은 전술한 본 발명의 일 실시예에 따른 사운드 출력 방법에 구비된 사운드를 확인하는 과정(10)과 출력 사운드 객체를 확인하는 과정(20)을 포함하거나, 또는 전술한 본 발명의 일 실시예에 따른 사운드 출력 방법에 구비된 사운드를 확인하는 과정(10)과 출력 사운드 객체를 확인하는 과정(20')을 포함할 수 있다.
그리고, 본 발명의 일 실시예에 따른 사운드 출력 방법은 출력 사운드 객체를 출력하는 과정(30)의 다른 실시예로써, 도 5에 예시되는 과정들을 포함할 수 있다. 이하, 발명의 일 실시예에 따른 사운드 출력 방법에 구비된 출력 사운드 객체를 출력하는 과정(30')으로 지시함으로써, 전술한 본 발명의 다양한 실시예에 따른 사운드 출력 방법에 구비된 출력 사운드 객체를 출력하는 과정(30)과 구분한다.
도 5를 참조하면, 출력 사운드 객체를 출력하는 과정(30')은 원본 사운드의 음장 또는 음고 또는 음량 중 적어도 하나를 확인하는 과정(31)을 포함한다. 그리고, 출력 사운드 객체를 출력하는 과정(30')은 상기 20(또는 20')과정에서 확인된 출력 사운드 객체(음원)를 출력하되, 상기 출력 사운드 객체에, 상기 확인된 원본 사운드의 음악적 특성(예컨대, 음장, 음고, 음량 등)을 반영하여 출력 사운드를 생성 및 출력하는 과정(32)을 포함한다.
원본 사운드의 음악적 특성을 확인하는 과정(31)에서, 상기 음절단위로 절단된 음성의 유효부분을 확인하는 동작을 처리함으로써, 음장을 확인할 수 있다. 이때, 사용자의 음성은 정확한 박자를 기준으로 입력되는 않을 가능성이 있으므로, 음성의 길이를 박자를 고려한 기준 길이로 보정하는 것이 바람직하다. 예컨대, 음성으로 입력된 "Kung"과 "Tag"가 절단된 길이 기준으로 1.8:1.1의 비율을 포함하고 있을 경우, 최종적으로는 2:1의 비율을 갖는 것으로 보정할 수 있다.
그리고, 원본 사운드의 음악적 특성을 확인하는 과정(31)에서, 상기 원본 사운드의 음고는 음절단위의 음성의 주파수 분포에 대한 정보를 검출하여 확인할 수 있다.
그리고, 원본 사운드의 음악적 특성을 확인하는 과정(31)에서, 상기 원본 사운드의 음량은 음절단위의 음성의 진폭에 대한 정보를 검출하여 확인할 수 있다.
도 6은 본 발명의 또 다른 실시예에 따른 사운드 출력 방법에서 생성되는 사운드 데이터의 일 예시도이다. 도 6을 참조하면, 출력 사운드 객체를 출력하는 과정(32)은 상기 음원에 상기 원본 사운드의 음악적 특성(예컨대, 음장, 음고, 음량 등)의 정보를 포함하는 출력 사운드 데이터(600)를 생성할 수 있다. 예컨대, 상기 출력 사운드 데이터(600)는 상기 20(또는 20')과정에서 확인된 출력 사운드 객체(음원)를 포함하는 사운드 정보(601)와, 상기 31단계에서 확인된 음장을 포함하는 음장 정보(602), 음고를 포함하는 음고 정보(603), 및 음량을 포함하는 음량 정보(604)중 적어도 하나를 포함할 수 있다.
이상, 본 발명의 다양한 실시예에 따른 사운드 출력 방법에서, 원본 사운드가 사용자의 비트박스나, 악기의 사운드를 표현하는 음성임을 예시하였고, 출력 사운드 객체가 드럼에 구비되는 악기의 사운드를 포함함을 예시하였으나, 본 발명이 이를 한정하는 것은 아니다.
본 발명은 입력되는 원본 사운드의 다양한 특성을 사용하여, 상기 원본 사운드와 다른 출력 사운드를 생성 및 출력할 수 있으면 충분하다. 따라서, 원본 사운드는 사용자의 비트박스나, 악기의 사운드를 표현하는 음성 외에도 다양한 음성을 포함할 수 있다. 그리고, 출력 사운드 객체 역시 다양한 악기의 사운드를 포함할 수 있고, 또한 다양한 환경에 존재하는 다양한 사운드(동물 소리 등)를 포함할 수도 있음은 물론이다.
더 나아가, 본 발명의 다양한 실시예에 따른 사운드 출력 방법에서, 원본 사운드만을 출력 사운드로 변경하여 출력하는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니다. 전술한 다양한 실시예와 다른 실시예로써, 사용자의 음성을 통해 입력되는 원본 사운드 외에, 악기의 실제 모양과 닮은 UI, 즉 악기 UI를 제공하고, 상기 악기 UI를 통한 사용자 입력(예컨대, 악기 UI에 구비된 지정되어 정해진 악기 영역의 터치 입력)을 수신할 수 있으며, 상기 악기 UI를 통한 사용자 입력에 대응되는 악기 연주 사운드와 상기 출력 사운드를 동시에 출력할 수 있도록 구비될 수도 있다.
한편, 본 발명의 다양한 실시예는 출력 사운드 객체가 악기 사운드인 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니며, 상기 출력 사운드 객체는 다양한 사운드를 포함할 수 있다. 예컨대, 상기 출력 사운드 객체는 동물의 소리, 자연에서 발생되는 소리(예, 물소리, 바람소리, 비소리 등)를 포함할 수 있다.
도 7은 본 발명의 일 실시예에 따른 사운드 출력 방법에 사용되는 원본 사운드, 음향 특성값, 및 출력 사운드 객체 사이의 관계를 예시하는 도면이다.
예컨대, 원본 사운드는, 사용자의 음성으로부터 생성되는 소리로써, 동물의 소리를 표현한 사운드를 포함할 수 있다. 그리고, 상기 출력 사운드 객체는 상기 동물의 실제 소리를 녹음한 사운드를 구비하는 음원을 포함할 수 있다. 상기 출력 사운드 객체는 사용자(또는 사운드 출력 방법을 설계한 설계자)에 의해 지정되어 저장될 수 있다.
나아가, 상기 각각의 출력 사운드 객체는 사용자의 음성과 지정되어 저장될 수 있는데, 이(사용자 음성)는 음향 특성값을 매개로 하여 매칭되어 저장될 수 있다. 예컨대, 상기 사용자 음성이 지니고 있는 음향 특성값을 검출하고, 상기 각각의 출력 사운드 객체는 상기 검출된 음향 특성값과 연결되어 저장될 수 있다.
여기서, 상기 사용자 음성, 음향 특성값, 및 출력 사운드 객체는 전술한 음성 입력 메뉴(또는 음성 입력 UI) 또는 사운드 객체 리스트 메뉴(또는 사운드 객체 리스트 UI) 등을 사용하여 매칭될 수 있다. 즉, 상기 전자장치가 내부에 저장된 복수의 출력 사운드 객체(음원)에 대한 리스트(즉, 출력 사운드 객체 리스트)를 제공하고, 상기 출력 사운드 객체 리스트로부터, 상기 입력된 사용자의 음성과 매칭되는 적어도 하나의 출력 사운드 객체(음원)를 사용자에 의해 선택받아, 사용자의 음성을 상기 출력 사운드 객체(음원)와 매칭하여 저장할 수 있다. 또한, 다른 예로써, 전자장치가 사용자 음성을 입력받고, 상기 사용자 음성의 음향적 특성과, 출력 사운드 객체(음원)의 음향적 특성을 분석하고, 서로 일치되는 또는 유사한 음향적 특성을 구비하는 사용자 음성과 출력 사운드 객체(음원)를 매칭하여 저장할 수도 있다.
이와 같은 환경에서, 동물소리를 형상화한 원본 사운드, 일 예로 강아지 소리를 형상화한 사운드(예, "멍")가 입력되면, 상기 원본 사운드의 음향 특성값을 확인하고, 해당되는 출력 사운드 객체를 확인하는 동작을 수행한다.
이와 다른 실시예로써, 원본 사운드에 대응되는 출력 사운드 객체를 확인하는 과정을 처리함에 있어서, 원본 사운드의 음향 특성값과 함께, 원본 사운드의 음고를 더 반영하여 출력 사운드 객체를 결정할 수도 있다. 예컨대, 1차적으로 원본 사운드에 대응되는 파형을 검출하고, 상기 검출된 파형에 대응되는 적어도 하나의 출력 사운드 객체를 확인한다. 그리고, 2차적으로 원본 사운드의 음고를 확인하고, 상기 확인된 원본 사운드의 음고를 더 반영하여 상기 확인된 적어도 하나의 출력 사운드 객체들 중, 상기 원본 사운드의 음고에 대응되는 악기의 사운드를 확인할 수도 있다.
다음으로, 상기 출력 사운드 객체에, 상기 원본 사운드의 음악적 특성을 반영한다. 예컨대, 상기 원본 사운드의 음악적 특성, 즉, 음장, 음고, 음량중 적어도 하나를 확인한다. 그리고, 상기 출력 사운드 객체에, 상기 확인된 원본 사운드의 음악적 특성(예컨대, 음장, 음고, 음량 등)을 반영하여 출력 사운드를 생성 및 출력한다.
이와 같은 본 발명의 제4 실시예를 통해, 사용자가 동물소리를 형상화한 원본 사운드를 입력하는 것에 대응하여, 상기 사용자가 형상화한 동물소리의 실제 사운드를 출력 사운드로 구성하여 출력할 수 있다.
도 8은 본 발명의 다양한 실시예에 따른 사운드 출력 방법이 적용되는 전자장치의 예시도이다. 도 8을 참조하면, 장치(800)는 제어부(810), 통신모듈(820), 입/출력 모듈(830), 멀티미디어 모듈(840), 저장부(850), 전원공급부(860), 터치스크린(871), 및 터치스크린 컨트롤러(872)를 포함한다.
우선, 제어부(810)는 CPU(811), 장치(800)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 812) 및 장치(800)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 장치(800)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 813)을 포함할 수 있다. CPU(811), 롬(812), 및 램(813)은 내부버스(bus)를 통해 상호 연결될 수 있다. 또한, 제어부(810)는 통신모듈(820), 입/출력 모듈(830), 저장부(850), 전원공급부(860), 터치스크린(871), 및 터치스크린 컨트롤러(872)를 제어할 수 있다. 나아가, 제어부(810)는 싱글코어로 이루어지거나, 듀얼 코어, 트리플 코어, 또는 쿼드 코어 등과 같이 복수의 코어로 이루어질 수도 있다. 상기 코어의 수는 단말의 특성에 따라 본 발명의 기술분야에서 통상의 지식을 가진자에 의해 다양하게 구성될 수 있음은 물론이다.
특히, 제어부(810)는 본 발명의 다양한 실시예에 따른 사운드출력 방법을 처리하기 위하여, 입/출력 모듈(830)을 통해 입력되는 원본 사운드를 확인하고, 상기 원본 사운드에 대응되는 출력 사운드 객체를 확인하고, 상기 출력 사운드 객체에, 상기 원본 사운드의 음악적 특성을 반영한 출력 사운드를 생성 및 출력하는 등의 동작을 처리할 수 있다.
통신모듈(820)은 셀룰러 모듈, 무선랜 모듈 및 근거리통신 모듈 중 적어도 하나를 포함할 수 있다.
셀룰러 모듈은 제어부(810)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 장치(800)가 외부 장치와 연결되도록 한다. 셀룰러 모듈은 장치(800)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
무선랜 모듈은 제어부(810)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 무선랜 모듈은 무선으로 연결되는 무선 액세스 포인트(AP, access point)에서 제공하는 위치 정보를 사용하여 무선랜 모듈을 구비하고 있는 단말의 위치정보를 확인하는 WPS(Wi-Fi Positioning System)를 구동할 수 있다.
근거리통신 모듈은 제어부(810)의 제어에 따라 장치(800)와 무선으로 근거리 통신을 처리하는 모듈로써, 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등의 근거리 통신방식에 기초하여 통신을 처리할 수 있다.
나아가, 통신모듈(820)은 USB 통신 케이블, 시리얼 통신 케이블 등을 통해 연결된 다른 전자장치와 소정의 통신 방식(예컨대, USB 통신, 시리얼 통신 등)에 기초하여 데이터 통신을 수행할 수 있음은 물론이다.
입/출력 모듈(830)은 버튼(831), 마이크(832), 스피커(833), 및 진동모터(834) 중, 적어도 하나를 포함할 수 있다.
버튼(831)은 상기 장치(800)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다.
마이크(832)는 원본 사운드를 입력받고, 입력되는 원본 사운드를 전기적인 신호로 구성하여 제어부(810)로 제공할 수 있다.스피커(832)는 제어부(810)의 제어에 따라 셀룰러 모듈, 무선랜 모듈 및 근거리통신 모듈의 다양한 신호(예, 무선신호, 방송신호 등)에 대응되는 사운드를 장치(800) 외부로 출력할 수 있다. 스피커(832)는 상기 장치(800)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. 또한, 스피커(832)는 제어부(810) 또는 멀티미디어 모듈(840)에서 제공되는 출력 사운드를 출력한다.
진동모터(833)는 제어부(810)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 상기 장치(800)의 하우징 내에 하나 또는 복수로 형성될 수 있다.
이와 같은, 스피커(832) 및 진동모터(833)는 장치(800)의 볼륨운영모드의 설정 상태에 따라, 동작할 수 있다. 예컨대, 장치(800)의 볼륨운영모드는 소리모드, 진동모드, 소리&진동모드, 무음모드 등으로 운영될 수 있으며, 이들 모드 중 하나의 모드로 설정될 수 있다. 제어부(810)는 상기 볼륨운영모드가 설정된 모드에 기초하여, 장치(800)가 수행하는 기능에 따라 상기 스피커(832) 또는 진동모터(833)의 동작을 지시하는 신호를 출력할 수 있다.
멀티미디어 모듈(840)은 사운드(특히, 상기 출력 사운드)를 재생하거나, 동영상을 재생하는 동작을 처리하는 모듈을 포함할 수 있다. 이러한, 멀티미디어 모듈(840)은 DAC, 오디오/비디오 재생 코더/디코더 등을 포함하는 별도의 하드웨어 칩으로 구비되거나, 제어부(810) 내부에 구비될 수 있다.
저장부(850)는 제어부(810)의 제어에 따라 입/출력 모듈(830), 터치스크린(871)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(850)는 장치(800) 또는 제어부(810)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다. 특히, 저장부(850)는 본 발명의 다양한 실시예에 따른 사운드 출력 방법을 수행하기 프로그램 또는 어플리케이션의 데이터를 저장할 수 있다. 그리고, 저장부(850)는 상기 마이크(832)를 통해 입력되는 원본 사운드를 저장할 수 있고, 본 발명의 다양한 실시예에 따른 사운드 출력 방법에 사용되는 출력 사운드 객체, 및 출력 사운드를 저장할 수도 있다. 또한, 저장부(850)는 본 발명의 다양한 실시예에 따른 사운드 출력 방법을 수행하면서 생성되는 데이터를 출력하거나, 사용자의 입력을 수신하는 동작을 처리하기 위한 사용자 인터페이스를 제공할 수도 있으며, 상기 사용자 인터페이스는 후술되는 터치스크린(871) 및 터치스크린 컨트롤러(872)를 통해 제공될 수 있다.
“저장부”라는 용어는 저장부(850), 제어부(810)내 롬(812), 램(813) 또는 장치(800)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(860)는 제어부(810)의 제어에 따라 장치(800)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 장치(800)에 전원을 공급한다. 또한, 전원공급부(860)는 장치에 구비된 커넥터와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 장치(800)로 공급할 수 있다. 또한, 전원공급부(860)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 장치(800)로 공급할 수도 있다.
터치스크린(871)은 단말의 운영체제(OS; Operation System)에 기초하여, 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 디스플레이할 수 있다. 터치스크린(871)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(872)로 전송할 수 있다. 터치스크린(871)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린(871)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(871)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(872)로 전송할 수 있다.
터치스크린(871)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
한편, 터치스크린 컨트롤러(872)는 제어부(810)에서 제공되는 디스플레이 데이터가 터치스크린(871)에 표시될 수 있도록, 터치스크린(871)의 출력값을 제어한다. 그리고, 터치스크린 컨트롤러(872)는 터치스크린(871)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(810)로 전송한다.
이와 같은, 제어부(810)는 터치스크린(871)과 터치스크린 컨트롤러(872)로부터 제공되는 데이터를 사용하여, 사용자 입력을 처리할 수 있다. 즉, 제어부(810)는 터치스크린 컨트롤러(872)로부터 수신된 디지털 신호를 이용하여 터치스크린(871)을 제어할 수 있다. 예를 들어, 제어부(810)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(871)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다.
이상, 본 발명의 일 실시예에서, 사용자 입력을 터치스크린(871)을 통해 입력받는 것을 예시하였으나, 본 발명이 이를 한정하는 것은 아니며, 다양한 구성부를 통해 사용자 입력을 인식하여 처리할 수 있음은 물론이다. 예컨대, 본 발명의 일 실시예에 따른 장치는, 센서 모듈 또는 카메라 모듈을 포함할 수 있고, 상기 센서 모듈 또는 카메라 모듈을 통해 입력되는 데이터를 사용하여 사용자 입력을 처리할 수 있다.
예컨대, 상기 센서 모듈은 사용자의 장치(800)에 대한 접근 여부를 검출하는 근접센서, 장치(800) 주변의 빛의 양을 검출하는 조도센서, 및 RGB 센서 중, 적어도 하나의 센서를 포함하여 구성될 수 있다. 또한, 센서 모듈은 장치(800)의 동작(예, 장치(800)의 회전, 장치(800)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 아니함)를 포함할 수도 있다. 나아가, 상기 센서 모듈에서 검출된 정보는 제어부(810)에 제공될 수 있으며, 상기 제어부(810)는 상기 검출된 정보를 사용하여 사용자 입력을 처리할 수 있다.
나아가, 카메라 모듈은 장치의 전면 또는 후면에 마련되어 제어부(810)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 카메라를 포함할 수 있으며, 카메라를 통해 촬영된 정지이미지 또는 동영상은 제어부(810)에 제공될 수 있다. 상기 제어부(810)는 상기 카메라에서 제공되는 정지이미지 또는 동영상을 사용하여, 사용자 입력을 처리할 수 있다.
나아가, 전술한 본 발명의 다양한 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야에서 통상의 지식을 가진 자에게 공지되어 사용 가능한 것일 수도 있다.
또한, 본 발명의 다양한 실시예에 따른 방법들은 전술한 장치(800)의 저장부(850)에 프로그램 명령 형태로 구현되어 저장될 수 있으며, 상기 프로그램 명령은, 본 발명의 예시적 실시예에 따른 방법들의 실행을 위해 제어부(810) 내에 포함된 램(RAM, 813)에 일시적으로 저장될 수 있다. 이에 따라, 제어부(810)는, 본 발명의 예시적 실시예에 따른 방법들에 따른 상기 프로그램 명령에 대응하여, 장치(800)에 포함된 하드웨어 구성요소들의 제어를 수행하고, 본 발명의 예시적 실시예에 따른 방법들을 실행하면서 발생되는 데이터를 일시 또는 지속적으로 저장부(850)에 저장하고, 본 발명의 예시적 실시예에 따른 방법들의 실행에 필요한 UI를 터치스크린 컨트롤러(872)에 제공할 수 있다.
본 발명의 다양한 실시예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 다양한 실시예에 따른 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 전자장치에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명의 다양한 실시예에 따른 방법은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명의 다양한 실시예는 이와 균등한 것을 적절하게 포함한다.
또한, 상기 컴퓨터 또는 전자장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 기 설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 유선 또는 무선 통신을 수행하기 위한 통신부와, 프로그램의 전송을 제어하는 제어부를 포함할 수 있다. 상기 프로그램 제공 장치는 상기 컴퓨터 또는 전자장치로부터 상기 프로그램의 제공 요청을 수신할 경우, 상기 컴퓨터 또는 전자장치에 상기 프로그램을 유선 또는 무선으로 제공할 수 있다. 또한, 상기 프로그램 제공 장치는 상기 컴퓨터 또는 전자장치로부터 상기 프로그램의 제공 요청이 없는 경우에도, 예를 들어 상기 컴퓨터 또는 전자장치가 특정 장소 내에 위치할 경우, 상기 컴퓨터 또는 전자장치에 상기 프로그램을 유선 또는 무선으로 제공하도록 형성될 수도 있다.

Claims (15)

  1. 사운드 출력 방법에 있어서,
    원본 사운드를 입력받는 과정과,
    상기 원본 사운드에 대응되는 출력 사운드 객체를 확인하는 과정과,
    상기 출력 사운드 객체에, 상기 원본 사운드의 음악적 특성을 반영하여, 출력 사운드를 생성 및 출력하는 과정을 포함하는 사운드 출력 방법.
  2. 제1항에 있어서, 상기 원본 사운드는 음성을 포함하는 사운드 출력 방법.
  3. 제1항에 있어서, 상기 출력 사운드 객체는 적어도 하나의 악기 사운드 객체를 포함하는 사운드 출력 방법.
  4. 제1항에 있어서, 상기 출력 사운드 객체는 적어도 하나의 동물 사운드 객체를 포함하는 사운드 출력 방법.
  5. 제1항에 있어서, 상기 원본 사운드는 저장된 원본 사운드를 포함하는 사운드 출력 방법.
  6. 제1항에 있어서, 상기 출력 사운드 객체를 확인하는 과정은,
    상기 원본 사운드의 음절단위를 확인하는 과정을 포함하는 사운드 출력 방법.
  7. 제6항에 있어서, 원본 사운드에 대한 전처리 과정을 더 포함하는 사운드 출력 방법.
  8. 제1항 또는 제6항에 있어서, 상기 출력 사운드 객체를 확인하는 과정은,
    상기 원본 사운드의 음향적 특성을 확인하는 과정과,
    상기 원본 사운드의 음향적 특성에 대응하여 지정된 사운드 객체를 상기 출력 사운드 객체로 확인하는 과정을 포함하는 사운드 출력 방법.
  9. 제8항에 있어서, 상기 음향적 특성은,
    상기 원본 사운드에 대한 특징 벡터를 포함하는 사운드 출력 방법.
  10. 제8항에 있어서, 상기 출력 사운드 객체를 확인하는 과정은,
    상기 원본 사운드의 음고를 확인하는 과정과,
    상기 원본 사운드의 음고에 대응하여 지정된 사운드 객체를 상기 출력 사운드 객체로 확인하는 과정을 더 포함하는 사운드 출력 방법.
  11. 제1항에 있어서, 상기 음악적 특성은 음장(音長) 및 음고(音高)를 포함하는 사운드 출력 방법.
  12. 제10항에 있어서, 상기 음악적 특성은 음량(音量)을 더 포함하는 사운드 출력 방법.
  13. 제1항에 있어서, 상기 출력 사운드는,
    상기 출력 사운드 객체, 및 음악적 특성을 지시하는 정보를 포함하는 사운드 출력 방법.
  14. 전자 장치에 있어서,
    원본 사운드를 입력받는 입출력 모듈과,
    상기 원본 사운드의 입력을 확인하고, 상기 원본 사운드에 대응되는 출력 사운드 객체를 확인하고, 상기 출력 사운드 객체에 상기 원본 사운드의 음악적 특성을 반영하여 출력 사운드를 생성하는 제어부와,
    상기 출력 사운드를 재생하는 멀티미디어 모듈을 포함하는 전자 장치.
  15. 제14항에 있어서,
    상기 출력 사운드 객체와, 상기 원본 사운드의 음악적 특성을 지시하는 정보를 포함하는 출력 사운드를 저장하는 저장부를 포함 하는 전자 장치.
KR1020130143682A 2013-11-25 2013-11-25 사운드 출력 방법 및 장치 KR102161237B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130143682A KR102161237B1 (ko) 2013-11-25 2013-11-25 사운드 출력 방법 및 장치
US14/553,066 US9368095B2 (en) 2013-11-25 2014-11-25 Method for outputting sound and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130143682A KR102161237B1 (ko) 2013-11-25 2013-11-25 사운드 출력 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150059932A true KR20150059932A (ko) 2015-06-03
KR102161237B1 KR102161237B1 (ko) 2020-09-29

Family

ID=53181549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130143682A KR102161237B1 (ko) 2013-11-25 2013-11-25 사운드 출력 방법 및 장치

Country Status (2)

Country Link
US (1) US9368095B2 (ko)
KR (1) KR102161237B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210019151A (ko) * 2019-08-12 2021-02-22 주식회사 케이티 동화 낭독 서비스를 제공하는 서버, 방법 및 컴퓨터 프로그램

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9360206B2 (en) * 2013-10-24 2016-06-07 Grover Musical Products, Inc. Illumination system for percussion instruments
US10540950B2 (en) 2015-12-17 2020-01-21 In8Beats Pty Ltd Electrophonic chordophone system, apparatus and method
US10380852B2 (en) * 2017-05-12 2019-08-13 Google Llc Systems, methods, and devices for activity monitoring via a home assistant
JP2023067272A (ja) * 2021-10-29 2023-05-16 ローランド株式会社 サーバ、電子機器、サーバ通信方法、機器通信方法および通信システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4463650A (en) * 1981-11-19 1984-08-07 Rupert Robert E System for converting oral music to instrumental music
US6737572B1 (en) * 1999-05-20 2004-05-18 Alto Research, Llc Voice controlled electronic musical instrument

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3999456A (en) * 1974-06-04 1976-12-28 Matsushita Electric Industrial Co., Ltd. Voice keying system for a voice controlled musical instrument
US3948139A (en) * 1974-08-28 1976-04-06 Warwick Electronics Inc. Electronic synthesizer with variable/preset voice control
US4342244A (en) * 1977-11-21 1982-08-03 Perkins William R Musical apparatus
US4757737A (en) * 1986-03-27 1988-07-19 Ugo Conti Whistle synthesizer
US5171930A (en) * 1990-09-26 1992-12-15 Synchro Voice Inc. Electroglottograph-driven controller for a MIDI-compatible electronic music synthesizer device
US5428708A (en) * 1991-06-21 1995-06-27 Ivl Technologies Ltd. Musical entertainment system
JP3540344B2 (ja) * 1993-07-27 2004-07-07 株式会社リコス カラオケ装置におけるバックコーラス再生装置
US5521324A (en) * 1994-07-20 1996-05-28 Carnegie Mellon University Automated musical accompaniment with multiple input sensors
US5619004A (en) * 1995-06-07 1997-04-08 Virtual Dsp Corporation Method and device for determining the primary pitch of a music signal
JP3609192B2 (ja) * 1996-03-07 2005-01-12 ヤマハ株式会社 カラオケ装置
JP2000105595A (ja) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd 歌唱装置及び記録媒体
US6372973B1 (en) * 1999-05-18 2002-04-16 Schneidor Medical Technologies, Inc, Musical instruments that generate notes according to sounds and manually selected scales
US6124544A (en) * 1999-07-30 2000-09-26 Lyrrus Inc. Electronic music system for detecting pitch
US6653546B2 (en) * 2001-10-03 2003-11-25 Alto Research, Llc Voice-controlled electronic musical instrument
US7323629B2 (en) * 2003-07-16 2008-01-29 Univ Iowa State Res Found Inc Real time music recognition and display system
US20050086052A1 (en) * 2003-10-16 2005-04-21 Hsuan-Huei Shih Humming transcription system and methodology
KR20060112633A (ko) * 2005-04-28 2006-11-01 (주)나요미디어 노래 평가 시스템 및 방법
US20070137467A1 (en) * 2005-12-19 2007-06-21 Creative Technology Ltd. Portable media player
KR100664677B1 (ko) 2006-03-28 2007-01-03 주식회사 디오텍 휴대용 단말기에서의 음악 컨텐츠 생성 방법
US20070276668A1 (en) * 2006-05-23 2007-11-29 Creative Technology Ltd Method and apparatus for accessing an audio file from a collection of audio files using tonal matching
US7667126B2 (en) * 2007-03-12 2010-02-23 The Tc Group A/S Method of establishing a harmony control signal controlled in real-time by a guitar input signal
WO2010140166A2 (en) * 2009-06-02 2010-12-09 Indian Institute Of Technology, Bombay A system and method for scoring a singing voice
US8581087B2 (en) * 2010-09-28 2013-11-12 Yamaha Corporation Tone generating style notification control for wind instrument having mouthpiece section
KR20120096880A (ko) 2011-02-23 2012-08-31 전주대학교 산학협력단 사용자가 자신의 음성에 기초하여 디지털 악기를 연주할 수 있도록 하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US20120234158A1 (en) * 2011-03-15 2012-09-20 Agency For Science, Technology And Research Auto-synchronous vocal harmonizer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4463650A (en) * 1981-11-19 1984-08-07 Rupert Robert E System for converting oral music to instrumental music
US6737572B1 (en) * 1999-05-20 2004-05-18 Alto Research, Llc Voice controlled electronic musical instrument

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210019151A (ko) * 2019-08-12 2021-02-22 주식회사 케이티 동화 낭독 서비스를 제공하는 서버, 방법 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
US20150143978A1 (en) 2015-05-28
KR102161237B1 (ko) 2020-09-29
US9368095B2 (en) 2016-06-14

Similar Documents

Publication Publication Date Title
JP6595686B2 (ja) ハプティック効果の自動適合
US10388122B2 (en) Systems and methods for generating haptic effects associated with audio signals
KR101554221B1 (ko) 휴대단말기를 이용한 악기 연주 방법 및 장치
US20150310878A1 (en) Method and apparatus for determining emotion information from user voice
KR102161237B1 (ko) 사운드 출력 방법 및 장치
US20140249673A1 (en) Robot for generating body motion corresponding to sound signal
CN111524501B (zh) 语音播放方法、装置、计算机设备及计算机可读存储介质
WO2015006116A1 (en) Method and apparatus for assigning keyword model to voice operated function
US9633638B2 (en) Method and apparatus for simulating a musical instrument
CN110992927B (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
CN110097895B (zh) 一种纯音乐检测方法、装置及存储介质
US9336763B1 (en) Computing device and method for processing music
KR20120096880A (ko) 사용자가 자신의 음성에 기초하여 디지털 악기를 연주할 수 있도록 하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
CN111028823B (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
KR101675911B1 (ko) 외부음향에 따른 맞춤 정보를 표시하는 전자책
JP2020030245A (ja) 端末装置、決定方法、決定プログラム及び決定装置
JP6713032B2 (ja) 雰囲気コントロールが可能な音源ミキシング方法およびシステム
KR101492039B1 (ko) 음성 인식을 이용하여 검색된 곡을 표시하는 방법 및 시스템
KR20220083294A (ko) 전자 장치 및 전자 장치의 동작 방법
KR20240096049A (ko) 화자 분할 방법 및 시스템
CN115700870A (zh) 一种音频数据的处理方法及装置
KR101054690B1 (ko) 휴대 단말기 및 영상 데이터를 이용한 장치 조작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant