KR101189214B1 - 동작에 따른 음을 출력하는 장치 및 방법 - Google Patents
동작에 따른 음을 출력하는 장치 및 방법 Download PDFInfo
- Publication number
- KR101189214B1 KR101189214B1 KR1020060014272A KR20060014272A KR101189214B1 KR 101189214 B1 KR101189214 B1 KR 101189214B1 KR 1020060014272 A KR1020060014272 A KR 1020060014272A KR 20060014272 A KR20060014272 A KR 20060014272A KR 101189214 B1 KR101189214 B1 KR 101189214B1
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- space
- motion
- determined
- detailed
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000001133 acceleration Effects 0.000 claims description 17
- 230000000694 effects Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 230000005484 gravity Effects 0.000 description 7
- 238000009527 percussion Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 3
- 235000000177 Indigofera tinctoria Nutrition 0.000 description 2
- 230000003796 beauty Effects 0.000 description 2
- 229940097275 indigo Drugs 0.000 description 2
- COHYTHOBJLSHDF-UHFFFAOYSA-N indigo powder Natural products N1C2=CC=CC=C2C(=O)C1=C1C(=O)C2=CC=CC=C2N1 COHYTHOBJLSHDF-UHFFFAOYSA-N 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical group [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
-
- E—FIXED CONSTRUCTIONS
- E01—CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
- E01C—CONSTRUCTION OF, OR SURFACES FOR, ROADS, SPORTS GROUNDS, OR THE LIKE; MACHINES OR AUXILIARY TOOLS FOR CONSTRUCTION OR REPAIR
- E01C9/00—Special pavings; Pavings for special parts of roads or airfields
- E01C9/004—Pavings specially adapted for allowing vegetation
- E01C9/005—Coverings around trees forming part of the road
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G13/00—Protecting plants
- A01G13/02—Protective coverings for plants; Coverings for the ground; Devices for laying-out or removing coverings
- A01G13/0237—Devices for protecting a specific part of a plant, e.g. roots, trunk or fruits
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G13/00—Protecting plants
- A01G13/02—Protective coverings for plants; Coverings for the ground; Devices for laying-out or removing coverings
- A01G13/0256—Ground coverings
- A01G13/0293—Anchoring means for ground coverings
-
- C—CHEMISTRY; METALLURGY
- C04—CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
- C04B—LIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
- C04B33/00—Clay-wares
- C04B33/02—Preparing or treating the raw materials individually or as batches
- C04B33/04—Clay; Kaolin
-
- C—CHEMISTRY; METALLURGY
- C04—CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
- C04B—LIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
- C04B33/00—Clay-wares
- C04B33/32—Burning methods
-
- C—CHEMISTRY; METALLURGY
- C04—CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
- C04B—LIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
- C04B35/00—Shaped ceramic products characterised by their composition; Ceramics compositions; Processing powders of inorganic compounds preparatory to the manufacturing of ceramic products
- C04B35/622—Forming processes; Processing powders of inorganic compounds preparatory to the manufacturing of ceramic products
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- C—CHEMISTRY; METALLURGY
- C04—CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
- C04B—LIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
- C04B2111/00—Mortars, concrete or artificial stone or mixtures to prepare them, characterised by specific function, property or use
- C04B2111/00474—Uses not provided for elsewhere in C04B2111/00
- C04B2111/0075—Uses not provided for elsewhere in C04B2111/00 for road construction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/395—Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/401—3D sensing, i.e. three-dimensional (x, y, z) position or movement sensing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
- G10H2230/015—PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Ceramic Engineering (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Structural Engineering (AREA)
- Materials Engineering (AREA)
- Organic Chemistry (AREA)
- Dispersion Chemistry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Civil Engineering (AREA)
- Architecture (AREA)
- Inorganic Chemistry (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
본 발명은 동작에 따른 음을 출력하는 장치 및 방법에 관한 것으로서, 장치가 이동할 수 있는 공간을 복수 개의 세부 공간으로 분할하고 각 세부 공간에 서로 다른 음을 대응시킴으로써, 특정 세부 공간으로 이동한 장치에 음 출력을 위한 동작을 취하여 해당 세부 공간에 대응하는 음이 출력되도록 하는 동작에 따른 음을 출력하는 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 동작에 따른 음을 출력하는 장치는 이동을 위한 제 1 동작 또는 소정의 패턴을 갖는 제 2 동작을 입력받는 동작 입력부와, 적어도 하나 이상의 세부 공간으로 분할된 공간상에서 상기 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인하는 위치 확인부와, 상기 제 2 동작이 입력된 경우 상기 확인된 위치의 세부 공간에 대응되는 음을 추출하는 음 추출부 및 상기 추출된 음을 출력하는 출력부를 포함한다.
센서, 공간, 세부 공간, 제 1 동작, 제 2 동작
Description
도 1은 본 발명의 실시예에 따른 동작에 따른 음을 출력하는 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 공간이 세부 공간으로 분할된 것을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 세부 공간 테이블을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 패턴 테이블을 나타낸 도면이다.
도 5a 내지 도 5c는 본 발명의 실시예에 따른 음 출력 장치의 이동 방향 및 이동 거리가 검출되는 것을 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 세부 공간의 종류에 대응하는 색상이 디스플레이되는 것을 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 추출된 음의 종류에 대응하는 색상이 디스플레이되는 것을 나타낸 개념도이다.
도 8은 본 발명의 실시예에 따른 동작에 따른 음을 출력하는 과정을 나타낸 흐름도이다.
<도면의 주요 부분에 관한 부호의 설명>
110 : 동작 입력부 120 : 동작 방향 검출부
130 : 동작 패턴 검출부 140 : 위치 확인부
150 : 음 추출부 160 : 저장부
170 : 출력부
본 발명은 동작에 따른 음을 출력하는 장치 및 방법에 관한 것으로서, 더욱 상세하게는 장치가 이동할 수 있는 공간을 복수 개의 세부 공간으로 분할하고 각 세부 공간에 서로 다른 음을 대응시킴으로써, 특정 세부 공간으로 이동한 장치에 음 출력을 위한 동작을 취하여 해당 세부 공간에 대응하는 음이 출력되도록 하는 동작에 따른 음을 출력하는 장치 및 방법에 관한 것이다.
관성 센서(Inertial Sensor)는 가속도 또는 각속도에 의해 발생되는 질량체의 관성력을 질량체에 연결된 탄성 구조물의 변형으로 표시한 후 적절한 감지 및 신호 처리 기법을 이용하여 구조물의 변형을 전기적인 신호로 표시하는 장치이다.
1990년대 이후, 반도체 공정을 이용한 초소형 정밀 가공 기술(Micro Electro-Mechanical Systems)의 발전에 따라 관성 센서의 초소형화 및 대량 생산이 가능해졌다. 관성 센서는 크게 가속도 센서와 각속도 센서로 나뉘며, 차량의 현가 장치 및 브레이크 통합 제어, 에어백, 차량 위치 인식 시스템(Car Navigation System)의 응용 분야에서 특히 각광받고 있다. 그리고, 이동 통신 복합 단말기에 적용될 휴대용 위치 인식 시스템(Portable Digital Assistant) 등 휴대용 정보 기기의 데이터 입력 수단에도 적용된다.
항공 우주 분야에서는 일반 항공기의 항법 시스템뿐 아니라 초소형 항공기(Macro Air Vehicle), 미사일 자세 제어 시스템, 군사용 개인 항법 시스템 등에 적용되고 있으며, 최근에는 휴대폰에 관성 센서를 적용하여 연속 동작 인식 및 3차원 게임에 적용하고 있다.
또한, 동작에 따른 타악기를 연주하는 휴대폰도 등장하였는데, 이러한 휴대폰은 내장된 관성 센서가 그 동작을 인식하여 기 저장된 타악기의 음성을 출력한다. 여기서, 타악기에 대한 악기 선택은 사용자에 의해 설정될 수 있다. 동작에 따른 타악기를 연주하기 위하여 사용되는 센서는 현재까지는 휴대폰 내장을 위한 크기의 제약과 저렴한 가격 때문에 가속도 센서가 이용되고 있다.
일본 공개 특허 2003-076368호는 3차원 가속도 센서 등 동작 검출 센서를 내장하여 사용자에 의한 장치의 움직임이 있는 경우 이를 검출하여 소리를 발생하는 휴대 전화로서, 상, 하, 좌, 우, 앞 또는 뒤로 움직이는 가속도에 따라 사용자의 동작을 판단하여 소리를 발생하는 방법을 개시하고 있다.
그러나, 이는 단지 움직임에 따른 소리를 발생하는 것으로서, 사용자는 내장된 다양한 음원을 표현하는 것에 어려움을 느낄 수 있다. 따라서, 내장된 다양한 음원을 간편하고 용이하게 발생시키는 발명의 등장이 요구된다.
본 발명은 장치가 이동할 수 있는 공간을 복수 개의 세부 공간으로 분할하고 각 세부 공간에 서로 다른 음을 대응시킴으로써, 특정 세부 공간에 위치한 장치의 동작에 따라 해당 세부 공간에 대응하는 음을 출력하는데 그 목적이 있다.
또한, 본 발명은 각 세부 공간에서의 동작에 따라 서로 다른 음을 출력하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 동작에 따른 음을 출력하는 장치는 이동을 위한 제 1 동작 또는 소정의 패턴을 갖는 제 2 동작을 입력받는 동작 입력부와, 적어도 하나 이상의 세부 공간으로 분할된 공간상에서 상기 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인하는 위치 확인부와, 상기 제 2 동작이 입력된 경우 상기 확인된 위치의 세부 공간에 대응되는 음을 추출하는 음 추출부 및 상기 추출된 음을 출력하는 출력부를 포함한다.
본 발명의 실시예에 따른 동작에 따른 음을 출력하는 방법은 (a) 이동을 위한 제 1 동작 또는 소정의 패턴을 갖는 제 2 동작을 입력받는 단계와, (b) 적어도 하나 이상의 세부 공간으로 분할된 공간상에서 상기 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인하는 단계와, (c) 상기 제 2 동작이 입력된 경우 상기 확인된 위치의 세부 공간에 대응되는 음을 추출하는 단계 및 (d) 상기 추출된 음을 출력하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 동작에 따른 음을 출력하는 장치를 나타낸 블록도로서, 동작에 따른 음을 출력하는 장치(이하, 음 출력 장치라 한다)(100)는 동작 입력부(110), 동작 방향 검출부(120), 동작 패턴 검출부(130), 위치 확인부(140), 음 추출부(150), 저장부(160) 및 출력부(170)를 포함하여 구성된다.
동작 입력부(110)는 동작을 입력받는 역할을 한다. 여기서, 입력된 동작은 이동을 위한 동작(이하, 제 1 동작이라 한다) 또는 소정의 패턴을 갖는 동작(이하, 제 2 동작이라 한다)일 수 있는데, 제 1 동작은 음 출력 장치(100)의 위치가 소정 거리이상 변경된 경우의 동작을 의미하고, 제 2 동작은 음 출력 장치(100)가 공간상의 특정 범위 내에서 수행된 동작을 의미한다.
이를 위하여, 동작 입력부(110)는 제 1 동작을 입력받는 제 1 동작 입력부 및 제 2 동작을 입력받는 제 2 동작 입력부를 별도로 구비할 수 있다.
동작 입력부(110)는 자이로 센서, 지자기 센서 및 가속도 센서 중 적어도 하나를 이용하여 제 1 동작 또는 제 2 동작을 입력받을 수 있는데, 동작이 입력된 경우 그에 대응하는 동작 신호가 발생된다.
동작 방향 검출부(120)는 제 1 동작에 의하여 발생된 동작 신호를 분석하여 음 출력 장치(100)의 이동 방향 및 이동 거리를 검출하는 역할을 한다. 여기서, 음 출력 장치(100)의 이동 방향이 지표면에 대하여 평행한 경우 동작 방향 검출부(120)는 자이로 센서, 지자기 센서 또는 가속도 센서에 의하여 발생된 동작 신호를 이용하여 이동 방향 및 이동 거리를 검출할 수 있고, 음 출력 장치(100)의 이동 방향이 지표면에 대하여 수직인 경우 동작 방향 검출부(120)는 자이로 센서 또는 가속도 센서에 의하여 발생된 동작 신호를 이용하여 이동 방향 및 이동 거리를 검출할 수 있다.
또한, 동작 방향 검출부(120)에는 중력의 방향을 감지하는 센서가 구비되어 있을 수도 있는데 중력 감지 센서 및 자이로 센서의 동작 신호를 이용하여 동작 방향 검출부(120)는 음 출력 장치(100)의 자세와 무관하게 음 출력 장치(100)의 이동 방향을 검출할 수도 있다. 예를 들어, 사용자가 음 출력 장치(100)의 특정 면이 자신을 향하도록 한 후에 우측으로 이동시키면 동작 방향 검출부(120)는 음 출력 장치(100)가 우측으로 이동되었다는 것을 감지할 수 있는데 이 때, 사용자가 음 출력 장치(100)의 다른 면이 자신을 향하도록 한 후 좌측으로 이동시키더라도 중력 감지 센서 및 자이로 센서에 의하여 음 출력 장치(100)의 자세가 변한 것이 감지되므로 동작 방향 검출부(120)는 사용자를 기준으로 음 출력 장치(100)가 좌측으로 이동되었다는 것을 감지할 수 있게 되는 것이다.
위치 확인부(140)는 적어도 하나 이상의 세부 공간으로 분할된 공간상에서 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인하는 역할을 한다. 즉, 음 출력 장치(100)의 활동 반경인 공간은 적어도 하나 이상의 세부 공간으로 분할되고 각각의 세부 공간은 특정 크기를 갖게 되는데, 위치 확인부(140)는 복수 개의 세부 공간 중 어느 세부 공간에 음 출력 장치(100)가 위치하는지를 확인하는 것이다.
여기서, 세부 공간 각각의 위치, 모양 및 크기는 사용자에 의하여 결정될 수 있다. 예를 들어, 사각형 모양을 갖는 복수 개의 세부 공간이 서로 인접하여 배치되거나 소정 간격을 두고 배치될 수 있고, 일렬 또는 복수 개의 열로 배치될 수도 있다. 또한, 사용자는 각 세부 공간의 위치, 모양 및 크기를 임의로 결정할 수도 있다.
동작 패턴 검출부(130)는 제 2 동작에 의하여 발생된 동작 신호를 분석하여 음 출력 장치(100)의 동작 패턴을 검출하는 역할을 한다. 예를 들면, 왕복 직선 운동 또는 회전 운동뿐만 아니라 복잡한 도형 운동 등의 동작 패턴을 검출하는 것으로서, 동작 패턴 검출부(130)는 직선 운동의 왕복 방향 및 회전 운동의 회전 방향 등에 따라 서로 다른 동작 패턴을 검출할 수도 있다.
음 추출부(150)는 제 2 동작이 입력된 경우 음 출력 장치(100)가 위치한 세부 공간에 대응되는 음을 저장부(160)에서 추출하는 역할을 한다. 즉, 저장부(160) 에는 각 세부 공간에 대응되는 음이 저장되어 있는 것으로서, 음 추출부(150)는 위치 확인부(140)로부터 음 출력 장치(100)가 위치한 세부 공간을 전달받고, 동작 패턴 검출부(130)로부터 동작 패턴을 전달받음으로써 세부 공간에 대응되는 음을 추출하는 것이다. 세부 공간에 대응되는 음이란, 특정 악기에 의하여 발생되는 음의 피치 또는 효과음을 의미하는 것으로서 예를 들어, 제 1 내지 제 7의 세부 공간이 배치되어 있는 경우 해당 악기가 멜로디 악기이면 각 세부 공간에 대응되는 음은 도, 레, 미, 파, 솔, 라, 시일 수 있으며, 해당 악기가 드럼 세트와 같은 리듬 악기이면 각 세부 공간에 대응되는 음은 스네어 드럼, 제 1 탐탐, 제 2 탐탐, 제 3 탐탐, 베이스 드럼, 하이-햇, 심벌일 수 있는 것이다. 여기서, 악기의 종류는 사용자에 의하여 설정될 수 있으며 제 2 동작에 따라 결정될 수도 있다.
다시 말해, 음 추출부(150)는 제 2 동작에 포함된 패턴의 종류에 대응하는 악기의 음을 추출할 수도 있는 것으로서 예를 들어, 제 2 동작의 패턴이 상하 왕복 운동인 경우 음 추출부(150)는 피아노 음을 추출하고, 제 2 동작의 패턴이 좌우 왕복 운동인 경우 음 추출부(150)는 바이올린 음을 추출할 수 있는 것이다. 즉, 제 2 동작의 패턴에 따라 출력되는 음의 악기가 변경될 수 있는 것이다.
한편, 사용자의 설정에 따라 세부 공간에 대응되어 악기의 종류가 결정되고, 제 2 동작의 패턴에 따라 음의 피치가 변경될 수도 있음은 물론이다.
저장부(160)는 출력되는 음에 대한 음원을 저장하는 역할을 한다. 여기서, 음원은 실제 악기로 연주된 음에 대한 데이터, 실제 악기의 음색을 제공하도록 가공된 음에 대한 데이터, 사용자에 의해 입력된 음에 대한 데이터 및 코드 음에 대 한 데이터 중 적어도 하나일 수 있다.
실제 악기로 연주된 음에 대한 데이터는 실제 악기로 연주된 음을 녹음하고 이를 디지털로 변환한 데이터로서 wav, mp3, wma 등의 다양한 포맷으로 존재할 수 있다. 또한, 이는 사용자에 의해 가공된 것일 수도 있다.
한편, 실제 악기로 연주된 음에 대한 데이터는 조성에 따른 모든 음이 저장되어 있지 않고, 기준 음만이 저장되어 있을 수도 있다. 즉, 다장조의 경우 도에 해당하는 음원만이 저장되어 있는 것이다.
실제 악기의 음색을 제공하도록 가공된 음에 대한 데이터는 예를 들어, 미디(MIDI) 음원과 같은 것으로서, 기준 음원에 해당 음에 대응되는 피치를 부여함으로써 해당 음을 구현할 수 있게 한다.
사용자에 의해 입력된 음에 대한 데이터는 실제 악기로 연주된 음에 대한 데이터와 유사한 것으로서, 사용자는 특정 음이 아닌 효과음 등을 입력할 수도 있다. 이에 따라, 음 출력 장치(100)는 동작에 따른 음을 출력하는 멜로디 악기의 역할뿐만 아니라 타악기 또는 특수 악기의 역할까지도 수행할 수 있게 된다.
코드 음에 대한 데이터는 특정 음을 근음으로 하는 코드에 대한 데이터로서, 여기서 근음은 세부 공간에 대응되는 음일 수 있다. 예를 들어, 세부 공간에 대응되는 음이 도인 경우 이는 C코드에 해당하는 도, 미, 솔의 음이 동시에 추출될 수 있도록 하는 것이다. 이에 따라, 사용자는 음 출력 장치(100)의 동작에 따른 화음을 연주할 수도 있게 된다.
또한, 저장부(160)는 세부 공간 테이블을 저장할 수 있다. 세부 공간 테이블 은 세부 공간과 음을 대응시킨 테이블로서, 음 추출부(150)는 세부 공간 테이블을 참조하여 음을 추출할 수 있다. 세부 공간 테이블에 대한 자세한 설명은 도 3을 통하여 후술하기로 한다.
또한, 저장부(160)는 패턴 테이블을 저장할 수도 있다. 패턴 테이블은 제 2 동작의 종류에 따라 악기를 대응시킨 테이블로서, 음 추출부(150)는 패턴 테이블을 참조하여 추출된 음의 악기를 전환할 수 있다. 패턴 테이블에 대한 자세한 설명은 도 4를 통하여 후술하기로 한다.
저장부(160)는 하드 디스크, 플래시 메모리, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC 카드(Multimedia Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 음 출력 장치(100)의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.
출력부(170)는 음 추출부(150)에 의하여 추출된 음을 출력하는 역할을 한다. 또한, 출력부(170)는 제 1 동작에 의하여 세부 공간의 결정이 전환된 경우 효과음을 출력할 수도 있다. 이에 따라, 사용자는 자신의 동작에 따라 세부 공간이 전환되었음을 인식할 수 있게 된다.
또한, 출력부(170)는 제 1 동작에 의하여 결정된 세부 공간의 종류에 대응하는 색상을 디스플레이할 수도 있다. 예를 들어, 제 1 내지 제 7 세부 공간이 배치되어 있는 경우, 각 세부 공간에 빨간색, 주황색, 노란색, 초록색, 파란색, 남색, 보라색이 대응된 상태에서 음 출력 장치(100)가 제 1 세부 공간에 위치하면 출력부 (170)는 빨간색을 디스플레이하고, 음 출력 장치(100)가 제 4 세부 공간에 위치하면 초록색을 디스플레이하는 것이다. 이에 따라, 사용자는 자신의 동작에 따라 음 출력 장치(100)가 위치한 세부 공간을 인식할 수 있게 된다.
또한, 출력부(170)는 제 1 동작에 의해 음 출력 장치(100)가 각 세부 공간으로 진입하는 순간 진동을 발생시킬 수도 있다. 여기서, 발생되는 진동의 패턴은 모든 세부 공간에 대하여 동일할 수 있고, 각 세부 공간에 대하여 다를 수도 있다. 한편, 출력부(170)에 의한 진동은 세부 공간 진입 시뿐만 아니라 해당 세부 공간에 음 출력 장치(100)가 머물러 있는 동안 계속하여 발생할 수도 있다. 그리고, 출력부(170)는 제 2 동작인 소정의 패턴을 가진 동작에 동기화된 진동을 발생할 수도 있다. 예를 들어, 제 2 동작에 해당하는 상하 왕복 운동이 드럼을 두드리는 동작인 경우 소리가 발생하는 시점, 즉 상하 방향이 전환되는 순간에 진동이 발생되도록 하는 것이다. 출력부(170)의 진동 패턴에 따라 사용자는 자신에 의해 입력된 제 1 동작 및 제 2 동작을 확인할 수 있게 된다.
특정 악기의 음 및 효과음을 출력하고, 색상을 디스플레이하며, 진동을 발생하기 위하여 출력부(170)는 음성 출력부(171), 디스플레이부(172) 및 진동부(173)를 포함하여 구성될 수 있다.
여기서, 음성 출력부(171)는 음성 신호를 출력하는 역할을 한다. 즉, 음성 정보가 포함된 전기 신호를 진동판의 진동으로 바꾸어 공기에 소밀파를 발생시킴으로써 음파를 복사하는 것으로서, 일반적으로 스피커(speaker)가 음성 출력부(171)의 역할을 수행할 수 있다.
음성 출력부(171)는 동전형, 전자기형, 정전형, 유전체형 또는 자기왜형 등의 방법을 이용하여 전기 신호를 음파로 변환할 수 있다.
또한, 디스플레이부(172)는 입력된 영상 신호를 디스플레이할 수 있는 음극선관(CRT, Cathode Ray Tube), 액정 화면(LCD, Liquid Crystal Display), 발광 다이오드(LED, Light-Emitting Diode), 유기 발광 다이오드(OLED, Organic Light-Emitting Diode) 또는 플라즈마 디스플레이(PDP, Plasma Display Panel) 등의 영상 표시 수단이 구비된 모듈로서 세부 공간에 대응하는 색상을 디스플레이하는 역할을 한다.
진동부(173)는 전자 방식 또는 모터 방식으로 진동을 발생시키는 모듈이다. 전자식은 전자석의 원리를 이용한 것으로서 전류를 1초 동안에 수십 번 또는 수백 번 단속해서 코일에 흘려서 철심을 진동시키고, 모터식은 모터의 회전을 코일 스크링에 의해 분동축에 전달하고, 무게 중심이 한쪽으로 치우치게 함으로써 진동을 발생시킨다.
도 2는 본 발명의 실시예에 따른 공간이 세부 공간으로 분할된 것을 나타낸 개념도로서, 음 출력 장치(100)의 활동 가능 공간(200)이 8개의 세부 공간(201, 202, 203, 204, 205, 206, 207, 208)으로 분할된 것을 나타내고 있다.
세부 공간은 음 출력 장치(100)의 제 2 동작(221, 222)이 감지될 수 있는 공간상의 영역으로서, 그 배치, 모양 및 크기는 사용자에 의하여 결정될 수 있다.
사용자의 동작이 제 1 동작(211, 212)인 경우 즉, 음 출력 장치(100)가 위치한 세부 공간을 전환시키는 동작인 경우 이는 동작 방향 검출부(120)에 의하여 감 지되어 위치 확인부(140)로 전달된다. 그리고, 위치 확인부(140)는 최종적으로 음 출력 장치(100)가 위치한 세부 공간을 확인한다. 즉, 제 1 동작(211, 212)은 한 칸의 세부 공간 전환뿐만 아니라 복수 개의 세부 공간 전환도 포함되는 것이다.
한편, 사용자의 동작이 제 2 동작(221, 222)인 경우 즉, 소정 패턴을 가진 동작인 경우 이는 동작 패턴 검출부(130)에 의하여 감지되어 음 추출부(150)로 전달되고, 음 추출부(150)는 해당 세부 공간과 제 2 동작(221, 222)의 패턴을 참조하여 저장부(160)에서 음을 추출한다.
예를 들어, 도 2의 제 1 내지 제 8 세부 공간(201, 202, 203, 204, 205, 206, 207, 208)에 대응되어 있는 음이 도, 레, 미, 파, 솔, 라, 시, 도인 경우 최초 음 출력 장치(100)의 위치가 제 1 세부 공간(201)인 상태에서 제 3 세부 공간(203)으로 이동하면 음 추출부(150)는 미의 음을 추출하고, 다시 제 5 세부 공간(205)으로 이동하면 음 추출부(150)는 솔의 음을 추출하는 것이다. 이 때, 제 2 동작(221, 222)의 패턴에 따라 추출되는 악기의 종류가 달라질 수도 있는 것인데 예를 들어, 상하 운동이 포함된 제 2 동작(221)이 입력된 경우 피아노의 음이 추출되고, 좌우 운동이 포함된 제 2 동작(222)이 입력된 경우 바이올린의 음이 추출될 수 있는 것이다.
세부 공간은 도 2에 도시된 바와 같이 2차원으로 배치될 수 있으며, 3차원으로 배치될 수도 있다.
도 3은 본 발명의 실시예에 따른 세부 공간 테이블을 나타낸 도면으로서, 세부 공간 테이블(300)은 식별 번호 필드(310), 위치 필드(320), 모양 필드(330), 크 기 필드(340) 및 피치 필드(350)를 포함하여 구성된다.
식별 번호 필드(310)는 각 세부 공간에 부여된 번호가 입력된 필드로서, 음 출력 장치(100)의 위치를 음 추출부(150)에 통보하기 위하여 위치 확인부(140)에 의하여 이용된다. 즉, 위치 확인부(140)에 의하여 음 출력 장치(100)의 위치가 확인된 경우 해당 세부 공간에 부여된 식별 번호가 음 추출부(150)로 전달되고, 음 추출부(150)는 전달받은 식별 번호에 대응하는 음을 추출하는 것이다.
위치 필드(320)는 세부 공간의 위치가 입력된 필드로서, 위치 필드(320)에 입력된 위치는 기준 위치에 대한 상대적인 위치를 의미한다. 예를 들어, 사용자는 세부 공간의 위치를 결정하기 전에 기준 위치를 결정하고, 기준 위치에서 소정 간격 떨어진 공간상에서 버튼 등을 이용하여 각 세부 공간을 설정할 수 있는 것이다. 세부 공간의 위치는 2차원 또는 3차원 공간상에서 결정될 수 있다.
모양 필드(330)은 세부 공간의 모양이 입력된 필드로서, 세부 공간 설정 시 사용자에 의하여 결정된다.
크기 필드(340)는 세부 공간의 크기가 입력된 필드로서, 세부 공간 설정 시 사용자에 의하여 결정된다. 즉, 사용자는 세부 공간의 위치 및 크기를 설정함으로써 세부 공간 간의 간격을 결정할 수 있게 된다.
피치 필드(350)는 추출되는 음의 피치를 나타낸다. 피치 또한 세부 공간 설정 시 사용자에 의하여 결정될 수 있다. 한편, 피치는 설정된 악기가 멜로디 악기인 경우에만 해당하는 것으로서, 만일 설정된 악기가 리듬 악기인 경우 후술하는 패턴 테이블에 따라 그 효과음이 달라질 수 있다.
도 4는 본 발명의 실시예에 따른 패턴 테이블을 나타낸 도면으로서, 패턴 테이블(400)은 식별 번호 필드(410) 및 패턴 필드(420)를 포함하여 구성된다.
식별 번호 필드(410)는 각 세부 공간에 부여된 번호가 입력된 필드로서, 세부 공간 테이블(300)에 포함된 식별 번호와 동일한 것을 의미한다. 이에 대한, 자세한 설명은 도 3을 통하여 전술하였으므로 생략하기로 한다.
패턴 필드(420)는 제 2 동작에 포함된 음 출력 장치(100)의 동작 패턴으로서, 이에 따라 추출되는 악기의 종류가 달라질 수 있다. 예를 들어, 상하 운동의 제 1 패턴(421)이 입력된 경우 피아노의 음이 추출되고, 좌우 운동의 제 2 패턴(422)이 입력된 경우 바이올린의 음이 추출되며, 원 운동의 제 3 패턴(423)이 입력된 경우 드럼 세트의 효과음이 추출되는 것이다.
즉, 사용자는 동일한 세부 공간에서 서로 다른 악기의 음이 추출되도록 할 수 있는 것이다.
패턴 테이블(400)은 사용자의 선택에 따라 저장부(160)에 저장되어 있지 않을 수도 있는데, 이 때 음 추출부(150)는 상하 운동, 좌우 운동, 원 운동 등 모든 패턴의 제 2 동작에 대하여 피아노 또는 바이올린과 같은 기본 악기의 음을 추출한다.
도 5a 내지 도 5c는 본 발명의 실시예에 따른 음 출력 장치의 이동 방향 및 이동 거리가 검출되는 것을 나타낸 도면으로서, 자이로 센서, 지자기 센서 및 가속도 센서의 의하여 이동 방향이 검출되는 것을 나타낸다.
도 5a는 자이로 센서에 의하여 음 출력 장치(100)의 이동 방향 및 이동 거리 가 검출되는 것을 나타낸다. 사용자에 의하여 음 출력 장치(100)가 이동하는 경우, 그 이동은 사용자의 팔꿈치 또는 어깨를 축으로 하는 원 운동에 해당된다. 이에 따라, 자이로 센서는 중심 축(500)에 대하여 음 출력 장치(100)의 각속도(550)를 이용하여 이동 방향 및 거리를 검출할 수 있게 된다.
즉, 음 출력 장치(100)의 이동 시작 시점(510)이 t 1 이고, 이동 완료 시점(520)이 t 2 인 경우 이동 각(590a) φ는 다음 수학식에 의하여 결정된다.
도 5b는 지자기 센서에 의하여 음 출력 장치(100)의 이동 방향 및 이동 거리가 검출되는 것을 나타낸 것으로서, 도 5a에서와 마찬가지로 음 출력 장치(100)의 이동이 사용자의 팔꿈치 또는 어깨를 축(500)으로 하는 원 운동인 경우를 나타낸다. 즉, 지자기 센서는 음 출력 장치(100)의 이동 시작 시점(510)인 t 1 에서의 방향과 이동 완료 시점(520)인 t 2 에서의 방향을 비교하여 두 시점간의 각도(590b)를 계산하여 음 출력 장치(100)의 이동 방향 및 거리를 검출하는 것이다.
도 5c는 가속도 센서에 의하여 음 출력 장치(100)의 이동 거리가 검출되는 것을 나타낸 도면으로서, 도 5a 내지 도 5b와는 다르게 음 출력 장치(100)의 이동이 직선 운동인 경우를 나타낸다. 즉, 가속도 센서는 수평 방향으로의 가속도 변화(591c) 또는 수직 방향으로의 가속도 변화(592c)를 감지하여 음 출력 장치(100)의 이동 거리를 검출하는 것이다.
음 출력 장치(100)는 자이로 센서, 지자기 센서 및 가속도 센서 중 하나만을 이용하여 자신의 이동 방향 및 이동 거리를 검출할 수 있으며, 복합적인 센서의 조합 및 중력 감지 센서 등을 이용하여 이동 방향 및 이동 거리를 검출할 수도 있다.
또한 전술한 바와 같이, 음 출력 장치(100)는 복합적인 센서의 조합 및 중력 감지 센서 등을 이용하여 자신이 자세와 무관하게 이동 방향 및 이동 거리를 검출할 수도 있다. 이에 따라, 사용자가 음 출력 장치(100)를 이동시킴에 있어서, 매 이동 시마다 서로 다른 파지 자세로 쥔 상태에서 음 출력 장치(100)를 이동시켜도 음 출력 장치(100)는 세부 공간의 위치를 확인할 수 있게 된다.
도 6은 본 발명의 실시예에 따른 세부 공간의 종류에 대응하는 색상이 디스플레이되는 것을 나타낸 개념도이다.
사용자가 음 출력 장치(100)를 이동시켜 특정 세부 공간에 위치시키고자 하는 경우, 사용자는 공간상의 세부 공간을 시각적으로 인식하지 못한 상태에서 음 출력 장치(100)를 이동시키므로 자신의 이동에 대한 확신을 갖기 어렵다. 이에 따라, 출력부(170)에 포함된 디스플레이부(172)는 위치 확인부(140)에 의하여 확인된 세부 공간에 대응하는 색을 디스플레이한다.
세부 공간에 대응되는 색은 세부 공간 테이블(300) 작성 시에 사용자에 의하 여 입력될 수 있다. 또한, 세부 공간에 대응되는 색은 디스플레이부(172)에 의하여 임의로 출력될 수도 있는데 예를 들어, 사용자는 자신이 이동시키고자 하는 세부 공간의 위치를 개략적으로 인식하고 있으므로, 디스플레이되는 색의 전환을 통하여 자신이 원하는 세부 공간에 음 출력 장치(100)가 위치하였는지를 확인할 수 있게 되는 것이다.
도 6은 제 1 내지 제 8 세부 공간(610, 620, 630, 640, 650, 660, 670, 680)은 각각 빨간색, 주황색, 노란색, 초록색, 파란색, 남색, 보라색으로 설정되어 있는 것을 나타내는데, 제 1 동작에 의하여 결정된 세부 공간이 제 1 세부 공간(610)인 경우 디스플레이부(172)는 빨간색을 디스플레이하고, 제 1 동작에 의하여 결정된 세부 공간이 제 4 세부 공간(640)인 경우 디스플레이부(172)는 초록색을 디스플레이하는 것이다.
그리고, 출력부(170)에 포함된 음성 출력부(171)는 세부 공간의 전환될 때마다 특정 효과음을 출력하거나 세부 공간에 대응하는 효과음을 출력할 수도 있으며, 진동부(173)는 세부 공간의 전환 또는 제 2 동작에 의한 동작 패턴에 대응하는 진동을 출력할 수도 있다.
도 7은 본 발명의 실시예에 따른 추출된 악기의 종류에 대응하는 색상이 디스플레이되는 것을 나타낸 개념도로서, 제 2 동작에 포함된 패턴에 따른 색상이 디스플레이되는 것을 나타낸다.
전술한 바와 같이, 동일한 세부 공간이라고 하더라도 제 2 동작에 따라 추출되는 악기의 종류가 달라질 수 있는데, 디스플레이부(172)는 악기의 종류에 대응하 는 색상을 디스플레이한다.
도 7에서와 같은 경우, 제 2 동작은 좌측으로의 왕복 동작(710), 상측으로의 왕복 동작(720), 우측으로의 왕복 동작(730), 하측으로의 왕복 동작(740) 또는 원 동작(750)일 수 있는데 이에 따라, 음 추출부(150)는 각각에 대하여 피아노, 바이올린, 트럼펫, 드럼 또는 실로폰의 음을 추출하고, 디스플레이부(172)는 각각 빨간색, 노란색, 파란색, 초록색 또는 검은색을 디스플레이한다.
한편, 도 6에서와 같이 세부 공간의 종류에 대응하는 색상과 도 7에서와 같이 악기의 종류에 대응하는 색상이 디스플레이되는 경우 사용자에게 혼돈을 줄 수도 있으므로, 디스플레이부(172)는 각각을 별도로 디스플레이할 수 있도록 분리되어 구비될 수도 있다.
도 8은 본 발명의 실시예에 따른 동작에 따른 음을 출력하는 과정을 나타낸 흐름도이다.
동작에 따른 음을 출력하기 위하여 음 출력 장치(100)의 동작 입력부(110)는 우선 사용자로부터 동작을 입력받는다(S810). 여기서, 동작은 이동을 위한 제 1 동작 또는 소정의 패턴을 갖는 제 2 동작을 포함한다.
사용자의 동작을 입력받기 위하여 동작 입력부(110)는 자이로 센서, 지자기 센서 및 가속도 센서 중 적어도 하나를 이용하여 제 1 동작 또는 제 2 동작을 입력받을 수 있다.
제 1 동작에 의하여 발생된 동작 신호는 동작 방향 검출부(120)로 전달되고, 동작 방향 검출부(120)는 전달받은 동작 신호를 분석하여 음 출력 장치(100)의 이 동 방향 및 이동 거리를 검출한다(S820). 동작 방향 검출부(120)는 자이로 센서, 지자기 센서 및 가속도 센서 중 하나에 의하여 발생된 동작 신호를 이용하여 이동 방향 및 이동 거리를 검출할 수도 있고, 복수 개의 센서에 의하여 발생된 동작 신호의 조합을 이용하여 이동 방향 및 이동 거리를 검출할 수도 있다.
또한 전술한 바와 같이, 동작 방향 검출부(120)는 중력 감지 센서를 이용하여 음 출력 장치(100)의 자세와 무관하게 음 출력 장치(100)의 이동 방향 및 이동 거리를 검출할 수도 있다.
동작 방향 검출부(120)에 의하여 검출된 이동 방향 및 이동 거리는 위치 확인부(140)로 전달되고, 위치 확인부(140)는 전달받은 이동 정보를 이용하여 적어도 하나 이상의 세부 공간으로 분할된 공간상에서 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인한다(S830). 여기서, 공간상에서 분할된 상기 적어도 하나 이상의 세부 공간 각각의 위치, 모양 및 크기는 사용자에 의하여 결정되어 저장부(160)에 저장될 수 있다.
한편, 동작 입력부(110)로 입력된 동작이 제 2 동작인 경우 이는 동작 패턴 검출부(130)로 전달되고, 동작 패턴 검출부(130)는 제 2 동작에 의하여 발생된 동작 신호를 분석하여 음 출력 장치(100)의 동작 패턴을 검출한다(S840). 음 출력 장치(100)의 동작 패턴으로는 상하 직선 운동, 좌우 직선 운동 및 원 운동뿐만 아니라 복잡한 도형의 운동이 포함될 수 있다.
위치 확인부(140)에 의해 확인된 세부 공간의 식별 번호 및 동작 패턴 검출부(130)에 의하여 검출된 제 2 동작에 포함된 동작 패턴은 음 추출부(150)로 전달 되고, 음 추출부(150)는 제 2 동작이 입력됨에 따라 전달받은 식별 번호를 갖는 세부 공간에 대응되는 음을 저장부(160)에서 추출한다(S850). 즉, 음 추출부(150)는 세부 공간에 대응되는 음을 추출하는 것인데 이 때, 제 2 동작의 패턴에 대응하는 악기의 음을 추출할 수 있다. 여기서, 세부 공간에 대응되는 음은 사용자에 의하여 사전에 결정되어 저장될 수 있다.
추출된 음은 출력부(170)로 전달되고, 출력부(170)는 전달받은 음을 출력한다(S860). 또한, 출력부(170)는 음을 출력할 수 있는 음성 출력부(171)뿐만 아니라 소정 색상을 디스플레이할 수 있는 디스플레이부(172) 및 소정 패턴의 진동을 발생시키는 진동부(173)를 포함할 수 있는데, 디스플레이부(172)는 세부 공간에 대응하는 색상 또는 제 2 동작의 패턴에 대응하는 색상을 디스플레이하며, 진동부(173)는 제 1 동작 및 제 2 동작에 대응하는 진동을 발생할 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상기한 바와 같은 본 발명의 동작에 따른 음을 출력하는 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 장치가 이동할 수 있는 공간을 복수 개의 세부 공간으로 분할하고 각 세부 공간에 서로 다른 음을 대응시켜, 특정 세부 공간에 위치한 장치의 동작에 따라 해당 세부 공간에 대응하는 음을 출력함으로써 사용자로 하여금 간편하게 다양한 음을 선택할 수 있도록 하는 장점이 있다.
둘째, 세부 공간 분할 및 각 세부 공간에 대응되는 음원을 사용자가 직접 설정할 수 있게 함으로써 사용자로 하여금 자신의 취향에 따라 용이하게 음악을 연주할 수 있게 하는 장점도 있다.
Claims (24)
- 이동을 위한 제 1 동작 또는 소정의 패턴을 갖는 제 2 동작을 입력받는 동작 입력부;적어도 하나 이상의 세부 공간으로 분할된 공간상에서 상기 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인하는 위치 확인부;상기 확인된 위치의 세부 공간에 대응하는 음 및 상기 입력된 제 2 동작의 패턴에 대응되는 음이 조합된 음을 추출하는 음 추출부; 및상기 추출된 음을 출력하는 출력부를 포함하는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 동작 입력부는 상기 제 1 동작을 입력받는 제 1 동작 입력부 및 상기 제 2 동작을 입력받는 제 2 동작 입력부를 별도로 구비하는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 동작 입력부는 자이로 센서, 지자기 센서 및 가속도 센서 중 적어도 하나를 이용하여 상기 제 1 동작 또는 상기 제 2 동작을 입력받는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 공간상에서 분할된 상기 적어도 하나 이상의 세부 공간 각각의 위치, 모양 및 크기는 사용자에 의하여 결정되는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 세부 공간에 대응되는 음은 사용자에 의하여 결정되는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 음 추출부는 상기 제 2 동작에 포함된 패턴의 종류에 대응하는 악기의 음을 추출하는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 출력부는 상기 제 1 동작에 의하여 세부 공간의 결정이 전환된 경우 효과음을 출력하는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 출력부는 상기 제 1 동작에 의하여 결정된 세부 공간의 종류에 대응하는 색상을 디스플레이하는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 출력부는 상기 추출된 음에 대응하는 색상을 디스플레이하는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 출력부는 상기 제 1 동작에 의하여 세부 공간의 결정이 전환된 경우 진동을 발생시키는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 출력부는 상기 제 1 동작에 의하여 결정된 세부 공간의 종류에 대응하는 진동을 발생시키는 동작에 따른 음을 발생하는 장치.
- 제 1항에 있어서,상기 출력부는 상기 제 2 동작에 대응하는 진동을 발생시키는 동작에 따른 음을 발생하는 장치.
- (a) 이동을 위한 제 1 동작 또는 소정의 패턴을 갖는 제 2 동작을 입력받는 단계;(b) 적어도 하나 이상의 세부 공간으로 분할된 공간상에서 상기 제 1 동작에 의하여 결정된 세부 공간의 위치를 확인하는 단계;(c) 상기 확인된 위치의 세부 공간에 대응하는 음 및 상기 입력된 제 2 동작의 패턴에 대응되는 음이 조합된 음을 추출하는 단계; 및(d) 상기 추출된 음을 출력하는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (a) 단계는 상기 제 1 동작을 입력받는 단계 및 상기 제 2 동작을 입력받는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (a) 단계는 자이로 센서, 지자기 센서 및 가속도 센서 중 적어도 하나를 이용하여 상기 제 1 동작 또는 상기 제 2 동작을 입력받는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 공간상에서 분할된 상기 적어도 하나 이상의 세부 공간 각각의 위치, 모양 및 크기는 사용자에 의하여 결정되는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 세부 공간에 대응되는 음은 사용자에 의하여 결정되는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (c) 단계는 상기 제 2 동작에 포함된 패턴의 종류에 대응하는 악기의 음을 추출하는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (d) 단계는 상기 제 1 동작에 의하여 세부 공간의 결정이 전환된 경우 효과음을 출력하는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (d) 단계는 상기 제 1 동작에 의하여 결정된 세부 공간의 종류에 대응하는 색상을 디스플레이하는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (d) 단계는 상기 추출된 음에 대응하는 색상을 디스플레이하는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (d) 단계는 상기 제 1 동작에 의하여 세부 공간의 결정이 전환된 경우 진동을 발생시키는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (d) 단계는 상기 제 1 동작에 의하여 결정된 세부 공간의 종류에 대응하는 진동을 발생시키는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
- 제 13항에 있어서,상기 (d) 단계는 상기 제 2 동작에 대응하는 진동을 발생시키는 단계를 포함하는 동작에 따른 음을 발생하는 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060014272A KR101189214B1 (ko) | 2006-02-14 | 2006-02-14 | 동작에 따른 음을 출력하는 장치 및 방법 |
US11/704,303 US7723604B2 (en) | 2006-02-14 | 2007-02-09 | Apparatus and method for generating musical tone according to motion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060014272A KR101189214B1 (ko) | 2006-02-14 | 2006-02-14 | 동작에 따른 음을 출력하는 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070081948A KR20070081948A (ko) | 2007-08-20 |
KR101189214B1 true KR101189214B1 (ko) | 2012-10-09 |
Family
ID=38366978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060014272A KR101189214B1 (ko) | 2006-02-14 | 2006-02-14 | 동작에 따른 음을 출력하는 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7723604B2 (ko) |
KR (1) | KR101189214B1 (ko) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008020340B4 (de) * | 2008-04-18 | 2010-03-18 | Hochschule Magdeburg-Stendal (Fh) | Gestengesteuertes MIDI-Instrument |
US7939742B2 (en) * | 2009-02-19 | 2011-05-10 | Will Glaser | Musical instrument with digitally controlled virtual frets |
JP5742163B2 (ja) * | 2010-10-15 | 2015-07-01 | ヤマハ株式会社 | 情報処理端末および設定制御システム |
JP5338794B2 (ja) * | 2010-12-01 | 2013-11-13 | カシオ計算機株式会社 | 演奏装置および電子楽器 |
JP5712603B2 (ja) * | 2010-12-21 | 2015-05-07 | カシオ計算機株式会社 | 演奏装置および電子楽器 |
US8829323B2 (en) * | 2011-02-18 | 2014-09-09 | Talent Media LLC | System and method for single-user control of multiple roles within a music simulation |
CN102651212B (zh) * | 2011-02-28 | 2015-05-27 | 卡西欧计算机株式会社 | 演奏装置及电子乐器 |
JP5848520B2 (ja) * | 2011-05-11 | 2016-01-27 | 任天堂株式会社 | 音楽演奏プログラム、音楽演奏装置、音楽演奏システム、および音楽演奏方法 |
WO2012170344A2 (en) * | 2011-06-07 | 2012-12-13 | University Of Florida Research Foundation, Inc. | Modular wireless sensor network for musical instruments and user interfaces for use therewith |
JP5902919B2 (ja) * | 2011-11-09 | 2016-04-13 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、情報処理方法 |
JP2013182195A (ja) * | 2012-03-02 | 2013-09-12 | Casio Comput Co Ltd | 演奏装置及びプログラム |
JP5966465B2 (ja) * | 2012-03-14 | 2016-08-10 | カシオ計算機株式会社 | 演奏装置、プログラム及び演奏方法 |
JP6127367B2 (ja) | 2012-03-14 | 2017-05-17 | カシオ計算機株式会社 | 演奏装置及びプログラム |
JP2013190690A (ja) * | 2012-03-14 | 2013-09-26 | Casio Comput Co Ltd | 演奏装置及びプログラム |
JP6024136B2 (ja) * | 2012-03-15 | 2016-11-09 | カシオ計算機株式会社 | 演奏装置、演奏方法及びプログラム |
US9327203B2 (en) * | 2014-04-03 | 2016-05-03 | Ramin Soheili | Systems and methods for real time sound effect modulation based on attitude variations |
KR101778428B1 (ko) * | 2016-02-04 | 2017-09-14 | 박종섭 | 양극 연주 전자 악기 |
US20170337909A1 (en) * | 2016-02-15 | 2017-11-23 | Mark K. Sullivan | System, apparatus, and method thereof for generating sounds |
US10102835B1 (en) * | 2017-04-28 | 2018-10-16 | Intel Corporation | Sensor driven enhanced visualization and audio effects |
CN108986777A (zh) * | 2018-06-14 | 2018-12-11 | 森兰信息科技(上海)有限公司 | 通过体感进行音乐模拟的方法、体感设备及乐器终端 |
US10643592B1 (en) * | 2018-10-30 | 2020-05-05 | Perspective VR | Virtual / augmented reality display and control of digital audio workstation parameters |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5920024A (en) | 1996-01-02 | 1999-07-06 | Moore; Steven Jerome | Apparatus and method for coupling sound to motion |
JP2003076368A (ja) | 2001-09-05 | 2003-03-14 | Yamaha Corp | 移動通信端末、センサユニット、楽音生成システム、楽音生成装置および楽音情報提供方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2071389B (en) * | 1980-01-31 | 1983-06-08 | Casio Computer Co Ltd | Automatic performing apparatus |
US5017770A (en) * | 1985-10-07 | 1991-05-21 | Hagai Sigalov | Transmissive and reflective optical control of sound, light and motion |
US5081896A (en) * | 1986-11-06 | 1992-01-21 | Yamaha Corporation | Musical tone generating apparatus |
US4968877A (en) * | 1988-09-14 | 1990-11-06 | Sensor Frame Corporation | VideoHarp |
IL95998A (en) * | 1990-10-15 | 1995-08-31 | Interactive Light Inc | Apparatus and process for operating musical instruments video games and the like by means of radiation |
US5442168A (en) * | 1991-10-15 | 1995-08-15 | Interactive Light, Inc. | Dynamically-activated optical instrument for producing control signals having a self-calibration means |
US5459312A (en) * | 1991-10-15 | 1995-10-17 | Interactive Light Inc. | Action apparatus and method with non-contact mode selection and operation |
US5475214A (en) * | 1991-10-15 | 1995-12-12 | Interactive Light, Inc. | Musical sound effects controller having a radiated emission space |
US5808219A (en) * | 1995-11-02 | 1998-09-15 | Yamaha Corporation | Motion discrimination method and device using a hidden markov model |
US5875257A (en) * | 1997-03-07 | 1999-02-23 | Massachusetts Institute Of Technology | Apparatus for controlling continuous behavior through hand and arm gestures |
GB9820747D0 (en) * | 1998-09-23 | 1998-11-18 | Sigalov Hagai | Pre-fabricated stage incorporating light-to-sound apparatus |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
JP2001269431A (ja) * | 2000-03-24 | 2001-10-02 | Yamaha Corp | 身体動作状態評価装置 |
US20010035087A1 (en) * | 2000-04-18 | 2001-11-01 | Morton Subotnick | Interactive music playback system utilizing gestures |
JP4694705B2 (ja) * | 2001-02-23 | 2011-06-08 | ヤマハ株式会社 | 楽音制御システム |
CA2457711A1 (en) * | 2001-08-16 | 2003-02-27 | Humanbeams, Inc. | Music instrument system and method |
JP3778044B2 (ja) | 2001-10-05 | 2006-05-24 | ヤマハ株式会社 | 携帯電話装置及びその制御方法 |
JP3948242B2 (ja) * | 2001-10-17 | 2007-07-25 | ヤマハ株式会社 | 楽音発生制御システム |
KR100451183B1 (ko) | 2001-12-07 | 2004-10-02 | 엘지전자 주식회사 | 휴대용 단말기의 키입력장치 및 방법 |
JP3867630B2 (ja) * | 2002-07-19 | 2007-01-10 | ヤマハ株式会社 | 楽曲再生システム、楽曲編集システム、楽曲編集装置、楽曲編集端末、楽曲再生端末及び楽曲編集装置の制御方法 |
US20030159567A1 (en) * | 2002-10-18 | 2003-08-28 | Morton Subotnick | Interactive music playback system utilizing gestures |
JP3933057B2 (ja) | 2003-02-20 | 2007-06-20 | ヤマハ株式会社 | 仮想打楽器演奏システム |
US6794568B1 (en) * | 2003-05-21 | 2004-09-21 | Daniel Chilton Callaway | Device for detecting musical gestures using collimated light |
KR20050034940A (ko) | 2003-10-10 | 2005-04-15 | 에스케이 텔레콤주식회사 | 이동 단말기의 움직임 패턴을 이용한 이동 단말기 제어시스템 및 방법 |
US6998966B2 (en) * | 2003-11-26 | 2006-02-14 | Nokia Corporation | Mobile communication device having a functional cover for controlling sound applications by motion |
-
2006
- 2006-02-14 KR KR1020060014272A patent/KR101189214B1/ko not_active IP Right Cessation
-
2007
- 2007-02-09 US US11/704,303 patent/US7723604B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5920024A (en) | 1996-01-02 | 1999-07-06 | Moore; Steven Jerome | Apparatus and method for coupling sound to motion |
JP2003076368A (ja) | 2001-09-05 | 2003-03-14 | Yamaha Corp | 移動通信端末、センサユニット、楽音生成システム、楽音生成装置および楽音情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
US20070186759A1 (en) | 2007-08-16 |
US7723604B2 (en) | 2010-05-25 |
KR20070081948A (ko) | 2007-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101189214B1 (ko) | 동작에 따른 음을 출력하는 장치 및 방법 | |
US10629175B2 (en) | Smart detecting and feedback system for smart piano | |
US10991352B2 (en) | Drumstick controller | |
KR20070009299A (ko) | 동작에 따른 음을 발생하는 장치 및 방법 | |
US7491879B2 (en) | Storage medium having music playing program stored therein and music playing apparatus therefor | |
JP2005292829A (ja) | 動き基盤の音声発生方法および装置 | |
EP3759707B1 (en) | A method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces | |
JP2012093603A (ja) | 入力装置およびプログラム | |
CN111986639A (zh) | 一种电子打击旋律乐器 | |
JP2007121355A (ja) | 演奏システム | |
CN111862910B (zh) | 虚拟电子乐器系统及其运作方法 | |
WO2018137189A1 (en) | Piano system and method thereof | |
KR20120082187A (ko) | 증강 현실을 이용한 노래방 시스템 및 장치, 이의 노래방 서비스 방법 | |
JP5082730B2 (ja) | 音データ生成装置および方向センシング発音楽器 | |
Overholt | Advancements in violin-related human-computer interaction | |
Martin | Touchless gestural control of concatenative sound synthesis | |
US20220270576A1 (en) | Emulating a virtual instrument from a continuous movement via a midi protocol | |
Zanini | The Augmented Drumstick | |
JP2023180928A (ja) | 入力装置 | |
EP3594935A1 (en) | Optical pickup and string music translation system | |
JP6402492B2 (ja) | 電子楽器、電子楽器における発音制御方法、およびプログラム | |
CN118094301A (zh) | 乐器弹奏错误手型的识别方法及腕部穿戴设备 | |
KR20230086004A (ko) | 군집 드론을 이용한 음향 인식 기반 무대 연출을 수행하기 위한 방법 및 이를 지원하는 시스템 | |
CN116157859A (zh) | 音频处理方法、装置、终端以及存储介质 | |
JP2019133304A (ja) | 拡張現実提示プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150925 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160929 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170927 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |