KR101745965B1 - 적응형 음악 플레이백 시스템 - Google Patents

적응형 음악 플레이백 시스템 Download PDF

Info

Publication number
KR101745965B1
KR101745965B1 KR1020157026385A KR20157026385A KR101745965B1 KR 101745965 B1 KR101745965 B1 KR 101745965B1 KR 1020157026385 A KR1020157026385 A KR 1020157026385A KR 20157026385 A KR20157026385 A KR 20157026385A KR 101745965 B1 KR101745965 B1 KR 101745965B1
Authority
KR
South Korea
Prior art keywords
song
segment
transition
audio tracks
musical
Prior art date
Application number
KR1020157026385A
Other languages
English (en)
Other versions
KR20150121178A (ko
Inventor
레비 제이 패튼
저스틴 프라가
Original Assignee
나이키 이노베이트 씨.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나이키 이노베이트 씨.브이. filed Critical 나이키 이노베이트 씨.브이.
Publication of KR20150121178A publication Critical patent/KR20150121178A/ko
Application granted granted Critical
Publication of KR101745965B1 publication Critical patent/KR101745965B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F17/30743
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/131Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
    • G10H2210/136Morphing interpolation, i.e. interpolating in pitch, harmony or time, tempo or rhythm, between two different musical pieces, e.g. to produce a new musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/145Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

적응형 음악 플레이백 시스템이 개시된다. 시스템은 사용자 활동 레벨에 대응하는 정보를 수신하는 구성 시스템을 포함한다. 구성 시스템은 사용자 활동의 변화에 응답하여 노래의 구성을 수정한다. 수정은 자연스러운 음악적 트랜지션을 용이하게 하도록 구성 규칙들의 세트에 따라 이루어진다.

Description

적응형 음악 플레이백 시스템{ADAPTIVE MUSIC PLAYBACK SYSTEM}
본 출원은 2013년 3월 5일 출원되고 발명의 명칭이 "ADAPTIVE MUSIC PLAYBACK SYSTEM"인 미국 가특허 출원 번호 제61/772,640호를 우선권으로 주장하며, 이 출원은 그 전체가 인용에 의해 본원에 포함된다.
본 실시예들은 일반적으로 오디오 정보를 플레이(play)하기 위한 시스템들 및 방법들에 관한 것이다.
오디오 정보를 플레이하기 위한 시스템은 해당 기술분야에 알려져 있다. 몇몇 이러한 시스템들은 휴대 가능하며 운동 동안 운동선수들에 의해 이용될 수 있다. 이러한 시스템들의 예들은 휴대용 디지털 오디오 플레이어들은 물론, 음악 플레이백 피처들(audio playback features)을 포함하는 모바일 전화기이다. 몇몇 시스템들은 추가로 활동을 용이하게 하기 위한 피처들, 예를 들어, GPS 정보를 이용하여 사용자의 달리기를 맵핑하기 위한 소프트웨어를 포함할 수 있다.
일 양상에서, 오디오 정보의 플레이백을 조정하는 방법은, 오디오 트랙들의 세트를 플레이(play)하는 단계; 구성 규칙(composition rule)들의 세트를 리트리브(retrieve)하는 단계; 사용자의 움직임을 검출하도록 구성된 적어도 하나의 센서로부터 사용자 활동 정보를 수신하고, 사용자 활동 정보로부터 사용자 활동 레벨을 결정하는 단계를 포함한다. 방법은 또한 사용자 활동 레벨에 대응하는 타겟 노래 강도를 결정하는 단계; 및 타겟 노래 강도를 달성하도록 오디오 트랙들의 세트를 제어하는 단계를 더 포함한다.
다른 양상에서, 오디오 정보의 플레이백을 조정하는 방법은, 노래를 플레이하는 단계를 포함하고, 상기 노래는 시간적으로 순차적인 복수의 노래 세그먼트들을 포함하고, 상기 노래는 동시에 플레이될 수 있는 오디오 트랙들의 세트를 더 포함한다. 방법은 구성 규칙들의 세트를 리트리브하는 단계; 사용자의 움직임들을 검출하도록 구성된 적어도 하나의 센서로부터 사용자 활동 정보를 수신하는 단계; 및 제 1 노래 세그먼트가 플레이되는 동안 사용자 활동 정보로부터 사용자 활동 레벨을 결정하는 단계를 더 포함한다. 방법은 또한 사용자 활동 레벨에 매칭하는 노래 상태를 갖는 제 2 노래 세그먼트를 찾는 단계; 및 제 1 노래 세그먼트로부터 제 2 노래 세그먼트로의 음악적 트랜지션(musical transition)을 구성하도록 구성 규칙들을 이용하는 단계를 더 포함한다.
다른 양상에서, 오디오 정보의 플레이백을 조정하는 방법은, 시간적으로 순차적인 복수의 노래 세그먼트들을 포함하는 노래를 플레이하는 단계를 포함한다. 방법은 또한 사용자의 움직임들을 검출하도록 구성된 적어도 하나의 센서로부터 사용자 활동 정보를 수신하는 단계; 및 제 1 노래 세그먼트가 플레이되고 있는 동안 사용자 활동 정보로부터 사용자 활동 레벨을 결정하는 단계를 포함한다. 방법은 또한 사용자 활동 레벨에 매칭하는 노래 상태를 갖는 노래의 제 2 세그먼트를 찾는 단계를 포함한다. 방법은 또한 유니버셜 트랜지션 세그먼트를 리트리브하는 단계를 포함하고, 상기 유니버셜 트랜지션 세그먼트는, 갑작스런(abrupt) 음악적 트랜지션들을 생성하지 않고서 복수의 노래 세그먼트들 중 임의의 세그먼트로 순차적으로 플레이될 수 있다. 방법은 또한 제 1 노래 세그먼트 이후 유니버셜 트랜지션 세그먼트를 플레이하는 단계; 및 제 1 세그먼트 및 제 2 세그먼트 간의 트랜지션을 생성하기 위해, 유니버셜 트랜지션 세그먼트 이후 제 2 노래 세그먼트를 플레이하는 단계를 포함한다.
실시예들의 다른 시스템들, 방법들, 특징들 및 이점들은 하기의 도면 및 상세한 설명을 검토하면 당업자에게 자명하거나 자명하게 될 것이다. 모든 이러한 부가적인 시스템들, 방법들, 특징들 및 이점들은 이 상세한 설명 및 이 요약 내에 포함되며 실시예들의 범위 내에 포함되고 하기의 청구항들에 의해 보호되도록 의도된다.
실시예들은 이어지는 도면들 및 설명을 참조하여 더 잘 이해될 수 있다. 도면들의 컴포넌트들은 반드시 제 축적이진 않고, 실시예들의 원리들을 예시하는데 있어 대신 강조될 수 있다. 또한, 도면들에서, 유사한 참조 번호들은 상이한 도면들에 걸쳐 대응하는 부분들을 지정한다.
도 1은 적응형 음악 플레이백 시스템의 실시예의 개략도이다.
도 2는 감각 입력 및 음악 정보를 이용한 플레이백을 위해 음악 구성들을 생성하기 위한 일반적인 프로세스의 개략도이다.
도 3은 몇몇 타입들의 음악 정보의 실시예의 개략도이다.
도 4는 개별 악기 및 보컬 트랙들을 포함하는 노래의 실시예의 개략도이다.
도 5는 사용자 활동에 응답하여 노래의 구성을 조정하기 위한 프로세스의 실시예이다.
도 6은 노래의 구성을 조정하기 위해 이용되는 몇 개의 입력들의 실시예의 개략도이다.
도 7은 노래의 구성을 조정하기 위한 상세한 프로세스의 실시예이다.
도 8은 음악적 트랜지션을 구성하기 위한 프로세스의 실시예이다.
도 9는 상이한 강도들을 갖는 2개의 소절들에서 몇 개의 악기 및 보컬 트랙들의 개략도이다.
도 10은 상이한 강도들을 갖는 2개의 소절들에서 몇 개의 악기 및 보컬 트랙들의 개략도이며, 트랜지션이 소절들 간에 생성된다.
도 11은 상이한 강도들을 갖는 2개의 소절들에서 몇 개의 악기 및 보컬 트랙들의 개략도이다.
도 12는 상이한 강도들을 갖는 2개의 소절들에서 몇 개의 악기 및 보컬 트랙들의 개략도이며, 트랜지션이 소절들 간에 생성된다.
도 13은 원하는 노래 강도를 달성하기 위해 노래 세그먼트에서 개별 트랙들을 수정하기 위한 프로세스의 실시예이다.
도 14는 사용자의 활동 레벨에 따라 페이드 인 및 아웃되는 상이한 트랙들을 갖는 노래의 부분의 실시예의 개략도이다.
도 15는 낮은 강도 노래 세그먼트로부터 높은 강도 노래 세그먼트로의 최단 경로를 포함하는 노래의 부분의 실시예의 개략도이다.
도 16은 상이한 강도 레벨들의 2개의 세그먼트들 사이에서 음악 세그먼트들의 최단 시퀀스를 생성하기 위한 프로세스의 실시예이다.
도 17은 다수의 세그먼트들로 분할된 노래 및 임의의 2개의 세그먼트들 간의 직접 경로를 제공하는 유니버셜 트랜지션의 실시예의 개략도이다.
도 18은 다수의 세그먼트들로 분할된 노래 및 임의의 2개의 세그먼트들 간의 직접 경로를 제공하는 유니버셜 트랜지션의 실시예의 개략도이다.
도 1은 적응형 음악 플레이백 시스템(100)의 실시예의 개략도이다. 적응형 음악 플레이백 시스템(100)은 일반적으로 하나 이상의 입력들에 따라 음악의 플레이백을 적응시키기 위한 하나 이상의 서브-시스템들, 컴포넌트들 또는 디바이스들을 포함할 수 있다. 보다 구체적으로, 적응형 음악 플레이백 시스템(100)은 일반적으로 연관된 사용자 및/또는 연관된 시스템의 상태의 변화에 따라 음악의 플레이백을 조정하는데 이용될 수 있다. 예를 들어, 이어지는 실시예들은 사용자의 활동 레벨(즉, 활동 상태)을 특징화하는 정보를 이용하여 노래의 플레이백을 조정하기 위한 시스템들 및 방법들을 논의한다. 그러나 실시예들은 제한하는 것으로서 의도되지 않고, 다른 실시예들은 다양한 생물측정 상태들, 정신적 및/또는 감정적 상태들(예를 들어, 사용자 기분) 또는 다른 종류들의 상태들과 같은 다른 종류들의 사용자 상태들의 변화에 따라 음악의 플레이백을 조정하는데 이용되는 시스템들 및 방법들을 포함할 수 있다.
몇몇 실시예들에서, 적응형 음악 플레이백 시스템(100)은 구성 시스템(102), 센서 시스템(104) 및 트랜스듀서 시스템(110)을 더 포함할 수 있다. 명확함을 위해, 트랜스듀서 시스템(110)은 실시예들에서 개략적으로 도시된다. 일반적으로 트랜스듀서 시스템(110)은 임의의 수의, 타입의 및/또는 배열의 트랜스듀서들을 포함할 수 있다. 또한, 트랜스듀서 시스템(110)은 트랜스듀서들(즉, 하우징들, 케이스들, 클립들 등)을 지지하고 포지셔닝(positioning)하기 위한 프로비전(provision)들과 추가로 연관될 수 있다. 몇몇 실시예들에서, 트랜스듀서 시스템(110)은 하나 이상의 라우드 스피커를 포함할 수 있다. 다른 실시예들에서, 트랜스듀서 시스템(110)은 사용자가 착용할 수 있는 헤드폰들을 포함할 수 있다.
센서 시스템(104)은 하나 이상의 센서들은 물론, 센서들을 보관하고 포지셔닝하기 위한 프로비전들을 포함할 수 있다. 일 예로서, 도 1의 개략적 센서 시스템(104)은 제 1 센서(105) 및 제 2 센서(106)를 포함하는 시스템을 도시한다. 이 실시예가 2개의 별개의 센서들을 갖는 센서 시스템을 도시하지만, 다른 실시예들은 1개, 2개, 3개, 4개, 또는 그 이상의 센서들을 포함하는 임의의 수의 센서들을 포함할 수 있다.
센서 시스템(104)은 사용자의 상태와 연관되는 정보를 검출하도록 구성될 수 있다. 몇몇 실시예들에서, 센서 시스템(104)은 사용자의 움직임 및/또는 활동에 관련된 정보를 검출할 수 있다. 다른 실시예들에서, 센서 시스템(104)은 사용자의 포지션(예를 들어, 글로벌 포지션 및 상대적 포지션), 생물측정 정보(예를 들어, 박동률, 호흡률, 땀 레벨 등)는 물론, 다른 종류들의 정보를 포함하는 다른 정보를 검출할 수 있다.
일반적으로, 센서 시스템(104)의 센서들은 사용자에 대해 임의의 방식으로 포지셔닝될 수 있다. 몇몇 실시예들에서, 센서 시스템(104)은 클립들, 밴드들 또는 유사한 프로비전들을 이용하여 사용자에 직접 부착될 수 있다. 다른 실시예들에서, 센서 시스템(104)은 신발류의 물품의 부분들, 의류의 물품 및/또는 스포츠 장비의 아이템 내에 배치되거나 그렇지 않다면 이와 연관될 수 있다. 몇몇 실시예들에서, 센서 시스템(104)의 각각의 센서는 신발류의 대응하는 물품들과 연관될 수 있다. 예를 들어, 도 1의 개략적 실시예에서, 제 1 센서(105) 및 제 2 센서(106)는 추가로 신발류(107)의 제 1 물품 및 신발류(108)의 제 2 물품과 각각 연관된다. 신발류의 물품 내에 각각의 센서를 포지셔닝함으로써, 제 1 센서(105) 및 제 2 센서(106)는 사용자가 걷고, 달리고, 점프하거나, 또는 다른 종류의 활동들을 수행할 때 사용자 움직임 및/또는 활동을 검출하는데 이용될 수 있다. 따라서, 예를 들어, 센서 시스템(104)은 사용자의 걷거나 뛰는 페이스를 검출할 수 있으며, 이는 아래에서 추가로 상세히 논의되는 바와 같이 사용자 활동의 레벨을 특징화하는데 이용될 수 있다.
실시예들은 다양한 서로 다른 물리적 움직임들은 물론 물리적 및/또는 생체적 상태들에 관련된 정보를 감지할 수 있는 다양한 서로 다른 센서들을 이용할 수 있다. 실시예들은 하기의 문서들: Case 등에 의해 2012년 2월 7일 발행된 미국 특허 번호 제8,112,251호; Riley 등에 의해 2010년 8월 10일 발행된 미국 특허 번호 제7,771,320호; Darley 등에 의해, 2008년 9월 23일 발행된 미국 특허 번호 제7,428,471호; Amos 등에 의해 2012년 11월 22일 공개된 미국 특허 출원 공개 번호 제2012/0291564호; Schrock 등에 의해, 2012년 11월 22일 공개된 미국 특허 출원 공개 번호 제2012/0291583호; Meschter 등에 의해 2012년 10월 4일 공개된 미국 출원 공개 번호 제2012/0251079호; Molyneux 등에 의해 2012년 9월 20일 공개된 미국 특허 출원 공개 번호 제2012/0234111호; Case 등에 의해 2012년 3월 29일 공개된 미국 특허 출원 공개 번호 제2012/0078398호; Nurse 등에 의해 2011년 8월 18일 공개된 미국 특허 출원 공개 번호 제2011/0199393호; Hoffman 등에 의해, 2011년 2월 10일 공개된 미국 특허 출원 공개 번호 제2011/0032105호; Schrock 등에 의해 2010년 3월 11일 공개된 미국 특허 출원 공개 번호 제2010/0063778호; Shum에 의해 2007년 1월 25일 공개된 미국 특허 출원 공개 번호 제2007/0021289호; Schrock 등에 의해, 2012년 2월 22일 출원되고 발명의 명칭이 "Footwear Having Sensor System"인 미국 특허 출원 공개 번호 _____, 이제 미국 특허 출원 번호 제13/401918호; Schrock 등에 의해, 2012년 2월 22일 출원되고 발명의 명칭이 "Footwear Having Sensor System"인 미국 특허 출원 공개 번호 _____, 이제 미국 특허 출원 번호 제13/401910호에서 개시된 센서들, 피처들, 시스템들, 디바이스들, 컴포넌트들, 방법들 및/또는 감지된 정보 중 하나 이상을 포함할 수 있으며, 각각의 문서 전체가 인용에 의해 본원에 포함된다.
도 1에서 도시된 실시예가 신발류에 포함되는 센서 시스템들을 예시하지만, 다른 실시예들은 임의의 다른 의류 물품들에 포함되는 센서들을 포함할 수 있다. 예를 들어, 몇몇 다른 실시예들은 바지, 셔츠, 양말, 모자, 장갑은 물론, 가능하게는, 다른 의류 물품들에 포함되는 하나 이상의 센서들을 가질 수 있다. 또한, 몇몇 다른 실시예들에서, 하나 이상의 센서들은 방망이들, 공들, 글러브들, 골프 클럽들, 패드들, 헬멧들은 물론, 가능하게는, 다른 종류의 스포츠 장비를 포함(그러나 이것으로 제한되지 않음)하는 스포츠 장비의 아이템들에 포함될 수 있다.
구성 시스템(102)은 하나 이상의 트랜스듀서들을 통한 플레이백을 위해 감각 정보를 수신하고 음악 정보를 적응시키기 위한 다양한 프로비전들을 포함할 수 있다. 하나 이상의 노래들 및/또는 사운드들의 플레이백을 조정하기 위한 방법들이 아래에서 더 상세히 논의된다.
일반적으로, 구성 시스템(102)은 다양한 서로 다른 시스템들, 컴포넌트들 및/또는 디바이스들을 포함할 수 있다. 예시적인 시스템들은 컴퓨팅 시스템들 또는 컴퓨팅 시스템들의 부분들을 포함할 수 있다. 이들 컴퓨팅 시스템들은 메모리, 프로세서, 및 가능하게는 네트워킹 프로비전들과 같은 하드웨어를 포함할 수 있다. 또한, 몇몇 실시예들에서, 구성 시스템(102)은 또한, 플레이백하기 위한 노래들 또는 노래들의 부분들로 음악 정보를 구성하기 위한 소프트웨어를 실행할 수 있다.
몇몇 실시예들에서, 구성 시스템(102)의 몇몇 컴포넌트들은 휴대용 플레이백 디바이스에 하우징될 수 있다. 예시적인 디바이스들은 스마트폰(예를 들어, 아이폰), 디지털 음악 플레이어들(예를 들어, 아이팟)은 물론, 가능하게는, 다른 휴대용 플레이백 디바이스들을 포함(그러나 이것으로 제한되지 않음)할 수 있다. 일 예시적인 실시예에서, 구성 시스템(102)의 프로비전들은, 하나 이상의 센서들로부터 수신된 정보에 따라 노래의 플레이백을 조정할 수 있는 스마트폰 또는 디지털 음악 플레이어에 포함될 수 있다.
몇몇 실시예들에서, 센서 정보를 분석하고 노래의 플레이백을 조정하기 위한 구성 시스템(102)의 프로비전들은 휴대용 플레이백 디바이스 상에서 직접 실행될 수 있다. 예를 들어, 센서 정보를 수신하고 노래의 플레이백을 조정하기 위한 소프트웨어는 이에 따라 스마트폰 상의 애플리케이션으로서 구현될 수 있다. 그러나 다른 실시예들에서, 프로비전들은 별개의 컴포넌트들 또는 디바이스들에 포함될 수 있다. 예를 들어, 다른 실시예에서, 센서 정보의 분석 및 노래 플레이백의 조정은 플레이백을 위해 휴대용 디바이스(예를 들어, 디지털 음악 플레이어)와 추후에 통신하는 원격 컴퓨팅 디바이스(예를 들어, 랩톱 또는 데스크톱 컴퓨터)에서 발생할 수 있다. 또한, 구성 시스템(102)의 별개의 서브-시스템들, 컴포넌트들 및/또는 디바이스들 간의 통신은 유선 또는 무선 프로비전들을 이용하여 구현될 수 있다.
구성 시스템(102)은 정보 및 전력의 입력 및 출력을 용이하게 하는 다수의 포트들을 포함할 수 있다. 본 상세한 설명에 걸쳐 그리고 청구항들에서 이용되는 바와 같은 "포트"란 용어는 2개의 도체들 간의 임의의 인터페이스 또는 공유되는 경계를 지칭한다. 몇몇 경우들에서, 포트들은 도체들의 삽입 및 제거를 용이하게 할 수 있다. 이러한 타입들의 포트들의 예들은 기계적 커넥터를 포함한다. 다른 경우들에서, 포트들은 일반적으로 쉬운 삽입 또는 제거를 제공하지 않은 인터페이스들이다. 이러한 타입들의 포트들의 예들은 회로 보드들 상의 납땜 또는 전자 트래이스들을 포함한다.
구성 시스템(102)과 연관되는 하기의 포트들 및 프로비전들 전부는 선택적이다. 몇몇 실시예들이 주어진 포트 또는 프로비전을 포함할 수 있는 반면에, 다른 것들은 그것을 배제할 수 있다. 하기의 설명은 이용될 수 있는 다수의 가능한 포트들 및 프로비전들을 개시하지만, 모든 각각의 포트 또는 프로비전이 주어진 실시예에서 이용되거나 포함되어야 하는 것은 아니란 것을 염두에 두어야 한다.
몇몇 실시예들에서, 구성 시스템(102)은 하나 이상의 센서들로부터 정보를 수신하기 위한 포트(112)를 포함할 수 있다. 몇몇 경우들에서, 포트(112)는 센서 시스템(104)으로부터 정보를 수신하도록 구성된다. 무선 연결이 구성 시스템(102)과 센서 시스템(104) 간에 제공되는 실시예들에서, 무선 통신은 무선 통신의 임의의 알려진 방법들을 이용하여 용이하게 될 수 있다. 마찬가지로, 구성 시스템(102)은 정보를 트랜스듀서 시스템(110)에 전송하기 위한 포트(114)를 포함할 수 있다. 따라서, 신호들은 노래 및/또는 다른 사운드들의 플레이백을 용이하게 하기 위해 포트(114)를 통해 트랜스듀서 시스템(110)에 송신될 수 있다.
도 2는 정보를 수신하여 정보를 프로세싱하고 프로세싱된 정보에 대응하는 오디오 정보를 플레이하는 일반적인 프로세스를 도시한다. 보다 구체적으로, 센서 시스템(104)으로부터의 정보는 프로세싱을 위해 음악 정보(204)와 함께 수신된다. 구성은 이어서, 단계(206)에서 (사용자 활동을 나타낼 수 있는) 센서 시스템(104)으로부터의 감각 정보에 응답하여, 음악 정보(204)로부터 생성될 수 있다. 이 구성 프로세스의 출력은 단계(208)에서 플레이될 수 있는 오디오 정보이다.
상세한 설명에 걸쳐 그리고 청구항들에서, "음악 정보"란 용어는 특정 노래에 관련된 다양한 종류들의 정보, 노래의 부분들(세그먼트들 또는 섹션들), 노래의 트랙들, 샘플들은 물론 임의의 다른 종류들의 정보를 지칭할 수 있다. 몇몇 경우들에서, 음악 정보는 또한 다수의 노래들을 통한 흐름을 제어하는 플레이리스트 정보를 비롯해서, 2개 이상의 노래들에 관한 정보를 포함할 수 있다. 보다 일반적으로, 이어서, 음악 정보는 플레이백 디바이스를 통해 노래들을 생성하는데 이용되는 임의의 정보를 지칭할 수 있다.
실시예들은 새로운 구성들을 생성하기 위해 개별 트랙들을 믹싱(mixing)하는 것을 포함해서 음악 정보를 구성하는 몇몇 방법들을 예시한다. 그러나 몇몇 경우들에서, 음악 정보를 구성하는 것은 플레이리스트에서 노래들을 순서화하는 것을 포함할 수 있다. 예를 들어, 몇몇 다른 실시예들에서, 시스템은 다양한 음악 선택 파라미터들에 따라 플레이백을 위한 노래들의 순서를 조직하도록 구성될 수 있다. 다른 실시예들은 Johnson에 의해, 2010년 4월 27일 출원되고 발명의 명칭이 "Training Program and Music Playlist Generation for Athletic Training"인 미국 특허 출원 공개 번호 제2010/0273810호, 이제 미국 특허 출원 번호 제12/768,168호에서 개시된, 플레이백을 위해 노래들의 시퀀스를 자동으로 생성하기 위한(예를 들어, 플레이리스트를 생성하거나 플레이리스트에서 노래들을 순서화하기 위한) 시스템들, 컴포넌트들, 디바이스들 및 방법들 중 임의의 것을 이용할 수 있으며, 상기 문서 전체는 인용에 의해 본원에 포함된다.
도 3은 일 실시예에 따라 몇몇 타입들의 음악 정보의 개략도를 예시한다. 도 3은 단지 임의의 종류들의 음악 정보를 예시하도록 의도되며 다른 실시예들이 부가적인 타입들의 음악 정보를 포함할 수 있다는 것이 이해될 것이다. 마찬가지로, 여기서 보여지는 임의의 타입들의 음악 정보는 다른 실시예들에서 선택적일 수 있다.
음악 정보(204)는 샘플 정보(302)를 포함할 수 있다. 샘플 정보(302)는 다양한 악기들, 음성들 및/또는 개별 사운드 파일들로서 저장될 수 있는 다른 사운드들에 대한 샘플을 포함할 수 있다. 일 예로서, 샘플 정보(302)는 추가로 기타 샘플(310), 드럼 샘플(312), 키보드 샘플(314) 및 음성 샘플(316)을 포함할 수 있다. 부가적인 악기들, 음성들 및 사운드들에 대응하는 다른 샘플 정보가 몇몇 실시예들에서 또한 포함될 수 있다. "샘플"이란 용어는 제한되는 것으로 의도되지 않으며, 특정 악기, 음성, 또는 다른 종류의 사운드에 관련된 정보의 임의의 모음(collection)을 포함할 수 있다.
몇몇 실시예들은 MIDI(Musical Instrument Digital interface) 정보(304)(MIDI 스트림들 또는 다른 MIDI 파일 정보를 포함함)를 이용할 수 있다. 예를 들어, 몇몇 노래들은 하나 이상의 악기들에 대한 MIDI 스트림을 저장할 수 있다. 악기, 음성 또는 사운드 샘플 파일과 페어링(pairing)될 때, MIDI 스트림은 선택된 악기, 음성 또는 사운드 샘플 파일에 대응하는 음표들의 시퀀스를 플레이하기 위한 명령어를 제공할 수 있다. 따라서, MIDI 정보(304)는 샘플 사운드들의 배열들을 저장하는데 이용될 수 있다. 몇몇 경우들에서, 각각의 MIDI 스트림은 다중-트랙 노래의 트랙 또는 다중-트랙 노래의 트랙의 일부에 대응할 수 있다.
몇몇 실시예들은 또한 레코딩된 오디오 정보(306)를 활용할 수 있다. 일반적으로, 레코딩된 오디오 정보(306)는 일반적으로, 레코딩된 오디오 파일들로서 저장될 수 있는 전체 또는 부분 길이 오디오 레코딩들을 포함할 수 있다. 예를 들어, 제 1 레코딩된 오디오 파일(320)은 전체 길이의 노래를 연주하는 기타의 오디오 레코딩에 대응할 수 있다. 마찬가지로, 제 2 레코딩된 오디오 파일(322)은 전체 길이의 노래를 부르는 가수의 오디오 레코딩에 대응할 수 있다. 아래에서 추가로 상세히 논의되는 바와 같이, 이들 레코딩된 오디오 파일들은 다중-트랙 노래의 개별 트랙으로서 각각 역할할 수 있다.
각각의 상이한 타입의 음악 정보(예를 들어, 샘플 정보, MIDI 스트림 정보, 레코딩된 오디오 정보는 물론, 임의의 다른 종류들의 음악 정보)가 다양한 상이한 포맷들로 저장될 수 있다는 것이 이해될 것이다. 예를 들어, 레코딩된 오디오 정보는 비압축 오디오 포맷들(예컨대, WAV, AIFF, AU 또는 PCM), 무손실 압축을 한 포맷들(예컨대, FLAG, WavPack, Monkey Audio 포맷, WMA Lossless 또는 MPEG-4 SLS), 손실성 압축을 한 포맷들(예컨대, MP3, AAC 또는 WMA 손실)은 물론, 임의의 다른 종류들의 알려진 오디오 포맷들을 포함(그러나 이것으로 제한되지 않음)하는 임의의 포맷들을 이용하여 저장될 수 있다. 또한, 임의의 음악 정보 파일들은 원(raw) 오디오 데이터를 인코딩 및 디코딩하기 위한 하나 이상의 오디오 코덱들과 함께 이용될 수 있다. 여전히 추가로, MIDI 스트림 정보는 표준 MIDI 파일(SMF) 포맷을 포함하는 임의의 알려진 MIDI 포맷들을 이용하여 저장될 수 있다. 샘플 정보는 마찬가지로, 레코딩된 오디오 정보에 관해 논의된 포맷들 중 임의의 것을 이용하여 저장될 수 있다.
음악 정보(204)의 실시예들은 또한 구성 규칙들(350)의 세트를 포함할 수 있다. 이 상세한 설명에 걸쳐 그리고 청구항들에서 이용되는 바와 같은 "구성 규칙들"이란 용어는, 외부 시스템 또는 사용자의 상태의 변화에 응답하여(예를 들어, 사용자의 활동 레벨의 증가/감소에 응답하여) 상이한 오디오 트랙들 또는 음악 정보의 다른 피스(piece)들이 결합될 수 있는 방법을 결정하는데 이용될 수 있는 임의의 정보를 지칭한다. 명확함을 위해, 구성 규칙들(350)의 세트 내의 개별 구성 규칙들은 미리 결정된 규칙들(352) 또는 사용자 선호도들(354)로서 추가로 분류될 수 있다. 미리 결정된 규칙들(352)은 미리-프로그래밍되는 규칙들을 포함할 수 있고 원하는 레벨의 음악적 일관성(musical coherence)을 보존하고 급격한 음악적 트랜지션들을 제한하는 방식으로 상이한 악기들, 음성들 및 사운드들을 결합하는 것과 연관된 일반 구성 규칙들에 대응할 수 있다. 따라서, 미리 결정된 규칙들(352)은 예를 들어, 어느 악기들이 먼저 구성에서 배출되거나 구성에 진입해야 하는지는 물론, 악기들의 어느 결합들이 함께 플레이하고 함께 플레이하지 않을지를 결정하기 위한 규칙들을 포함할 수 있다. 몇몇 경우들에서, 미리 결정된 규칙들(352)은, 유사한 규칙들이 상이한 노래들과 이용되도록 일반적일 수 있다. 다른 경우들에서, 미리 결정된 규칙들(352)은 플레이되는 각각의 개별 노래마다 특정적일 수 있다. 또 다른 경우들에서, 미리 결정된 규칙들(352)은 일반적 규칙들 및 노래 특정 규칙들 둘 다의 결합일 수 있다.
사용자 선호도들(354)은 사용자에 의해 조정될 수 있는 구성 규칙들을 포함할 수 있다. 예를 들어, 사용자 선호도들(354)은 하나 이상의 트랙들이 최대 볼륨 세팅보다 높은 볼륨으로 플레이백되는 것을 방지하는 최대 볼륨 세팅을 포함할 수 있다. 다른 예로서, 사용자 선호도들(354)은 사용자가 노래를 통해 보다 빠르게 진행되기를 원하는지 또는 사용자가 노래의 부분들을 여러 번 반복하는 것을 마다하지 않을 수 있는지를 나타내기 위한 세팅들을 포함할 수 있다. 사용자 선호도의 다른 예는 다수의 개별 악기 또는 보컬 솔로에 대한 선호도들과 같은 특정 음악 스타일에 대한 선호도일 수 있다.
구성 규칙들의 수 및 타입은 실시예마다 변동될 수 있고, 상이한 전체 강도들(또는 가능하게는 다른 상이한 특성들)을 갖는 노래의 상이한 부분들 간에 조화로운 트랜지션들을 달성하도록 일반적으로 선택될 수 있다. 구성 규칙들(350)은 다른 실시예들에서 미리 결정된 규칙들(352) 및 사용자 선호도들(354)로 별개로 조직될 필요가 없다는 것이 또한 이해될 것이다.
도 4는 몇 개의 악기/보컬 오디오 트랙들 및 마스터 오디오 트랙(또는 단순히, 마스터 트랙)에 의해 표현되는 바와 같이 노래의 부분의 실시예의 개략도이다. 도 4를 참조하면, 노래의 부분은, 기타 트랙(402), 드럼 트랙(404), 키보드 트랙(406) 및 보컬 트랙(408)을 포함하는 4개의 상이한 오디오 트랙들을 포함할 수 있다. 기보법을 이용하여 여기서 개략적으로 표현되었지만, 각각의 오디오 트랙은 개별 오디오 사운드 파일로서 또는 MIDI 스트림으로서 저장될 수 있다. 또한, 기타 트랙(402), 드럼 트랙(404), 키보드 트랙(408) 및 보컬 트랙(408)은 모든 상이한 오디오 트랙들의 결합으로부터 발생하는 마스터 트랙(410)의 부분을 포함할 수 있다.
예시 목적들을 위해, 마스터 트랙(410)은 파형들을 이용하여 도 4에서 개략적으로 표시되지만, 마스터 트랙(410)은 기타 트랙(402), 드럼 트랙(404), 키보드 트랙(406) 및 보컬 트랙(408)에서 표시된 음표들 및 악기들에 대응하는 각각의 개별 사운드들로 구성된다는 것이 이해될 것이다.
여기서 알 수 있는 바와 같이, 마스터 트랙(410)은 개별 섹션들 또는 세그먼트들로 분할될 수 있다. 이 상세한 설명에 걸쳐 그리고 청구항들에서 이용되는 바와 같이, "세그먼트"란 용어는 시작과 끝을 갖는 노래의 일반적으로 연속적인 부분을 지칭한다. 따라서, 노래는 시간적으로 순차적일 수 있는 별개의 세그먼트들로 분할될 수 있다. 예를 들어, 도 4에서 도시된 노래 부분은 제 1 노래 세그먼트(420), 제 2 노래 세그먼트(422) 및 제 3 노래 세그먼트(424)를 포함할 수 있다. 각각의 노래 세그먼트는 시작 및 끝에 의해 특징화될 수 있다. 마스터 트랙(410)이 시간을 이용하여 인덱싱되는 상황들에서, 제 1 노래 세그먼트(420)는 시간(T1)에서 시작하고 시간(T2)에서 종료할 수 있다. 제 2 노래 세그먼트(422)는 시간(T2)에서 시작하고 시간(T3)에서 종료할 수 있다. 또한, 제 3 노래 세그먼트(424)는 시간(T3)에서 시작하고 시간(T4)에서 종료할 수 있다. 현재의 실시예들이 마스터 트랙(410)의 상이한 지점들을 인덱싱하기 위한 수단으로서 시간을 이용하지만, 다른 실시예들은 노래를 인덱싱하는 임의의 다른 방법들을 이용할 수 있다. 또한, 하나 이상의 세그먼트들을 정의하는 방법은 변동될 수 있다. 몇몇 경우들에서, 예를 들어, 세그먼트는 음악의 소절(measure of music)에, 또는 미리 결정된 수의 소절들에 대응할 수 있다. 다른 경우들에서, 세그먼트는 오디오 파형의 변화와 같이, 오디오 정보의 시퀀스의 하나 이상의 특성들의 변화를 식별함으로써 결정될 수 있다. 상이한 세그먼트들이 각각의 세그먼트를 정의하는 방법에 따라 상이한 길이들을 가질 수 있거나 동일한 길이를 가질 수 있다는 것이 또한 이해될 것이다.
도 4의 실시예에서, 제 1 노래 세그먼트(420), 제 2 노래 세그먼트(422) 및 제 3 노래 세그먼트(424) 각각은 강도 레벨과 연관된다. 특히, 제 1 노래 세그먼트(420)는 낮은 강도 세그먼트로서 특징화되고, 제 2 노래 세그먼트(422)는 높은 강도 세그먼트로서 특징화되고, 제 3 노래 세그먼트(424)는 중간 강도 세그먼트로서 특징화된다.
또 다른 실시예들에서, 노래의 세그먼트들은 키(key), 피치(pitch), 소리크기(loudness), 템포는 물론, 가능하게는 다른 음악적 기준들에 의해 세그먼트들을 특징화하는 것을 포함(그러나 이것으로 제한되지 않음)하는 다른 음악적 기준들로 식별될 수 있다. 또한, 몇몇 경우들에서, 개별 트랙들은 마찬가지로 키, 피치, 소리크기, 템포는 물론, 가능하게는 다른 음악적 기준들에 따라 특징화되는 세그먼트로 분할될 수 있다.
도 5는 사용자 활동의 검출된 변화에 따라 노래의 구성을 조정하거나 노래의 플레이백을 다른 방식으로 조정하기 위한 프로세스의 실시예를 예시한다. 몇몇 실시예들에서, 다음의 단계들 중 일부는 구성 시스템(102)(도 1)에 의해 달성될 수 있다. 다른 실시예들에서, 단계들 중 일부는 적응형 음악 플레이백 시스템(100)과 연관된 임의의 다른 컴포넌트들, 시스템들 또는 디바이스들에 의해 달성될 수 있다. 다른 실시예들에서, 다음의 단계들 중 하나 이상은 선택적일 수 있다는 것이 이해될 것이다.
단계(502)에서, 구성 시스템(102)은 노래를 플레이하기 시작할 수 있다. 이는, 사용자가 디지털 음악 디바이스 상의 플레이를 누르는 것과 같은 사용자 입력에 응답하여, 또는 사용자 움직임과 같은 다른 종류들의 입력에 응답하여 발생할 수 있다. 다음으로, 단계(504)에서, 구성 시스템(102)은 하나 이상의 센서들(예를 들어, 센서 시스템(104)의 센서들 중 하나 또는 둘 다)로부터 입력을 수신할 수 있다.
단계(504) 동안, 하나 이상의 센서들로부터의 정보는 사용자에 대한 현재 활동 레벨을 결정하는데 이용될 수 있다. 이 상세한 설명에 걸쳐 그리고 청구항들에서 이용되는 "활동 레벨"이란 용어는 사용자 속도, 사용자 가속도, 사용자 포지션, 사용자 걸음, 사용자 스트라이드, 땅 접촉력은 물론, 가능하게는 사용자 활동의 다른 특징들을 포함(그러나 이것으로 제한되지 않음)하는 사용자 활동 또는 사용자 움직임을 특징화하기 위한 값 또는 값들의 세트를 지칭한다. 몇몇 경우들에서, 사용자 활동 레벨은 이러한 팩터들의 결합을 고려함으로써 결정될 수 있다. 활동 레벨은 연속 값들, 예를 들어, 0(최소 활동) 내지 10(최고 활동)의 범위의 연속적인 값을 갖게 될 수 있다. 활동 레벨은 또한 이산 값들을 갖게 될 수 있다. 예를 들어, 몇몇 실시예들은 "낮은 활동", "완만한 활동" 및 "높은 활동" 값들을 갖는 3개의 값 활동 레벨 스케일을 활용할 수 있다.
단계(506)에서, 구성 시스템(102)은 단계(504)에서 결정된 활동 레벨을 현재 노래 상태와 비교할 수 있다. 노래 상태는 일반적으로, 강도, 템포, 복잡도, 키, 및 피치는 물론, 가능하게는 다른 팩터들을 비롯(그러나 이것으로 제한되지 않음)해서, 임의의 알려진 팩터들에 따라 특징화될 수 있다. 몇몇 실시예들에서, 노래 상태는 일반적으로 낮은 강도, 중간 강도 또는 높은 강도 중 하나일 수 있는 노래 강도를 지칭할 수 있다. 그러나 다른 실시예들은 위에서 나열된 팩터들 중 임의의 것은 물론, 이들 팩터들의 임의의 결합을 포함하는, 노래 상태를 특징화하기 위한 임의의 다른 방법들을 이용할 수 있다. 여기서 설명된 실시예들은 일반적으로 사용자 활동 레벨들에 매칭할 수 있는 노래 상태의 개념(notion)을 이용할 수 있다. 예를 들어, 다양한 노래 강도들은 대응하는 사용자 활동 레벨들에 매칭될 수 있다.
단계(508)에서, 구성 시스템(102)은 사용자 활동 레벨이 현재 노래 상태와 매칭하는지를 결정할 수 있다. 예를 들어, 구성 시스템(102)은 현재 사용자 활동 레벨이 현재 노래 강도(즉, 현재 플레이되고 있는 노래 세그먼트의 강도)에 매칭하는지를 결정할 수 있다. 매칭이 존재하는 경우, 구성 시스템(102)은 단계(510)로 진행되고 어떠한 조정도 없이 노래를 계속 플레이할 수 있다. 그러나 활동 레벨과 현재 노래 상태 간에 미스매치가 있는 경우, 구성 시스템(102)은 단계(512)로 대신 진행될 수 있다. 단계(512)에서, 구성 시스템(102)은 하나 이상의 오디오 트랙들의 구성들을 조정함으로써 및/또는 상이한 노래 세그먼트로 변경함으로써 구성을 조정할 수 있다. 이 구성 조정을 달성하기 위한 다양한 방법들이 아래에서 추가로 상세히 논의된다.
도 6에서 알 수 있는 바와 같이, 몇 개의 팩터들은 노래 구성을 조정하는 방법을 결정하기 위해 구성 시스템(102)에 의해 고려될 수 있다. 특히, 프로세스(608)로서 개략적으로 표시된, 노래의 구성을 조정하는 임의의 프로세스는 하나 이상의 입력들을 이용할 수 있다. 이들은 사용자 활동(602), 구성 규칙들(604) 및 현재 노래 상태(606)를 포함한다. 특히, 사용자 활동(602) 및 현재 노래 상태(606)는 연속적으로 모니터링될 수 있다. 사용자 활동(602) 및 현재 노래 상태(606)가 미스매치될 때, 구성은 이어서 구성 규칙들(604)에 의해 결정되는 방식으로 조정될 수 있다.
도 7은 사용자 활동의 검출된 변화에 따라 노래의 구성을 조정하거나 또는 그렇지 않다면 노래의 플레이백을 조정하기 위한 프로세스의 실시예를 예시한다. 다른 실시예들에서, 다음의 단계들 중 일부는 구성 시스템(102)에 의해 달성될 수 있다(도 1 참조). 다른 실시예들에서, 단계들 중 일부는 적응형 음악 플레이백 시스템(100)과 연관된 임의의 다른 컴포넌트들, 시스템들 또는 디바이스들에 의해 달성될 수 있다. 다른 실시예들에서, 하기의 단계들 중 하나 이상은 선택적일 수 있다는 것이 이해될 것이다.
단계(702)에서, 구성 시스템(102)은 사용자의 현재 활동 레벨을 결정할 수 있다. 이는 하나 이상의 센서들로부터의 정보를 분석함으로써 행해질 수 있다. 이어서, 단계(704)에서, 구성 시스템(102)은 현재 사용자 활동 레벨에 매칭하는 노래 상태를 갖는 노래의 새로운 세그먼트를 찾을 수 있다. 예를 들어, 구성 시스템(102)은 현재 활동 레벨에 대응하는 강도를 갖는 노래의 세그먼트를 찾을 수 있다. 몇몇 경우들에서, 이는 매칭하는 강도를 갖는 세그먼트를 찾기 위해 오디오 정보의 실시간 분석을 수행함으로써 달성될 수 있다. 다른 경우들에서, 상이한 노래 세그먼트들의 강도 레벨들은 쉬운 리트리브(retrieve)를 위해 테이블 또는 데이터베이스에 저장될 수 있다.
일반적으로, 시스템은 활동 레벨을 강도에 연관시키도록 구성될 수 있다. 예를 들어, 몇몇 문턱값보다 더 큰 높은 사용자 활동 레벨은 높은 강도에 대응할 수 있다. 사용자 활동 레벨로부터 강도를 결정하기 위한 임의의 방법이 이용될 수 있다. 몇몇 실시예들에서, 함수 또는 테이블은 사용자 활동 레벨들을 대응하는 강도들에 자동으로 맵핑하는데 이용될 수 있으며, 여기서 입력들(사용자 활동 레벨) 및 출력들(강도)은 연속적 및/또는 이산적 값들일 수 있다.
단계(706)에서, 구성 시스템(102)은 현재 사용자 활동 레벨에 대응하는 강도를 갖는 새로운 세그먼트로 직접 점프하는 것이 괜찮은지를 결정할 수 있다. 이러한 판단은 현재 세그먼트의 다양한 음악적 특성들을 새로운 세그먼트의 특성들에 비교함으로써 행해질 수 있다. 현재 세그먼트와 새로운 세그먼트 간의 양호한 음악적 매칭이 이미 존재한다고 결정되는 경우, 구성 시스템(102)은 새로운 세그먼트로 직접 점프하는 것도 괜찮다고 결정할 수 있고, 단계(708)로 진행된다. 단계(708)에서, 구성 시스템(102)은 어떠한 음악적 트랜지션도 필요 없다고 결정하고, 구성 시스템(102)이 새로운 세그먼트로 점프할 수 있는 단계(710)로 진행된다.
그러나 단계(706) 동안, 새로운 세그먼트로 직접 점프하는 것이 바람직하지 않다고 구성 시스템(102)이 결정하는 경우, 구성 시스템(102)은 단계(712)로 진행된다. 단계(712)에서, 구성 시스템(102)은 현재 노래 세그먼트와 새로운 노래 세그먼트 간에 음악적 트랜지션이 필요하다고 결정한다. 단계(714)에서, 이에 따라 구성 시스템(102)은 필수적인 음악적 트랜지션을 구성하도록 진행된다.
도 8은 음악적 트랜지션을 구성하는 프로세스에서 몇 개의 가능한 단계들을 예시한다. 단계(802) 동안, 구성 시스템(102)은 일반적인 트랜지션 타입을 선택할 수 있다. 예를 들어, 구성 시스템(102)은, 공격적 타입 패턴(804)이 필요한지 또는 쇠퇴적 타입 패턴(808)이 필요한지를 결정할 수 있다. 현재 노래 세그먼트가 낮은 음악적 강도를 갖고, 새로운 노래 세그먼트가 높은 음악적 강도를 갖는 상황들에서, 구성 시스템(102)은, 일반적으로 트랜지션 동안 오디오 트랙들의 점진적인 도입을 허용하는 공격적 패턴을 선택할 수 있다. 현재 노래 세그먼트가 높은 음악적 강도를 갖고, 새로운 노래 세그먼트가 낮은 음악적 강도를 갖는 상황들에서, 구성 시스템(102)은, 일반적으로 트랜지션 동안 오디오 트랙들의 점진적인 제거를 허용하는 쇠퇴적 패턴을 선택할 수 있다. 실시예가 2개의 기본 종류들의 트랜지션 패턴들, 즉 공격적 패턴들 및 쇠퇴적 패턴들을 예시하지만, 다른 실시예들은 선형 패턴들, 비-선형 패턴들은 물론, 임의의 다른 알려진 트랜지션 패턴들 또는 알려진 트랜지션 패턴들의 결합들을 포함하는 임의의 수의 미리 결정된 트랜지션 패턴들을 포함할 수 있다.
일반적인 트랜지션 타입이 단계(802)에서 선택되면, 구성 시스템(102)은 단계(808)로 진행될 수 있다. 단계(808)에서, 구성 시스템(102)은 세그먼트들을 결합하기 위한 트랜지션 스코어를 구성할 수 있다. 특히, 이 프로세스는 트랜지션에 걸쳐서 상이한 오디오 트랙들의 진입(entrance) 및/또는 배출(exit)의 타이밍을 결정하기 위해 구성 규칙들(810)을 이용할 수 있다. 이 프로세스는 또한 트랜지션에 걸쳐 상이한 오디오 트랙들의 상대적 볼륨 세팅들을 결정하기 위해 구성 규칙들(810)을 또한 이용할 수 있다.
도 9는 노래(900)의 부분의 적어도 일부의 트랙들의 개략도를 예시한다. 노래(900)의 부분은 리드 기타 트랙(902), 리듬 기타 트랙(904), 키보드 트랙(906), 베이스 트랙(908), 드럼 트랙(910) 및 보컬 트랙(912)을 포함한다. 예시 목적들을 위해, 각각의 트랙은 악기 및 악보의 연관된 시퀀스에 의해 개략적으로 표시된다. 그러나 이러한 트랙을 표현하는 음악 정보는 다양한 포맷들로 저장(및 분석)될 수 있다는 것이 이해될 것이다.
도 9는, 노래(900)의 소절(15)로부터 소절(35)로 이동하여 소절(15)과 소절(35) 간의 소절들 중 일부 또는 전부를 우회하도록 음악적 트랜지션이 필요하게 되는 구성을 개략적으로 나타내기 위해 의도된 것이다. 이 경우에, 소절(15)은 높은 강도를 갖는 소절(35)에 대조적으로 중간 강도를 갖는 것으로서 특징화될 수 있다. 이러한 트랜지션을 생성할 필요성은, 소절(15)이 플레이되고 있는 동안, 사용자 활동 레벨이 중간 레벨(소절(15)과 잘 매칭됨)로부터 높은 레벨(소절(35)과 잘 매칭됨)로 상승하는 경우 발생할 수 있다.
도 10은 하나 이상의 트랙들의 진입(entrance)의 타이밍을 맞춤으로써 소절(15)로부터 소절(35)로 이동하기 위한 음악적 트랜지션을 생성하는 하나의 가능한 방식을 예시한다. 이 예에서, 소절(35)의 2개의 추가 사본들(제 1 트랜지션 소절(920) 및 제 2 트랜지션 소절(922)로서 지칭됨)은 트랜지션의 토대로서 이용된다. 또한, 구성 규칙들(350)(도 3 참조)은 이들 2개의 추가 소절들 동안 어느 트랙들이 플레이되는지 결정하는데 이용될 수 있다.
몇몇 실시예들에서, 트랙들을 뮤팅(muting)할지 또는 언뮤팅(unmuting)할지에 관한 판단들(즉, 트랙들의 진입 및 배출의 제어)은 공격적 패턴들 또는 쇠퇴적 패턴들과 같은 하나 이상의 일반적인 패턴들에 기초할 수 있다. 도 10에서 알 수 있는 바와 같이, 트랜지션 라인(930)은 노래가 소절(15)의 말미에서 소절(35)의 선두로 진행될 때 트랙들을 언뮤팅하기 위한 이상화된 트랜지션 패턴을 표현한다. 이러한 트랜지션 패턴은 이에 따라 노래의 강도를 점진적으로 상승시키기 위한 제 1 접근 또는 가이드로서 역할할 수 있다. 그러나 음악적 연속성/일관성이 있는 것을 보장하기 위해 그리고 악기들 및 사운드들의 급격한 변화를 감소시키기 위해, 구성 규칙들(350)은 각각의 트랙이 선호되는 시간에 노래에 진입하거나 노래에서 배출되는 것을 보장하는데 이용될 수 있다. 예를 들어, 트랙이 소절의 중간에 진입하게 되기보단, 구성 규칙들(350)은 각각의 오디오 트랙의 음악적 온전함 및 오디오 트랙들 간의 조화를 보존하기 위해 전체 소절이 재생(또는 뮤팅)되는 것을 보장하는데 이용될 수 있다.
도 10에서 알 수 있는 바와 같이, 리드 기타 트랙(902), 리듬 기타 트랙(904), 키보드 트랙(908) 및 베이스 트랙(908)은 제 1 트랜지션 소절(920) 동안 뮤팅되는 반면에, 드럼 트랙(910) 및 보컬 트랙(912)은 플레이된다. 드럼 트랙(910)은 소절(15)로부터 소절(35)까지 변화되지 않기 때문에, 제 1 트랜지션 소절(920) 및 제 2 트랜지션 소절(922)을 통해 드럼 트랙(910)을 플레이하는 것은 음악적 연속성을 제공한다. 마찬가지로, 보컬 트랙(912)은, 소절(15)로부터 소절(35)까지 보컬들의 트랜지션은 지나치게 급격하지 않고 음악적으로 조화롭다고 결정되는 경우 제 1 트랜지션 소절(920) 및 제 2 트랜지션 소절(922)을 통해 플레이할 수 있다. 노래가 제 2 트랜지션 소절(922)로 진행됨에 따라, 부가적인 트랙들은 트랜지션 라인(930)에 대략적으로(정확하진 않게) 대응하게 부가된다. 특히, 키보드 트랙(906) 및 베이스 트랙(908)은, 노래의 음악적 온전함을 유지하면서, 점진적으로 강도를 상승시키도록 제 2 트랜지션 소절(922) 동안 부가된다. 마지막으로, 원래의 소절(35)로 진행 시에, 리드 기타 트랙(902) 및 리듬 기타 트랙(904)은 소절(35)의 높은 강도 사운드를 제공하도록 부가된다.
도 11은 음악적 트랜지션이 노래(900)의 소절(55)로부터 소절(75)로 이동하여 소절(55)과 소절(75) 간의 소절들 중 일부 또는 전부를 우회하도록 음악적 트랜지션이 필요하게 되는 다른 구성을 개략적으로 나타내기 위해 의도된 것이다. 이 경우에, 소절(55)은 낮은 강도를 갖는 소절(75)에 대조적으로 중간 강도를 갖는 것으로서 특징화된다. 이러한 트랜지션을 생성할 필요성은, 소절(55)이 플레이되고 있는 동안, 사용자 활동이 중간 레벨(소절(55)와 잘 매칭함)로부터 낮은 레벨(소절(75)와 잘 매칭함)로 감소하는 경우 발생할 수 있다.
도 12는 하나 이상의 트랙들의 진입의 타이밍을 맞춤으로써 소절(55)로부터 소절(75)로 이동하기 위한 음악적 트랜지션을 생성하는 하나의 가능한 방식을 예시한다. 이 예에서, 소절(55)의 2개의 추가의 사본들(제 3 트랜지션 소절(940) 및 제 4 트랜지션 소절(942)로서 지칭됨)이 트랜지션의 토대로서 이용된다. 또한, 구성 규칙들(350)(도 3 참조)은 이들 2개의 추가의 소절들 동안 어느 트랙들이 플레이될지 결정하는데 이용될 수 있다.
몇몇 실시예들에서, 트랙들을 뮤팅할지 또는 언뮤팅할지에 관한 판단들(즉, 트랙들의 진입 및 배출의 제어)은 공격적 패턴들 또는 쇠퇴적 패턴들과 같은 하나 이상의 일반적인 패턴들에 기초할 수 있다. 도 12에서 알 수 있는 바와 같이, 트랜지션 라인(950)은 노래가 소절(55)의 말미로부터 소절(75)의 선두로 진행될 때 트랙들을 언뮤팅하기 위한 이상화된 트랜지션 패턴을 표현한다. 이러한 트랜지션 패턴은 이에 따라 노래의 강도를 점진적으로 감소시키기 위한 제 1 접근 또는 가이드로서 역할할 수 있다. 그러나 음악적 연속성이 있는 것을 보장하기 위해 그리고 악기들 및 사운드들의 급격한 변화를 감소시키기 위해, 구성 규칙들(350)은 각각의 오디오 트랙이 선호되는 시간에 노래에 진입하거나 노래에서 배출하는 것을 보장하는데 이용될 수 있다. 예를 들어, 트랙이 소절의 중간에 진입하게 되기보단, 구성 규칙들(350)은 각각의 오디오 트랙의 음악적 온전함 및 오디오 트랙들 간의 조화를 보존하기 위해 전체 소절이 재생(또는 뮤팅)되는 것을 보장하는데 이용될 수 있다.
도 12에서 알 수 있는 바와 같이, 리드 기타 트랙(902) 및 리듬 기타 트랙(904)은 강도를 점진적으로 낮추는데 도움을 주기 위해 제 3 트랜지션 소절(940)에서 뮤팅된다. 노래가 제 4 트랜지션 소절(942)로 진행됨에 따라, 키보드 트랙(906) 및 베이스 트랙(908)은 뮤팅된다. 노래가 원래의 소절(75)로 진행됨에 따라 모든 트랙들은 언뮤팅된다. 특히, 리드 기타 트랙(902), 리듬 기타 트랙(904), 키보드 트랙(906) 및 베이스 트랙(908)은, 소절(75)에서 모든 이들 트랙들의 결합이 원하는 낮은 강도 사운드를 발생시키기 때문에 소절(75)에서 재차 모두 진입된다.
실시예들은 노래 세그먼트들을 변화시키는 일 없이 노래 강도를 조정하기 위한 프로비전들을 포함할 수 있다. 몇몇 실시예들에서, 하나 이상의 오디오 트랙들은 현재의 세그먼트의 강도가 사용자 활동 레벨과 매칭하게 수정되도록 노래에 진입 및/또는 노래에서 배출하도록 제어될 수 있다.
도 13은 노래의 연속적인 세그먼트에 걸쳐 오디오 트랙들의 페이드 인(fade in) 및 아웃(out)(또는 진입 및 배출)을 제어하기 위한 프로세스의 실시예를 예시한다. 앞서 논의된 바와 같이, 다음의 단계들 중 일부 또는 전부는, 구성 시스템(102)은 물론 다른 연관된 시스템들, 컴포넌트들 또는 디바이스들에 의해 달성될 수 있다.
단계(1302)에서, 구성 시스템(102)은 현재 활동 레벨을 결정할 수 있다. 이는 하나 이상의 센서들로부터의 정보를 분석함으로써 결정될 수 있다. 다음으로, 단계(1304)에서, 구성 시스템(102)은 단계(1302)에서 검출된 활동 레벨에 매칭하도록 타겟 노래 강도를 결정할 수 있다. 이것에 이어, 단계(1306)에서, 구성 시스템(102)은 타겟 노래 강도가 현재 노래 세그먼트를 수정함으로써 달성될 수 있는지를 결정할 수 있다. 달성될 수 없는 경우, 구성 시스템(102)은 단계(1308)로 진행될 수 있다. 단계(1308)에서, 구성 시스템(102)은 원하는 타겟 노래 강도를 갖는 새로운 노래 세그먼트를 탐색할 수 있다.
단계(1306)에서, 타겟 노래 강도가 현재 노래 세그먼트를 수정함으로써 달성될 수 있다고 구성 시스템(102)이 결정하는 경우, 구성 시스템(102)은 단계(1312)로 진행될 수 있다. 단계(1312)에서, 구성 시스템(102)은, 타겟 노래 강도가 달성되도록 개별 오디오 트랙들을 제어하기 위해 구성 규칙들(1310)을 이용한다. 특히, 구성 시스템(102)은 다른 노래 세그먼트로 점프하기보단, 현재 노래 세그먼트 내에서 타겟 노래 강도를 달성하도록 다양한 트랙들의 페이드 인 및 아웃을 제어할 수 있다.
도 14는 사용자 활동에 따라(그리고 구성 규칙들의 세트를 이용하여) 특정 노래 세그먼트 또는 구절의 오디오 트랙들을 어떻게 페이드 인 및 아웃시킬 수 있는지를 개략적으로 예시한다. 도 14를 참조하면, 노래(1400)는 리드 기타 트랙(1402), 리듬 기타 트랙(1404), 키보드 트랙(1406), 베이스 트랙(1408), 드럼 트랙(1410) 및 보컬 트랙(1412)을 포함한다. 이 실시예에서, 각각의 오디오 트랙은 파형 또는 사운드 신호로서 개략적으로 표현된다. 예를 들어, 여기서 도시된 각각의 오디오 트랙은 대응하는 악기에 대한 개별 오디오 파일을 표현할 수 있다.
도 14에서는, 제 1 믹싱 보드 구성(1420), 제 2 믹싱 보드 구성(1422) 및 제 3 믹싱 보드 구성(1424)을 포함하는 개략적 믹싱 보드의 상이한 구성들이 또한 도시된다. 마찬가지로, 적응형 음악 플레이백 시스템(100)의 사용자는 낮은 활동 레벨, 중간 활동 레벨 및 높은 활동 레벨에 각각 대응하는 제 1 사용자 상태(1430), 제 2 사용자 상태(1432) 및 제 3 사용자 상태(1434)에 있는 것으로 보이다.
도 14는 사용자 활동에 응답하여, 어느 트랙들이 플레이되고 어느 트랙들이 뮤팅될지를 포함해서 노래 상태가 어떻게 변화되는지를 도시한다. 제 1 사용자 상태(1430)에서, 사용자는 걷고 있을 수 있고, 이에 따라 낮은 활동 레벨을 갖는다. 사용자의 낮은 활동 레벨을 수용하기 위해, 구성 시스템(102)은 리드 기타 트랙(1402), 키보드 트랙(1406) 및 베이스 트랙(1408)을 뮤팅한다. 부가적으로, 리듬 기타 트랙(1404), 드럼 트랙(1410) 및 보컬 트랙(1412)의 볼륨 레벨들은 중간 볼륨으로 세팅된다. 페이더 바(fader bar)(1440)의 포지션에 대응하는 이들 다양한 트랙 세팅들은 음악적 온전함을 유지하면서 원하는 강도 레벨을 달성하도록 구성 규칙들(350)(도 3 참조)을 이용하여 선택된다.
제 2 사용자 상태(1432)에서, 사용자는 조깅하거나 빠르게 걷고 있을 수 있고, 이에 따라 중간 활동 레벨을 갖는다. 활동에 있어서의 이러한 증가를 수용하기 위해, 구성 시스템(102)은 베이스 트랙(1408)을 언뮤팅하고, 리듬 기타 트랙(1404), 드럼 트랙(1410) 및 보컬 트랙(1412)의 볼륨을 추가로 증가시킨다. 이는 현재 노래 세그먼트의 강도를 낮음에서 중간으로 상승시킨다.
마지막으로, 제 3 사용자 상태(1434)에서, 사용자는 달릴 수 있고, 이에 따라 높은 활동 레벨을 갖는다. 활동에 있어서의 이러한 증가에 응답하여, 구성 시스템(102)은 리드 기타 트랙(1402) 및 키보드 트랙(1406)을 언뮤팅하고, 모든 트랙들의 볼륨을 최대값(또는 최대값에 근접하게)으로 세팅한다. 이러한 증가는 현재 노래 세그먼트의 강도를 중간에서 높음으로 상승시킨다.
앞서 논의된 바와 같이, 특정 트랙들을 뮤팅 또는 뮤팅 해제할지에 관한 판단들 및 트랙들이 뮤팅되거나 언뮤팅되는 타이밍은 구성 규칙들(350)에 따라 구성 시스템(102)에 의해 내려진다. 특히, 트랙들의 진입 및/또는 배출은, 강도, 템포, 피치 및 키들과 같은 다양한 바람직한 음악 특성들은 물론 다른 가능한 음악 특성들은 바람직하지 않은 중단들, 점프들 또는 인터럽트 없이 자연스러운(smooth) 방식으로 유지되거나 변동되는 것을 보장하도록 관리된다. 따라서, 예를 들어, 노래의 강도는 사용자에 대해 바람직하지 않을 수 있는, 템포, 피치 및 키의 급작스런 변화를 생성하지 않고서 점진적으로 상승할 수 있다.
몇몇 실시예들에서, 구성 시스템(102)은 원하는 강도를 갖는 세그먼트에 머잖아 도달하도록 노래의 일부 세그먼트들을 우회 또는 스킵하도록 구성될 수 있다. 이러한 실시예의 하나의 가능한 예가 도 15에서 개략적으로 도시된다. 도 15를 참조하면, 현재 세그먼트(1502)가 현재 플레이되고 있다. 이 세그먼트는 낮은 강도 세그먼트이고, 일반적으로 걷기와 같은 낮은 강도 활동들 동안 사용자에 대해 플레이될 수 있다.
사용자 활동의 갑작스런 증가에 응답하여, 구성 시스템(102)은 높은 강도 노래 세그먼트가 필요하다고 결정할 수 있다. 이 예시적인 실시예에서, 구성 시스템(102)은 타겟 세그먼트(1504)가 원하는 높은 강도를 갖는다고 결정한다. 그러나 이 경우에 타겟 세그먼트(1504)로의 직접적인 점프는 조화되지 않는 음악적 트랜지션을 생성할 것이다. 대신, 구성 시스템(102)은, 타겟 세그먼트(1504) 바로 이전의 세그먼트인 중간 세그먼트(1512)가 현재 세그먼트(1502)와 유사한 음악적 구조를 갖는다고 결정한다. 그러므로, 구성 시스템(102)은, 구성 시스템(102)이 현재 세그먼트(1502)의 말미로부터 중간 세그먼트(1512)의 선두로 점프하고 복수의 낮은 강도 세그먼트들(1514)을 또한 우회하는, 노래를 통한 음악적 경로 또는 음악적 시퀀스(1510)를 생성한다. 중간 세그먼트(1512)로부터, 타겟 세그먼트(1504)로의 자연스러운 음악적 트랜지션이 이미 존재한다. 따라서, 음악적 시퀀스(1510)는 노래의 보통 시퀀스와 상이하고 변동되는 강도들을 갖는 세그먼트 간에 보다 빠르게 이동하는 것을 용이하게 하는 노래 세그먼트들의 시퀀스를 포함하는 것을 알게 된다.
도 16은 음악적 일관성을 유지하고 하나 이상의 음악적 속성들에서 갑작스런 중단들 또는 트랜지션들을 방지하는 방식으로 상이한 강도들의 노래 세그먼트들 간에 이동하기 위한 프로세스의 실시예이다. 이전에 논의된 바와 같이, 몇몇 실시예들에서, 프로세스의 하나 이상의 단계들은 구성 시스템(102)에 의해 수행될 수 있다. 그러나 다른 실시예들에서, 몇몇 단계들은 임의의 다른 연관된 컴포넌트, 디바이스 또는 시스템에 의해 수행될 수 있다. 또한, 몇몇 단계들은 다른 실시예들에서 선택적일 수 있다.
단계(1602)에서, 구성 시스템(102)은 하나 이상의 센서들로부터의 정보를 이용하여 현재 활동 레벨을 결정할 수 있다. 다음으로, 단계(1604)에서, 구성 시스템(102)은 현재 노래 세그먼트의 강도에 활동 레벨을 비교할 수 있다. 단계(1606)에서, 구성 시스템(102)은 활동 레벨이 현재 노래 세그먼트의 강도에 매칭하는지를 결정한다. 매칭하지 않는 경우, 구성 시스템(102)은 단계(1608)로 진행되고 조정 없이 노래를 계속 플레이한다.
단계(1608)에서 활동 레벨과 노래 강도 간의 미스매칭이 있는 경우, 구성 시스템(102)은 1610으로 이동할 수 있다. 단계(1610)에서, 구성 시스템(102)은 현재 활동 레벨에 대한 매칭하는 강도를 갖는 적어도 하나의 타겟 노래 세그먼트를 찾는다. 다음으로, 단계(1612)에서, 구성 시스템(102)은 음악적으로 일관성있는 세그먼트들의 시퀀스들을 생성하며, 여기서 각각의 시퀀스는 현재 세그먼트에서 시작하고 타겟 세그먼트에서 종료한다. 이에 따라 각각의 시퀀스는 현재 세그먼트로부터 타겟 세그먼트까지 노래를 통한 경로를 제공한다. 단계(1614)에서, 구성 시스템(102)은 단계(1612)에서 찾은 시퀀스들의 세트로부터 최단 시퀀스를 플레이할 수 있다. 이는 구성 시스템(102)이 가능한 최단 시간에 사용자 활동에 매칭하는 강도를 갖는 노래 세그먼트로 트랜지션하도록 허용한다. 이는 사용자 활동의 변화에 대한 시스템의 응답의 증가를 돕는다.
실시예들은 상이한 강도들의 세그먼트들 간의 자동 트랜지션을 용이하게 하기 위한 프로비전들을 제공할 수 있다. 도 17 및 도 18은 일련의 노래 세그먼트들(1702)(이 경우에, 세그먼트 1로부터 세그먼트 16까지 순서화됨)로서 구성된 노래의 개략도들을 도시한다. 또한, 실시예는 음악적으로 일관성있는 방식으로 임의의 2개의 노래 세그먼트들을 연결하기 위한 수단으로서 작동하는 유니버셜 트랜지션 세그먼트(1704)를 포함한다. 따라서, 도 17의 예에서, 구성 시스템(102)은 유니버셜 트랜지션 세그먼트(1704)를 통해 (1번째 세그먼트 및 11번째 세그먼트에 각각 대응하는) 세그먼트(1710)로부터 세그먼트(1712)로 트래지션할 수 있다. 마찬가지로, 도 18의 예에서, 구성 시스템(102)은 유니버셜 트랜지션 세그먼트(1704)에 의해, 세그먼트(1714)(7번째 세그먼트)로부터 세그먼트(1716)(12번째 세그먼트)로 트랜지션할 수 있다.
유니버셜 트랜지션 세그먼트는 다양한 상이한 방식들로 생성될 수 있다. 몇몇 실시예들에서, 유니버셜 트랜지션 세그먼트는 다양한 가능한 음악적 세그먼트들과의 최대 음악적 호환성을 갖도록 설계되는 미리 결정된 음악적 세그먼트일 수 있다. 다른 실시예들에서, 유니버셜 트랜지션 세그먼트는 특정 노래로부터의 정보를 이용하여 생성될 수 있어서, 유니버셜 트랜지션 세그먼트는 그 노래의 특정 세그먼트들과 최대로 호환 가능하다는 것을 보장한다. 또한 유니버셜 트랜지션 세그먼트는 임의의 길이 및 템포를 가질 수 있고 하나 이상의 악기 또는 음성 트랙들을 포함할 수 있다.
현재 실시예가 단일의 유니버셜 트랜지션 세그먼트의 이용을 예시하지만, 다른 실시예들은 1개, 2개 또는 그 이상의 유니버셜 트랜지션 세그먼트들을 이용할 수 있다. 따라서 2개의 세그먼트들 간에 트랜지션할 때, 구성 시스템은 유니버셜 트랜지션 세그먼트들의 세트로부터 2개의 세그먼트들에 맞는 최상의 유니버셜 트랜지션 세그먼트를 선택할 수 있다.
실시예들이 감지된 정보 및 다양한 구성 규칙들에 따라 조정되는 음악 정보의 플레이백을 논의하였지만, 유사한 원리들이 추후의 시간에 플레이백을 위해 음악 정보를 레코딩하는 시스템들에 대해 마찬가지로 적용될 수 있다는 것이 이해된다. 따라서, 구성 시스템은 디지털 파일들, CD들, 테이프들 또는 다른 종류들의 미디어들을 포함하는 하나 이상의 타입들의 미디어에 저장되는 새로운 음악적 구성들을 생성하는데 이용될 수 있다.
다양한 실시예들이 설명되었지만, 설명은 제한적이기보단 오히려 예시적인 것으로 의도되며, 실시예들의 범위 내에 있는 훨씬 더 많은 실시예들 및 구현들이 가능하다는 것이 당업자들에게 자명하게 될 것이다. 이에 따라, 실시예들은 첨부된 청구항들 및 그 균등물들의 견지 외에는 제한되지 않는다. 또한 다양한 수정 및 변화가 첨부된 청구항의 범위 내에서 이루어질 수 있다.

Claims (22)

  1. 오디오 정보의 플레이백(playback)을 조정하는 방법에 있어서,
    컴퓨팅 디바이스에 의해, 제 1 노래 - 상기 제 1 노래는 시간적으로 순차적인 복수의 노래 세그먼트들을 포함하고, 상기 제 1 노래는 오디오 트랙들의 세트를 더 포함함 - 를 플레이(play)하는 단계;
    구성 규칙(composition rule)들 - 상기 구성 규칙들은 오디오 트랙들 또는 다른 오디오 정보를 결합하는 방법을 결정하는데 이용되는 데이터를 포함함 - 의 세트를 리트리브(retrieve)하는 단계;
    사용자의 움직임을 검출하도록 구성된 적어도 하나의 센서로부터 사용자 활동 정보를 수신하고, 상기 제 1 노래의 제 1 노래 세그먼트가 플레이되고 있는 동안 상기 사용자 활동 정보로부터 사용자 활동 레벨을 결정하는 단계;
    프로세서에 의해, 상기 사용자 활동 레벨에 대응하는 타겟 노래 강도를 결정하는 단계;
    상기 타겟 노래 강도에 대응하는 노래 상태를 포함하는 상기 제 1 노래의 타겟 노래 세그먼트를 식별하는 단계;
    상기 타겟 노래 강도를 달성하도록 상기 구성 규칙들을 이용하여 상기 오디오 트랙들의 세트를 제어하는 단계; 및
    상기 제 1 노래 세그먼트로부터 상기 타겟 노래 세그먼트로의 트랜지션(transition)을 위해 상기 제 1 노래의 연속적인 세그먼트에 걸쳐 상기 오디오 트랙들의 세트 내의 하나 이상의 오디오 트랙들을 뮤팅(muting) 또는 언뮤팅(unmuting)하도록 동적으로 결정하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 오디오 트랙들의 세트를 제어하는 단계는,
    상기 오디오 트랙들의 세트 내의 하나 이상의 오디오 트랙들의 상대적 볼륨을 제어하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  4. 제 1 항에 있어서,
    상기 구성 규칙들의 세트는 상기 오디오 트랙들의 세트로부터의 하나 이상의 오디오 트랙들이 뮤팅 및 언뮤팅되는 타이밍을 결정하는데 이용되는, 오디오 정보의 플레이백을 조정하는 방법.
  5. 제 1 항에 있어서,
    상기 오디오 트랙들의 세트 내의 각각의 오디오 트랙은 상이한 악기에 대응하는, 오디오 정보의 플레이백을 조정하는 방법.
  6. 제 1 항에 있어서,
    상기 적어도 하나의 센서는 사용자가 착용하는 신발류의 물품과 연관되는, 오디오 정보의 플레이백을 조정하는 방법.
  7. 오디오 정보의 플레이백을 조정하는 방법에 있어서,
    노래를 플레이하는 단계로서, 상기 노래는 시간적으로 순차적인 복수의 노래 세그먼트들을 포함하고, 상기 노래는 동시에 플레이될 수 있는 오디오 트랙들의 세트를 더 포함하는, 상기 노래를 플레이하는 단계;
    구성 규칙들 - 상기 구성 규칙들은 오디오 트랙들 또는 다른 오디오 정보를 결합하는 방법을 결정하는데 이용되는 데이터를 포함함 - 의 세트를 리트리브하는 단계;
    사용자의 움직임들을 검출하도록 구성된 적어도 하나의 센서로부터 사용자 활동 정보를 수신하는 단계;
    프로세서에 의해, 상기 노래의 제 1 노래 세그먼트가 플레이되고 있는 동안, 상기 사용자 활동 정보로부터 사용자 활동 레벨을 결정하는 단계;
    상기 제 1 노래 세그먼트를 플레이하는 동안, 상기 결정된 사용자 활동 레벨에 매칭하는 노래 상태를 갖는 상기 노래의 제 2 노래 세그먼트를 결정하는 단계; 및
    상기 제 1 노래 세그먼트로부터 상기 제 2 노래 세그먼트로의 음악적 트랜지션(musical transition)을 구성하도록, 상기 노래의 연속적인 세그먼트에 걸쳐 상기 오디오 트랙들의 세트 내의 하나 이상의 오디오 트랙들을 뮤팅 또는 언뮤팅하도록 동적으로 결정하기 위해 상기 구성 규칙들의 세트를 이용하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  8. 제 7 항에 있어서,
    상기 음악적 트랜지션을 구성하도록 상기 구성 규칙들의 세트를 이용하는 단계는,
    상기 음악적 트랜지션 동안 상기 오디오 트랙들의 세트로부터의 하나 이상의 오디오 트랙들의 진입(entrance) 및 배출(exit)을 조정하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  9. 제 7 항에 있어서,
    상기 음악적 트랜지션을 구성하도록 상기 구성 규칙들의 세트를 이용하는 단계는,
    트랜지션 패턴을 선택하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  10. 제 9 항에 있어서,
    상기 트랜지션 패턴은, 상기 음악적 트랜지션 동안 오디오 트랙들의 점진적인 도입을 허용하는 공격적(attack) 패턴인, 오디오 정보의 플레이백을 조정하는 방법.
  11. 제 9 항에 있어서,
    상기 트랜지션 패턴은, 상기 음악적 트랜지션 동안 오디오 트랙들의 점진적인 제거를 허용하는 쇠퇴적(decay) 패턴인, 오디오 정보의 플레이백을 조정하는 방법.
  12. 제 7 항에 있어서,
    상기 노래 상태는 상기 노래의 강도에 대응하는, 오디오 정보의 플레이백을 조정하는 방법.
  13. 제 7 항에 있어서,
    상기 구성 규칙들의 세트는 상기 사용자에 의해 세팅될 수 있는 사용자 선호도들의 세트를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  14. 제 7 항에 있어서,
    상기 구성 규칙들의 세트는 상기 오디오 트랙들의 세트로부터의 2개의 오디오 트랙들이 함께 플레이될 수 있을 때를 결정하는 적어도 하나의 규칙을 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  15. 제 7 항에 있어서,
    상기 음악적 트랜지션은 상기 복수의 노래 세그먼트들로부터의 적어도 하나의 세그먼트를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  16. 제 15 항에 있어서,
    상기 음악적 트랜지션을 구성하는 단계는,
    상기 적어도 하나의 세그먼트 내의 상기 오디오 트랙들의 세트로부터의 오디오 트랙들의 구성을 조정하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  17. 오디오 정보의 플레이백을 조정하는 방법에 있어서,
    시간적으로 순차적인 복수의 노래 세그먼트들을 포함하는 노래를 플레이하는 단계;
    사용자의 움직임들을 검출하도록 구성된 적어도 하나의 센서로부터 사용자 활동 정보를 수신하는 단계;
    제 1 노래 세그먼트가 플레이되고 있는 동안, 상기 사용자 활동 정보로부터 사용자 활동 레벨을 결정하는 단계;
    상기 제 1 노래 세그먼트를 플레이하는 동안, 상기 결정된 사용자 활동 레벨에 매칭하는 노래 상태를 갖는 제 2 노래 세그먼트를 결정하는 단계;
    유니버셜 트랜지션 세그먼트를 리트리브하는 단계로서, 상기 유니버셜 트랜지션 세그먼트는 상기 제 1 노래 세그먼트와 상기 제 2 노래 세그먼트의 음악적 트랜지션을 구성할 수 있는 것인, 상기 유니버셜 트랜지션 세그먼트를 리트리브하는 단계;
    상기 제 1 노래 세그먼트 이후 상기 유니버셜 트랜지션 세그먼트를 플레이하는 단계; 및
    상기 제 1 노래 세그먼트와 상기 제 2 노래 세그먼트 간의 트랜지션을 생성하기 위해, 상기 유니버셜 트랜지션 세그먼트 이후 상기 제 2 노래 세그먼트를 플레이하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  18. 제 17 항에 있어서,
    상기 유니버셜 트랜지션 세그먼트는 상기 복수의 노래 세그먼트들을 분석함으로써 생성되는, 오디오 정보의 플레이백을 조정하는 방법.
  19. 제 17 항에 있어서,
    상기 유니버셜 트랜지션 세그먼트는 다수의 상이한 노래들과 함께 이용하도록 구성되는, 오디오 정보의 플레이백을 조정하는 방법.
  20. 제 17 항에 있어서,
    상기 유니버셜 트랜지션 세그먼트는 복수의 유니버셜 트랜지션 세그먼트들 중 하나이고,
    상기 방법은,
    상기 복수의 유니버셜 트랜지션 세그먼트들로부터 2개 이상의 유니버셜 트랜지션 세그먼트들을 리트리브하고 이용하는 단계를 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  21. 제 1 항에 있어서,
    상기 오디오 트랙들의 세트를 동적으로 조정하는 것은,
    상기 제 1 노래 세그먼트가 상기 타겟 노래 강도와 대응하도록 상기 오디오 트랙들의 세트를 동적으로 조정하는 것을 더 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
  22. 제 7 항에 있어서,
    상기 결정된 사용자 활동 레벨에 매칭하는 노래 상태를 갖는 상기 제 2 노래 세그먼트를 결정하는 단계는,
    상기 제 1 노래 세그먼트를 위한 음악적 속성들을 상기 제 2 노래 세그먼트를 위한 음악적 속성들과 비교하는 단계; 및
    상기 음악적 속성들의 비교에 적어도 부분적으로 기초하여 상기 제 1 노래 세그먼트와 상기 제 2 노래 세그먼트 간의 음악적 트랜지션을 실행할지 여부를 결정하는 단계를 더 포함하는, 오디오 정보의 플레이백을 조정하는 방법.
KR1020157026385A 2013-03-05 2013-07-22 적응형 음악 플레이백 시스템 KR101745965B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361772640P 2013-03-05 2013-03-05
US61/772,640 2013-03-05
US13/941,633 2013-07-15
US13/941,633 US9595932B2 (en) 2013-03-05 2013-07-15 Adaptive music playback system
PCT/US2013/051467 WO2014137377A1 (en) 2013-03-05 2013-07-22 Adaptive music playback system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020177015064A Division KR101871132B1 (ko) 2013-03-05 2013-07-22 적응형 음악 플레이백 시스템

Publications (2)

Publication Number Publication Date
KR20150121178A KR20150121178A (ko) 2015-10-28
KR101745965B1 true KR101745965B1 (ko) 2017-06-13

Family

ID=51487858

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020177015064A KR101871132B1 (ko) 2013-03-05 2013-07-22 적응형 음악 플레이백 시스템
KR1020157026385A KR101745965B1 (ko) 2013-03-05 2013-07-22 적응형 음악 플레이백 시스템

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020177015064A KR101871132B1 (ko) 2013-03-05 2013-07-22 적응형 음악 플레이백 시스템

Country Status (6)

Country Link
US (5) US9595932B2 (ko)
EP (1) EP2965310B1 (ko)
JP (2) JP6236472B2 (ko)
KR (2) KR101871132B1 (ko)
CN (1) CN105308676B (ko)
WO (1) WO2014137377A1 (ko)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710221B2 (en) * 2014-12-23 2017-07-18 Alistair James MacDonald Intelligent safer music system for an operating room
US10387107B2 (en) 2015-07-31 2019-08-20 Nike, Inc. Utilizing athletic activities to augment audible compositions
US20170060520A1 (en) * 2015-09-01 2017-03-02 AudioCommon, Inc. Systems and methods for dynamically editable social media
US9977645B2 (en) * 2015-10-01 2018-05-22 Moodelizer Ab Dynamic modification of audio content
US20170131965A1 (en) * 2015-11-09 2017-05-11 Jarno Eerola Method, a system and a computer program for adapting media content
US10387106B2 (en) * 2016-04-04 2019-08-20 Spotify Ab Media content system for enhancing rest
US10002596B2 (en) * 2016-06-30 2018-06-19 Nokia Technologies Oy Intelligent crossfade with separated instrument tracks
GB2551807B (en) * 2016-06-30 2022-07-13 Lifescore Ltd Apparatus and methods to generate music
CN106486128B (zh) * 2016-09-27 2021-10-22 腾讯科技(深圳)有限公司 一种双音源音频数据的处理方法及装置
US10349196B2 (en) 2016-10-03 2019-07-09 Nokia Technologies Oy Method of editing audio signals using separated objects and associated apparatus
US20180189828A1 (en) * 2017-01-04 2018-07-05 Criteo Sa Computerized generation of music tracks to accompany display of digital video advertisements
US9905208B1 (en) * 2017-02-21 2018-02-27 Speed of Sound Software, Inc. System and method for automatically forming a master digital audio track
US10698950B2 (en) * 2017-03-02 2020-06-30 Nicechart, Inc. Systems and methods for creating customized vocal ensemble arrangements
US10606548B2 (en) * 2017-06-16 2020-03-31 Krotos Ltd Method of generating an audio signal
AU2018320712A1 (en) * 2017-08-25 2020-02-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for controlling acoustic feedback during a physical exercise
GB201721061D0 (en) * 2017-12-15 2018-01-31 Pob Enterprises Ltd System for processing music
CN110555126B (zh) 2018-06-01 2023-06-27 微软技术许可有限责任公司 旋律的自动生成
US11138297B2 (en) * 2018-07-31 2021-10-05 International Business Machines Corporation Sound composition as authentication
DE112019005499T5 (de) * 2018-11-01 2021-09-30 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
CN109448684B (zh) * 2018-11-12 2023-11-17 合肥科拉斯特网络科技有限公司 一种智能编曲方法和系统
CN110430326B (zh) * 2019-09-10 2021-02-02 Oppo广东移动通信有限公司 铃声编辑方法、装置、移动终端及存储介质
EP4115628A1 (en) * 2020-03-06 2023-01-11 algoriddim GmbH Playback transition from first to second audio track with transition functions of decomposed signals
US11670322B2 (en) * 2020-07-29 2023-06-06 Distributed Creation Inc. Method and system for learning and using latent-space representations of audio signals for audio content-based retrieval
CN112820254B (zh) * 2021-01-22 2021-11-09 索思(苏州)医疗科技有限公司 一种音乐生成方法、装置、电子设备和存储介质
CN115700870A (zh) * 2021-07-31 2023-02-07 华为技术有限公司 一种音频数据的处理方法及装置
US11792559B2 (en) * 2021-08-17 2023-10-17 Sufang Liu Earphone control method and device, and non-transitory computer readable storage medium
KR20230044345A (ko) 2021-09-26 2023-04-04 김형석 이동식 배지 화분

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080236370A1 (en) * 2007-03-28 2008-10-02 Yamaha Corporation Performance apparatus and storage medium therefor
US20080257133A1 (en) * 2007-03-27 2008-10-23 Yamaha Corporation Apparatus and method for automatically creating music piece data
US20090003802A1 (en) * 2004-10-18 2009-01-01 Sony Corporation Content Playback Method and Content Playback Apparatus

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6876947B1 (en) 1997-10-02 2005-04-05 Fitsense Technology, Inc. Monitoring activity of a user in locomotion on foot
US6746247B2 (en) 2000-12-27 2004-06-08 Michael P. Barton Choreographed athletic movement to music
US7521623B2 (en) 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
US7745716B1 (en) 2003-12-15 2010-06-29 Michael Shawn Murphy Musical fitness computer
JP2005316300A (ja) 2004-04-30 2005-11-10 Kyushu Institute Of Technology 楽音生成機能を備えた半導体装置およびこれを用いた携帯型電子機器、携帯電話装置、眼鏡器具並びに眼鏡器具セット
JP2006098478A (ja) * 2004-09-28 2006-04-13 Kawai Musical Instr Mfg Co Ltd 音楽再生装置
US7254516B2 (en) 2004-12-17 2007-08-07 Nike, Inc. Multi-sensor monitoring of athletic performance
KR101333024B1 (ko) 2005-02-14 2013-11-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 콘텐트 아이템들을 선택하기 위한 전자 디바이스 및 방법
JP4266370B2 (ja) 2005-03-08 2009-05-20 Necトーキン株式会社 姿勢角度検出装置を用いた電子楽器およびその制御方法
JP4389821B2 (ja) 2005-03-22 2009-12-24 ソニー株式会社 体動検出装置、コンテンツ再生装置、体動検出方法およびコンテンツ再生方法
JP5225548B2 (ja) 2005-03-25 2013-07-03 ソニー株式会社 コンテンツ検索方法、コンテンツリスト検索方法、コンテンツ検索装置、コンテンツリスト検索装置および検索サーバ
US8740751B2 (en) 2005-07-25 2014-06-03 Nike, Inc. Interfaces and systems for displaying athletic performance information on electronic devices
US20090144080A1 (en) 2005-08-18 2009-06-04 Robert Gray Digital Fitness Enhancement Method and Apparatus
US20070074617A1 (en) * 2005-10-04 2007-04-05 Linda Vergo System and method for tailoring music to an activity
US20070074619A1 (en) 2005-10-04 2007-04-05 Linda Vergo System and method for tailoring music to an activity based on an activity goal
JP2007135737A (ja) 2005-11-16 2007-06-07 Sony Corp 動作支援方法および動作支援装置
JP4264752B2 (ja) 2005-12-16 2009-05-20 ソニー株式会社 オーディオ信号の再生機および再生方法
JP4356700B2 (ja) 2006-02-21 2009-11-04 ソニー株式会社 再生装置
JP2007280581A (ja) 2006-04-12 2007-10-25 Sony Corp コンテンツ検索選択方法、コンテンツ再生装置および検索サーバ
US7771320B2 (en) 2006-09-07 2010-08-10 Nike, Inc. Athletic performance sensing and/or tracking systems and methods
US20080103022A1 (en) 2006-10-31 2008-05-01 Motorola, Inc. Method and system for dynamic music tempo tracking based on exercise equipment pace
KR100921584B1 (ko) 2006-12-06 2009-10-14 야마하 가부시키가이샤 탑재식 음악 재생 장치 및 음악 정보 분배 시스템
JP4826508B2 (ja) * 2007-02-27 2011-11-30 ヤマハ株式会社 再生装置および自動演奏装置
JP4697166B2 (ja) 2007-03-27 2011-06-08 ヤマハ株式会社 音楽再生制御装置
JP4311468B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
JP2009031361A (ja) 2007-07-24 2009-02-12 Asahi Kasei Electronics Co Ltd 電子楽器
US20090044687A1 (en) 2007-08-13 2009-02-19 Kevin Sorber System for integrating music with an exercise regimen
US8655004B2 (en) 2007-10-16 2014-02-18 Apple Inc. Sports monitoring system for headphones, earbuds and/or headsets
US20090260506A1 (en) 2008-04-17 2009-10-22 Utah State University Method for controlling the tempo of a periodic conscious human physiological activity
CN105768322A (zh) 2008-06-13 2016-07-20 耐克创新有限合伙公司 具有传感器系统的鞋
US9549585B2 (en) 2008-06-13 2017-01-24 Nike, Inc. Footwear having sensor system
US10070680B2 (en) 2008-06-13 2018-09-11 Nike, Inc. Footwear having sensor system
US9002680B2 (en) 2008-06-13 2015-04-07 Nike, Inc. Foot gestures for computer input and interface control
WO2010041147A2 (en) 2008-10-09 2010-04-15 Futureacoustic A music or sound generation system
JP2010192012A (ja) 2009-02-16 2010-09-02 Fujifilm Corp 携帯型音楽再生装置
CN104793482B (zh) 2009-04-26 2019-01-04 耐克创新有限合伙公司 运动手表
CN105107185B (zh) 2009-04-27 2018-12-14 耐克创新有限合伙公司 用于生成训练计划和音乐播放列表的设备
EP4138095A1 (en) 2010-11-10 2023-02-22 Nike Innovate C.V. Systems and methods for time-based athletic activity measurement and display
JP2012103603A (ja) * 2010-11-12 2012-05-31 Sony Corp 情報処理装置、楽曲区間抽出方法、及びプログラム
EP3662829A1 (en) 2011-02-17 2020-06-10 NIKE Innovate C.V. Footwear having sensor system
US8829323B2 (en) 2011-02-18 2014-09-09 Talent Media LLC System and method for single-user control of multiple roles within a music simulation
US20130213147A1 (en) 2012-02-22 2013-08-22 Nike, Inc. Footwear Having Sensor System
US20130213144A1 (en) 2012-02-22 2013-08-22 Nike, Inc. Footwear Having Sensor System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090003802A1 (en) * 2004-10-18 2009-01-01 Sony Corporation Content Playback Method and Content Playback Apparatus
US20080257133A1 (en) * 2007-03-27 2008-10-23 Yamaha Corporation Apparatus and method for automatically creating music piece data
US20080236370A1 (en) * 2007-03-28 2008-10-02 Yamaha Corporation Performance apparatus and storage medium therefor

Also Published As

Publication number Publication date
US11854520B2 (en) 2023-12-26
EP2965310B1 (en) 2020-08-19
CN105308676B (zh) 2019-03-15
US20210407478A1 (en) 2021-12-30
JP6480526B2 (ja) 2019-03-13
US20140254831A1 (en) 2014-09-11
KR20150121178A (ko) 2015-10-28
JP2017215611A (ja) 2017-12-07
US11145284B2 (en) 2021-10-12
US20240078987A1 (en) 2024-03-07
WO2014137377A1 (en) 2014-09-12
EP2965310A1 (en) 2016-01-13
KR20170065685A (ko) 2017-06-13
KR101871132B1 (ko) 2018-06-25
US9595932B2 (en) 2017-03-14
CN105308676A (zh) 2016-02-03
US20170148425A1 (en) 2017-05-25
US20190244594A1 (en) 2019-08-08
JP2016511844A (ja) 2016-04-21
US10229661B2 (en) 2019-03-12
JP6236472B2 (ja) 2017-11-22

Similar Documents

Publication Publication Date Title
US11854520B2 (en) Adaptive music playback system
US7973231B2 (en) Music synchronization arrangement
US20070074253A1 (en) Content-preference-score determining method, content playback apparatus, and content playback method
KR20060128925A (ko) 음악 입력 신호에 대한 템포 애매성의 척도를 결정하기위한 방법 및 시스템
JP2010531464A (ja) 電子装置を用いて複数のソングを自動的にビートミックスするシステム及び方法
CN101004938B (zh) 用于再现音频信号的设备和方法
EP3552200B1 (en) Audio variations editing using tempo-range metadata.
JP2006301276A (ja) 携帯用楽曲再生装置
US10847129B2 (en) Data format
JP6842558B2 (ja) 楽曲解析装置および楽曲解析プログラム
JP2007156280A (ja) 音響再生装置、音響再生方法および音響再生プログラム
JP4843120B1 (ja) 楽曲再生方法、楽曲再生装置、再生処理システムおよびプログラム
JP2007164020A (ja) 音楽再生装置および楽曲選択再生方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant