KR20070122452A - 음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법 - Google Patents

음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법 Download PDF

Info

Publication number
KR20070122452A
KR20070122452A KR1020077019469A KR20077019469A KR20070122452A KR 20070122452 A KR20070122452 A KR 20070122452A KR 1020077019469 A KR1020077019469 A KR 1020077019469A KR 20077019469 A KR20077019469 A KR 20077019469A KR 20070122452 A KR20070122452 A KR 20070122452A
Authority
KR
South Korea
Prior art keywords
music
information
unit
data
arrangement
Prior art date
Application number
KR1020077019469A
Other languages
English (en)
Other versions
KR101233800B1 (ko
Inventor
토시로 데라우치
요이치로 사코
코세이 야마시타
야스시 미야지마
모토유키 다카이
토루 사사키
유이치 사카이
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20070122452A publication Critical patent/KR20070122452A/ko
Application granted granted Critical
Publication of KR101233800B1 publication Critical patent/KR101233800B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/363Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems using optical disks, e.g. CD, CD-ROM, to store accompaniment information in digital form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/005Voice controlled instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • G10H7/004Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof with one or more auxiliary processor in addition to the main processing unit
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/381Manual tempo setting or adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/391Automatic tempo adjustment, correction or control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • G10H2210/565Manual designation or selection of a tonality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/091Info, i.e. juxtaposition of unrelated auxiliary information or commercial messages with or between music files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/135Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/155Library update, i.e. making or modifying a musical database using musical parameters as indices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

청취하고 있는 사용자의 기분 등에 따라, 간단하게, 악곡 자신을 재구성(어레인지)할 수 있는 장치를 제공한다. 제 1의 취득수단은, 복수 개의 음악 콘텐츠의 데이터가 격납되어 있는 음악 콘텐츠 데이터 기억부로부터, 재생 대상의 음악 콘텐츠의 데이터를 취득한다. 제 2의 취득수단은, 속성정보기억부로부터 음악 콘텐츠의 악곡 소재 단위의 속성정보를 취득한다. 제 3의 취득수단은, 음악 콘텐츠와 대응 지어져, 상기 악곡구성정보와 관련지어 생성되어 있는 어레인지용 정보를 취득한다. 사용자의 어레인지 지시에 따라, 제 2의 취득수단에 의해 취득한 악곡구성정보와, 제 3의 취득수단에 의해 취득한 어레인지용 정보에 근거하여, 음향 재생 출력하는 재생 대상의 음악 콘텐츠의 데이터를 재구성한다.

Description

음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법{Musical content reproducing device and music content reproducing method}
이 발명은, 예를 들면 디스크자키가 음악 콘텐츠를 어레인지(arrange)하여 재생하는 것과 마찬가지로, 청취자가, 자신이 좋아하는 음악 콘텐츠를 재구성(어레인지)하여 재생할 수 있도록 하는 음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법에 관한 것이다.
광디스크나 하드 디스크 등의 기록매체의 기록 용량이 커졌기 때문에, 그들 기록매체에 대량의 음악 콘텐츠가 격납 가능하게 되어 있다. 그리고, 이 대용량의 기록매체를 이용한 음악 콘텐츠의 재생장치도 제공되고 있다.
종래의 이런 종류의 음악 콘텐츠의 재생장치에 있어서는, 음악 시청을 행하는 사용자 자신이, 대량의 음악 콘텐츠 중에서 자신이 듣고 싶은 음악 콘텐츠를 선택하여, 재생 조작을 행하고 있다.
또, 예를 들면, 사용자의 과거의 음악 콘텐츠에 관한 재생 이력을 이용하여, 사용자에게, 재생 악곡 후보를 추천하는 시스템도 제공되고 있다(예를 들면, 특개 2003-173350호 공보 참조).
위에서 설명한 바와 같이, 종래는, 사용자가 선택하거나 혹은 장치가 과거의 재생 이력에 근거하여 선택하거나 하여, 사용자에게 재생 악곡 후보를 제시하는 방법은 제안되고 있다. 그렇지만, 종래의 음악 콘텐츠의 재생장치에 있어서는, 위에서 설명한 바와 같이 하여 선택되어 재생되는 악곡은, 악곡 제작자가 의도한 대로 그대로 재생될 뿐, 특히 사용자마다 곡조의 변화가 실시되는 등의 개인의 기호성이 재생 악곡에 반영시키도록 하는 것은 존재하지 않는다.
즉, 아티스트 등의 제작측에서 만들어진 악곡은, 종래의 음악 콘텐츠의 재생장치의 재생 기능상의 제약 등의 이유도 있고, 사용자측에서는, 제작자의 의도한 대로, 단지 고정적으로 들을 뿐이었다.
그러나, 이른바 디스크자키와 같이, 재생하려고 하는 음악 콘텐츠에 대하여, 템포나 음정을 바꾸거나, 다른 악곡과의 리믹스를 하거나 하는 등 하여, 클래식풍, 재즈풍, 힙합풍 등에 악곡을, 청취자(이하, 간단히 사용자라고 한다)의 그때의 기분에 맞도록 재구성하여 변경할 수 있으면, 악곡 재생에 대하여, 엔터테인먼트성을 높일 수 있다고 기대할 수 있다.
이 발명은, 이상의 점에 감안하여, 청취하고 있는 사용자가, 자신이 좋아하도록 음악 콘텐츠를 재구성(어레인지)할 수 있도록 하여, 음악 콘텐츠의 재생에 대하여, 엔터테인먼트성을 높일 수 있도록 하는 것을 목적으로 한다.
상기의 과제를 해결하기 위하여, 청구항 1의 발명은,
복수 개의 음악 콘텐츠의 데이터가 격납되어 있는 음악 콘텐츠 데이터 기억부로부터, 재생 대상의 음악 콘텐츠의 데이터를 취득하는 제 1의 취득수단과,
상기 음악 콘텐츠와 대응 지어져, 적어도 상기 음악 콘텐츠의 악곡 소재 단위의 악곡구성정보를 포함하는 속성정보기억부로부터 상기 속성정보를 취득하는 제 2의 취득수단과,
상기 음악 콘텐츠와 대응 지어져, 상기 악곡구성정보와 관련지어 생성되어 있는 어레인지용 정보를 취득하는 제 3의 취득수단과,
상기 제 1의 취득수단에 의해 취득한 상기 재생 대상의 음악 콘텐츠 데이터를 음향 재생 출력하는 수단과,
청취자의 어레인지 지시를 받아들이는 어레인지 지시접수수단과,
상기 어레인지 지시접수수단으로 받아들인 어레인지 지시에 따라, 상기 제 2의 취득수단에 의해 취득한 상기 악곡구성정보와, 상기 제 3의 취득수단에 의해 취득한 상기 어레인지용 정보에 근거하여, 상기 음향 재생 출력하는 상기 재생 대상의 음악 콘텐츠의 데이터를 재구성하는 재구성 수단을 갖추는 음악 콘텐츠의 재생장치를 제공하는 것을 특징으로 한다.
이 청구항 1의 발명에 의하면, 청취자의 어레인지 지시에 따라, 어레인지용 정보가 제 3의 취득수단에 의해 취득되며, 제 2의 취득수단에서 취득된 악곡구성정보와 서로 어울려, 음악 콘텐츠의 데이터가 재구성된다.
이 발명에 의하면, 청취하고 있는 사용자의 기분, 기호나 주변환경 등에 따라 악곡 데이터를 재구성하고, 당해 사용자의 기분, 기호나 주변환경 등을 리얼타임으로 음악 콘텐츠의 재생에 반영시키므로, 음악 콘텐츠의 재생에 대하여, 엔터테인먼트성을 높일 수 있다.
도 1은, 이 발명에 의한 음악 콘텐츠의 재생장치의 제 1의 실시형태가 적용된 기록 재생장치의 블럭도이다.
도 2는, 실시형태의 기록 재생장치에 이용되는 속성정보의 일부의 정보를 설명하기 위한 도면이다.
도 3은, 실시형태의 기록 재생장치에 이용되는 속성정보의 일부의 정보를 설명하기 위한 도면이다.
도 4는, 실시형태의 기록 재생장치에 이용되는 속성정보의 일부의 정보를 설명하기 위한 도면이다.
도 5는, 도 1의 기록 재생장치에 있어서의 처리의 일례의 플로차트이다.
도 6은, 도 1의 기록 재생장치의 동작을 설명하기 위하여 이용하는 플로차트이다.
도 7은, 도 1의 음악 콘텐츠 기억부의 예를 설명하기 위한 도면이다.
도 8은, 도 1의 음악 콘텐츠 기억부의 예를 설명하기 위한 도면이다.
도 9는, 도 1의 기록 재생장치 중 기록처리 동작부를 설명하기 위한 기능 블럭도이다.
도 10은, 도 1의 기록 재생장치에 있어서의 기록처리 동작을 설명하기 위한 플로차트의 일부이다.
도 11은, 도 1의 기록 재생장치에 있어서의 기록처리 동작을 설명하기 위한 플로차트의 일부이다.
도 12는, 도 1의 기록 재생장치에 있어서의 어레인지 지시 동작을 설명하기 위한 도면이다.
도 13은, 도 1의 기록 재생장치 중 재생처리 동작부를 설명하기 위한 기능 블럭도이다.
도 14는, 도 1의 기록 재생장치의 주요부의 기능 블럭도이다.
도 15는, 도 14의 기능 블럭도의 설명을 위한 도면이다.
도 16은, 도 14의 기능 블럭도의 일부의, 한층 더 상세한 기능 블럭도이다.
도 17은, 도 14의 기능 블럭도의 일부의, 한층 더 상세한 기능 블럭도이다.
도 18은, 도 14의 기능 블럭도의 일부의 설명을 위한 도면이다.
도 19는, 도 14의 기능 블럭도의 설명을 위한 타이밍도이다.
도 20은, 도 14의 기능 블럭도의 설명을 위한 타이밍도이다.
도 21은, 도 14의 기능 블럭도의 설명을 위한 도면이다.
도 22는, 도 1의 기록 재생장치에 있어서의 재생처리 동작을 설명하기 위한 플로차트의 일부이다.
도 23은, 도 1의 기록 재생장치에 있어서의 재생처리 동작을 설명하기 위한 플로차트의 일부이다.
도 24는, 도 1의 기록 재생장치에 있어서의 재생처리 동작을 설명하기 위한 플로차트의 일부이다.
도 25는, 도 14의 일부를 구성하는 리듬 마스터부의 처리 동작의 플로차트이다.
도 26은, 도 14의 일부를 구성하는 리듬 슬레이브부의 처리 동작의 플로차트이다.
도 27은, 이 발명에 의한 음악 콘텐츠의 재생장치의 제 2의 실시형태가 적용된 기록 재생장치의 블럭도이다.
도 28은, 도 27의 제 2의 실시형태의 기록 재생장치 중 재생처리 동작부를 설명하기 위한 기능 블럭도이다.
도 29는, 도 27의 제 2의 실시형태의 기록 재생장치의 주요부의 기능 블럭도이다.
도 30은, 도 27의 기능 블럭도의 일부의, 한층 더 상세한 기능 블럭도이다.
도 31은, 도 27의 일부를 구성하는 리듬 마스터부의 처리 동작의 플로차트의 일부이다.
도 32는, 도 27의 일부를 구성하는 리듬 마스터부의 처리 동작의 플로차트의 일부이다.
도 33은, 도 27의 일부를 구성하는 리듬 마스터부의 처리 동작의 플로차트의 일부이다.
도 34는, 도 27의 일부를 구성하는 리듬 마스터부의 처리 동작의 플로차트의 일부이다.
도 35는, 도 27의 기능 블럭도의 설명을 위한 타이밍도이다.
도 36은, 실시형태의 기록 재생장치에 있어서의 어레인지 지시 동작의 다른 예를 설명하기 위한 도면이다.
도 37은, 실시형태의 기록 재생장치에 있어서의 어레인지 지시 동작의 다른 예를 설명하기 위한 도면이다.
도 38은, 실시형태의 기록 재생장치에 있어서의 어레인지 지시 동작의 다른 예를 설명하기 위한 도면이다.
[제 1의 실시형태]
이하, 이 발명의 제 1의 실시형태를, 도면을 참조하면서 설명한다. 도 1은, 이 발명의 음악 콘텐츠의 재생장치의 제 1의 실시형태와 음악 콘텐츠 및 그 속성정보의 기록장치의 제 1의 실시형태가 적용된 음악 콘텐츠의 기록 재생장치의 일례의 구성을 나타내는 블럭도이다.
이 제 1의 실시형태에 있어서는, 기록 재생장치는, 음악 콘텐츠 기억부를 갖추지만, 이 음악 콘텐츠 기억부에는, 음악 콘텐츠의 데이터로서 악곡의 음향 데이터 외에, 영상 데이터가 포함되는 경우도 있는 것을 상정하고, 영상 음향 데이터가 기억된다. 그리고, 이 제 1의 실시형태에서는, 음악 콘텐츠의 데이터에 부수(付隨)하고, 게다가 각 악곡에 대한 속성정보가, 각 음악 콘텐츠의 식별정보에 의해 대응지어져 기억된다.
이 속성정보는, 템포, 키(조), 코드(chord) 등의 리듬 및 리듬과 결합되어 곡조를 결정하기 위한 곡조 속성정보(후술하는 악곡구성정보에 포함된다)뿐만이 아니라, 후술하는 바와 같이 연주자 정보, 가사 정보, 감성정보, 주변환경정보 등, 또한 재구성용 정보(이하 어레인지용 정보라고 한다)를 포함하는 것이다. 그리고, 음악 콘텐츠에 영상 정보를 포함할 때는, 그 영상에 대한 속성에 관한 정보도 포함하는 경우가 있다.
어레인지용 정보는, 음악 콘텐츠를 재생할 때에, 락풍, 클래식풍, 재즈풍, 힙합풍, 솔풍 등에 악곡 데이터를 어레인지 하도록 하기 위한 정보이다.
후술하는 바와 같이, 음악 콘텐츠가 DVD(Digital Versatile Disc) 등의 리무버블(착탈 가능)인 기록매체에 기억되어 있는 경우에 있어서, 이 속성정보가 당해 기록매체에 음악 콘텐츠에 대응 지어져 기록되어 있는 경우에는, 그 기록매체에 기록되어 있는 속성정보를 이용할 수 있다.
그리고, DVD 등의 기록매체로부터, 기록 재생장치의 기억부에 음악 콘텐츠의 데이터를 기록할 때, 속성정보도, 대응 지어 기록하도록 한다.
기록매체에, 속성정보가 기록되어 있지 않은 경우에는, 당해 기록매체로부터, 기록 재생장치의 기억부에 음악 콘텐츠의 데이터를 기록할 때에, 기록 재생장치에 있어서, 필요한 속성정보를 생성하여, 당해 생성한 속성정보를, 기록하는 음악 콘텐츠에 대해서의 영상 음향 데이터에 대응 지어, 기록하도록 한다.
이 제 1의 실시형태의 기록 재생장치에서는, 음악 콘텐츠의 정보는, 예를 들면 인터넷상에 있는 음악 콘텐츠 제공 서버에서도 다운로드할 수 있도록 구성되어 있다.
이 예의 경우의 음악 콘텐츠 제공 서버의 음악 콘텐츠의 정보에는, 속성정보가 부수되어 있는 것을 상정하고 있고, 이 제 1의 실시형태의 기록 재생장치로부터의 음악 콘텐츠의 취득 요구를 받아들이면, 음악 콘텐츠 제공 서버는, 요구된 음악 콘텐츠의 영상 음향 데이터와 함께, 속성정보를 기록 재생장치에 다운로드 하도록 한다.
그래서, 기록 재생장치는, 다운로드 된 영상 음향 데이터와 속성정보를, 음악 콘텐츠의 식별정보에 의해 대응 지어, 기억부에 기억하도록 한다.
이 예의 기록 재생장치는, 마이크로 컴퓨터를 탑재하여 구성되는 것으로, 도 1에 나타내는 바와 같이, CPU(Central Processing Unit)(1)에 대하여 시스템 버스(2)를 통하여 프로그램 ROM(Read Only Memory)(3) 및 워크 영역용 RAM(Random Access Memory)(4)가 접속되어 있다.
그리고, 시스템 버스(2)에는, 또, 사용자 인터페이스(11)와, 인코드/디코드부(12)와, 곡조 분석부(13)와, 통신 인터페이스(14)와, 재생 이력 정보 보관 유지부(15)와, 광디스크 드라이브(16)가 접속되어 있다.
사용자 인터페이스(11)는, 사용자의 조작 입력을 받아들이는 버튼 조작부(도시를 생략)나, 예를 들면 LCD(Liquid Crystal Display)로 이루어지는 디스플레이를 포함한다. 후술하는 바와 같이, 사용자가 음악 콘텐츠의 재생시에 지정하는 어레인지의 종별(클래식풍이나 재즈풍 등의 종별)의 지정입력이, 이 사용자 인터페이스(11)를 통하여 이루어진다.
인코드/디코드부(12)에는, 음악 콘텐츠 기억부(20)가 접속된다. 이 예에서는, 이 음악 콘텐츠 기억부(20)는, 예를 들면 대용량의 하드 디스크 장치에 의해 구성된다. 또한, 대용량의 고쳐쓰기 가능한 광디스크를 이용하는 기입/독출장치부에 의해, 음악 콘텐츠 기억부(20)를 구성할 수도 있다.
인코드/디코드부(12)는, 이 음악 콘텐츠 기억부(20)를 구성하는 하드 디스크 장치에 데이터를 기입할 때에, 기입 대상의 데이터를 하드 디스크 장치에 기록할 수 있는 포맷의 데이터에 인코드 처리하고, 또, 이 하드 디스크 장치로부터 읽어낸 데이터에 대하여, 상기 인코드에 대응하는 디코드 처리를 가하는 것이다. 이 경우에, 인코드 처리에는, 데이터 압축 처리를 포함할 수 있고, 거기에 대응하여 디코드 처리에는, 데이터 신장 처리를 포함할 수 있다.
이 예에서는, 음악 콘텐츠의 데이터에는, 악곡 데이터뿐만 아니라, 음악 콘텐츠에 관련하는 영상 데이터와 또한, 음악 콘텐츠에 관한 속성정보(다음으로 상술한다)가 포함되어 있다.
그리고, 음악 콘텐츠 기억부(20)는, 각각의 음악 콘텐츠에 관하여 악곡 데이터와 영상 데이터가 기억되는 영상 음향 데이터 기억부(21)와, 각각의 속성정보가 기억되는 속성정보기억부(22)로 이루어진다. 영상 음향 데이터 기억부(21)의 악곡 데이터 및 영상 데이터와, 속성정보기억부(22)의 속성정보는, 음악 콘텐츠마다 음악 콘텐츠의 각각을 식별하는 음악 콘텐츠 식별정보(콘텐츠 ID)에 의해 서로 관련지어져 있다.
곡조 분석부(13)는, 음악 콘텐츠의 악곡 데이터를 음악 콘텐츠 기억부(20)의 영상 음향 데이터 기억부(21)에 기억할 때에, 악곡 데이터를 해석하고, 악곡의 악곡 소재 단위의 단락을 검출하는 동시에, 당해 악곡 소재 단위의 악곡구성정보를 추출한다. 이 악곡구성정보는, 상기 속성정보의 일부로서, 속성정보기억부(22)에 기록되도록 된다. 곡조 분석부(13)는, 기록해야 할 음악 콘텐츠의 정보에 속성정 보가 부속되어 있지 않은 경우에만 동작하고, 추출된 악곡구성정보가 속성정보의 일부로서 기록된다.
여기서, 악곡 소재 단위란, 악곡의 박자, 소절 등, 코드를 교부할 수 있는 단위이다. 그리고, 악곡구성정보는, 악곡의 악곡 소재 단위의 템포, 키, 코드, 음량, 박자, 악보, 코드 진행 등의, 이른바 곡조가 정해지는 기준으로 되는 정보로 이루어지는 것이다.
통신 인터페이스(14)는, 외부의 네트워크 예를 들면 인터넷(5)을 통하여 음악 콘텐츠 제공 서버 장치(6) 등에 접속하기 위해 이용되는 것이다. 이 예에서는, 음악 콘텐츠 제공 서버 장치(6)는, 악곡 데이터나 영상 데이터뿐만 아니라, 속성정보도 제공할 수 있도록 구성되어 있다.
재생 이력 정보 보관 유지부(15)는, 당해 기록 재생장치에 있어서, 과거에, 어느 음악 콘텐츠를 어느 정도의 빈도나 시간으로 들었는지, 어떤 식의 어레인지로 듣고 있는 것이 많은지(어레인지의 각 종별과 그 시청 빈도)의 이력 정보를 보관 유지한다. 재생된 음악 콘텐츠의 식별정보(콘텐츠 ID)에 대응하여 재생 회수(빈도), 그 어레인지 종별, 그 재생 시간, 그 재생시의 생체 상태 정보, 그 재생시의 주변환경정보(주변환경정보에 대해서도 다음으로 상술한다) 등이, 이 재생 이력 정보 보관 유지부(15)에는 기억되어 있다.
광디스크 드라이브(16)는, CD(Compact Disc)나 DVD(Digital Versatile Disc) 등의 광디스크(7)로부터, 악곡 데이터나 영상 데이터의 독해를 행한다. 광디스크(7)에 음악 콘텐츠에 대하여 속성정보가 기록되어 있는 경우에는, 당해 속성정보 의 독해도 행한다.
이 예의 기록 재생장치에 있어서는, 시스템 버스(2)에는, 게다가 생체정보취득부(30)와, 주변환경정보취득부(40)와 영상 음향 출력부(50)가 접속되어 있다.
생체정보취득부(30)는, 생체정보센서(31)와 생체정보 해석부(32)로 이루어진다. 생체정보센서(31)는, 음악 콘텐츠를 시청하고 있는 청취자가, 당해 음악 콘텐츠에 대하여 기호를 나타내고 있는지, 혹은, 기호를 나타내지 않는지 등을 판별하기 위한 정보(생체 상태 정보)를 검지한다. 이 생체정보센서(31)는, 청취자의 예를 들면 체동(體動), 호흡, 맥, 혈압, 체표 온도, 피부 발한, 피부 저항 등의 생체정보를 검출하고, 그러한 생체정보를 생체정보 해석부(32)에 공급하는 것이다.
예를 들면, 청취자가 청취하고 있는 악곡에 기호를 나타내고 있고, 이른바 「악곡에 흥이 난다」상태 때에는, 청취자의 체동(몸의 움직임)이나 호흡은, 연주되는 음악의 리듬이나 템포 등과 동기 한 것으로 되는 것이 있다. 예를 들면, 느린 멜로디를 연주하도록 하고 싶을 때에는, 체동이나 호흡은, 거기에 맞추어 느리게 되고, 또, 급격하게 큰 소리로 이행할 때는, 거기에 맞추어 체동이 커지는 동시에, 호흡도 거기에 맞추어 흡기(들숨)로부터, 일단, 숨을 멈추고, 단번에 호기(날숨)로 옮기는 등의 변화를 하는 일이 있다.
게다가 청취자는, 기분이 고양하도록 음악 파트에서는, 맥(脈)이나 심박이 많아지는 동시에, 피부 발한이 많아지며, 또, 느긋한 음악 파트에서는 맥이나 심박은 느긋하게 안정된 것이 되는 등 변화하는 것이 있다.
생체정보 해석부(32)에서는, 이상과 같은, 청취자의 감정적인 정보를, 생체 정보센서(31)로부터 받아들여, 청취자가 청취중 악곡에 기호를 나타내고 있는지 어떤지의 판별 결과를 시스템 버스(2)에 송출한다. 이 경우에, 생체정보 해석부(32)에서는, 재생중의 악곡구성정보도 참조하고, 청취자의 체동 등이, 악곡에 동기하고 있는지 어떤지도 판단하도록 하고 있다.
그리고, 이 실시형태에서는, 생체정보 해석부(32)는, 예를 들면 체동 등의 생체정보에 근거하는 기호의 정도에 대하여, 복수 단계의 임계치를 가지며, 예를 들면, 「기호를 나타내지 않다(곡에 흥이 나지 않고 있다)」, 「기호를 나타내고 있지만 기호의 정도가 낮다」, 「상당히 기호를 나타내고 있다(곡에 흥이 나 있다)」와 같은 복수 단계에 대하여 판단 출력을 송출하도록 구성되어 있다.
주변환경정보취득부(40)는, GPS 수신기(41)와 위치 정보 입력 인터페이스(42)와 환경정보센서(43)와 환경 정보 생성부(44)로 이루어진다.
GPS수신기(41)는, 복수 개의 인공위성으로부터 수신한 전파로부터 당해 GPS 수신기(41)의 위치를 산출하는 측위(測位) 연산을 하고, 그 연산 결과를, 위치 정보 입력 인터페이스(42)에 보낸다. 이 예에서는, 위치 정보 입력 인터페이스(42)는, GPS 수신기(41)로부터의 측위 연산결과를, 예를 들면 지명 등의 위치정보로 변환하고, 시스템 버스(2)에 송출한다. 이 위치정보는, 당해 기록이 행해진 장소를 나타내는 것으로 되는 것으로, 주변환경정보의 일부로서 음악 콘텐츠가 기록되었을 때에, 그 속성정보의 일부로서 기록된다.
환경정보센서(43)는, 온도 센서나 습도 센서 외, 계절이나 일시를 검지하는 시계부를 포함하고 있다. 환경 정보 생성부(44)는, 환경정보센서(43)로부터의 정 보를 받아들이고, 온도, 습도, 계절, 일시 등의 정보를 시스템 버스(2)에 송출한다. 이들 정보도, 주변환경정보의 일부로서 음악 콘텐츠가 기록될 때, 그 속성정보의 일부로서 기록된다.
영상·음향출력부(50)는, 음향 데이터 디코드부(51)와 음향 어레인지부(52)와 음향 출력부(53)와 영상 데이터 디코드부(54)와 영상 어레인지부(55)와 영상 출력부(56)와 I/O포토(57)로 이루어진다.
음향 데이터 디코드부(51)는, 음성 데이터가, 비압축음성신호인 PCM 음성신호인 경우에는, 그대로 음향 어레인지부(52)를 통하여 음향 출력부(53)에 출력한다. 음악 데이터에, ATRAC(Adaptive Transform Acoustic Coding)나 AAC(Advanced Audio Coding)등의 압축이 걸려 있는 경우에는, 음향 데이터 디코드부(51)는, 당해 압축을 해동(신장)하고, 디지털 음성신호로 디코드한다. 음성 데이터가 MIDI(Music Instrument Digital Interface)의 경우에는, 음향 데이터 디코드부(51)는, 당해 MIDI의 데이터로부터 디지털 음성신호를 생성 디코드한다.
음향 어레인지부(52)는, I/O포토(57)를 통하여 이것에 공급되는 제어신호에 따라, 템포 보정, 음정 보정, 특수 효과(효과) 처리 등을 하거나 다른 악곡 데이터를 혼합(리믹스)하거나 한다. 이것에 의해, 곡조를 바꾸거나, 상술한 클래식풍이나, 재즈풍 등의 어레인지 종별을 변경하거나 하는 것이 가능하게 된다.
이 실시형태에서는, 음향 어레인지부(52)에서 행하는 효과 처리로서는, 음향 데이터에, 예를 들면, 디스토션(Distortion)을 걸거나 리벌브(Reverb)를 걸거나 하는 처리가 이루어진다.
리믹스는, 일반적인 디스크자키로 행해지고 있는 수법이며, 어느 소절이나 박자 단위로 음악성을 해치지 않도록, 재생중의 악곡에 복수의 음악 소재를 믹스 해 가는 방법이다. 이것은, 미리 준비된 소절이 끊어지는 곳(악곡 소재 단위의 단락)이나 템포정보, 코드정보 등의 악곡구성정보를 이용하여, 음악 이론에 따라, 재생중의 악곡에 복수의 음악 소재를, 위화감 없이 믹스해 가는 것이다. 이 리믹스도 부가하고, 곡조를 바꾸거나 상술한 클래식풍이나, 재즈풍 등의 어레인지 종별을 변경하거나 하는 것이 가능하게 되는 경우도 있다.
리믹스의 경우에는, CPU(1)의 지시에 따라, 재생중의 악곡 이외의 다른 악곡으로부터 추출되는 리믹스하는 음향 데이터가, 음향 데이터 디코드부(51)에 공급된다. 따라서, 이 실시형태에서는, 음향 데이터 디코드부(51)는, 재생중의 음향 데이터의 디코드 처리와 리믹스하는 음향 데이터의 디코드 처리를 병행하여 실행할 수 있는 기능을 갖추고 있다.
음향 어레인지부(52)의 출력은, 음향 출력부(53)에 공급된다. 음향 출력부(53)에서는, 이것에 입력되는 디지털 음성신호를 아날로그 음성신호로 변환하고, 당해 변환한 아날로그 음성신호를 출력 앰프(도시하지 않음)를 통하여 스피커나, 출력단자를 통하여 헤드폰(도시하지 않음)에 공급하고, 음향 재생한다.
영상 데이터 디코드부(54)는, 이 실시형태에서는, 음악 콘텐츠에 부수하는 압축 영상 데이터를 디코드(압축 해동(압축 신장))한다. 이 경우, 부수하는 압축 영상 데이터로서는, JPEG(Joint Photographic Experts Group) 등으로 압축된 정지화면 데이터, MPEG(Moving Picture Experts Group)(2), MPEG(4)등으로 압축된 동영 상 데이터 등이 있고, 영상 데이터 디코드부(54)는, 이러한 압축을 신장 디코드하는 기능을 갖추는 것이다.
이 영상 데이터 디코드부(54)로 디코드 된 영상 데이터는, 영상 어레인지부(55)에 공급된다. 이 영상 어레인지부(55)에서는, 영상 데이터에, 예를 들면 특수 효과(이펙트)가 실시된다. 이 특수 효과로서는, 기존의 기술을 이용하는 것으로, 이 실시형태에서는, 자세한 것은 생략한다.
이 영상 어레인지부(55)의 출력 영상 데이터는, 영상 출력부(56)에 공급된다. 영상 출력부(56)는, 디지털 영상 데이터를 디지털 영상신호 그대로, 혹은 필요에 따라서 아날로그 영상신호로 변환하고, 영상 출력 단자를 통하여 디스플레이의 화면에 표시된다.
[속성정보의 설명]
이 실시형태에서는, 각 음악 콘텐츠의 속성정보는, 다음으로 설명하는 각종 정보가, 각 악곡에 대응하여 기록된다.
(1)악곡구성정보
이 악곡구성정보는, 상술한 악곡 소재 단위의 단락 정보를 포함하는 동시에, 악곡의 템포/키/코드/음량/박자의 정보, 악보의 정보, 코드 진행의 정보, 반복하여 리믹스하는 루프용 음악 파형의 상승(rising timing)정보 등을 포함한다. 템포의 정보로서는, 예를 들면 BPM(Beat Per Minutes)값이 이용된다.
이 악곡구성정보는, 악곡의 곡조를 나타내는 것이며, 음악 콘텐츠의 기록 재생장치는, 이 악곡구성정보를 해석하고, 당해 악곡구성정보가 비슷한 악곡은, 곡조 가 비슷하다고 판단할 수 있다. 따라서, 재생중의 악곡에 대하여 청취자가 기호를 나타내고 있을 때는, 이 악곡구성정보의 해석 결과에 근거하여, 다음의 재생 악곡 후보로서 재생중의 악곡과 비슷한 곡조의 악곡을 선택할 수 있다.
또, 청취자가 재생중의 악곡에 대하여 기호를 나타내지 않을 때에는, 예를 들면 과거의 재생 이력으로부터 청취자가 좋아한다고 생각되는 악곡을 검출하고, 그 악곡의 악곡구성정보를 조사하고, 그 악곡구성정보와 닮은 악곡을 다음 악곡 재생후보로 함으로써, 재생 이력에 근거하여, 청취자가 좋아한다고 생각되는 악곡과 곡조가 비슷한 악곡을, 다음 악곡 재생 후보 할 수 있다.
또, 이 악곡구성정보에 포함되는 악곡 소재 단위의 단락 정보나, 악곡의 템포 등이나, 코드진행 등의 정보를 이용함으로써, 위화감 없이 리믹스가 가능하게 된다.
이 경우, 음악 콘텐츠의 영상 음향 데이터와 속성정보는, 제대로 대응하고 있도록 이루어져 있다. 예를 들면, 악곡구성정보로서 속성정보 중에 기술되어 있는, 악곡 소재 단위로서의 예를 들면 소절 단락의 타임 코드정보와, 실제의 영상 음향 데이터의 소절 단락의 타임 코드가 정확하게 일치하고 있도록 구성되어 있다.
따라서, 이 악곡구성정보에 의해, 재생중 악곡의 악곡 소재 단위의 단락, 예를 들면 소절이나 박자의 단락의 타이밍을 검출할 수 있는 동시에, 리믹스 하려고 하는 다른 악곡의 악곡 소재 단위의 정보를, 재생중 악곡의 악곡 소재 단위의 단락에 동기 하여 가산할 수 있고, 위화감 없이 리믹스를 행할 수 있다.
(2)효과 정보
효과 정보는, 당해 악곡에 관계되는 특수 효과의 정보이며, 예를 들면 상술한 디스토션이나 리벌브용의 효과 파라미터로 이루어진다. 이 경우, 효과 파라미터가 시간적으로 변화하는 경우에는, 그 시간 변화에 따라 변화하는 파라미터 정보로 된다.
이 효과 정보는, 이 예의 음악 콘텐츠의 기록 재생장치가, 미리, 고정적으로 복수종을 갖추는 것을 이용할 수 있다. 그러나, 각 악곡마다 효과적인 추천 효과 정보가 있는 경우에는, 각 악곡 마다의 속성정보의 일부로서 포함되는 것이다. 이 추천 효과 정보는, 예를 들면, 음악 콘텐츠의 제작자에 의해 부여된다. 효과 정보는, 1종류가 아니고, 복수 종류를 속성정보로서 포함할 수 있다.
이 효과 정보도, 악곡 소재 단위에 대응한 시간 길이분으로서, 속성정보에 포함하면 좋다. 악곡 소재 단위에 대응한 시간길이 분으로 함으로써, 악곡 소재 단위로, 리얼타임으로 음악 재생하면서, 효과처리를 변경해 가는 것이 가능해진다.
(3)어레인지용 정보
어레인지용 정보는, 상술한 바와 같이, 각 악곡의 원곡의 곡조를 재구성하여 락풍, 클래식풍, 재즈풍으로 어레인지하기 위한 정보이며, 어레인지 파라미터가 시간적으로 변화하는 경우에는, 그 시간 변화에 따라 변화하는 파라미터 정보로 된다.
이 어레인지용 정보는, 음악 콘텐츠의 기록 재생장치가, 미리, 고정적으로 복수종을 갖추는 것이 아니라, 각 악곡 마다의 효과적인 추천 어레인지용 정보가, 음악 콘텐츠의 기록매체의 각 악곡 마다의 속성정보의 일부로서 포함되어 있거나, 음악 콘텐츠 제공 서버 장치(6)로부터, 다운로드 되는 각 악곡의 속성정보의 일부로서 제공되거나 하는 것이다. 또한, 이 실시형태에서는, 어레인지용 정보는, 이 추천 어레인지용 정보뿐만 아니라, 예를 들면, 사용자가 작성한 것을 악곡의 속성정보로서 등록하도록 할 수도 있다.
또, 각 악곡마다, 사용자가 작성한 어레인지용 정보를 서버 장치(6)에 업 로드하거나, 음악 콘텐츠의 제작자가 작성한 것을 서버 장치(6)에 준비해 두거나 해 두는 것으로, 임의의 사용자가, 적당, 서버 장치(6)에 문의하고, 무료 혹은 유료로 취득할 수 있도록 해도 좋다.
어레인지용 정보는, 1종류가 아니고, 복수 종류가 속성정보로서 포함할 수 있을 수 있는 것은 물론이다. 또, 1개 종류의 어레인지용 정보, 예를 들면 같은 클래식풍으로 하는 종별의 어레인지용 정보여도, 바흐풍, 베토벤풍, 모차르트풍 등, 복수 개를 준비하도록 할 수도 있다.
이 어레인지용 정보도, 악곡 소재 단위에 대응한 시간길이 분으로서, 속성정보에 포함하면 좋다. 악곡 소재 단위에 대응한 시간길이 분으로 함으로써, 악곡 소재 단위로, 리얼타임으로 음악 재생하면서, 어레인지를 변경해 가는 것이 가능하게 된다.
도 2에, 이 어레인지용 정보의 일례를 나타낸다. 이 예에서는, 원곡이 락계의 악곡인 경우에, 코드와 드럼을 부가, 변경함으로써, 솔계의 악곡에 어레인지(재구성=편곡)하는 경우의 예이다.
도 2에 나타내는 바와 같이, 이 예에 있어서는, 드럼 변경의 어레인지는 1 형태지만, 코드 진행은, 어레인지용 정보로서 4형태가 제시되며, 사용자는, 이 중에서 선택할 수 있다.
도 2는, 예시이며, 모든 청취 사용자가 이와 같은 어레인지를 락계에서 솔계로의 변경으로서 청취하는 것을 보증하는 것은 아니다. 어레인지 후의 곡조를 어떤 느낌으로 잡을지는, 청취 사용자에 의해 다르기 때문이다. 따라서, 도 2의 예는, 예를 들면, 악곡 콘텐츠의 제공자가, 추천으로서 예시하는 것이며, 같은 경향의 어레인지를 목표로 하는 경우에도, 작성자에 의해 여러 가지의 어레인지용 정보가 제공되는 것이다.
또한, 어레인지용 정보는, 상술한 바와 같이, 1개의 악곡에 대하여 1종류가 이니라, 복수 종류 준비되는 것이, 통상이다. 도 3에, 속성정보로서 기억되는 악곡 마다의 어레인지용 정보의 예를 나타낸다.
즉, 속성정보는, 도 3에 나타내는 바와 같이, 어레인지용 정보 외, 악곡구성정보, 효과 정보, 그 외, 후술하는 각종 정보가, 악곡 식별정보(악곡 ID)에 대응지어져 기억되어 있다. 그리고, 어레인지용 정보는, 클래식풍, 재즈풍, 락풍, 솔풍, 힙합풍 등과 같은 종류로 나누어져 기억되어 있다. 각각의 종류에 있어서도, 도시는 생략 하지만, 예를 들면 상술한 바와 같이, 클래식풍 1, 2, 3과 같이, 복수 개의 어레인지용 정보가 기억되는 경우도 있다.
(4)악기 정보
악기 정보는, 당해 악곡에 있어서 사용되고 있는 드럼, 기타 등의 악기 정보이다. 예를 들면, 1소절 분의 드럼이나 퍼커션(percussion) 연주 패턴을, 속성정 보로서 기록해 두고, 그것을 루프 모양으로 반복하여 이용하도록 할 수도 있다. 또, 리믹스용으로 그들 악기의 연주 패턴 정보를 이용할 수도 있다.
또한, 이들 1소절 분의 드럼이나 퍼커션 연주 패턴의 정보는, 속성정보로서 기록하는 것이 아니라, 미리, 기록 재생장치가 리믹스용 등을 위해, 복수 패턴을 준비해 두도록 해도 좋다.
(5)연주자 정보
연주자 정보는, 당해 악곡의 연주자(가수를 포함한다)의 이름(그룹명을 포함한다), 성별, 연령, 그룹 편성 등, 연주자에 관한 정보이다.
(6)감성정보
감성정보는, 당해 악곡을 청취한 청취자의 감각적 인식을 나타내는 것으로, 예를 들면 밝은 곡/어두운 곡, 조용한 곡/격렬한 곡, 즐거운 곡/슬픈 곡 등을 정량화한 데이터이다. 이 감성정보는, 예를 들면 도 4에 나타내는 바와 같이, 밝다/어둡다, 온화하다/격렬하다, 즐겁다/슬프다 등의 각각을, 미리 감성 축으로서 정의해 두고, 각 감성 축에 대하여 주관적인 감각적 인식의 정도를 수치화한 것을, 청취자에 의해 설정받는 등의 방법으로 취득한다.
예를 들면, 밝은/어두운 감성축의 경우, 도 4에 나타내는 바와 같이, 주관적인 감각적 인식의 정도를, 예를 들면, 16단계의 수치로 나타낸다. 도 4의 예에서는, 밝다고 되는 경우만큼 수치가 크고, 가장 어둡다고 여겨지는 경우의 수치로서 「-8」을 할당되고 있다. 온화하다/격렬하다, 즐겁다/슬프다 등의 다른 감성 축에 대해서도 동일하게 할 수 있다. 감성축은, 이들 그 밖에도 설정하는 것이 가능하다.
도 4와 같이, 이러한 감성축상의 값이 설정되면, 그들 값을 선으로 묶음으로써, 곡조에 따른 형태의 도형(도 4에서는 삼각형의 형태가 곡조에 따라 변화)이 얻어진다. 바꾸어 말하면, 이들 감성축을 이용함으로써, 비슷한 곡조의 악곡을 용이하게 검색할 수 있다.
이 경우에, 기록매체에 음악 콘텐츠의 데이터에 대응하여 기록하는 속성정보나 음악 콘텐츠 제공 서버로부터 제공하는 속성정보의 경우에는, 예를 들면 수십명의 청취자에게 당해 악곡을 듣고, 각 감성 축에 대해서의 주관적인 감각적 인식 정도의 수치를 보고하고, 예를 들면, 그 평균치를 각 감성축에 대해서의 감성정보로 하도록 할 수 있다.
후술하는 바와 같이, 기록 재생장치의 사용자가 청취자로서, 악곡을 청취하고, 이 감성정보를 설정 입력하는 경우도 있다. 또, 기록매체에 기록되어 있던 속성정보에 포함되는 감성정보의 수치나, 음악 콘텐츠 제공 서버로부터 취득한 속성정보에 포함되는 감성정보의 통지가, 실제로 청취자가 악곡을 청취한 결과, 다르면 청취자가 느꼈을 경우에는, 기록 재생장치의 음악 콘텐츠 기억부에 기억하는 속성정보의 감성정보로서는, 청취자 자신에 의해, 그 감성정보의 값을 고쳐쓸 수 있도록 구성되어 있다.
(7)주변환경정보
이 주변환경정보는, DVD의 제작자나, 음악 콘텐츠 제공 서버로부터의 음악 콘텐츠의 제공자 등에 의해 설정 입력되는, 당해 악곡을 듣는데 추천 장소, 예를 들면 산, 바다 등의 지역정보를 포함한다. 또, 후술하는 바와 같이, 기록 재생장치에서의 악곡의 기록시에, 상술한 주변환경정보취득부(40)에서 취득된 기록(녹음)된 장소, 일시, 계절, 온도, 습도 등의 정보로 되는 경우도 있다. 또, 그 기록시에, 청취자에 의해 설정 입력되는, 당해 악곡을 듣는데 추천의 장소 등의 지역정보를 포함한다.
(8)재생 이력 정보
재생 이력 정보는, 청취자가, 어떤 악곡을, 어느 정도의 빈도나 시간으로 청취하고 있는지의 정보이며, 이 실시형태에서는, 상술한 바와 같이, 기록 재생장치의 재생 이력 정보 보관 유지부(15)에 기억되어 보관 유지된다. 이 재생 이력 정보는, 음악 콘텐츠의 데이터를, 음악 콘텐츠 기억부(20)에 기억하는 기록처리 시에 속성정보에 포함되며, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에, 속성정보의 일부로서 격납된다.
또한, 재생 이력 정보는, 제작자에 의해 제작되는 DVD나, 서버로부터 취득하는 속성정보에는 포함되어 있지 않다.
[제 1의 실시형태의 기록 재생장치에 있어서의 기록처리]
다음으로, 이 제 1의 실시형태의 기록 재생장치에 있어서의 기록처리에 대하여 설명한다. 이 실시형태에 있어서의 기록처리 형태에는, 몇 개가 있다.
그 하나는, DVD에 기록되어 있는 음악 콘텐츠의 데이터를 독해하고, 음악 콘텐츠 기억부(20)에 기입하여 기록하는 형태이다. 다른 하나는, 인터넷(5)을 통하여, 음악 콘텐츠 제공 서버 장치(6)로부터 음악 콘텐츠의 데이터를 다운로드 한 것 을 기록하는 형태이다. 게다가 다른 하나는, 도시를 생략했지만, 외부 입력 단자를 통하여, 다른 재생 기기 등에서 음악 콘텐츠의 데이터를 전송하고, 그것을 음악 콘텐츠 기억부(20)에 기록하는 형태이다.
이러한 형태에 있어서, 음악 콘텐츠 데이터에 속성정보가 포함되어 있는 경우에는, 이 실시형태의 기록 재생장치는, 음악 콘텐츠에 대해서의 영상 음향 데이터에 부가하여, 그 속성정보도 독해하고, 음악 콘텐츠 기억부(20)에 기입하도록 한다. 이 실시형태의 기록 재생장치에서는, 이 기록 시에, 사용자가 속성정보를 추가, 변경을 하고 싶은 경우에는, 그 추가, 변경을 할 수 있도록 구성되어 있다.
또, 음악 콘텐츠의 데이터에는, 영상 음향 데이터밖에 없고, 속성정보가 포함되어 있지 않은 경우에는, 이 실시형태의 기록 재생장치에서는, 기록 재생장치에 있어서의 속성정보를 생성(설정)하고, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에 기억하도록 한다.
즉, 곡조 분석부(13)에서 DVD나 다운로드 한 음향 데이터를 해석하고, 악곡구성정보를 취득하고, 그것을 속성정보의 일부로서 기록한다. 또, 사용자는, 자신이 당해 악곡을 실제로 청취한 주관적인 감각적 정도 값의 감성정보로서, 상술한 바와 같이 16단계의 몇 개의 수치를 입력한다. 그리고, 이 감성정보를 속성정보의 일부로서 기록한다. 또한, 주변환경정보취득부(40)에서 취득한 주변환경정보도 속성정보의 일부로서 기록한다. 또한, 재생 이력 정보도 필요에 따라서 속성정보로서 기록하도록 한다.
또한, 이 실시형태에서는, 인터넷(5)상에, 음악 콘텐츠의 식별정보에 대응하 여 속성정보를 격납하는 속성정보 제공 서버 장치를 설치하고, 이 서버 장치에, 음악 콘텐츠의 식별정보를 수반하는 다운로드 요구를 보내고, 당해 음악 콘텐츠의 식별정보에 대응하는 속성정보의 제공을 받도록 하는 것도 상정하고 있다.
도 5 및 도 6은, 음악 콘텐츠 제공 서버 장치(6)로부터 음악 콘텐츠 및 속성정보를 취득하는 경우에 있어서의 기록 재생장치와 음악 콘텐츠 제공 서버 장치(6)의 동작의 플로차트이다.
또한, 여기에서는, 기록 재생장치가 음악 콘텐츠 제공 서버 장치(6)로부터 음악 콘텐츠의 데이터와, 이것에 부수하는 속성정보와의 제공을 받는 경우를 예로 설명하지만, 기본적으로는, 다른 복수대의 기록재생장치 사이에서 속성정보의 송수를 행하는 경우에 있어서도, 거의 동일한 처리로 된다.
도 5는, 음악 콘텐츠의 데이터와 이것에 부수하는 속성정보의 제공을 요구하는 기록 재생장치의 처리를, 또, 도 6은, 음악 콘텐츠의 데이터와 이것에 부수하는 속성정보를 제공하는 음악 콘텐츠 제공 서버 장치(6)의 처리를, 각각 설명하기 위한 플로차트이다.
기록 재생장치에 대하여, 음악 콘텐츠 데이터와 이것에 대한 속성정보와의 제공 요구를 행하기 위한 프로그램을 기동하는 소정의 조작이 행해지면, 기록 재생장치의 CPU(1)는, 도 5에 나타내는 처리를 실행하고, 우선, 다운로드 하는 음악 콘텐츠의 선택 입력을 접수한다(스텝 S11).
그리고, 접수한 선택 입력에 근거하여, 다운로드를 요구하는 음악 콘텐츠의 식별자를 포함하는 음악 콘텐츠의 제공요구를 생성하고, 이것을 통신 인터페이 스(14), 인터넷(5)을 통하여, 음악 콘텐츠 제공 서버 장치(6)에 송신한다(스텝 S12).
한편, 음악 콘텐츠 제공 서버 장치(6)의 제어부(CPU)는, 상시, 도 6에 나타내는 처리를 실행하고 있고, 인터넷(5) 및 자장치가 갖추는 통신 인터페이스를 통하여, 기록 재생장치로부터의 음악 콘텐츠의 제공요구를 수신 대기하도록 하고(스텝(S21)), 제공 요구를 수신했는지 아닌지를 판단한다(스텝(S22)). 스텝(S22)에 있어서, 음악 콘텐츠의 제공 요구를 수신하고 있지 않다고 판단했을 때에는, 스텝(S21)으로부터의 처리를 반복하고, 음악 콘텐츠의 제공 요구의 수신 대기로 된다.
스텝(S22)의 판단처리에 있어서, 음악 콘텐츠 제공 서버 장치(6)의 제어부가, 기록 재생장치로부터의 음악 콘텐츠의 제공 요구를 수신했다고 판단했을 때에는, 서버 장치(6)의 제어부는, 수신한 제공 요구에 포함되는 음악 콘텐츠의 식별자에 근거하여, 서버 장치(6)에 기억되어 있는 음악 콘텐츠중에서, 목적으로 하는 음악 콘텐츠의 데이터와 이것에 대한 속성정보를 검색한다(스텝(S23)).
그리고, 음악 콘텐츠 제공 서버 장치(6)의 제어부는, 목적으로 하는 음악 콘텐츠의 데이터가 존재하는지 아닌지를 판단하고(스텝(S24)), 존재한다고 판단했을 때에는, 요구원의 기록 재생장치에, 통신 인터페이스 및 인터넷(5)을 통하여 송신한다(스텝(S25)). 그리고, 스텝(S21)으로 되돌아가고, 이 스텝(S21)에서의 처리를 반복한다.
또, 스텝(S24)의 판단처리에 있어서, 목적으로 하는 음악 콘텐츠의 데이터가 존재하지 않는다고 판단했을 때에는, 음악 콘텐츠 제공 서버 장치(6)의 제어부는, 그 취지를 나타내는 응답 메시지를 생성하고, 요구원의 기록 재생장치에 대하여, 통신 인터페이스 및 인터넷(5)을 통하여 답신한다(스텝(S26)). 그리고, 스텝(S21)으로 되돌아가고, 이 스텝(S21)에서의 처리를 반복한다.
한편, 요구원의 기록 재생장치는, 음악 콘텐츠 제공 서버 장치(6)에서의 응답(답신)을 통신 인터페이스(14)를 통하여 수신하고(스텝(S13)), 수신한 응답에 근거하여, 요구한 음악 콘텐츠의 데이터가 송신되어 왔는지 아닌지를 판단한다(스텝(S14)). 이 스텝(S14)의 판단처리에 있어서, 요구한 음악 콘텐츠의 데이터를 수신했다고 판단했을 때에는, 그 수신한 음악 콘텐츠의 데이터와, 당해 음악 콘텐츠의 데이터에 부수하여 제공된 속성정보를 음악 콘텐츠 기억부에 기록(격납)하고(스텝(S15)), 이 도 5에 나타내는 처리를 종료한다.
또, 스텝(S14)의 판단처리에 있어서, 요구한 음악 콘텐츠의 데이터를 수신하고 있지 않다고(대응하는 음악 콘텐츠의 데이터가 존재하지 않는 것의 메시지를 수신했다) 판단했을 때에는, 기록 재생장치의 제어부는, 도 1에는 도시하지 않았지만, 자장치가 갖추는 LCD(Liquid Crystal Display) 등의 표시 소자나 LED(Light Emitting Diode)등의 발광소자, 혹은, 버저나 알람 등을 이용하여, 목적으로 하는 음악 콘텐츠의 데이터가 존재하지 않았던 것을 기록 재생장치의 사용자에 대하여 통지하고(스텝(S16)), 이 도 5에 나타내는 처리를 종료한다.
이상과 같이 하여, 이 실시형태에서는, 기록 재생장치는, 목적으로 하는 음악 콘텐츠의 데이터 제공을 받을 때에, 이 음악 콘텐츠의 데이터에 부수하여 제공 되는 속성정보의 제공도 받을 수 있도록 되어 있다. 그리고, 제공받은 음악 콘텐츠 데이터 및 당해 음악 콘텐츠의 데이터에 대한 속성정보를 음악 콘텐츠 기억부(20)에 기억하여 재생시에 이용할 수 있도록 된다.
또한, 음악 콘텐츠 데이터에 속성정보가 부수하고 있지 않을 때에는, 상술한 바와 같이, 곡조 분석부(13)에서 해석하여 얻어진 악곡구성정보나, 주변환경정보취득부에서 취득된 주변환경정보 등에서 속성정보가 구성되고, 그것이 음악 콘텐츠 기억부(20)에 음악 콘텐츠의 영상 음향 데이터와 대응 지어져 기억된다.
또, 기록 재생장치의 음악 콘텐츠 기억부에는, 음악 콘텐츠의 악곡 데이터는, 이미 존재하고 있지만, 그 음악 콘텐츠의 속성정보가 없을 때에는, 음악 콘텐츠의 식별정보를 검색자로서 서버 장치(6)에 액세스 하고, 그 속성정보만을 다운로드할 수도 있도록 되어 있다.
다음으로, 도 7은, 이 실시형태의 기록 재생장치의 음악 콘텐츠 기억부(20)의 일례로서의 하드 디스크 장치의 개념적인 구성을 설명하기 위한 도면이다. 즉, 음악 콘텐츠 기억부(20)로서의 하드 디스크 장치(20HD)는, 음악 콘텐츠의 영상 데이터나 음향 데이터 등의 영상 음향 데이터(Dt)의 영역(23)과, 그 속성정보(At) 영역(24)을 갖추고, 영역(23)은 영상 음향 데이터 기억부(21)를 구성하고, 영역(24)은 속성정보기억부(22)를 구성한다.
이 실시형태에서는, 음악 콘텐츠 기억부(20)는, 하드 디스크 장치에 의해 구성했지만, 리무버블(착탈 가능)의 기록 미디어로서의 DVD 등의 디스크 매체를 음악 콘텐츠 기억부로서 이용할 수도 있다. 도 8은, 그 경우에 있어서의 음악 콘텐츠 기억부(20)의 다른 예로서의 디스크 매체(예를 들면 광자기디스크 등의 기록 재생 가능한 것)(20RD)의 일례를 설명하기 위한 도면이다.
이 도 8에 나타내는 바와 같이, 음성 콘텐츠 데이터나 영상 콘텐츠 데이터 등의 콘텐츠 데이터(영상 음향 데이터)(Dt)가 광디스크(20RD)의 데이터 격납 영역에 격납되어 있다. 그리고, 도 8에 나타내는 바와 같이, 광디스크(20RD)에는, 광디스크에 통상 설치되는 리드인영역, TOC(Table Of Contents)영역, 리드아웃(lead-out)영역 외에, 콘텐츠 속성정보(At)의 격납 영역이 설치되며, 여기에 속성정보가 격납되도록 되어 있다. 콘텐츠 데이터(Dt)가, 복수의 악곡의 데이터를 포함하는 경우에는, 각각의 악곡에 대한 속성정보가 기록된다. 이 경우, 콘텐츠 데이터(Dt)와 속성정보(At)는, 상술한 바와 같이 음악 콘텐츠 식별정보(음악 콘텐츠 ID)에 의하여 대응 지어져 있다.
또한, 광디스크(20RD)는, 음악 콘텐츠의 제작자 등에 의해 음악 콘텐츠 데이터가 기록되어 시판되는 것 외, 예를 들면, 일반 사용자가, 퍼스널 컴퓨터 등을 이용하여, 인터넷으로부터 다운로드 한 음악 콘텐츠를 기록하는 등 작성하는 경우도 있다.
또한, 도 7, 도 8에 나타낸 바와 같이, 기록매체에 기록되는 속성정보(At)는, 기록 재생장치에 있어서 사용자가 임의로 내용을 고쳐 쓰거나, 추가하거나, 삭제하거나 혹은, 기존의 속성정보를 새로운 속성정보로 옮겨 놓거나 하는 것도 가능하다. 예를 들면, 속성정보 중에 악곡 소재 단위의 단락 정보를 추가하는 경우에는, 기록 재생장치에 있어서, 목적으로 하는 음악 콘텐츠 데이터를 자동 해석함으 로써, 새로운 악곡 소재 단위의 단락 정보를 자동 생성하거나, 사용자 인터페이스(11)를 통하여 사용자에 의해 입력된 단락 정보를 추가하거나 하는 것이 가능하다.
또, 사용자 인터페이스(11)를 통하여 사용자로부터의 변경 지시 입력을 받아들이고, 음악 콘텐츠 기억부(20)에 기록되어 있는 속성정보를 변경하거나, 동일하게, 사용자 인터페이스(11)를 통하여 사용자로부터의 변경 지시 입력을 받아들이고, 음악 콘텐츠 기억부(20)에 기록되어 있는 속성정보를 삭제하거나 또, 이미 기록되어 있는 속성정보를, 위에서 설명한 바와 같이 새롭게 생성하거나 입력하거나 한 속성정보로 옮겨놓거나 할 수도 있도록 된다.
또, 새로운 속성정보를, 인터넷(5)과 통신 인터페이스(14)를 통하여 제공을 받거나 혹은, USB(Universal Serial Bus) 인터페이스 등의 디지털 인터페이스에 접속되는 다른 기록 재생장치 등의 외부 기기로부터 제공을 받거나 또, 무선 인터페이스와 송수신 안테나를 통하여 무선 LAN 경유로 제공을 받거나 하여, 이것을 추가나 치환에 이용하는 것도 가능하다.
물론, 상술하고 싶은 어느 경우에 있어서도, 음악 콘텐츠의 식별자에 의하여, 음악 콘텐츠 데이터와 속성정보는 반드시 대응하도록 되며, 어떤 속성정보가 어떤 음악 콘텐츠 데이터에 부수하는 것인지를 명확하게 된다.
그리고, 이상과 같이, 음악 콘텐츠에는, 속성정보를 부수시키도록 함으로써, 음악 콘텐츠 데이터의 유통에 수반하여, 그 속성정보도 유통시켜, 음악 콘텐츠 데이터 이용에 맞추어, 그 속성정보를 유효하게 활용하고, 새로운 이용 형태로 음악 콘텐츠 데이터를 이용할 수 있도록 할 수 있다.
또한, 광디스크 드라이브(16)에서 독해를 행하는 광디스크(7)가, 음악 콘텐츠 데이터로서 속성정보를 부수하고 있는 경우에는, 도 8에 나타낸 광디스크(20RD)와 동일 구성을 갖추는 것이다.
다음으로, 도 1의 실시형태의 기록 재생장치에 있어서의 기록처리 동작의 일례를, 도면을 참조하여 설명한다. 도 9는, 이 실시형태의 기록 재생장치 중 기록처리 부분을 기능적으로 추출하여 나타낸 블럭도이다. 또, 도 10 및 도 11은, 그 기록처리 동작의 일례를 설명하기 위한 플로차트이다.
도 9에 나타내는 바와 같이, 기록 재생장치는, 기록의 기능적으로는, 2개의 요소로 구성된다. 하나는, 복수 개의 음악 콘텐츠가 기억 보관 유지되어 있는 음악 콘텐츠 기억부(20)이며, 또 하나는 음악 콘텐츠의 기록을 하는 기록부(100)이다. 음악 콘텐츠 기억부(20)에 대해서는, 상술한 대로이므로, 여기에서는, 설명을 생략한다. 기록부(100)는, 음악 콘텐츠 데이터 및 속성정보의 기록처리를 행하는 부분이다. 이하, 이 기록부(100)의 구성에 대하여 설명한다.
기록부(100)는, 이 예에서는, 입력된 음악 콘텐츠의 데이터(영상 음향 데이터)와, 속성정보를 대응 지어 음악 콘텐츠 기억부(20)에 기억한다. 이 경우에, 음악 콘텐츠에 대응하는 속성정보가 입력되는 경우에는, 그것을 그대로, 혹은, 일부 변경하거나 추가하거나 하여, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에 기억하도록 한다.
그러나, 속성정보가 음악 콘텐츠에 부수하고 있지 않은 경우에는, 기록 부(100)에서는, 기록 재생장치측에서 생성 가능한 속성정보를 생성하고, 음악 콘텐츠의 데이터에 부여하여, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에 격납하도록 하는 기능을 갖춘다.
이 실시형태에서는, 음악 콘텐츠의 데이터에 대한 속성정보의 부여 방법으로서는, 최종적으로는 부여하는 사용자가 주관적인 판단으로 부여를 행하도록 한다. 원래, 속성정보의 일부 정보는, 기록 재생장치가 자동적으로 생(生) 영상 음향 데이터로부터 계산하여 부여할 수도 있다. 즉, 속성정보의 일부인 악곡구성정보의 템포정보나, 기록 재생장치가 존재하는 장소나 주변환경정보 등은, 자동적으로 산출하고, 자동적으로 부가할 수도 있다. 그러나, 이 예에서는, 기록 재생장치는, 어디까지나 악곡구성정보나 주변환경정보를 취득할 뿐, 최종적으로, 음악 콘텐츠에 부여하는 속성정보에 대하여, 그것이 최적인지 어떤지는 사용자가 결정하도록 하고 있다.
또한, 음악 콘텐츠 정보에 속성정보가 부가되어 있지 않은 경우에 있어서는, 어레인지용 정보는, 기록하면서 사용자가 작성할 수 없기 때문에, 이 기록시에는 어레인지용 정보는, 기억되지 않는다. 이 실시형태에 있어서는, 기록처리 후에, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에 기억된 원곡의 코드 진행이나, 드럼의 정보, 기타 악곡구성정보를 참조하면서, 사용자가 어레인지용 정보를 작성했을 때나, 인터넷을 통하여, 당해 음악 콘텐츠 악곡에 대하여 어레인지용 정보를 취득했을 때에, 속성정보기억부(22)에, 악곡 ID에 대응하여 추가 기억된다.
기록부(100)는, 도 9에 나타내는 바와 같이, 상술한 사용자 인터페이스(11) 와, 곡조 분석부(13)와, 재생 이력 정보 보관 유지부(15)와, 주변환경정보취득부(40)를 포함하는 것 외에, 기능적인 처리부로서 음악 콘텐츠 기록지시제어부(101)와, 음악 콘텐츠 데이터 보관 유지부(102)와, 영상 음향 데이터 기록 설정부(103)와, 속성정보 기록 설정부(104)와, 인코드부(105)와, 악곡구성정보취득부(106)를 갖춘다.
음악 콘텐츠 기록지시제어부(101)는, 사용자 인터페이스(11)를 통한 사용자 지시에 따라서, 음악 콘텐츠의 기록지시제어를 행하는 부분이며, CPU(1)가, ROM(3)에 기억되어 있는 기록을 위한 프로그램에 근거하여, RAM(4)을 워크 영역으로서 이용하여 실행하는 부분에 상당한다.
음악 콘텐츠 데이터 보관 유지부(102)는, 지금부터 기록해야 할 음악 콘텐츠의 영상 음향 데이터나, 부수하는 속성정보도 있으면, 당해 속성정보를 보관 유지하는 부분이다.
이것은, 기록하려고 하는 음악 콘텐츠의 소스가 광디스크 드라이브(16)에서 독해되는 광디스크(7)인 경우에는, 당해 광디스크(7) 및 광디스크 드라이브(16) 부분에 상당한다.
또, 기록하려고 하는 음악 콘텐츠의 소스가, 인터넷(5)을 통한 음악 콘텐츠 제공 서버 장치(6)인 경우에는, 통신 인터페이스(14)를 통하여 받아들여진 음악 콘텐츠 데이터를 일시적으로 저축하는 버퍼 메모리 등이, 음악 콘텐츠 데이터 보관 유지부(102)에 상당한다.
인코드부(105)는, 인코드/디코드부(12)의 인코드 부분만의 기능을 추출한 것에 상당한다.
영상 음향 데이터 기록 설정부(103)는, 인코드부(105)에 보내는 영상 음향 데이터를 보관 유지하는 것이며, RAM(4)의 일부 영역이 이용된다.
속성정보 기록 설정부(104)는, 인코더 회로에 보내는 속성정보 데이터를 보관 유지하는 것이며, 이것도 RAM(4)의 일부 영역이 이용된다.
악곡구성정보취득부(106)는, 음악 콘텐츠 데이터에 속성정보가 부수하고 있지 않은 경우에, 기록하려고 하는 음악 콘텐츠에 대응하는 속성정보를 취득하는 기능부이다. 이것은, 예를 들면, 상술한 바와 같이, 인터넷을 통하여, 속성정보 제공 서버 장치에 음악 콘텐츠 ID를 검색자로서 액세스하고, 당해 음악 콘텐츠 ID에 대응하는 속성정보를 취득하는 기능부나, 다른 기록 재생장치 등으로, 당해 음악 콘텐츠에 대응하는 속성정보를 취득하는 기능부 등에 의해 구성된다.
다음으로, 도 10 및 도 11의 플로차트를 참조하면서, 기록처리 동작에 대하여 설명한다. 또한, 이 도 10 및 도 11의 각 처리 스텝은, CPU(1)가 ROM(3)의 프로그램에 따라서, RAM(4)를 워크 영역으로서 이용하여 실행하는 것이다.
기록에 앞서, 사용자는, 음악 콘텐츠로서 기록하고 싶은 악곡의 데이터를 준비하고, 음악 콘텐츠 데이터 보관 유지부(102)에 보존해 둔다. 속성정보가 부수되어 있는 경우에는, 음악 콘텐츠 데이터 보관 유지부(102)에는, 당해 음악 콘텐츠로서의 악곡의 속성정보도 보존된다. 음악 콘텐츠 데이터 보관 유지부(102)는, 속성정보가 당해 기록하고 싶은 악곡에 부수하고 있는지 어떤지를, 음악 콘텐츠 기록지시제어부(101)에 보고한다. 이것에 의해, 음악 콘텐츠 기록지시제어부(101)는, 기 록해야 할 음악 콘텐츠에 속성정보가 부수하고 있는지를 미리 인식하고 있다.
다음으로, 사용자가, 사용자 인터페이스(11)의 조작부를 통하여 기록 지시를 하면, 음악 콘텐츠 기록지시제어부(101)는, 지정된 악곡의 기록 지시를 인식한다(도 10의 스텝(S31)). 음악 콘텐츠 기록지시제어부(101)는, 이 기록 지시를 인식하면, 지정된 악곡에는, 속성정보가 부수하고 있는지 어떤지를 판별하고(스텝(S32)), 속성정보가 부수하고 있다고 판별했을 때에는, 속성정보 기록 설정부(104)에, 음악 콘텐츠에 부수하는 속성정보를 기록하도록 하는 기록지시를 보낸다(스텝(S33)).
음악 콘텐츠 기록지시제어부(101)는, 또, 음악 콘텐츠 데이터 보관 유지부(102)에, 보관 유지하고 있는 기록 대상의 음악 콘텐츠의 영상 음향 데이터를 영상 음향 데이터 기록 설정부(103)에 송출하도록 하는 동시에, 대응하는 속성정보를 속성정보 기록 설정부(104)에 송출하도록 지시한다(스텝(S34)). 이 지시를 받은 음악 콘텐츠 데이터 보관 유지부(102)는, 기록 대상의 음악 콘텐츠의 영상 음향 데이터를, 그 음악 콘텐츠 ID와 함께 영상 음향 데이터 기록 설정부(103)에 보내는 동시에, 대응하는 속성정보를, 그 음악 콘텐츠 ID와 함께 속성정보 기록설정부(104)에 보낸다.
속성정보 기록 설정부(104)는, 음악 콘텐츠 데이터 보관 유지부(102)로부터의 속성정보(음악 콘텐츠 ID를 포함한다)를 받아들이면, 기록해야 할 속성정보의 가짜 리스트를 작성하고(스텝(S35)), 당해 작성한 속성정보의 가짜 리스트를, 예를 들면 사용자 인터페이스(11)의 디스플레이에 표시하는 등 하여, 사용자에게 제시한 다(스텝(S36)).
이 기록해야 할 속성정보의 가짜 리스트의 제시를 받은 사용자는, 속성정보에 대하여 수정이나 추가가 필요하다고 판단했을 때에는, 사용자 인터페이스(11)의 조작부를 통하여 소정의 조작을 행하고, 그대로의 속성정보로 좋다고 했을 때에는, 사용자 인터페이스(11)의 결정 키 등을 조작하고, 그 취지를 입력한다.
음악 콘텐츠 기록지시제어부(101)는, 사용자로부터 속성정보에 대하여 수정지시나 추가지시가 있었는지 어떤지를 판별하고(스텝(S37)), 수정지시나 추가지시가 있었다고 판별했을 때에는, 그 취지를 속성정보 기록 설정부(104)에 전한다. 이 수정지시나 추가지시를 받은 속성정보 기록 설정부(104)는, 사용자 인터페이스(11)를 통한 수정지시 내용이나 추가지시 내용에 따라, 속성정보의 수정이나 추가를 행한다(스텝(S38)). 이 속성정보의 수정, 추가시에 어레인지용 정보를 추가 기록하도록 해도 좋다.
속성정보의 수정이나 추가 후, 혹은, 속성정보의 수정이나 추가 없이, 사용자가 당해 속성정보에 대하여 OK라는 의미로 결정 키를 조작하면, 음악 콘텐츠 기록지시제어부(101)는, 그 사용자의 속성정보에 대하여 결정입력을 검지하고(스텝 (S39)), 인코드부(105)에, 영상 음향 데이터 기록 설정부(103)로부터의 영상 음향 데이터와 속성정보 기록 설정부(104)로부터의 속성정보를 받아들이도록 지시하는 동시에, 받은 정보를 인코드하도록 지시한다. 인코드부(105)는, 이 지시를 받으면, 영상 음향 데이터와 속성정보를 받아들이고, 음악 콘텐츠 기억부(20)에 기억하기 위한 인코드 처리를 실행한다(스텝(S40)).
그리고, 인코드부(105)는, 인코드한 영상 음향 데이터를, 영상 음향 데이터 기억부(21)에 기입하는 동시에, 인코드 한 속성정보를, 속성정보기억부(22)에 기입한다(스텝(S41)). 이상으로, 기록처리는 종료가 된다.
한편, 스텝(S32)에서, 속성정보가 음악 콘텐츠에 부수하고 있지는 않는다고 판별했을 때에는, 음악 콘텐츠 기록지시제어부(101)는, 속성정보 기록 설정부(104)에, 음악 콘텐츠의 속성정보를 자장치에서 생성하여 기록하도록 하는 지시를 보낸다(도 11의 스텝(S51)).
음악 콘텐츠 기록지시제어부(101)는, 또, 음악 콘텐츠 데이터 보관 유지부(102)에, 보관 유지하고 있는 기록 대상의 음악 콘텐츠의 영상 음향 데이터를 영상 음향 데이터 기록 설정부(103)와, 곡조 분석부(13)에 송출하도록 지시한다(스텝 (S52)). 이 지시를 받은 음악 콘텐츠 데이터 보관 유지부(102)는, 기록 대상의 음악 콘텐츠의 영상 음향 데이터를 그 음악 콘텐츠 ID와 함께 영상 음향 데이터 기록 설정부(103)에 보내는 동시에, 당해 음악 콘텐츠의 음향 데이터를 곡조 분석부(13)에 송출한다.
음악 콘텐츠 데이터 보관 유지부(102)로부터 음향 데이터를 받은 곡조 분석부(13)는, 그 음향 데이터를 분석하고, 악곡 소재 단위의 템포, 키, 코드 등의 악곡구성정보를 추출한다(스텝(S53)).
속성정보 기록 설정부(104)는, 음악 콘텐츠 기록지시제어부(101)로부터의 자장치에서 속성정보를 생성하는 취지의 지시를 받아들이면, 지정된 악곡에 대한 재생 이력이 재생 이력 정보 보관 유지부(15)에 보관 유지되어 있는지 아닌지를 판별 하고, 보관 유지되어 있으면, 그 재생 이력을 속성정보의 일부로 하기 위해 취득한다(스텝(S54)). 또한, 재생 이력 정보가 없으면, 속성정보로서의 재생 이력 정보는 없음을 의미하는 「null」로 된다.
또, 속성정보 기록 설정부(104)는, 기록 대상의 악곡을 청취한 사용자로부터 사용자 인터페이스(11)를 통하여 입력되는 당해 악곡에 대한 밝다/어둡다, 격렬하다/온화하다, 즐겁다/슬프다 등의 감성정보의 수치 입력(예를 들면 상술의 16단계의 수치)을 받아들이고, 속성정보의 일부로 한다(스텝(S55)).
게다가 속성정보 기록 설정부(104)는, 곡조 분석부(13)에서 분석되어 추출된 악곡구성정보를, 곡조 분석부(13)로부터 취득하고, 속성정보의 일부로 한다(스텝 (S56)). 또, 게다가 속성정보 기록 설정부(104)는, 주변환경정보취득부(40)에서 주변환경정보를 취득하고, 당해 주변환경정보를 속성정보의 일부로 한다(스텝(S57)).
다음으로, 속성정보 기록 설정부(104)는, 스텝(S54)~스텝(S57)에서 취득한 정보에 근거하여, 기록해야 할 속성정보의 가짜 리스트를 작성하고(스텝(S58)), 당해 작성한 속성정보의 가짜 리스트를, 예를 들면 사용자 인터페이스(11)의 디스플레이에 표시하는 등 하여, 사용자에게 제시한다(스텝(S36)).
이 기록해야 할 속성정보의 가짜 리스트의 제시를 받은 사용자는, 속성정보에 대하여 수정이나 추가가 필요하다고 판단했을 때에는, 사용자 인터페이스(11)의 조작부를 통하여 소정의 조작을 행하고, 그대로의 속성정보로 좋다고 했을 때에는, 사용자 인터페이스(11)의 결정 키 등을 조작하고, 그 취지를 입력한다.
음악 콘텐츠 기록지시제어부(101)는, 사용자로부터 속성정보에 대한 수정지시나 추가지시가 있었는지 어떤지 판별하고(스텝(S37)), 수정지시나 추가지시가 있었다고 판별했을 때에는, 그 취지를 속성정보 기록 설정부(104)에 전한다. 이 수정지시나 추가지시를 받은 속성정보 기록 설정부(104)는, 사용자 인터페이스(11)를 통한 수정지시 내용이나 추가지시 내용에 따라, 속성정보의 수정이나 추가를 행한다(스텝(S38)).
속성정보의 수정이나 추가 후, 혹은, 속성정보의 수정이나 추가 없이, 사용자가 당해 속성정보에 대하여 OK라는 의미로 결정 키를 조작하면, 음악 콘텐츠 기록지시제어부(101)는, 그 사용자의 속성정보에 대한 결정 입력을 검지하고(스텝 (S39)), 인코드부(105)에, 영상 음향 데이터 기록 설정부(103)로부터의 영상 음향 데이터와, 속성정보 기록 설정부(104)로부터의 속성정보를 받아들이도록 지시하는 동시에, 받은 정보를 인코드하도록 지시한다. 인코드부(105)는, 이 지시를 받으면, 영상 음향 데이터와 속성정보를 받아들이고, 음악 콘텐츠 기억부(20)에 기억하기 위한 인코드 처리를 실행한다(스텝(S40)).
그리고, 인코드부(105)는, 인코드한 영상 음향 데이터를, 영상 음향 데이터 기억부(21)에 기입하는 동시에, 인코드 한 속성정보를, 속성정보기억부(22)에 기입한다(스텝(S41)). 이상으로, 기록처리는 종료가 된다.
또한, 이상의 실시형태에서는, 속성정보의 악곡구성정보가 음악 콘텐츠에 부수하고 있지 않을 때에는, 곡조 분석부(13)에서 악곡구성정보를 추출하도록 했지만, 미리 악곡의 곡조가 악보정보나 제작자의 정보에 의해 알고 있는 경우에는, 곡 조 분석할 필요는 없고, 사용자가 이 악보정보에 근거하는 템포, 키, 코드 등의 악곡구성정보를 속성정보로서 입력할 수도 있다.
또, 인터넷(5) 등의 네트워크를 통하여 악곡구성정보가 취득 가능한 경우에는, 속성정보 기록 설정부(104)는, 악곡구성정보취득부(106)를 통하여 악곡구성정보를 취득하고, 속성정보의 일부로 하도록 할 수도 있다.
이 실시형태의 기록 재생장치에서는, 악곡의 재생을 반복하면, 재생 이력 정보 보관 유지부(15)에, 과거의 사용자의 재생 이력 정보가 축적되어 온다. 자주 듣는 곡은 청취자의 기호도가 높고, 반대로 재생 시간이 짧은 곡은 청취자의 기호도가 낮은 일이 많다. 그래서, 이 악곡 마다의 재생빈도·재생 시간 정보가 갱신될 때마다, 각 악곡의 음악 콘텐츠의 속성 영역에 추가 기록해 간다.
또, 속성정보로 되는, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에 기억된 재생 이력 정보는, 음악 콘텐츠의 기록시뿐만 아니라, 대응하는 악곡이 재생되고, 재생 이력 정보 보관 유지부(15)의 재생 이력이 갱신될 때, 동시에, 속성정보기억부(22)의 대응하는 악곡의 속성정보의 재생 이력 정보도 갱신되도록 되어 있다.
자주 듣는 곡은 청취자의 기호도가 높고, 반대로 재생 시간이 짧은 곡은 청취자의 기호도가 낮은 일이 많기 때문에, 이 재생 이력 정보를 참조함으로써, 청취자가 기호 하는 악곡을 검지할 수 있는 동시에, 그 기호도가 높은 악곡의 곡조는, 청취자의 기호도가 높은 곡조로 판정할 수 있다. 그래서, 이 악곡 마다의 재생 빈도나 재생 시간 정보가 갱신될 때마다, 각 악곡의 속성정보기억부의 재생 이력 정 보를 추가 기록하여 써 둠으로써, 이 속성정보의 재생 이력 정보 및 악곡구성정보를 참조하는 것으로, 청취자에게 선호되고 있는 악곡 및 그 곡조를 판정하고, 재생시의 악곡의 재구성에 이용할 수 있다.
[제 1의 실시형태의 기록 재생장치에 있어서의 재생처리]
다음으로, 제 1의 실시형태의 기록 재생장치에 있어서의 재생처리에 대하여 설명한다. 이 실시형태에서는, 재생처리의 포인트로서 몇 갠가 있다.
하나는, 재생 스타트 조작을 하는 것만으로, 사용자가 기호 할 악곡을 차례차례 장치가 선택하고, 사용자에게 제시하는 기능을 장치가 갖추는 점이다. 이 경우, 사용자는, 최초의 곡을 선택하고, 연속 재생 스타트 조작을 사용자 인터페이스(11)의 조작부를 통하여 입력한다. 그러면, 이 실시형태의 기록 재생장치는, 그 최초로 선택된 악곡에 사용자가 기호를 나타내고 있는지 어떤지, 사용자(청취자)로부터 취득한 생체정보에 근거하여 판별하고, 기호를 나타내고 있으면, 최초로 선택된 악곡에 곡조가 비슷한 악곡을 다음의 악곡 재생 후보로 한다.
이 경우에 있어서, 악곡 청취자인 사용자(청취자)의 생체정보를 취득하고, 예를 들면, 음악에 흥이 나 있을 때 머리 부분이나 다리 등의 몸의 움직임이나 맥박 등으로부터, 그때그때의 청취자의 기호도를 판정하도록 한다.
청취자가 청취중 악곡에 기호를 나타내고 있지 않는다고 판별했을 때에는, 예를 들면 재생 이력 정보 보관 유지부(15)에 보관 유지되어 있는 재생 이력 정보에 근거하여, 청취자가 좋아한다고 생각되는 악곡을 선택하여, 당해 선택된 악곡에 곡조가 비슷한 악곡을 다음 악곡 재생 후보로 한다. 혹은, 청취자의 주변환경정보 를 취득하고, 당해 취득한 주변환경정보에 합치하는 악곡을, 속성정보를 참조함으로써 검색하고, 검색결과의 악곡 및 당해 악곡과 비슷한 곡조의 악곡을 다음의 악곡 재생 후보로 하도록 한다.
그리고, 2번째 이후의 악곡을 청취하고 있을 때도, 청취자로부터 취득한 생체정보에 근거하여, 당해 청취중의 악곡에 기호를 나타내고 있는지를 상시 판정하고, 상술과 같은 처리를 행하고, 다음의 악곡 재생 후보를 갱신해 가도록 한다. 이것에 의해, 이 실시형태에 의하면, 리얼타임으로, 다음의 악곡 재생 후보를 갱신하면서 사용자에게 제시할 수 있다고 하는 효과가 있다.
종래의 악곡 재생장치에서는, 예를 들면 수 백곡 이상의 악곡 데이터를 내장 기억부에 기억하고 있을 때, 자동 재생 모드에서는, 앨범 단위나, 기록된 순서, 난수에 의한 랜덤인 순서로의 재생이 행해지고 있지만, 특히 사용자(청취자)의 기호를 고려하여, 재생순서가 결정되는 것은 없다.
또, 이른바 플레이 리스트(재생 악곡 후보의 리스트)를 사용자측에서 작성하고, 그 순서로 재생한다고 하는 예도 있지만, 이 방법의 경우에는, 사용자측에서, 하나 하나 플레이 리스트를 작성할 필요가 있고, 시간이 드는 것이다. 게다가 내장 기억부에 보존되는 악곡이 증가할 때마다, 당해 플레이 리스트를 수정할 필요가 있다고 하는 문제도 있었다. 그리고, 이 방법도, 사용자의 기호를 적극적으로 고려하고 있는 것은 아니다 라는 문제도 있었다.
이것에 대하여, 이 실시형태에서는, 재생장치측이 과거의 사용자의 재생 이력 정보나 사용자로부터 리얼타임으로 입력되는 생체정보 등, 더욱이, 재생장치가 존재하는 지리적인 정보 등으로부터, 현재 재생되고 있는 악곡의 속성정보와 대조하여 기호도의 예측을 행하고, 그 자리의 사용자 상태에 대하여 가장 듣고 싶다고 생각되는 악곡을 제공하는 것이다.
즉, 음악 콘텐츠의 재생방법에 관하여, 악곡의 속성정보와 청취자의 생체정보나, 재생 이력 정보, 주변환경정보를 이용하여, 그때 그때의 청취자의 기호에 최적이라고 생각되는 악곡의 후보를 동적으로 선택하고, 그것을 재생 제시하도록 하는 것이다.
예를 들면, 과거에 자주 듣던 악곡의 코드 진행이나 템포에 가까운 악곡을, 속성정보기억부(22)에 기억되어 있는 다수의 악곡의 속성정보로부터 탐색하고, 그것을 재생하거나, 현재 듣고 있는 악곡으로 청취자가 릴렉스 하고 있다고 생각되는 생체정보를 취득할 수 있는 경우에는, 그 구성에 가까운 악곡을, 상기 속성정보로부터 탐색하고, 그것을 재생하거나 하는 것이다. 즉, 이 실시형태에서는, 악곡의 속성정보를 이용하여 청취자의 기호에 맞는 악곡을 동적으로 제시하는 것이다.
또, 상술한 바와 같이, 이 실시형태에서는, 속성정보로서 청취자가 어떻게 느끼는지의 악곡의 감성정보(예를 들면 어두운/밝은 곡), 사용자가 몇 회 이 악곡을 재생했는지 등의 재생 이력 정보나 연주자나 악기에 관한 정보, 어디서 녹음된 것인지·어디서 들으면 좋은지의 지리 정보 등의 주변환경정보 등도 기록되어 있다. 이들 정보를, 필요에 따라서 재생측에서 이용함으로써, 다수의 음악 콘텐츠 중에서, 보다 사용자의 취향에 맞는 것을 추출할 수 있다.
이 실시형태의 기록 재생장치에 있어서의 두 번째의 재생처리 포인트는, 청 취중의 악곡에 대하여, 그 속성정보 중, 특히 악곡구성정보나 어레인지용 정보에 근거하여, 악곡 소재 단위로, 템포나 키(음정)를 바꾸거나 리믹스 하거나 효과를 걸거나 하여, 악곡을 재구성하도록 하는 기능(어레인지 모드라고 부르기로 한다)을 갖추는 점이다.
이 실시형태에서는, 어레인지 모드는, 자동 모드와 수동 모드가 준비되어 있어 사용자가 선택 설정하고 둘 수 있도록 되어 있다. 이 어레인지 모드의 설정은, 도시는 생략 하지만, 사용자 인터페이스(11)에 있어서, 예를 들면, 사용자가, 메뉴에서 「설정」을 선택하고, 그 중 어레인지 모드 설정을 선택하고, 자동 모드인지, 수동 모드의 어느 쪽인지를 선택하는 것으로 할 수 있다.
어레인지 모드로서 자동 모드가 설정되어 있을 때는, 이 실시형태의 음악 콘텐츠의 기록 재생장치에서는, 생체정보취득부(30)에서, 청취자의 생체정보를 검출하고, 청취자의 그때의 기분에 따라, 자동적으로, 디스크자키와 같이, 악곡 데이터에 리믹스 처리하는 등 하여 복수 곡을 동시에 재생하거나 혹은 악곡 그 자체의 템포나 키 등의 곡조를 변경하거나 하여, 청취중의 악곡을 동적으로 재구성하는 것이다.
이 동적인 재구성을 위해서, 이 실시형태에서는, 악곡 데이터에, 상술과 같은 속성정보, 특히 악곡구성정보를 부수시키고, 청취자가 처한 분위기에 맞도록 악곡을 동적으로 재구성하면서 재생·합성하는 것이다. 재구성은, 어디까지나 청취자가 보다 즐거워지도록, 재생되는 악곡에 변화를 주는 것이며, 새로운 악곡의 즐기는 방법을 청취자에게 제안하는 것이다.
상술한 바와 같이 속성정보는, 음악성을 해치지 않고 악곡을 재구성 재생할 수 있도록 하는 것을 목적으로 한 것이다. 일반적으로, 음악(악곡)은, 소절, 박자 등으로 단락지어져 있고, 또한, 그들의 단락마다 코드가 결정되어 있으므로, 음악 이론에 따르면, 예를 들면 소절마다 다른 음악 소재를 조합해도 음악성을 해치지 않고 곡조를 변경할 수 있다. 이것은, 일반적으로, 디스크자키 등으로 행해지고 있는 리믹스라고 불리는 수법이다.
이상의 것을 고려하여, 이 실시형태에서는, 상술한 바와 같이, 특히 악곡을 재구성하는데에 필요한 악곡의 구성 정보를, 당해 음악 콘텐츠의 영상 음향 데이터에 미리 부대시켜 속성정보로서 기록해 두는 것이다. 여기서, 악곡을 재구성하는데에 필요한 악곡의 구성정보는, 상술한, 템포, 키, 코드, 음량, 박자 등의 악곡 소재 단위의 악곡구성정보이다.
또한, 속성정보는, 항상 음악 콘텐츠의 영상 음향 데이터에 부대시켜 둘 필요는 없고, 예를 들면 필요한 때에만, 음악 콘텐츠의 식별정보에 근거하여, 다른 격납 장소에 격납되어 있는 속성정보를 읽어내거나, 네트워크를 통하여 당해 속성정보의 서버 장치등으로부터 취득하거나 해도 좋다.
이 실시형태에서는, 악곡구성정보를 이용하여, 마구 자동적으로 재구성하는 것은 아니다. 예를 들면, 청취자로부터의 생체정보를 재생장치에 피드백하고, 청취자의 시청 상태를 동적으로 파악하고, 또, 기록 재생장치가 놓여져 있는(존재한다) 장소의 주변환경정보를 동적으로 파악하고, 그 자리에 적절한 악곡을 그 속성정보로부터 재합성하고, 청취자에게 제공하는 것이다.
이하에 설명하는 바와 같이, 이 제 1의 실시형태에서는, 청취자가 기호를 나타내고 있을 때에만 악곡을 재구성하도록 하고, 보다 청취자가 즐기도록 하고 있다. 그러나, 청취자가 기호를 나타내고 있지 않을 때에도, 악곡을 자동적으로 재구성하고, 청취자에게 재구성 후의 악곡을 제시하는 것으로, 청취자에게 기호를 환기시키도록 해도 물론 좋다.
이 청취중의 악곡의 자동적인 재구성 시에도, 청취자의 생체정보를 재생장치에 피드백하거나 재생 이력 정보를 참조하거나 주변환경정보를 참조하거나 하고, 재구성을 위해 리믹스하는 악곡을 선택하거나 효과를 선택하거나 하도록 해도 물론 좋다. 더욱이, 속성정보 중에 추천 효과 정보가 있으면, 그것을 사용하는 것도 물론 할 수 있다.
어레인지 모드로서 수동 모드가 설정되어 있을 때는, 이 실시형태의 음악 콘텐츠의 기록 재생장치에서는, 사용자의 사용자 인터페이스(11)를 통한 어레인지 지시에 따라, 당해 악곡의 속성정보 중 특히 어레인지용 정보 및 악곡구성정보에 근거하여, 상술한 바와 같이, 악곡 소재 단위로, 템포나 키(음정)를 바꾸거나 리믹스 하거나 효과를 걸거나 하여, 악곡을 재구성하고, 악곡을 어레인지 하도록 한다.
도 12에, 이 어레인지 모드의 수동 모드에 있어서의 LCD의 표시 화면을 포함하는 사용자 인터페이스(11)의 예를 나타낸다. 도 12a, 도 12b는, 이 실시형태의 음악 콘텐츠의 기록 재생장치의, 사용자 인터페이스(11)의 일부를 구성하는 조작 패널부를 나타내는 것이다.
어레인지 모드로서 수동 모드가 설정되어 있는 경우에 있어서, 예를 들면 LCD화면에 표시되는 메뉴에서 어레인지 모드가 선택되면, 이 실시형태의 음악 콘텐츠의 기록 재생장치는, 재생중의 악곡에 대한 속성정보 중에서, 어레인지용 정보(도 2 및 도 3 참조)를 추출하고, 도 12a에 나타내는 바와 같이, LCD표시화면(111)에, 속성정보로서 기억되어 있는 어레인지용 정보의 종류의 일람을 표시한다.
사용자는, 이 LCD표시화면(111)의 어레인지용 정보 일람을 보면서, 이 예에서는, 십자형 커서 버튼(112)을 조작하고, 어느 것의 어레인지용 정보를 이용한 어레인지를 지시하는지를 선택 조작한다. 이 예에서는, 사용자는, 십자형 커서 버튼(112)의 상하 방향 조작부를 조작하고, 도 12에 있어서, 그물점을 붙여서 나타내는 선택중 항목의 위치를 변경하도록 한다. 그리고, 십자형 커서 버튼(112)의 중앙부의 결정 버튼을 조작함으로써, 선택중 항목의 선택 결정을 한다.
도 12a의 예의 같이, (1)클래식풍이 선택되어 있는 상태에 있어서, 선택 결정 조작이 되면, 선택된 어레인지용 정보에, 속성정보로서 또한 하위층의 어레인지 형태가 기억되어 있는 경우에는, 도 12b에 나타내는 바와 같이, 당해 어레인지 형태 일람이, LCD표시화면(111)에 표시된다.
그리고, 사용자는, 십자형 커서 버튼(112)을 이용하여, 그 어레인지 형태 일람으로부터 사용자는, 더욱이 희망하는 어레인지 형태를 선택하도록 한다. 그리고, 선택된 어레인지 형태가 선택 결정되면, 악곡 데이터는, 속성정보기억부(22)에 기억되어 있는 당해 어레인지 형태의 정보가 읽어 내지고, 상술한 바와 같이 악곡 재구성 처리가 이루어지며, 어레인지가 실행된다.
다음으로, 이상의 재생처리의 상세한 처리 동작 예를, 도면을 참조하여 설명 한다. 도 13은, 이 제 1의 실시형태의 기록 재생장치 중 재생처리 부분을 기능적으로 추출하여 나타낸 블럭도이다. 또, 도 14~도 21은, 악곡의 재구성 처리를 설명하기 위한 도면이다. 게다가 도 22~도 25는, 그 재생처리 동작의 일례를 설명하기 위한 플로차트이다.
도 13에 나타내는 바와 같이, 이 제 1의 실시형태의 기록 재생장치의 재생처리부도, 상술한 기록처리부와 동일하게, 2개의 구성요소로 이루어진다. 하나는, 복수 개의 음악 콘텐츠가 기록 보관 유지되어 있는 음악 콘텐츠 기억부(20)이며, 다른 하나는, 음악 콘텐츠의 재생을 행하는 재생부(200)이다. 음악 콘텐츠 기억부(20)는, 상술한 대로이므로, 여기에서는, 재생부(200)에 대하여 설명한다.
재생부(200)는, 도 13에 나타내는 바와 같이, 사용자 인터페이스(11)와, 재생 이력 정보 보관 유지부(15)와, 생체정보취득부(30)와, 주변환경정보취득부(40)와, 음향 출력부(53)와, 영상 출력부(56)를 포함하는 동시에, ROM(3)에 기억되어 있는 프로그램에 따라서 CPU(1)에 의한 처리에 의해 실현되는 기능적인 처리부로서 영상 음향 데이터 선택 판단 제어부(201)와, 디코드부(202)와, 속성정보취득부(203)와, 영상 음향 데이터 취득부(204)와, 영상 음향 데이터 디코드부(205)와, 영상 음향 어레인지 처리부(206)를 갖춘다.
영상 음향 데이터 선택 판단 제어부(201)는, 사용자 인터페이스(11)를 통한 사용자 지시에 따라, 재생 대상의 음악 콘텐츠를 선택하거나, 그 재생제어처리(자동 어레인지에 의한 악곡 재구성 처리 및 사용자 지시에 의한 수동 어레인지의 악곡 재구성 처리를 포함한다)를 행하거나 또, 재생 이력 정보 보관 유지부(15)로부 터의 재생 이력 정보, 생체정보취득부(30)를 통하여 취득한 생체정보, 주변환경정보취득부(40)로부터 취득한 주변환경정보 등에 근거하여, 재생 대상의 음악 콘텐츠를 선택하거나 그 재생제어(악곡 재구성을 포함한다)를 행하거나 하는 부분이며, CPU(1)가, ROM(3)에 기억되어 있는 기록을 위한 프로그램에 근거하여, RAM(4)를 워크 영역으로서 이용하여 실행하는 부분에 상당한다.
디코드부(202)는, 영상 음향 데이터 선택 판단 제어부(201)로부터의 음악 콘텐츠의 선택지시에 따라, 음악 콘텐츠 기억부(20)로부터 영상 음향 데이터 및 속성정보를 취득하고, 압축되어 있는 데이터를 신장 디코드 처리하는 것으로, 인코드/디코드부(12)의 디코드부에 상당한다.
그리고, 디코드부(202)는, 음악 콘텐츠 기억부(20)로부터 읽어내 신장 디코드한 속성정보는, 속성정보취득부(203)에 건네주는 동시에, 음악 콘텐츠 기억부(20)로부터 읽어내 신장 디코드한 영상 음향 데이터는, 영상 음향 데이터 취득부(204)에 공급한다.
속성정보취득부(203)는, 디코드부(202)로부터의, 음악 콘텐츠 기억부(20)에서 읽어 내져 디코드 된 속성정보를 받아들이고, 영상 음향 데이터 선택 판단 제어부(201)에 건네준다. 이 속성정보취득부(203)는, RAM(4)의 일부 영역을 이용하는 버퍼부로 구성되는 것이다.
영상 음향 데이터 취득부(204)는, 디코드부(202)에서의 음악 콘텐츠 기억부(20)로부터 읽어 내져 디코드 된 영상 음향 데이터를 받아들이고, 영상 음향 데이터 디코드부(205)에 건네준다. 이 영상 음향 데이터 취득부(204)는, RAM(4)의 일부 영역을 이용하는 버퍼부로 구성되는 것이다.
영상 음향 데이터 디코드부(205)는, 음향 데이터 디코드부(51)와 영상 데이터 디코드부(54)로 구성되는 부분이며, 음향 데이터를 디코드하고, 영상 음향 어레인지 처리부(206)에 건네주는 동시에, 영상 데이터를 디코드하고, 영상 음향 어레인지 처리부(206)에 건네준다.
영상 음향 어레인지 처리부(206)는, 음향 어레인지부(52)와 영상 어레인지부(55)로 구성되는 부분이며, 영상 음향 데이터 선택 판단 제어부(201)로부터 제어신호를 받고, 디코드 된 음향 데이터에, 다른 악곡의 음향 데이터를 리믹스 하거나, 음향 데이터에 효과 처리를 가하거나, 템포나 키 혹은 코드 진행을 바꾸거나 하여 악곡의 재구성처리를 한다. 또, 디코드 된 영상 데이터에 효과 처리를 가하거나 한다.
그리고, 영상 음향 어레인지 처리부(206)는, 리믹스 하거나 효과 처리하거나 한 음향 데이터를 음향 출력부(53)에 공급하는 동시에, 효과 처리한 영상 데이터를 영상 출력부(56)에 공급한다.
생체정보취득부(30)에서 취득되는 청취자의 생체정보는, 영상 음향 데이터 선택 판단 제어부(201)에 공급되며, 음악 콘텐츠의 선택 및 악곡의 재구성을 위해서 이용된다. 또, 주변환경정보취득부(40)에서 취득된 기록 재생장치가 존재하는 장소의 정보 등의 주변환경정보는, 영상 음향 데이터 선택 판단 제어부(201)에 공급되며, 음악 콘텐츠의 선택 및 악곡의 재구성을 위해서 이용된다.
또, 재생 이력 정보 보관 유지부(15)는, 이것에 공급되는 영상 음향 데이터 선택 판단 제어부(201)로부터의 독출 요구에 따라서, 보관 유지하고 있는 재생 이력 정보를 영상 음향 데이터 선택 판단 제어부(201)에 공급한다. 이 재생 이력 정보는, 영상 음향 데이터 선택 판단 제어부(201)에 있어서, 음악 콘텐츠의 선택 및 악곡의 재구성을 위해서 이용된다.
도 14는, 도 13의 재생부(200)를, 악곡의 재구성 처리 관점에서 본 기능 블럭도의 구성을 나타내는 것으로, 실질상의 구성 내용은, 도 13과 변화는 없다.
이 도 14에 나타내는 바와 같이, 재생부(200)는, 악곡 데이터의 재구성의 기준으로 되는 동기신호와 악곡 재구성용 정보를 생성하여 출력하는 리듬 마스터부(210)와 이 리듬 마스터부(210)에서의 동기신호(SYNC)와 악곡 재구성용 정보(ARI)를 받고, 악곡 데이터의 재구성을 실행하는 리듬 슬레이브부(220)로 이루어진다. 리듬 마스터부(210)에서의 동기신호(SYNC)는, 악곡 데이터의 재생에 동기 하여 출력되는 것이며, 또, 악곡 재구성용 정보(ARI)는, 동기신호(SYNC)에 동기하여 출력되며, 악곡 데이터의 재생에 동기하여 동적으로 변화하는 값이다.
리듬 마스터부(210)는, 콘서트에서 말하면 지휘자에 상당하는 기능을 가지며, 또, 리듬 슬레이브부(220)는, 연주자의 입장에 상당하는 기능을 가진다.
영상 음향 데이터 선택 판단 제어부(201)는, 리듬 마스터부(210)에 속하는 영상 음향 데이터 선택 판단 제어 RM(RM은 리듬 마스터의 약자)부(201M)과, 리듬 슬레이브부(220)에 속하는 영상 음향 데이터 선택 판단 제어 RS(RS은, 리듬 슬레이브의 약자)부(201S)로 나눌 수 있다. 또, 속성정보취득부(203)는, 리듬 마스터부(210)와 리듬 슬레이브부(220)의 양쪽 모두에 속하는 것으로 된다.
즉, 리듬 마스터부(210)는, 영상 음향 데이터 선택 판단 제어 RM부(이하, RM부라고 한다)(201M)와, 속성정보취득부(203)를 갖추어 구성된다.
또, 리듬 슬레이브부(220)는, 영상 음향 데이터 선택 판단 제어 RS부(이하, RS부라고 한다)(201S)와, 속성정보취득부(203) 외에, 생체정보취득부(30)와 주변환경정보취득부(40)와, 재생 이력 정보 보관 유지부(15)와, 영상 음향 데이터 취득부(204)와, 영상 음향 데이터 디코드부(205)와, 영상 음향 어레인지 처리부(206)를 갖추어 구성된다.
그리고, 이 제 1의 실시형태에서는, 리듬 마스터부(210)의 RM부(201M)는, 속성정보취득부(203)에서 취득한 재생중의 음악 콘텐츠의 속성정보에 근거하여, 악곡의 재구성의 기준이 되는 동기신호(SYNC)와 악곡 구성용 데이터(ARI)를 생성하여, 당해 생성한 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)를, 리듬 슬레이브부(220)의 RS부(201S)에 공급한다.
이 실시형태에서는, 이 동기신호(SYNC)로서, 도 15에 나타내는 바와 같이, 악곡의 소절에 대응하는 주기의 소절 동기신호(PHSY)와, 악곡의 박자에 대응하는 주기의 비트 동기신호(BTSY)를 생성 출력한다. 이 경우에, RM부(201M)는, 이 제 1의 실시형태에서는, 재생중 악곡의 소절 및 박자에 동기하는 신호를 생성 출력한다.
소절 동기신호(PHSY)는, 악곡 소절의 머리를 나타내는 신호이며, 예를 들면 악곡의 소절의 선두에서만, 하강 에지 펄스로 되어 있다. 또, 비트 동기신호(BTSY)는, 악곡의 박자 머리를 나타내는 신호이며, 예를 들면, 박자의 선두만 하 강 에지 펄스로 되어 있다. 어떤 박자의 곡인가에 의해 소절 당 박자 수는 다르다.
이들 동기신호에 동기하는 형태로, 리듬 마스터부(210)에서 리듬 슬레이브부(220)로 악곡 재구성용 데이터(ARI)가 보내진다. 이 악곡 재구성용 데이터(ARI)는, 다치(多値)의 데이터이므로 데이터 버스 등의 복수 비트 신호 선상을 흐르는 신호로 되어 있다.
이 제 1의 실시형태에서는, RM부(201M)는, 악곡 재구성용 데이터(ARI)로서, 도 15에 나타내는 바와 같이, 악곡구성정보의 BPM값과, 키값과, 코드값의 3개를 생성하고, 리듬 슬레이브부(220)의 RS부(201S)에 공급하도록 한다. 각 값의 데이터는, 복수 비트의 신호선에 의해 전송하도록 해도 좋고, 각각 시리얼 데이터로서 1개씩 신호선에 의해 전송하도록 해도 좋다.
BPM값은, 리듬 슬레이브부(220)에 있어서, 악곡을 어느 정도의 템포로 재생할지 마스터 템포로 되는 값이다. 이 BPM값은, 동기신호(SYNC)의 발진 주파수에 상당한다.
키값은, 재생하는 음악 콘텐츠의 키를 결정하는 값이다. 특정의 키를 결정하지 않는 경우는 「null」값이라도 좋다. 악곡 재구성용 데이터(ARI)의 키값이 「null」값의 경우, 리듬 슬레이브부(220)에서는, 자유로운 키로 재생이 행해진다.
코드값은, 재생하는 음악 콘텐츠의 코드 진행을 결정하는 값이다. 리듬 슬레이브부(220)는, 주어진 코드값으로 재생하거나, 대리 코드로 재생하거나 한다. 음악 이론에 준거하여, 조성이 무너지지 않으면 좋다. 코드값은 「null」값이라도 좋다. 악곡 재구성 데이터(ARI)의 코드값이 「null」값의 경우, 리듬 슬레이브부(220)에서는, 자유로운 코드로 재생을 행한다.
또한, 이 제 1의 실시형태의 경우에, RM부(201M)는, 재생중 악곡의 속성정보로부터 추출한 BPM값과 키값과 코드값을, 그대로 악곡 재구성용 정보(ARI)로서 출력한다.
도 16은, 이 제 1의 실시형태에 있어서의 리듬 마스터부(210)의 상세한 구성예를 나타내는 도면이며, 특히 RM부(201M)의 기능의 상세를 블록화한 것이다. 즉, RM부(201M)는, 기능적으로는, 속성정보 해석부(211)와, 동기신호 생성부(212)와, 동기신호 출력회로(213)와, 악곡 재구성용 데이터 설정부(214)와, 악곡 재구성용 데이터 출력회로(215)를 갖춘다.
RM부(201M)의 속성정보 해석부(211)에서는, 속성정보취득부(203)에서, 재구성을 하려고 하는 재생중 악곡의 속성정보를 받아들여 해석하고, 당해 재생중 악곡의 속성정보 중 상술한 악곡구성정보를 추출하여, 당해 추출된 악곡구성정보 가운데, 특히 소절이나 박자의 단락 정보의 하나인 템포정보로서의 BPM값을 동기신호 생성부(212)에 공급한다.
동기신호 생성부(212)는, PLL(Phase Locked Loop)회로(216)를 갖추고, 속성정보 해석부(211)에서의 BPM값에 상당하는 발진 주파수로 발진하고, 한편, 재생 대상의 음악 콘텐츠의 소절 및 박자에 위상동기 하는 소절 동기신호(PHSY) 및 비트 동기신호(BTSY)로 이루어지는 동기신호(SYNC)를, 상기 PLL회로(216)를 이용하여 생성하고, 생성한 동기신호(SYNC)를 동기신호 출력회로(213)를 통하여, 도 15에 나타 내는 바와 같이, RS부(201S)에 공급한다.
RM부(201M)의 속성정보 해석부(211)에서는, 또, 속성정보취득부(203)로부터 받은, 상기 재생중 악곡의 속성정보의 악곡구성정보 가운데, BPM값과 키값과 코드값을 추출하고, 악곡 재구성용 데이터 설정부(214)에 공급한다.
악곡 재구성용 데이터 설정부(214)에서는, 받은 BPM값은 BPM값 설정부(217)에 설정하고, 받은 키값은 키값 설정부(218)에 설정하고, 받은 코드값은 코드값 설정부(219)에 설정한다. 그리고, BPM값 설정부(217), 키값 설정부(218) 및 코드값 설정부(219)에 설정된 BPM값, 키값 및 코드값은, 악곡 재구성용 데이터 설정부(214)에서 악곡 재구성용 데이터 출력회로(215)에 건네져 이 악곡 재구성용 데이터 출력회로(215)로부터, 도 15에 나타내는 바와 같이, 악곡 재구성용 데이터(ARI)로서 RS부(201S)에 공급된다.
RM부(201M)는, 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)를, 음악 콘텐츠의 악곡 데이터의 재생에 동기하고, 속성정보취득부(203)에서의 속성정보에 근거하여 리얼타임으로 생성하고, 리듬 슬레이브부(220)의 RS부에 공급한다.
다음으로, 이 제 1의 실시형태에 있어서의 리듬 슬레이브부(220)의 상세 구성예를 도 17에 나타낸다. 리듬 슬레이브부(220)의 RS부(201S)는, 기능적으로는, 도 17에 나타내는 구성으로 되는 것으로, 어레인지 제어부(221)와 템포 보정량 산출부(222)와, 음정 보정량 산출부(223)를 갖추고 있다. 또, 리듬 슬레이브(220)의 영상 음향 어레인지 처리부(206)는, 템포 보정회로(225)와, 음정보정회로(226)와, 믹서 및 효과 회로(227)로 이루어진다.
어레인지 제어부(221)는, 미리, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에서, 속성정보취득부(203)를 통하여, 모든 음악 콘텐츠의 속성정보를 취득하고, 그 취득한 속성정보로부터 악곡 재구성용 속성정보 테이블(224)를 작성하여, 보관 유지하고 있다. 이 악곡 재구성용 속성정보 테이블(224)에는, 생체정보, 주변환경정보, 재생 이력 정보 등에 기초를 두고, 자동적으로 어레인지를 행하기 위해 이용되는 악곡 재구성용 속성정보 외, 사용자의 어레인지 지시에 따른 악곡 재구성을 하기 위해서, 속성정보 중 포함되는 어레인지용 정보로부터 작성되는 악곡 재구성용 속성정보도 포함된다. 후자의 악곡 재구성용 속성정보는, 이 예에서는, 상술한 바와 같이, 사용자가 희망하는 악곡 장르(클래식, 팝, 락, 솔, 엔카 등) 풍으로 어레인지하기 위한 정보이다.
이 악곡 재구성용 속성정보 테이블(224)의 일부의 일례를 도 18에 나타낸다. 이 도 18의 예의 악곡 재구성용 속성정보 테이블(224)은, 이 실시형태에서는, 재구성처리의 일례로서 리믹스를 행하므로, 리믹스용 속성정보 테이블 구성으로 되어 있다. 그리고, 도 18의 악곡 재구성용 속성정보 테이블(224)은, 각각의 악곡 소재명에 대하여, 코드값과 BPM값과 악기명과 감성치로 이루어진다. 감성치는, 이 예에서는, 밝은 느낌만으로 하고 있지만, 당연히 한정하는 것은 아니다.
어레인지 제어부(221)는, 리믹스 처리를 실행할 때, RM부(201M)로부터 받은 악곡 재구성용 데이터(ARI)의 BPM값 및 코드값에 동일한, 혹은 당해 BPM값 및 코드값에 근사하는 BPM값 및 코드값을 가지는 악곡 소재를, 리믹스하려고 하는 악기 마다, 악곡 재구성용 속성정보 테이블(224)로부터 검색한다.
그리고, 어레인지 제어부(221)는, 생체정보취득부(30)로부터의 생체정보나 주변환경정보취득부(40)로부터의 주변환경정보, 재생 이력 정보 보관 유지부(15)로부터의 재생 이력 정보를 참조하여, 청취자가 밝은 느낌의 것을 요구하고 있는지, 그렇지 않은지를 판별하고, 악곡 재구성용 속성정보 테이블의 감성치를 참조하여, 실제로 리믹스하는 악곡 소재를 결정한다.
또, 어레인지 제어부(221)는, 사용자 인터페이스(11)를 통한 사용자의 어레인지 지시를 받았을 경우에 있어서, 사용자로부터의 어레인지 지시에 의한 어레인지 처리로서 리믹스가 필요한 경우에는, 어레인지용 정보를 참조하여, 리믹스하는 악곡 소재를 결정한다.
그리고, 어레인지 제어부(221)는, 결정한 당해 악곡 소재의 음향 데이터를 음악 콘텐츠 기억부(20)에서 읽어내도록 하는 선택 지시를 디코드부(202)에 보낸다.
이것을 받은 디코드부(202)는, 선택 지시받은 악곡 소재의 음성 데이터를 음악 콘텐츠 기억부(20)에서 읽어내며, 이미 독출하고 있는 재생 대상의 영상 음향 데이터에 가세하고, 이러한 리믹스용 악곡 소재의 음향 데이터를 영상 음향 데이터 취득부(204)에 건네준다.
따라서, 영상 음향 데이터 취득부(204)는, 재생 대상의 영상 음향 데이터에 가세하고, 이 리믹스용 1개 또는 복수 개의 악곡 소재의 음향 데이터를, 영상 음향 데이터 디코드부(205)에 공급하게 된다.
이 때문에, 영상 음향 데이터 디코드부(205) 및 영상 음향 어레인지 처리 부(206)에서는, 그들 복수 개의 영상 음향 데이터를 병행하여 처리하는 것이다. 즉, 영상 음향 데이터 디코드부(205)와, 영상 음향 어레인지 처리부(206)의 템포 보정회로(225) 및 음정보정회로(226)는, 도 17에 나타내는 바와 같이, 병행하여 처리하는 영상 음향 데이터의 몇 분(도 17에서는 2개)의 처리 회로부를, 기능적으로, 각각 갖추는 구성으로 되어 있다.
도 19는, 리듬 슬레이브부(220)의 영상 음향 데이터 디코드부(205) 및 영상 음향 어레인지 처리부(206)에 있어서의 악곡 신호의 흐름을, 리듬 마스터부(210)에서의 동기신호(SYNC)에, 동기시켜 나타낸 도면이다. 이 경우, 악곡 데이터(음향 데이터)의 재생신호의 스트림의 하나를 악곡 트랙이라고 부르기로 한다. 상술한 바와 같이, 리듬 슬레이브부(220)에 있어서는, 악곡 트랙은, 복수 개로 이루어지며, 각각 악곡 트랙의 악곡 데이터에 대하여, 템포 보정이나 음정 보정이 필요에 따라 이루어진 후, 믹서 및 효과 회로(227)에 있어서 최종적으로 믹스 된다.
도 19의 예에서는, 영상 음향 데이터 디코드부(205)에서 출력된 3개의 악곡 트랙이, 리듬 마스터부(210)에서의 동기신호(SYNC)로 동기하여 재생되며, 최종단으로 믹스 출력되고 있는 모습을 나타내고 있다. 이 예에서는, 악곡 트랙(1)은 재생 대상의 음악 콘텐츠의 악곡 데이터의 트랙이며, 악곡 트랙(2) 및 악곡 트랙(3)은, 리믹스하는 악곡 소재의 트랙이다.
이 도 19의 악곡 트랙(2)이나 악곡 트랙(3)과 같이, 리믹스 되는 악곡 소재는, 전부 소절 구간에 대응하여 모두 존재할 필요는 없고, 믹스하는 소절 구간이나 복수박자분의 구간의 사이만, 띄엄띄엄 재생되도록 해도 좋다.
또한, 재생 대상의 음악 콘텐츠의 악곡 데이터에 대하여, 리믹스를 하지 않고, 특수 효과만을 거치는 경우에는, 재생 대상의 음악 콘텐츠의 악곡 데이터에 대하여 스트림밖에 없고, 믹서 및 효과 회로(227)에 있어서는, 상술한 리벌브나 디스토션 등의 특수 효과 처리가 재생 대상의 음악 콘텐츠의 악곡 데이터에 대하여 실시된다.
템포 보정량 산출부(222)는, 속성정보취득부(203)에서 취득한 BPM값과 리듬 마스터부(210)에서의 악곡 재구성용 데이터(ARI) 중 BPM값(BPM값의 목표치(목표 BPM값)로 된다)과의 차분으로부터 현재 재생중의 악곡에 리믹스하는 악곡 소재에 대한 템포 보정량을 산출한다. 이와 같이 보정할 필요가 있는 것은, BPM값이 목표 BPM값에 완전히 일치하고 있는 것뿐만 아니라, 차이가 나는 것 이여도, 키값이나 코드값 등, 리믹스하는 악곡 소재로서 적절한 것이라고 판단할 수 있는 것도 있으므로, 그와 같은 악곡 소재를 선택했을 때에, 그 BPM값을 목표 BPM값에 맞추기 위해서이다.
그리고, 템포 보정량 산출부(222)는, 산출한 템포 보정량을 템포 보정회로(225)의 대응하는 악곡 소재용의 처리 회로부에 공급한다.
템포 보정회로(225)는, 음향 데이터에 대하여, 음정을 일정하게 유지하면서 재생 템포만을 변경하도록 보정하는 회로이다. 이 보정의 알고리즘은, 상관 함수를 사용하는 방법 등, 여러 가지 방법이 존재하지만, 이 실시형태는 그 알고리즘에 특징을 가지는 것은 아니기 때문에, 여기에서는 그 상세한 설명은 생략한다.
음정 보정량 산출부(223)는, 속성정보취득부(203)에서 취득한 키값/코드값 과 리듬 마스터부(210)로부터의 악곡 재구성용 데이터(ARI)중의 키값/코드값(키값/코드값의 목표치(목표 키값/목표 코드값)로 된다)과의 차분으로부터 현재 재생중의 악곡에 리믹스하는 악곡 소재의 각각에 대하여 음정 보정량을 산출한다. 이와 같이 보정할 필요가 있는 것은, 키값 및 코드값이 목표 키값 및 목표 코드값에 완전히 일치하고 있는 것뿐만 아니라, 차이가 나는 것 이여도, 그 외의 조건 등으로 하여, 리믹스하는 악곡 소재로서 적절한 것이라고 판단할 수 있는 것도 있으므로, 그러한 악곡 소재를 선택했을 때에, 그 키값 및 코드값을 목표치에 맞추기 위해서이다.
그리고, 음정 보정량 산출부(223)는, 산출한 음정 보정량을 음정보정회로(226)의, 대응하는 악곡 소재용의 처리 회로부에 각각 공급한다.
음정보정회로(226)는, 음향 데이터에 대하여, 템포를 일정하게 유지하면서 음정만을 변경하도록 보정하는 회로이다. 이 보정의 알고리즘으로서는, 여러 가지의 방법이 존재하지만, 이 실시형태는 그 알고리즘에 특징을 가지는 것은 아니기 때문에, 여기에서는 그 상세한 설명은 생략한다.
믹서 및 효과 회로(227)는, 어레인지 제어부(221)로부터의 믹싱 제어신호나 특수 효과 제어신호를 받고, 음정보정회로(226)로부터의 영상 음향 데이터에 특수 효과를 걸거나, 음정보정회로(226)로부터의 복수 개의 영상 음향 데이터를 믹싱 하거나 한다. 어떠한 특수 효과를 거치는지는, 어레인지 제어부(221)에서의 특수 효과 제어신호에 의한다.
도 20은, 리듬 슬레이브부(220)의 영상 음향 데이터 디코드부(205) 및 영상 음향 어레인지 처리부(206)에 있어서의 악곡 신호의 흐름을, 리듬 마스터부(210)에서의 동기신호(SYNC)로, 동기 시켜 나타내는 동시에, 리듬 슬레이브부(220)의 영상 음향 어레인지 처리부(206)에 있어서의 악곡 재구성의 동작을, 리듬 마스터부(210)의 악곡 재구성용 데이터(ARI)와 대응시키면서 나타내는 도면이다.
도 20의 예의 경우에는, 악곡 재구성용 데이터(ARI)는, 재생 대상의 음악 콘텐츠의 속성정보로부터 추출한 것으로 되어 있고, 당해 재생 대상의 음악 콘텐츠는, 악곡 트랙(1)의 재생 신호 스트림으로 되어 있다. 도 20의 예에서는, 악곡 재구성용 데이터(ARI)로서 BPM값「120」, 키값「Cmajor」, 코드진행 「C」→「G」→「F」의 목표치가 리듬 마스터부(210)에서 리듬 슬레이브부(220)로 입력되어 있다.
그리고, 리듬 슬레이브부(220)에서는, 이 악곡 트랙(1)의 재생 대상 음악 콘텐츠의 재생 신호 스트림에 대하여, 어레인지 제어부(221)에 의한 선택 지시에 근거하여 음악 콘텐츠 기억부(20)에서 취득된 2개의 악곡 소재가 악곡 트랙(2), 악곡 트랙(3)으로서 영상 음향 데이터 디코드부(205)에서 출력되며, 상기 악곡 재구성용 데이터(ARI)의 각각의 값의 목표치에 맞도록 보정되며, 최종적으로 믹스 된다.
즉, 악곡 트랙(2, 3)의 음향 데이터는, 영상 음향 어레인지 처리부(206)에서, 악곡 재구성용 데이터(ARI)의 목표 BPM값이나 목표 코드값에 합치하도록 보정된 후, 악곡 트랙(1)의 악곡 데이터에 믹스되어, 리믹스 처리가 이루어진다.
이 경우, 도 20에 나타내는 바와 같이, 소절 구간(Pa)에 있어서는, 악곡 트랙(3)의 악곡 소재(3)가, 악곡 트랙(1)의 음향 데이터에 믹스 되지만, 속성정보취득부(203)를 통하여 취득된 이 악곡 소재(3)의 소절 구간(Pa)에서의 BPM값은 「120 」이며, 악곡 재구성용 데이터(ARI)의 BPM값과 동일하므로, 악곡 소재(3)의 악곡 데이터에 대해서는, 영상 음향 어레인지 처리부(206)에서는 템포의 보정은 이루어지지 않는다.
그러나, 속성정보취득부(203)를 통하여 취득된 악곡 소재(3)의 소절 구간(Pa)에서의 코드값은 「D」이며, 악곡 재구성용 데이터(ARI)의 코드값 「C」와는 다르므로, 당해 악곡 소재(3)의 악곡 데이터에 대해서는, 영상 음향 어레인지 처리부(206)의 음정보정회로(226)에 있어서, 상술한 바와 같이 하여 음정 보정이 이루어지며, 「D」→「C」로 목표치로 되도록 변경된다.
또, 다음의 소절 구간(Pb)의 전반(前半)에 있어서는, 악곡 트랙(2)의 악곡 소재(2)가 악곡 트랙(1)의 음향 데이터에 믹스되며, 또, 소절 구간(Pb)의 후반(後半)에 있어서는, 악곡 트랙(2)의 악곡 소재(2)와 악곡 트랙(3)의 악곡 소재(3)가 악곡 트랙(1)의 악곡 데이터에 믹스된다.
그리고, 속성정보취득부(203)에 의해 취득된 악곡 소재(2)의 소절 구간(Pb)의 전반에서의 BPM값은 「100」, 코드값은 「E」이며, 악곡 재구성용 데이터(ARI)의 목표 BPM값 「120」 및 목표 코드값 「G」와는 다르다. 이 때문에, 악곡 소재(2)의 악곡 데이터는, 소절 구간(Pb)의 전반에 있어서, 영상 음향 어레인지 처리부(206)에서, 「100」에서 「120」과, 목표 BPM값에 합치하도록 템포의 보정이 이루어지는 동시에, 「E」에서 「G」와, 목표 코드값에 합치하도록 음정의 보정이 이루어진다. 그리고, 소절 구간(Pb)의 전반에서는, 그들의 보정이 이루어진 악곡 소재(2)의 악곡 데이터가, 악곡 트랙(1)의 악곡 데이터에 가산된다.
또, 이 소절 구간(Pb)의 후반에서는, 악곡 소재(2)의 BPM값은 「100」, 코드값은 「E」이며, 악곡 재구성용 데이터(ARI)의 목표 BPM값 「120」 및 목표 코드값 「F」와 다르지만, 악곡 소재(3)의 BPM값은 「120」, 코드값은 「F」이며, 악곡 재구성용 데이터(ARI)의 목표 BPM값 「120」 및 목표 코드값 「F」과 동일하다.
이 때문에, 소절 구간(Pb)의 후반에서는, 악곡 트랙(2)의 악곡 소재(2)에 대해서는, 영상 음향 어레인지 처리부(206)에서 템포 및 음정의 보정이 이루어져 악곡 트랙(1)의 악곡 데이터에 가산되며, 또, 악곡 트랙(3)의 악곡 소재(3)에 대해서는 보정되지 않고, 악곡 트랙(1)의 악곡 데이터에 가산된다.
이상과 같이 하여, 이 제 1의 실시형태에서는, 재생 대상의 음악 콘텐츠에 대하여, 당해 음악 콘텐츠에 동기 하는 동기신호(SYNC)와, 당해 음악 콘텐츠의 악곡구성정보에 근거하는 악곡 재구성용 데이터(ARI)를 생성하고, 이 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)를 기본으로 하여, 다른 악곡 소재를 믹스함으로써, 이른바 리믹스 처리를 원래의 악곡에 대하여 위화감 없이, 실행할 수 있다.
또, 동기신호(SYNC)에 의해, 소절이나 박자의 단락을 용이하게 검출할 수 있으므로, 악곡 데이터에 대하여 특수 효과를 실시하는 것도 용이하게 행할 수 있다.
이들 상술의 어레인지 제어는, 리얼타임 또한 동적으로 실행할 수 있다. 예를 들면, 생체정보 센서 입력과 같이 시시각각 변화하는 입력에 대해서도, 용이하게 추종할 수 있다.
또한, 이 실시형태에서는, 리믹스의 특수 효과 처리의 하나로서, 루프 재생처리를 할 수 있도록 하고 있다. 이 루프 재생처리란, 예를 들면 1 또는 복수 소 절분 혹은 1 또는 복수 박자분의 소량의 악곡 소재의 데이터를, 반복 재생하는 처리 기능을 말한다. 이 루프 재생함으로써, 소량의 악곡 소재뿐이라도, 무한하게 음악을 연주할 수 있다. 이 루프 재생을 행하는 악곡 소재로서는, 드럼의 리듬 패턴 등이 예로서 들고 있다.
예를 들면, 도 21c에 나타내는 원래 악곡 소재에는, 루프 재생의 개시점인 마크 인(MarkIn) 점과, 루프 재생이 종료점인 마크 아웃(MarkOut) 점이, 미리 지정되어 있다. 이 원래 악곡 소재의 정보는, 복수 개가, 예를 들면 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에, 별개로 설치된 「DJ루프 정보 격납부」에 격납되어 있다. 속성정보기억부(22)가 아닌, 다른 기억 영역에 「DJ루프 정보 격납부」를 설치하고, 당해 격납부에 원래 악곡 소재 정보를 격납하도록 해도 물론 좋다.
복수의 원래 악곡 소재로부터 1개의 원래 악곡 소재가, 예를 들면 사용자 인터페이스(11)를 통하여 선택 지정되어 루프 재생이 지정되면, 속성정보기억부(22)로부터, 지정된 원래 악곡 소재 정보가 읽어 내져 리듬 슬레이브부(220)의 영상 음향 데이터 디코드부(205)에 공급된다. 그리고, 이 영상 음향 데이터 디코드부(205)와, 영상 음향 어레인지 처리부(206)에 있어서, 템포 보정 및 음정 보정을 필요에 따라 실시하면서, 루프 재생을 실행한다.
이 경우, 영상 음향 데이터 디코드부(205) 및 영상 음향 어레인지 처리부(206)는, 동기신호(SYNC)의 소절 동기신호(PHSY) 또는 비트 동기신호(BTSY)(도 21a 참조)에 동기하고, 도 21b에 나타내는 바와 같이, 루프 재생을 행하는 악곡 트랙에 있어서, 원래 악곡 소재의 마크인 점에서 재생을 개시하여, 마크아웃 점까지 재생하면, 당해 마크아웃 점에서 마크인 점으로 점프함으로써, 루프 재생을 실행한다. 이 경우, 마크아웃 점에서 마크인 점으로 루프 점프하는 타이밍과 마크아웃 점으로의 도달 타이밍은 일치하고 있는 것으로 한다.
이 경우, 루프 재생을 행하는 하나의 악곡 트랙뿐만이 아니라, 모든 악곡 트랙이 동기신호(SYNC)에 동기하여 재생동작하고 있으므로, 위화감 없이, DJ루프 재생을 행할 수 있다.
다음으로, 도 22~도 24의 플로차트를 참조하면서, 상술한 재생처리 동작에 대하여 설명한다. 또한, 이 도 22, 도 23, 도 24의 각 처리 스텝은, CPU(1)가 ROM(3)의 프로그램에 따라서, RAM(4)를 워크 영역로서 이용하여 실행하는 것이다.
사용자는, 먼저, 사용자 인터페이스(11)의 디스플레이의 음악 콘텐츠의 선택면에서, 희망하는 음악 콘텐츠(악곡)를 선택하고, 영상 음향 데이터 선택 판단 제어부(201)에 대하여, 1곡째의 재생을 지시한다. 2곡째 이후는, 실시형태의 기록 재생장치에서 자동적으로 선택되어 재생이 속행된다.
사용자 인터페이스(11)를 통하여 1곡째의 재생 지시를 받은 영상 음향 데이터 선택 판단 제어부(201)는, 당해 재생 지시를 받은 음악 콘텐츠를 인식하는 동시에, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)로부터, 당해 재생 지시를 받은 음악 콘텐츠의 속성정보 및 그 외 전부, 혹은 소정 량의 속성정보를 읽어내도록 디코드부(202)에 지시를 내린다. 그리고, 그 지시에 따라 디코드부(202)로부터 속성정보취득부(203)를 통하여 보내져 오는 속성정보를 읽어들여, 해석한다(스텝(S61)).
여기서, 영상 음향 데이터 선택 판단 제어부(201)는, 후술하는 다음의 재생 악곡 후보의 선정이나, 청취중 악곡의 재구성을 위해서, 재생 지시받은 음악 콘텐츠의 속성정보와 다른 음악 콘텐츠의 속성정보를 미리 취득하여, 해석하고, 후술하는 다음의 재생 악곡 후보의 선정이나, 청취중 악곡의 재구성을 위한 사전 준비를 하는 것이다.
다음으로, 영상 음향 데이터 선택 판단 제어부(201)는, 디코드부(202)에, 재생 지시받은 음악 콘텐츠의 영상 음향 데이터의 읽기를 지시한다. 그러면, 디코드부(202)는, 음악 콘텐츠 기억부(20)에서 재생 지시받은 음악 콘텐츠의 영상 음향 데이터를 읽어내고, 영상 음향 데이터 취득부(204)에 건네준다. 영상 음향 데이터 취득부(204)에서 취득된 영상 음향 데이터는, 영상 음향 데이터 디코드부(205)에 건네져 디코드되며, 영상 음향 어레인지 처리부(206)를 통하여 음향 출력부(53)에 공급되고, 음향 출력되는 동시에, 영상 출력부(56)에 공급되어, 영상 출력되며, 재생이 개시된다(스텝(S62)).
이렇게 하여, 음악 콘텐츠의 재생이 개시되면, 영상 음향 데이터 선택 판단 제어부(201)는, 이 실시형태에서는, 어레인지 모드의 설정이 자동 모드인지, 수동 모드인지를 판별하고(스텝(S63)), 자동 모드라고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 청취자의 생체정보를, 생체정보취득부(30)에서 취득하는 동시에, 주변환경정보취득부(40)에서 주변환경정보를 취득한다(스텝(S64)). 이 생체정보와 주변환경정보의 취득은, 재생 중은 계속하는 것이다.
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 생체정보취득부(30)에 서 취득한 청취자의 생체정보로부터, 청취자는 청취중의 악곡에 대하여 기호를 나타내고 있는지 어떤지 판별한다(스텝(S65)).
영상 음향 데이터 선택 판단 제어부(201)는, 예를 들면, 몸의 움직임 등의 생체정보를, 기록 재생장치의 생체정보센서(31) 및 생체정보 해석부(32)를 통하여 받음으로써, 청취자가 적극적으로 음악을 듣고 싶은 상태인지, 그렇지 않은 상태인지를 판단한다. 예를 들면, 음악에 흥이 나 있는 상태에서는 자연과 음악에 맞추어 몸이 움직인다.
즉, 재생중 악곡의 악곡구성정보(악곡 소재 단위의 단락이나 템포 등)와 몸의 움직임의 센서(가속도 센서 등)의 출력신호의 상호 상관 함수를 계산하는 등 하면, 그 상관계수에 의해 청취자가 적극적으로 음악을 시청하고 싶은 상태인지 어떤지를 어느 정도 판단하는 것이 가능하다. 이 경우에, 속성정보 중의 감성정보도 고려하면 더욱 좋다. 즉, 격렬한 악곡이면, 청취자의 몸의 움직임도 거기에 따라격렬하게 움직이고, 온화한 악곡의 경우에서는, 청취자의 몸의 움직임은 느리게 하는 것으로 예측할 수 있다.
상관계수가 높을수록, 청취자가 음악을 적극적으로 시청하고 싶다, 이른바 「흥이 남」상태라고 파악할 수 있다. 청취자가 적극적으로 음악을 듣고 있는 상태에 있는 경우에는, 보다 「흥이 남」수치가 높은 악곡의 반복 재생을 하는 것으로, 사용자의 기호에 맞춘 악곡을 재생 제시할 수 있다고 생각된다.
또, 반대로, 악곡 청취중 청취자의 몸의 움직임이 적고, 뇌파 등도 침착한 상태이면, 반대로, 「흥이 남」수치가 낮은 조용한 곡을 음량이 작은 상태 등으로 재생 제시함으로써, 사용자는 보다 온화하게 음악을 즐길 수 있다고 생각된다.
또한, 「흥이 남」뿐만 아니라, 재생중 음악 콘텐츠의 속성정보에 포함되는 감성정보, 예를 들면 「밝다/어둡다」, 「온화하다/격렬하다」, 「슬프다/즐겁다」등의 감성적인 수치를 참조하면서, 청취자 생체정보를 해석하는 것으로, 사용자가 기호를 나타내고 있는지 어떤지를 판단하도록 한다. 즉, 예를 들면 온화한 악곡이나 슬픈 악곡 등은 「흥이 남」수치는 낮지만, 뇌파나 맥 등이 침착한 상태이면, 기호를 나타내고 있다고 되는 경우도 있다.
스텝(S65)에서, 청취자는 재생중의 악곡에 대하여 기호를 제시하고 있지 않는다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 재생 이력 정보 보관 유지부(15) 혹은 미리 취득한 속성정보의 각 음악 콘텐츠에 포함되는 재생 이력 정보를 참조하여, 재생 빈도가 높은 악곡을 검출한다(스텝(S66)).
다음으로, 영상 음향 데이터 선택 판단 제어부(201)는, 재생 빈도가 높은 악곡의 속성정보의 악곡구성정보를 추출하고, 청취자가 좋아하고 있다고 생각되는 곡조를 판정한다. 이 경우, 재생 빈도가 높은 악곡이 복수 개 있고, 그들의 곡조가 일치하고 있는 경우에는, 그 곡조의 악곡구성정보를 청취자가 좋아하고 있다고 판정한다. 또, 재생 빈도가 높은 악곡이 다수 있고, 한편, 곡조도 복수 가지 있을 때는, 예를 들면 곡조가 동일 고(高)빈도 재생 악곡을 청취자가 좋아하고 있는 악곡구성정보로 판정한다.
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 상기의 청취자가 좋아하고 있다고 판정한 곡조의 악곡구성정보와 비슷한 악곡구성정보를 갖추는 다른 악 곡, 즉, 곡조가 비슷한 다른 악곡을 선출하고, 그들을 다음의 악곡 재생 후보로 한다(스텝(S67)). 이것은, 청취자가 현재 재생중의 악곡에 기호를 나타내지 않기 때문에, 과거의 청취자의 재생 이력으로부터, 청취자가 기호 하고 있다고 생각되는 악곡을, 청취자에게 제시하려고 하는 것이다.
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 재생중의 악곡이 끝까지 재생되었는지를 감시하고(도 23의 스텝(S76)), 악곡의 끝까지 재생되었다고 판별했을 때에는, 당해 재생한 악곡(음악 콘텐츠)에 대하여 재생 이력을, 재생 이력 정보 보관 유지부(15)에 있어서 갱신하는 동시에, 당해 음악 콘텐츠의 속성정보의 재생 이력 정보도 갱신한다(스텝(S77)).
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S67)에서 결정한 재생 악곡 후보 중에서, 다음으로 재생하는 악곡의 음악 콘텐츠를 선택하고, 당해 음악 콘텐츠의 영상 음향 데이터의 읽기를 지시하고, 그 악곡의 재생을 개시하도록 한다(스텝(S78)). 그리고, 스텝(S63)으로 되돌아가고, 당해 스텝(S63) 이후의 처리를 반복한다.
스텝(S76)에서, 악곡의 끝까지 도달하지 않았다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 청취자에 의해 사용자 인터페이스(11)의 조작부에 설치되어 있는 다음 버튼이 눌려졌는지 아닌지 판별한다(스텝(S79)). 이 다음 버튼은, 청취자가 현재 듣고 있는 악곡이 아니고, 다음 악곡을 듣고 싶을 때에 눌려지는 버튼이다.
스텝(S79)에서, 다음 버튼이 눌려졌다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S78)으로 진행되고, 스텝(S67)에서 결정한 재생 악곡 후보 중에서, 다음에 재생하는 악곡의 음악 콘텐츠를 선택하고, 당해 음악 콘텐츠의 영상 음향 데이터의 읽기를 지시하고, 그 악곡의 재생을 개시하도록 한다. 그리고, 스텝(S63)으로 되돌아가고, 당해 스텝(S63) 이후의 처리를 반복한다.
또, 스텝(S79)에서 다음 버튼이 눌려지지 않았다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 사용자 인터페이스(11)의 조작부의 정지 버튼이 사용자에 의해 눌려졌는지 아닌지 판별하고(스텝(S80)), 정지 버튼이 눌려지지 않았다고 판별했을 때에는, 스텝(S76)으로 되돌아가고, 재생 악곡의 종료를 감시하고, 정지 버튼이 눌려졌다고 판별했을 때에는, 이 재생처리 루틴을 종료한다.
또, 스텝(S65)에서, 청취자가 재생중의 악곡에 기호를 나타내고 있다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 청취자의 기호도는 높은지 어떤지, 예를 들면 상술한 「흥이 남」수치 등을 이용하여 판정한다(도 23의 스텝(S71)).
그리고, 청취자의 기호도가 그만큼 높지 않는다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 이 실시형태에서는, 주변환경정보취득부(40)에서 취득한 주변환경정보를 가미하고, 현재 재생중의 악곡과 곡조가 비슷한 악곡을 다음의 재생 악곡 후보로 한다(스텝(S72)). 즉, 예를 들면, 먼저, 현재 재생중의 악곡에 부수하는 속성정보의 악곡구성정보와 비슷한 악곡구성정보를 속성정보로 하는 다른 악곡을 선정한다. 그리고, 주변환경정보취득부(40)에서 취득한 현재지의 정보, 예를 들면 산이나 바다 등의 정보를 취득하고, 그들 장소에 있어서 청취 하는 것이 추천되고 있는 주변환경정보를 속성정보에 포함하는 악곡을, 그 선정된 악곡 중에서 선택하고, 다음의 재생 악곡 후보로 한다.
또한, 스텝(S72)에 있어서는, 현재 재생중의 악곡과 곡조가 비슷한 악곡은 탐색하지 않고, 주변환경정보에만 근거하여, 다음의 재생 악곡 후보를 결정하도록 해도 좋다. 또, 당해 주변환경정보에 합치하는 주변환경정보를 갖추는 악곡뿐만 아니라, 그 악곡의 악곡구성정보와 비슷한 악곡을 구하고, 그들을 다음의 재생 악곡 후보로 하도록 해도 좋다.
다음으로, 스텝(S71)에서, 기호도가 높다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 현재 재생중의 악곡과 곡조가 비슷한 악곡을 다음의 재생 악곡 후보로 한다(스텝(S73)). 즉, 현재 재생중의 악곡에 부수하는 속성정보의 악곡구성정보와 비슷한 악곡구성정보를 속성정보로 하는 다른 악곡을 선정하고, 그들을 다음의 재생 악곡 후보로 한다.
또한, 영상 음향 데이터 선택 판단 제어부(201)는, 재생중 악곡의 속성정보로부터, 악곡 소재 단위의 단락 정보와 함께, 템포나, 키나, 코드 진행 등의 악곡 소재 단위의 악곡구성정보를 취득한다(스텝(S74)). 그리고, 이 악곡 소재 단위의 단락 정보나, 악곡 소재 단위의 악곡구성정보를 이용하고, 음악적으로 위화감 없도록, 악곡의 음향 데이터를 재구성한다(스텝(S75)). 또한, 이 스텝(S75)에서는, 영상 데이터에도, 효과를 걸거나 해도 좋다.
음향 데이터의 재구성은, 예를 들면 상술한 리믹스나, 효과 외, 템포를 빠르게 하거나, 늦게 하거나 또, 키를 올리거나, 내리거나 코드 진행을 바꾸어 보거나 하는 등의 처리를 포함하는 것이다.
예를 들면, 리믹스의 경우에는, 다른 악곡의 악곡구성정보 중에서, 당해 재생중 악곡의 악곡구성정보와 비슷한 것을 선정하고, 상기 악곡 소재 단위의 단락을 고려하여, 위화감 없도록 원래 악곡에 혼합하도록 한다. 이 리믹스할 때에, 어떠한 악곡 소재 단위의 곡 데이터를 믹스하는지를, 속성정보 중 상기 감성정보를 참조하도록 해도 좋다.
또, 기록 재생장치에, 미리 드럼에 의한 리듬의 조각이나, 퍼커션(percussion) 파트를 기억하여 준비해 두고, 그들을, 재생중 악곡에 악곡 소재 단위의 단락에 주의하면서 리믹스하도록 해도 좋다.
또, 영상 음향 데이터 선택 판단 제어부(201)는, 리믹스하는 다른 악곡을 선정하는 경우에, 주변환경정보를 참조하여, 당해 주변환경에 적합하는 악곡을, 그 속성정보의 주변환경정보를 참조함으로써 탐색하도록 할 수도 있다.
또, 재생중 악곡의 속성정보 중에, 추천 효과 파라미터가 포함되어 있는 경우에는, 그 효과의 파라미터를 이용하여, 악곡 소재 단위의 단락에 주의하고, 음악적으로 위화감이 없도록, 효과 처리를 행할 수도 있다.
스텝(S63)에서, 어레인지 모드로서 수동 모드가 설정되어 있다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 영상 음향 데이터 선택 판단 제어부(201)는, 청취자의 생체정보를, 생체정보취득부(30)에서 취득하는 동시에, 주변환경정보취득부(40)로부터 주변환경정보를 취득한다(스텝(S91)). 이 생체정보와 주변환경정보의 취득은, 재생 중은 계속하는 것이다.
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 생체정보취득부(30)에서 취득한 청취자의 생체정보로부터, 청취자는 청취중의 악곡에 대하여 기호를 나타내고 있는지 어떤지 판별하고(스텝(S92)), 기호를 나타내고 있지 않는다고 판별했을 때에는, 도 22의 스텝(S66)으로 점프하고, 상술한 이 스텝(S66) 이후의 처리를 실행한다.
스텝(S92)에서, 청취자는 기호를 나타내고 있다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 사용자로부터의 사용자 인터페이스(11)를 통한 어레인지 지시가 있었는지 없었는지 판별한다(스텝(S93)). 이 스텝(S93)에서, 어레인지 지시가 있었다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 속성정보기억부(22)에서 지시받은 어레인지용 정보, 기타 필요한 정보를 읽어내고, 사용자 지시에 따른 어레인지를 행하도록, 악곡 데이터의 재구성을 행한다(스텝(S94)).
이 악곡 데이터의 재구성에 의해, 재생중 악곡의 곡조가 바뀌기 때문에, 영상 음향 데이터 선택 판단 제어부(201)는, 생체정보취득부(30)에서 취득한 청취자의 생체정보로부터, 청취자가 청취중의 악곡에 대하여 기호도를 나타내고 있는지 어떤지를 판별한다(스텝(S95)).
스텝(S93)에서, 어레인지 지시가 없었다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S94)을 바이패스하고, 스텝(S95)으로 진행되며, 청취자가 청취중의 악곡에 대하여 기호도를 나타내고 있는지 어떤지 판별한다.
스텝(S95)에서, 사용자의 기호도가 그만큼 높지 않는다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 이 실시형태에서는, 주변환경정보취득부(40)에서 취득한 주변환경정보를 가미하고, 현재 재생중의 악곡과 곡조가 비슷한 악곡을 다음의 재생 악곡 후보로 한다(스텝(S96)).
즉, 예를 들면, 먼저, 현재 재생중의 악곡에 부수하는 속성정보의 악곡구성정보와 비슷한 악곡구성정보를 속성정보로 하는 다른 악곡을 선정한다. 그리고, 주변환경정보취득부(40)에서 취득한 현재지의 정보, 예를 들면 산이나 바다 등의 정보를 취득하고, 그러한 장소에서 청취하는 것이 추천되어 있는 주변환경정보를 속성정보로 포함하는 악곡을, 그 선정된 악곡 중에서 선택하고, 다음의 재생 악곡 후보로 한다.
또한, 스텝(S96)에 있어서는, 현재 재생중의 악곡과 곡조가 비슷한 악곡은 탐색하지 않고, 주변환경정보에만 근거하여, 다음의 재생 악곡 후보를 결정하도록 해도 좋다. 또, 당해 주변환경정보에 합치하는 주변환경정보를 갖추는 악곡뿐만 아니라, 그 악곡의 악곡구성정보와 비슷한 악곡을 요구하고, 그들을 다음의 재생 악곡 후보로 하도록 해도 좋다.
다음으로, 스텝(S95)에서, 사용자의 기호도가 높다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 현재 재생중의 악곡과 곡조가 비슷한 악곡을 다음의 재생 악곡 후보로 한다(스텝(S97)). 즉, 현재 재생중의 악곡에 부수하는 속성정보의 악곡구성정보와 비슷한 악곡구성정보를 속성정보로 하는 다른 악곡을 선정하고, 그들을 다음의 재생 악곡 후보로 한다.
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S96) 및 스 텝(S97)의 후에는, 스텝(S98)으로 진행되며, 재생중의 악곡이 끝까지 재생되었는지를 감시하고, 악곡이 끝까지 재생되었다고 판별했을 때에는, 당해 재생한 악곡(음악 콘텐츠)에 대하여 재생 이력을, 재생 이력 정보 보관 유지부(15)에 있어서 갱신 하는 동시에, 당해 음악 콘텐츠의 속성정보의 재생 이력 정보도 갱신한다(스텝(S99)).
그리고, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S96) 또는 스텝(S97)에서 결정한 재생 악곡 후보 중에서, 다음으로 재생하는 악곡의 음악 콘텐츠를 선택하고, 당해 음악 콘텐츠의 영상 음향 데이터의 읽기를 지시하고, 그 악곡의 재생을 개시하도록 한다(스텝(S100)). 그리고, 도 22의 스텝(S63)으로 되돌아가고, 당해 스텝(S63) 이후의 처리를 반복한다.
스텝(S98)에서, 악곡의 끝까지 도달하지 않았다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 청취자에 의해 사용자 인터페이스(11)의 조작부에 설치되어 있는 다음 버튼이 눌려졌는지 아닌지 판별한다(스텝(S101)). 이 다음 버튼은, 청취자가 현재 듣고 있는 악곡이 아니고, 다음 악곡을 듣고 싶을 때에 눌려지는 버튼이다.
스텝(S101)에서, 다음 버튼이 눌려졌다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S100)으로 진행되고, 스텝(S96) 또는 스텝(S97)에서 결정한 재생 악곡 후보 중에서, 다음에 재생하는 악곡의 음악 콘텐츠를 선택하고, 당해 음악 콘텐츠의 영상 음향 데이터의 읽기를 지시하고, 그 악곡의 재생을 개시하도록 한다. 그리고, 스텝(S63)으로 되돌아가고, 당해 스텝(S63) 이후의 처 리를 반복한다.
또, 스텝(S101)에서 다음 버튼이 눌려지지 않았다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 사용자 인터페이스(11)의 조작부를 통하여, 사용자에 의해 어레인지 지시가 이루어지지 않았는지 어떤지의 판별을 행하고, 어레인지 지시가 이루어졌다고 판별했을 때에는, 스텝(S94)으로 되돌아가고, 이 스텝(S94) 이후의 처리를 반복한다.
또, 스텝(S102)에서, 어레인지 지시가 이루어지지 않았다고 판별했을 때에는, 영상 음향 데이터 선택 판단 제어부(201)는, 사용자 인터페이스(11)의 조작부의 정지 버튼이 사용자에 의해 눌려졌는지 아닌지 판별하고(스텝(S103)), 정지 버튼이 눌려지지 않았다고 판별했을 때에는, 스텝(S98)으로 되돌아가고, 재생 악곡의 종료를 감시하고, 정지 버튼이 눌려졌다고 판별했을 때에는, 이 재생처리 루틴을 종료한다.
또한, 상술의 예에서는, 청취자가 재생중의 악곡에 기호를 나타내지 않을 때에는, 스텝(S66)에서 재생 이력 정보를 취득하고, 스텝(S67)에서 당해 재생 이력 정보에 근거하여, 다음의 재생 악곡 후보를 정하도록 했지만, 스텝(S66)에서, 주변환경정보취득부(40)를 통하여 취득한 주변환경정보를 해석하고 예를 들면 산이라든지 바다라든지의 장소를 산출하고, 스텝(S67)에서, 속성정보로서 당해 주변환경정보에 합치하는 주변환경정보를 갖추는 악곡을 다음의 재생 악곡 후보로서 정하도록 해도 좋다. 또, 당해 주변환경정보에 합치하는 주변환경정보를 갖추는 악곡뿐만 아니라, 그 악곡의 악곡구성정보와 비슷한 악곡을 구하고, 그들을 다음의 재생 악 곡 후보로 하도록 해도 좋다.
또한, 영상 음향 데이터 선택 판단 제어부(201)는, 스텝(S67)에서, 재생 이력 정보와, 주변환경정보와의 양쪽 모두를 이용하여, 다음의 재생 악곡 후보를 결정하도록 할 수도 있다.
도 25는, 리듬 마스터부(210)에서의 동기신호 및 악곡 재구성용 데이터의 생성 출력 처리의 일례의 플로차트이다.
먼저, 영상 음향 데이터 선택 판단 제어 RM부(201M)는, 속성정보취득부(203)를 통하여 음악 콘텐츠 기억부(20)의 속성정보기억부(22)로부터 재생 대상의 음악 콘텐츠의 속성정보를 취득하고(스텝(S111)), 당해 취득한 속성정보중에서, BPM값, 키값 및 코드값을 추출한다(스텝(S112)).
다음으로, 추출한 BPM값에 근거하여, 소절 동기신호(PHSY) 및 비트 동기신호(BTSY)로 이루어지는 동기신호(SYNC)를 생성한다(스텝(S113)). 또, 추출한 BPM값, 키값 및 코드값을, BPM값 설정부, 키값 설정부 및 코드값 설정부에 설정한다(스텝(S114)).
그리고, 스텝(S113)에서 생성한 동기신호(SYNC)와 스텝(S114)에 설정한 BPM값, 키값 및 코드값으로 이루어지는 악곡 재구성용 데이터(ARI)를, 리듬 슬레이브부(220)에 송출한다(스텝(S115)).
그리고, 재생이 종료인지 아닌지 판별하고(스텝(S116)), 재생이 종료이면 이 도 25의 처리 루틴을 종료한다. 또, 재생이 종료가 아니면, 재생중의 악곡이 끝까지 재생되어 종료가 되는지 아닌지 판별하고(스텝(S117)), 악곡은 아직 종료가 아 니다고 판별했을 때에는, 스텝(S113)으로 되돌아가고, 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)를 리듬 슬레이브부(220)에 송출을 계속한다.
또, 스텝(S117)에서, 악곡은 종료했다고 판별했을 때에는, 선택되어 있는 다음 악곡의 재생 준비를 하고(스텝(S118)), 스텝(S111)으로 되돌아가고, 이상의 처리를 반복한다.
또한, 이 경우, 상술한 바와 같이, 예를 들면, 속성정보 중에 기술되어 있는, 악곡 소재 단위로서의 예를 들면 소절 단락의 타임 코드정보와, 실제 영상 음향 데이터 소절 단락의 타임 코드가 정확하게 일치하고 있도록 구성되어 있고, 음악 콘텐츠의 영상 음향 데이터와 속성정보는, 제대로 대응하고 있도록 되어 있다. 따라서, 리듬 마스터부(210)에서 리듬 슬레이브부(220)로 공급되는 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)는, 리듬 슬레이브부(220)에 영상 음향 데이터 취득부(204)를 통하여 입력되는 영상 음향 데이터의 재생 신호 스트림과, 완전히 동기하고 있는 것이다.
다음으로, 도 26은, 리듬 슬레이브부(220)에서의 악곡 재구성 처리의 일례의 플로차트이다. 또한, 여기에서는, 악곡 재구성 처리는, 리믹스 처리만을 예로서 설명하지만, 특수 효과 처리를 할 수도 있는 것은 상술한 대로이다.
먼저, 영상 음향 데이터 선택 판단 제어 RS부(201S)는, 속성정보취득부(203)를 통하여 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에서, 재생 대상의 악곡 뿐만 아니라, 복수 개의 음악 콘텐츠의 속성정보를 취득하고(스텝(S121)), 당해 취득한 속성정보에 근거하여, 재생 대상의 악곡에 리믹스하는 악곡 소재를 검출한다 (스텝(S122)).
여기서, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에서, 모든 음악 콘텐츠의 속성정보를 읽어내어 취득하도록 해도 좋지만, 음악 콘텐츠 기억부(20)에 기억되어 있는 음악 콘텐츠의 수가 대량으로 되면, 재생 대상의 악곡에 리믹스하는 악곡 소재의 검출의 부하가 과대하게 되어 버린다. 그래서, 이 예에서는, 한 번에 모든 속성정보를 음악 콘텐츠 기억부(20)의 속성정보기억부(22)로부터 읽어내지 않고, 여러 차례로 나누어 읽어내고, 각 회에 있어서 재생 대상의 악곡에 리믹스하는 악곡 소재의 검출을 하도록 한다.
여러 차례로 나누어, 속성정보를 음악 콘텐츠 기억부(20)의 속성정보기억부(22)로부터 읽어내므로, 리믹스하는 악곡 소재의 검출처리는, 재생 대상의 악곡 재생이 개시된 후에도 행해지게 되지만, 악곡의 재생 개시와 동시에 리믹스하는 것은 별로 없는 것을 고려하면, 재생 대상의 악곡에 리믹스하는 악곡 소재의 검출 처리로서는, 시간이 충분하다.
다음으로, 영상 음향 데이터 선택 판단 제어 RS부(201S)에서의 선택 지시에 따라서 디코드부(202) 및 영상 음향 데이터 취득부(204)를 통하여, 재생 대상의 영상 음향 데이터를 취득하고 재생을 개시한다(스텝(S123)). 이 재생은, 리듬 마스터부(210)에서의 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)에 동기하여 이루어지는 것은 상술한 대로이다.
다음으로, 영상 음향 데이터 선택 판단 제어 RS부(201S)는, 재생중의 악곡에 리믹스 처리를 실시하는지 아닌지를 판별하고(스텝(S124)), 리믹스 처리를 하지 않 는다고 판별했을 때에는, 재생 대상의 악곡 데이터를 영상 음향 데이터 디코드부(205) 및 영상 음향 어레인지 처리부(206)를 통하여 음향 출력부(53) 및 영상 출력부(56)에 송출한다(스텝(S125)).
또, 스텝(S124)에서, 리믹스 처리를 한다고 판별했을 때에는, 스텝(S122)에서 검출한 리믹스하는 악곡 소재의 템포와 음정을, 상술한 바와 같이, 리듬 마스터부(210)에서의 악곡 재구성용 데이터(ARI)에 근거하여, 필요에 따라서 보정하면서, 재생 대상의 악곡 데이터에 리믹스한다(스텝(S126)). 그리고, 리믹스 처리한 악곡 데이터를 출력한다(스텝(S127)).
그리고, 재생이 종료인지 아닌지 판별하고(스텝(S128)), 재생이 종료이면 이 도 26의 처리 루틴을 종료한다. 또, 재생이 종료가 아니면, 재생중의 악곡이 끝까지 재생되어 종료로 되었는지 아닌지 판별하고(스텝(S129)), 악곡은 아직 종료가 아니다고 판별했을 때에는, 스텝(S124)으로 되돌아가고, 이 스텝(S124) 이후의 처리를 반복한다.
또, 스텝(S129)에서, 악곡은 종료했다고 판별했을 때에는, 선택되어 있는 다음 악곡의 재생 준비를 하고(스텝(S130)), 스텝(S121)으로 되돌아가, 이상의 처리를 반복한다.
[제 2의 실시형태]
상술의 제 1의 실시형태에서는, 리듬 마스터부(210)는, 재생 대상의 음악 콘텐츠의 속성정보에서 추출한 BPM값, 키값, 코드값에 근거하여, 재생 대상의 악곡에 대한 재구성 처리로서 리믹스 처리를 하는 경우를 주로 설명했다. 이 때문에, 재 생 대상의 악곡의 템포나 음정을 변경하는 것의 설명은 특별히 행하지 않았지만, 청취자의 기분이나, 악곡을 청취하고 있는 장소 등의 주변환경이나, 어레인지용 정보 등을 고려하고, 재생 대상의 악곡에 대하여, 템포나 음정을 변경 보정하여, 악곡의 재구성 처리를 할 수도 있다.
또, 경우에 따라서는, 청취자가 템포나 음정의 변경 지시를 하는 경우도 고려된다. 또, 재생 대상의 악곡을, 기록 재생장치가 놓여져 있는 장소에서 연주되고 있는 드럼이나 피아노 등에 동기 시켜 재생시키고 싶다고 하는 요구나, 기록 재생장치에 외부로부터 입력되는 악곡에 동기 시켜 재생시키고 싶다고 하는 요구도 있다.
이 제 2의 실시형태는, 이러한 요구를 실현할 수 있도록 한 기록 재생장치를 제공하는 것이다.
도 27은, 이 제 2의 실시형태의 경우에 있어서의 기록 재생장치의 블럭도에서, 도 1의 제 1의 실시형태의 경우에 있어서의 기록 재생장치에 있어서, 시스템 버스(2)에 대하여, 라인 입력 인터페이스(17)와, 마이크 입력 인터페이스(18)가 추가 접속되어 있는 구성으로 되어 있고, 하드웨어적으로는, 그 외의 구성은, 제 1의 실시형태와 완전히 동일하다.
그리고, 라인 입력 인터페이스(17)에는, 외부 입력단자(8)가 접속되어 있다. 라인 입력 인터페이스(17)는, 이 외부 입력 단자(라인 입력 단자)(8)를 통하여 입력된 영상 음향 데이터를 시스템 버스(2)에 송출한다.
이 제 2의 실시형태에서는, 외부 입력단자(8)를 통하여 입력된 영상 음향 데 이터는, 사용자 인터페이스(11)를 통한 사용자 지시 조작에 따라, 인코드/디코드부(12)에서 기록 인코드 되며, 음악 콘텐츠 기억부(20)의 영상 음향 데이터 기억부(21)에 격납된다.
또, 외부 입력단자(8)를 통하여 입력된 영상 음향 데이터가 곡조 분석부(13)에서 분석되며, 그 결과 얻어진 악곡구성정보가 인코드/디코드부(12)에 의해 기록 인코드 되며, 음악 콘텐츠 기억부(20)의 속성정보기억부(22)에 격납된다. 이 경우, 음악 콘텐츠 기억부(20)에 격납되는 속성정보와, 대응하는 영상 음향 데이터는, 그 식별정보에 의해 대응 지어지는 것은 상술한 대로이다.
그리고, 이 제 2의 실시형태에서는, 후술하는 바와 같이, 이 외부 입력단자(8)를 통하여 입력된 영상 음향 데이터의 템포에 동기하고, 재생 대상의 악곡 데이터의 재생이 가능하게 되도록 구성되어 있다. 즉, 외부 입력단자(8)를 통하여 입력된 영상 음향 데이터가 곡조 분석부(13)에서 분석되며, 그 분석 결과의 하나인 BPM값에 근거하여, 상술한 동기신호(SYNC)가 생성되는 것이다.
마이크 입력 인터페이스(18)에는, 수음 수단으로서의 마이크로폰(9)이 접속되어 있고, 이 마이크로폰(9)에 수음 되어 얻어지는 음성신호가, 이 마이크 입력 인터페이스(18)에서 디지털신호로 변환되어, 시스템 버스(2)에 송출된다.
그리고, 이 제 2의 실시형태에서는, 후술하는 바와 같이, 마이크로폰(9)에 수음 되고, 마이크 입력 인터페이스(18)를 통하여 입력된 음향 데이터의 템포에 동기하고, 재생 대상의 악곡 데이터의 재생이 가능하게 되도록 구성되어 있다.
예를 들면, 기록 재생장치의 근방에서 연주되고 있는 드럼, 피아노, 악곡이 마이크로폰(9)에서 수음 되며, 곡조 분석부(13)에서 분석되어, BPM값이 검출되며 검출된 BPM값에 근거하여, 상술한 동기신호(SYNC)가 생성된다.
도 28은, 상술의 제 1의 실시형태의 도 13의 재생부에 대응하는 제 2의 실시형태의 재생부(200)를 나타내는 것이다. 영상 음향 데이터 선택 판단 제어부(201)에 대하여, 라인 입력 인터페이스(17)가 접속되는 동시에, 마이크 입력 인터페이스(18)가 접속되어 있는 점이 다른 동시에, 영상 음향 데이터 선택 판단 제어부(201)에 있어서의 소프트웨어 처리가 제 1의 실시형태의 경우와는 다르다. 그 외는, 제 1의 실시형태와 같다.
도 29는, 도 28의 재생부(200)를, 악곡의 재구성 처리의 관점에서 본 기능 블럭도의 구성을 나타내는 것으로, 실질상의 구성 내용은, 도 28과 변화는 없다.
이 도 29에 나타내는 바와 같이, 재생부(200)는, 악곡 데이터의 재구성의 기준으로 되는 동기신호와 악곡 재구성용 정보를 생성하여 출력하는 리듬 마스터부(210)와, 이 리듬 마스터부(210)에서의 동기신호와 악곡 재구성용 정보를 받고, 악곡 데이터의 재구성을 실행하는 리듬 슬레이브부(220)로 이루어진다.
영상 음향 데이터 선택 판단 제어부(201)는, 제 1의 실시형태와 동일하게, 리듬 마스터부(210)에 속하는 RM부(201M)와, 리듬 슬레이브부(220)에 속하는 RS부(201S)로 나누어진다. 그리고, 이 제 2의 실시형태에서는, 속성정보취득부(203)뿐만 아니라, 생체정보취득부(30)와 주변환경정보취득부(40)와 재생 이력 정보 보관 유지부(15)가, 리듬 마스터부(210)와, 리듬 슬레이브부(220)의 양쪽 모두에 속하는 것으로 된다.
즉, 이 제 2의 실시형태에 있어서의 리듬 마스터부(210)는, RM부(201M)와, 속성정보취득부(203)와, 생체정보취득부(30)와, 주변환경정보취득부(40)와, 재생 이력 정보 보관 유지부(15)를 갖추어 구성된다.
한편, 이 제 2의 실시형태에 있어서의 리듬 슬레이브부(220)는, 제 1의 실시형태와 동일하게, RS부(201S)와, 속성정보취득부(203)와, 생체정보취득부(30)와, 주변환경정보취득부(40)와, 재생 이력 정보 보관 유지부(15)와, 영상 음향 데이터 취득부(204)와, 영상 음향 데이터 디코드부(205)와, 영상 음향 어레인지 처리부(206)를 갖추어 구성된다. 즉, 리듬 슬레이브부는, 제 1의 실시형태와 거의 같은 구성으로 된다.
그리고, 리듬 마스터부(210)의 RM부(201M)는, 속성정보취득부(203)에서의 속성정보에만 근거하여 악곡의 재구성의 기준으로 되는 동기신호(SYNC)를 생성하는 것은 아니다. 이 제 2의 실시형태에서는, 리듬 마스터부(210)는, 사용자 인터페이스(11)를 통한 사용자 입력, 라인 입력 인터페이스(17)를 통하여 외부로부터 입력되는 영상 음향 데이터, 마이크 입력 인터페이스(18)를 통하여 입력되는 외부수음 음성 데이터, 생체정보취득부(30)에서 취득된 청취자의 생체정보, 주변환경정보취득부(40)에서 취득된 주변환경정보, 재생 이력 정보 보관 유지부(15)로부터 읽어 내어지는 재생 이력 정보에 근거하여, 악곡의 재구성의 기준으로 되는 동기신호(SYNC)를 생성하도록 한다.
또, 이 제 2의 실시형태에서는, 리듬 마스터부(210)는, 동기신호(SYNC)뿐만 아니라, 악곡 구성용 데이터(ARI)도, 사용자 인터페이스(11)를 통한 사용자 입력, 라인 입력 인터페이스(17)를 통하여 외부로부터 입력되는 영상 음향 데이터, 마이크 입력 인터페이스(18)를 통하여 입력되는 외부수음 음성 데이터, 생체정보취득부(30)에서 취득된 청취자의 생체정보, 주변환경정보취득부(40)에서 취득된 주변환경정보, 재생 이력 정보 보관 유지부(15)로부터 읽어내어 지는 재생 이력 정보에 근거하여, 생성하는 것이 가능하게 되어 있다.
도 30은, 이 제 2의 실시형태에 있어서의 리듬 마스터부(210)의 상세 구성예를 나타내는 도면이며, 특히 RM부(201M)의 기능의 상세를 블록화한 것이다. 이 제 2의 실시형태에서는, RM부(201M)는, 제 1의 실시형태의 동기신호 생성부(212)에 대신하여 동기신호 생성부(230)를 갖추는 동시에, 제 1의 실시형태의 속성정보 해석부(211)에 대신하여, 재생 형태 설정부(240)를 갖춘다.
그리고, 재생 형태 설정부(240)에는, 속성정보취득부(203)뿐만 아니라, 생체정보취득부(30), 주변환경정보취득부(40), 재생 이력 정보 보관 유지부(15), 라인 입력 인터페이스(17), 마이크 입력 인터페이스(18) 및 사용자 인터페이스(11)의 출력이 공급된다. 그 외는, 제 1의 실시형태의 리듬 마스터부(210)와 동일하게 구성된다.
동기신호 생성부(230)는, 내부 리듬 동기 발생부(231)와, 외부 리듬 동기 발생부(232)와, 생체 리듬 동기 발생부(233)와, 이들 3종의 리듬 동기 발생부(231, 232, 233)로부터의 출력 동기신호의 어느 것을 선택하는 선택 스위치 회로(234)를 갖추어 구성된다.
내부 리듬 동기 발생부(231)는, 예를 들면 PLL회로를 갖추고, 제 1의 실시형 태와 동일하게, 재생 대상의 음악 콘텐츠의 속성정보에서 추출된 BPM값에 근거하여 동기신호(SYNC)를 생성하든지, 혹은, 사용자 인터페이스(11)를 통하여 사용자에 의해 설정된 BPM값에 근거하여 동기신호(SYNC)를 생성한다.
외부 리듬 동기 발생부(232)는, 예를 들면 PLL회로를 갖추고, 라인 입력 인터페이스(17)를 통하여 입력된 외부입력신호로부터 추출된 BPM값이나, 마이크 입력 인터페이스(18)를 통하여 입력된 외부수음 음성신호로부터 추출된 BPM값에 근거하여, 외부로부터 입력되는 음악 리듬에 동기 하도록 동기신호(SYNC)를 생성한다.
생체 리듬 동기 발생부(233)는, 예를 들면 PLL회로를 갖추고, 생체정보취득부(30)에서 취득한 사용자의 맥파나 보행 템포나 보행 속도, 팔이나 손을 흔드는 템포나 속도 등의 생체정보로부터, 당해 생체정보로 동기 하는 동기신호(SYNC)를 생성한다. 또한, PLL회로는, 3개의 동기 발생부(231, 232, 233)에서, 1개의 PLL회로를 공통으로 이용할 수 있다.
재생 형태 설정부(240)는, 이 제 2의 실시형태에서는, 사용자 인터페이스(11)를 통한 사용자의 동기선택입력에 의해, 동기신호(SYNC)의 발생을, 내부 리듬 동기, 외부 리듬 동기, 생체 리듬 동기의 어느 것으로 하는지를 결정하고, 동기신호 생성부(230)의 선택 스위치 회로(234)의 선택 제어신호를 생성한다.
[내부 리듬 동기]
(재생 대상 음악 콘텐츠에 동기)
내부 리듬 동기의 경우에는, 재생 대상의 음악 콘텐츠의 속성정보로 동기 시키는지, 사용자 인터페이스(11)를 통하여 사용자 설정된 BPM값으로 동기 시키는지 가, 또한 선택된다. 동일하게, 외부 리듬 동기의 경우에는, 외부 입력단자(8)를 통한 외부입력신호 또는 마이크로폰(9)에 수음 된 외부 음성의 어느 것으로 시키는지가, 또한, 선택된다.
그리고, 내부 리듬 동기의 재생 대상의 음악 콘텐츠의 속성정보 동기가 선택되었을 때에는, 재생 형태 설정부(240)는, 선택 스위치 회로(234)는, 내부 리듬 동기 발생부(231)의 출력을 선택하는 상태로 전환하는 동시에, 속성정보취득부(203)를 통하여 재생 대상의 음악 콘텐츠의 속성정보를 취득하고, 그 속성정보로부터 BPM값을 추출하여 동기신호 생성부(230)의 내부 리듬 동기 발생부(231)에 공급한다. 내부 리듬 동기 발생부(231)는, 이것에 공급된 BPM값에 상당하는 발진 주파수로 발진하고, 또한, 재생 대상의 음악 콘텐츠의 음악 리듬으로 위상동기 하는 동기신호(SYNC)를 생성한다.
따라서, 동기신호 생성부(230)에서는, 재생 대상의 음악 콘텐츠의 속성정보 중 BPM값에 근거하여 생성된 동기신호(SYNC)가 동기신호 출력회로(213)를 통하여 리듬 슬레이브부(220)에 출력된다.
또, 이때, 재생 형태 설정부(240)는, 속성정보취득부(203)를 통하여 취득한 재생 대상의 음악 콘텐츠의 속성정보로부터, 키값과 코드값을 추출하여, 상기 추출한 BPM값과 함께, 악곡 재구성용 데이터 설정부(214)에 공급한다. 악곡 재구성용 데이터 설정부(214)는, 그들 BPM값, 키값, 코드값을 각각의 설정부(217, 218, 219)에 설정한다.
따라서, 재생 대상의 음악 콘텐츠의 속성정보 중 BPM값, 키값, 코드값을 포 함하는 악곡 재구성용 데이터(ARI)가, 동기신호(SYNC)에 동기하고, 리듬 슬레이브부(220)에 출력된다. 이 결과, 리듬 슬레이브부(220)에서는, 제 1의 실시형태와 동일하게 하고, 재생 대상의 음악 콘텐츠의 속성정보에 근거하여 악곡에 대한 재구성이 이루어진다.
(사용자 입력에 동기)
또, 내부 리듬 동기의 사용자 입력 설정 동기가 선택되었을 때에는, 재생 형태 설정부(240)는, 선택 스위치 회로(234)를, 내부 리듬 동기 발생부(231)의 출력을 선택하는 상태로 전환하는 동시에, 사용자 인터페이스(11)를 통하여 BPM값의 입력을 받아들여 당해 받아들인 BPM 설정치를, 동기신호 생성부(230)의 내부 리듬 동기 발생부(231)에 공급한다. 내부 리듬 동기 발생부(231)는, 이것에 공급된 BPM값에 상당하는 발진 주파수로 발진하는 동기신호(SYNC)를 생성한다.
따라서, 동기신호 생성부(230)에서는, 사용자에 의해 지정된 BPM값에 근거하여 생성된 동기신호(SYNC)가 동기신호 출력회로(213)를 통하여 리듬 슬레이브부(220)에 출력된다. 이것에 의해, 동기신호 생성부(230)에서는, 사용자가 설정한 BPM값에 근거하여 생성된 동기신호(SYNC)가 동기신호 출력회로(213)를 통하여 리듬 슬레이브부(220)에 공급된다.
또, 이때, 재생 형태 설정부(240)는, 사용자 인터페이스(11)를 통하여, BPM값 외, 키값 및 코드값(코드 진행)의 입력을 받아들여 당해 받아들인 BPM값, 키값, 코드값을 악곡 재구성용 데이터 설정부(214)에 공급한다. 이 경우, 키값이나 코드값은, 시계열적으로 변화하는 모양도 사용자에 의해 입력되게 된다. 악곡 재구성 용 데이터 설정부(214)는, 그들 BPM값, 키값, 코드값을 각각의 설정부(217, 218, 219)에 설정한다.
따라서, 사용자의 설정치에 따른 BPM값, 키값, 코드값을 포함하는 악곡 재구성용 데이터(ARI)가, 동기신호(SYNC)에 동기하고, 리듬 슬레이브부(220)에 출력된다. 이 결과, 리듬 슬레이브부(220)에서, 사용자가 설정한 템포나 곡조에서 악곡의 음향 재생 출력을 할 수 있다.
[외부 리듬 동기]
또, 외부 리듬 동기가 선택되었을 때에는, 재생 형태 설정부(240)는, 선택 스위치 회로(234)를, 외부 리듬 동기 발생부(232)의 출력을 선택하는 상태로 전환하는 동시에, 사용자 선택에 따라서, 라인 입력 인터페이스(17)를 통하여, 혹은 마이크 입력 인터페이스(18)를 통하여 받아들여진 음향 데이터를, 곡조 분석부(13)에서 분석하고, 그 분석 결과로서 얻어지는 BPM값을 외부 리듬 동기 발생부(232)에 공급한다. 외부 리듬 동기 발생부(232)는, 이것에 공급된 BPM값에 상당하는 발진 주파수로 발진하고, 또한, 외부로부터 입력되는 음악 리듬에 위상동기 하는 동기신호(SYNC)를 생성한다.
이것에 의해, 동기신호 생성부(230)에서는, 외부입력신호 또는 마이크 입력신호로부터 검출된 BPM값에 근거하여 생성된 동기신호(SYNC)가 동기신호 출력회로(213)를 통하여 리듬 슬레이브부(220)에 출력된다.
재생 형태 설정부(240)는, 또, 속성정보취득부(203)를 통하여 취득한 재생 대상의 음악 콘텐츠의 속성정보로부터, 키값과 코드값을 추출하여, 상기 추출한 BPM값과 함께, 악곡 재구성용 데이터 설정부(214)에 공급한다. 악곡 재구성용 데이터 설정부(214)는, 그들 BPM값, 키값, 코드값을 각각의 설정부(217, 218, 219)에 설정한다.
따라서, 외부입력신호 또는 마이크 입력신호로부터 검출된 BPM값, 키값, 코드값을 포함하는 악곡 재구성용 데이터(ARI)가, 동기신호(SYNC)에 동기하고, 리듬 슬레이브부(220)에 출력된다.
이것에 의해, 이 외부 리듬 동기 상태에 있어서는, 리듬 슬레이브부(220)로부터, 외부로부터 받아들여진 악곡에 동기 하여 설정된 템포로 악곡의 음향 재생 출력을 할 수 있다.
[생체 리듬 동기]
또, 생체 리듬 동기가 선택되었을 때에는, 재생 형태 설정부(240)는, 선택 스위치 회로(234)를, 생체 리듬 동기 발생부(233)의 출력을 선택하는 상태로 전환하는 동시에, 생체정보취득부(30)를 통하여 취득한 생체정보로부터 템포나 리듬에 관한 성분을 추출하고, 추출한 성분으로부터 BPM값에 대응하는 정보를 생성하고, 당해 생성한 BPM값을, 동기신호 생성부(230)의 생체 리듬 동기 발생부(231)에 공급한다.
이것에 의해, 동기신호 생성부(230)에 있어서는, 사용자의 생체 리듬에 상당하는 발진 주파수로 발진하고, 한편, 생체 리듬에 위상동기 된 동기신호(SYNC)가 생성되며, 당해 생성된 동기신호(SYNC)가 동기신호 출력회로(213)를 통하여 리듬 슬레이브부(220)에 공급된다. 따라서, 리듬 슬레이브부(220)에서, 사용자의 생체 리듬에 동기 한 템포로 악곡의 음향 재생 출력을 할 수 있다.
또한, 이 생체 리듬 동기가 선택되었을 때에 있어서는, 단순하게, 생체정보취득부(30)를 통하여 취득한 생체정보에만 근거하여 동기신호(SYNC)를 생성하는 것이 아니라, 주변환경정보취득부(40)에서의 주변환경정보도 참조하여, 동기신호(SYNC)를 생성할 수도 있다.
예를 들면, 주변환경정보로부터, 기록 재생장치가 존재하는 위치가 「바다」에서, 기온이 높고, 기후가 비는 아니다고 판별했을 때에는, 생체정보로 동기하여, 업 템포로 되도록 동기신호(SYNC)를 생성하고, 또, 기록 재생장치가 존재하는 위치가 「산」일 때는, 생체정보에 동기하고, 슬로우 템포로 되는 동기신호(SYNC)를 생성하도록 할 수 있다.
또, 재생 이력 정보 보관 유지부(15)의 재생 이력 정보로서, 각 악곡에 대응하고, 당해 악곡을 시청중의 청취자의 맥 등의 생체정보를 기억하여 보관 유지해 두고, 생체정보취득부(30)에서 취득하고 생체정보로 근사하는 생체정보로 되어 있는 악곡을, 재생 이력 정보 보관 유지부(15)로부터 검색하고, 그 악곡의 속성정보로부터 BPM값을 요구하고, 동기신호(SYNC)를 생성하도록 해도 좋다. 그 경우에는, 동기신호(SYNC)는, 생체정보취득부(30)에서 취득한 생체정보로 동기 시켜도 좋고, 또, 동기 시키지 않아도 좋다.
또, 이때, 재생 형태 설정부(240)는, 이 실시형태에서는, 생체정보취득부(30)에서의 생체정보 및/또는 주변환경정보취득부(40)에서의 주변환경정보를 검색자로서 재생 이력 정보 보관 유지부(15)에 보관 유지되어 있는 재생 이력 정보를 검색하고, 검색 결과의 악곡의 속성정보로부터 BPM값, 키값, 코드값을 생성하고, 그들을 악곡 재구성용 데이터 설정부(214)에 건네준다. 악곡 재구성용 데이터 설정부(214)는, 그들 BPM값, 키값, 코드값을 각각의 설정부(217, 218, 219)에 설정한다.
예를 들면, 생체정보로부터 청취자는 기분이 고양하고 있는 것이 판정되었을 경우에, 당해 기분이 고양하고 있을 때 언제나 듣고 있는 악곡을 재생 이력으로부터 검출하고, 그 악곡의 BPM값에 근거하여 동기신호(SYNC)를 생성하고, 그 악곡의 BPM값, 키값, 코드 진행을 악곡 재구성용 데이터(ARI)로서 생성하고, 리듬 마스터부(210)에서 리듬 슬레이브부(220)에 공급할 수 있다. 이것에 의해, 청취자는, 기분이 고양하고 있을 때 언제나 듣고 있는 악곡에 근사하는 템포나 곡조로 악곡을 재생하는 것이 가능하게 된다.
또, 주변환경정보로부터, 바다 또는 산 등의 장소를 특정할 수 있거나 비, 맑음 등의 기후를 특정할 수 있는 경우에, 재생 이력 정보에 포함되는 그들의 주변환경정보를 참조하고, 당해 장소나 환경조건에 있어서, 자주 듣고 있는 악곡을 재생 이력으로부터 검출하고, 그 악곡의 BPM값에 근거하여 동기신호(SYNC)를 생성하고, 그 악곡의 BPM값, 키값, 코드 진행을 악곡 재구성용 데이터(ARI)로서 생성하고, 리듬 마스터부(210)에서 리듬 슬레이브부(220)에 공급할 수 있다. 이것에 의해, 청취자는, 동일한 주변환경조건에 있어서, 언제나 듣고 있는 악곡에 근사하는 템포나 곡조로 악곡을 재생하는 것이 가능하게 된다.
따라서, 생체정보 및/또는 주변환경정보, 또한, 재생 이력 정보에 근거하여 선정된 악곡의 속성정보 중 BPM값, 키값, 코드값을 포함하는 악곡 재구성용 데이터(ARI)가, 동기신호(SYNC)에 동기하고, 리듬 슬레이브부(220)에 출력된다. 이 결과, 리듬 슬레이브(220)에서는, 그때의 사용자의 기분이나, 주변환경에 따른 템포 및 곡조로, 악곡이 재구성되어, 음향 재생된다.
또, 사용자가 사용자 인터페이스(11)를 통하여 어레인지 지시를 했을 경우에는, 당해 어레인지 지시에 따른 템포, 곡조로, 악곡이 재구성되고, 음향 재생되는 것은, 상술한 제 1의 실시형태와 같다.
또한, 이 제 2의 실시형태에 있어서, 동기신호(SYNC)의 발생의 방법으로서는, 상술의 예로 한정되는 것은 아니다. 예를 들면, 주변환경정보취득부(40)에서 취득한 주변환경정보와, 재생 이력 정보 보관 유지부(15)에 보관 유지되어 있는 재생 이력으로부터 정해진 동기신호(SYNC)를 발생하도록 할 수도 있다.
예를 들면, 주변환경정보취득부(40)에서 취득한 주변환경정보를 검색자로서, 재생 이력 정보 보관 유지부(15)의 재생 이력을 검색하고, 당해 재생 이력 정보 보관 유지부(15)에 기억되어 있는 재생 이력 정보에 포함되는 악곡의 속성정보 중 주변환경정보로서 동일하고, 혹은 근사하는 것을 검출하고, 당해 주변환경정보를 검색자로서 검색한 악곡의 속성정보에 포함되는 BPM값에 근거하여, 동기신호(SYNC)를 생성하도록 해도 좋다.
상술한 제 1의 실시형태에서는, 최초로 재생하는 악곡은, 사용자가 선택하도록 했다. 이 제 2의 실시형태에 있어서도, 최초의 악곡은, 사용자가 선택하도록 해도 좋지만, 내부 리듬 동기의 사용자 설정에 의한 동기의 경우나, 외부 리듬 동 기, 또, 생체 리듬 동기에서는, 리듬 슬레이브부(220)에 있어서, 악곡 재구성용 데이터(ARI)에 합치하는 혹은 근사하는 악곡을, 음악 콘텐츠 기억부(20)의 속성 정보 기억부(22)에 기억되어 있는 속성정보로부터 검출하고, 재생을 하도록 할 수도 있다.
또, 재생중의 악곡에 대한 재구성 처리는, 이 제 2의 실시형태에 있어서도, 리듬 마스터부(210)로부터의 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)를 이용하여, 제 1의 실시형태와 동일하게 할 수 있는 것이다.
[리듬 마스터부(210)의 동작 설명]
이 제 2의 실시형태에 있어서의 리듬 마스터부(210)에서의 처리 동작의 플로차트를, 도 31 ~ 도 34를 참조하면서 설명한다.
우선, 재생형태 설정부(240)는, 이 실시형태에서는, 사용자 인터페이스(11)를 통하여, 사용자에 의해 선택 지정된 동기 기준은 무엇이 있는지 판별한다(스텝(S201)).
이 스텝(S201)에서, 내부 리듬 동기의 경우이고, 동기 기준은, 재생 대상의 음악 콘텐츠라고 판별하면, 영상 음향 데이터 선택 판단 제어 RM부(201M)의 재생형태 설정부(240)는, 속성 정보 취득부(203)를 통하여 음악 콘텐츠 기억부(20)의 속성 정보 기억부(22)로부터 재생 대상의 음악 콘텐츠의 속성정보를 취득하고(스텝(S202)), 당해 취득한 속성 정보 중에서, BPM값, 키값 및 코드값을 추출한다(스텝(S203)).
다음으로, 추출한 BPM값에 의거하여, 소절 동기신호(PHSY) 및 비트 동기신 호(BTSY)로 이루어지는 동기신호(SYNC)를 생성한다(스텝(S204)). 또, 추출한 BPM값, 키값 및 코드값을, BPM값 설정부, 키값 설정부 및 코드값 설정부에 설정한다(스텝(S205)).
그리고, 스텝(S204)에서 생성한 동기신호(SYNC)와, 스텝(S205)에서 설정한 BPM값, 키값 및 코드값으로 이루어지는 악곡 재구성용 데이터(ARI)를, 리듬 슬레이브부(220)로 송출한다(스텝 S206).
그리고, 재생이 종료인지 아닌지 판별하고(스텝 S207), 재생이 종료이면 이 처리 루틴을 종료한다. 또, 재생이 종료가 아니면, 재생중의 악곡이 끝까지 재생되어 종료로 되었는지 아닌지 판별하고(스텝 S208), 악곡은 아직 종료는 아니다 라고 판별했을 때에는, 예를 들면 사용자에 의해 사용자 인터페이스(11)를 통하여, 동기 기준의 변경 조작이 되었는지 아닌지 판별하고(스텝(S210)), 동기 기준의 변경 조작이 되었다고 판별했을 때에는, 스텝(S201)으로 되돌아가고, 이 스텝(S201) 이후의 처리를 반복한다.
또, 스텝(S210)에서 동기 기준의 변경 조작이 이루어지지 않는다고 판별했을 때에는, 스텝(S204)으로 되돌아가고, 이 스텝(S204) 이후의 처리를 반복한다.
또, 스텝(S208)에서, 악곡은 종료했다고 판별했을 때에는, 선택되어 있는 다음 악곡의 재생 준비를 하여(스텝(S209)), 스텝(S202)으로 되돌아가고, 이상의 처리를 반복한다.
다음으로, 스텝(S201)에서, 설정된 동기 기준은, 내부 리듬 동기의 경우이며, 사용자 설정 입력이라고 판별하면, 재생형태 설정부(240)는, 사용자 입력에 의 해 설정된 BPM값을 취득하고(도 32의 스텝(S221)), 당해 취득한 BPM값에 의거하여, 소절 동기신호(PHSY) 및 비트 동기신호(BTSY)로 이루어지는 동기신호(SYNC)를 생성한다(스텝(S222)). 또, 사용자 입력에 의해 설정된 BPM값, 키값 및 코드값을 취득하고(스텝(S223)), 당해 취득한 BPM값, 키값 및 코드값을, 악곡 재구성용 데이터 설정부(214)로 보내고, 그 BPM값 설정부(217), 키값 설정부(218) 및 코드값 설정부(219)에 설정한다(스텝(S224)).
그리고, 스텝(S222)에서 생성한 동기신호(SYNC)와, 스텝(S223)에서 설정한 BPM값, 키값 및 코드값으로 이루어지는 악곡 재구성용 데이터(ARI)를, 리듬 슬레이브부(220)로 송출한다(스텝(S225)).
그리고, 재생이 종료인지 아닌지 판별하고(스텝(S226)), 재생이 종료이면 이 처리 루틴을 종료한다. 또, 재생이 종료가 아니면, 재생중의 악곡이 끝까지 재생되어 종료가 되었는지 아닌지 판별하고(스텝(S227)), 악곡은 아직 종료는 아니다 라고 판별했을 때에는, 예를 들면 사용자에 의해 사용자 인터페이스(11)를 통하여, 동기 기준의 변경 조작이 되었는지 아닌지 판별하고(스텝(S229)), 동기 기준의 변경 조작이 되었다고 판별했을 때에는, 스텝(S201)으로 되돌아가고, 이 스텝(S201) 이후의 처리를 반복한다.
또, 스텝(S229)에서 동기 기준의 변경 조작이 이루어지지 않는다고 판별했을 때에는, 스텝(S225)으로 되돌아가고, 이 스텝(S225) 이후의 처리를 반복한다.
또, 스텝(S227)에서, 악곡은 종료했다고 판별했을 때에는, 선택되어 있는 다음 악곡의 재생준비를 하여(스텝(S228)), 스텝(S225)으로 되돌아가고, 이 스 텝(S225) 이후의 처리를 반복한다.
다음으로, 스텝(S201)에서, 설정된 동기 기준은, 외부 리듬 동기라고 판별했을 때에는, 동기 기준이 되는 외부 입력은, 외부 입력단자(8)로부터의 입력신호인가, 마이크로폰(9)에서 수음 된 음성신호인지를 판별한다(도 33의 스텝(S231)).
이 스텝(S231)에서, 외부 입력단자(8)로부터의 입력신호를 동기 기준으로 한다고 판별했을 때에는, 재생형태 판정부(240)는, 외부 입력단자(8)를 통하여 입력된 음성신호를 곡조 분석부(13)에 공급하고, 분석을 행하게 한다(스텝(S232)). 또, 스텝(S231)에서, 마이크로폰(9)에서 수음한 음성신호를 동기 기준으로 하여 판별했을 때에는, 재생 형태 판정부(240)는, 마이크로폰(9)에서 수음 된 음성신호를 곡조 분석부(13)에 공급하고, 분석을 행하게한다(스텝(S233)).
스텝(S232) 및 스텝(S233)의 다음에는, 어느 것도 스텝(S234)으로 진행되고, 곡조 분석부(13)에서의 분석 결과로부터 BPM값을 구하고, 구한 BPM값을 동기신호 생성부(230)에 건네주고, 동기신호(SYNC)를 생성한다(스텝(S234)).
또, 곡조 분석부(13)에서의 분석 결과로부터 BPM값, 키값, 코드값을 구하고, 당해 구한 BPM값, 키값, 코드값을 악곡 재구성용 데이터 생성부(214)에 보내고, 그 BPM값 설정부(217), 키값 설정부(218), 코드값 설정부(219)에 설정한다(스텝(S235)).
그리고, 스텝(S234)에서 생성한 동기신호(SYNC)와, 스텝(S235)으에 설정한 BPM값, 키값 및 코드값으로 이루어지는 악곡 재구성용 데이터(ARI)를, 리듬 슬레이브부(220)에 송출한다(스텝(S236)).
그리고, 재생이 종료인지 아닌지 판별하고(스텝(S237)), 재생이 종료이면 이 처리 루틴을 종료한다. 또, 재생이 종료가 아니면, 재생중의 악곡이 끝까지 재생되어 종료가 되었는지 아닌지 판별하고(스텝(S238)), 악곡은 아직 종료는 아니다 라고 판별했을 때에는, 예를 들면 사용자에 의해 사용자 인터페이스(11)를 통하여, 동기 기준의 변경 조작이 되었는지 아닌지 판별하고(스텝(S239)), 동기 기준의 변경 조작이 되었다고 판별했을 때에는, 스텝(S201)으로 되돌아가고, 이 스텝(S201) 이후의 처리를 반복한다.
또, 스텝(S239)에서 동기 기준의 변경 조작이 이루어지지 않는다고 판별했을 때에는, 스텝(S234)으로 되돌아가고, 이 스텝(S234) 이후의 처리를 반복한다.
또, 스텝(S238)에서, 악곡은 종료했다고 판별했을 때에는, 선택되어 있는 다음 악곡의 재생 준비를 하여(스텝(S240)), 스텝(S231)으로 되돌아가고, 이 스텝(S231) 이후의 처리를 반복한다.
다음으로, 스텝(S201)에서, 설정된 동기 기준은, 생체 리듬 동기의 경우라고 판별하면, 재생형태 설정부(240)는, 생체 정보 취득부(30)를 통하여 청취자의 생체정보를 취득하고(도 34의 스텝(S251)), 또, 기록 재생장치의 주변 환경 정보를 취득한다(스텝(S252)).
그리고, 취득한 생체정보로부터, 템포정보를 추출하고, 그 추출한 템포정보를 동기신호 생성부(230)에 공급하고, 당해 템포정보로부터, 동기신호(SYNC)를 생성한다(스텝(S253)). 그리고, 생체정보와, 주변환경정보와, 재생 이력 정보 보관 유지부(15)의 재생 이력 정보로부터, 상술한 바와 같이 하여, BPM값, 키값, 코드값 을 결정한다(스텝(S254)).
그리고, 결정한 BPM값, 키값 및 코드값을, 악곡 재구성용 데이터 설정부(214)로 보내고, 그 BPM값 설정부(217), 키값 설정부(218) 및 코드값 설정부(219)에 설정한다(스텝(S255)).
그리고, 스텝(S253)에서 생성한 동기신호(SYNC)와, 스텝(S255)에서 설정한 BPM값, 키값 및 코드값으로 이루어지는 악곡 재구성용 데이터(ARI)를, 리듬 슬레이브부(220)에 송출한다(스텝(S256)).
그리고, 재생이 종료인지 아닌지 판별하고(스텝(S257)), 재생이 종료이면 이 처리 루틴을 종료한다. 또, 재생이 종료가 아니면, 재생중의 악곡이 끝까지 재생되어 종료가 되었는지 아닌지 판별하고(스텝(S258)), 악곡은 아직 종료는 아니다 라고 판별했을 때에는, 예를 들면 사용자에 의해 사용자 인터페이스(11)를 통하여, 동기 기준의 변경 조작이 되었는지 아닌지 판별하고(스텝(S260)), 동기 기준의 변경 조작이 되었다고 판별했을 때에는, 스텝(S201)으로 되돌아가고, 이 스텝(S201) 이후의 처리를 반복한다.
또, 스텝(S260)에서 동기 기준의 변경 조작이 이루어지지 않는다고 판별했을 때에는, 스텝(S251)으로 되돌아가고, 이 스텝(S251) 이후의 처리를 반복한다.
또, 스텝(S258)에서, 악곡은 종료했다고 판별했을 때에는, 선택되어 있는 다음 악곡의 재생 준비를 하여(스텝(S259)), 스텝(S251)으로 되돌아가고, 이 스텝(S251) 이후의 처리를 반복한다.
이상과 같이, 이 제 2의 실시형태에서는, 재생 대상의 악곡에 대해서도, 템 포나 음정을 바꾸는 재구성을 행할 수 있다. 청취자는, 예를 들면 사용자 인터페이스를 통하여, 템포나 음정의 변경 지시를 바꿈으로써, 재생중의 악곡을, 당해 시청 시점에 있어서 자신이 좋아하도록 재구성하고, 음향 재생 출력을 할 수 있다.
또, 재생 대상의 악곡을, 외부로부터 입력된 음성에 동기하여 재생하도록 재구성할 수 있다. 또, 청취자의 보행에 맞추거나, 맥박에 맞추거나 하여, 악곡을 재생하는 것이 가능하게 된다. 또, 주변환경에 따라서, 템포를 올리거나, 내리거나, 또, 키를 올리거나, 내리거나, 할 수도 있다.
도 35는, 이 제 2의 실시형태에 있어서, 리듬 마스터부(210)에서의 동기신호(SYNC) 및 악곡 재구성용 데이터(ARI)를 받은 리듬 슬레이브부(220)의 영상 음향 데이터 디코드부(205) 및 영상 음향 어레인지 처리부(206)에 있어서의 악곡 신호의 흐름을, 리듬 마스터부(210)에서의 동기신호(SYNC)에, 동기시켜 나타내는 동시에, 리듬 슬레이브부(220)의 영상 음향 어레인지 처리부(206)에 있어서의 악곡 재구성의 동작을, 리듬 마스터부(210)의 악곡 재구성용 데이터(ARI)에 대응시키면서 나타내는 도면이다.
도 35의 예의 경우에는, 악곡 재구성용 데이터(ARI)는, 재생 대상의 음악 콘텐츠의 속성정보로부터 추출한 것으로 이루어져 있다고 한정하지 않고, 재생 대상의 음악 콘텐츠의 BPM값과 다르다. 또, 악곡 재구성용 데이터(ARI)에 포함되는 키값이나 코드값도, 재생 대상의 음악 콘텐츠의 그들과 다르다.
도 35에 있어서, 재생 대상의 음악 콘텐츠는, 악곡 트랙(1)의 재생 신호 스트림으로 이루어져 있다. 도 35의 예에서는, 악곡 재구성용 데이터(ARI)로서, BPM값 「120」, 키값 「Cmajor」, 코드 진행 「C」→「G」→「F」의 목표치가 리듬 마스터부(210)에서 리듬 슬레이브부(220)로 입력되어 있다.
그리고, 리듬 슬레이브부(220)에서는, 악곡 트랙(1)의 재생 대상 음악 콘텐츠의 재생 신호 스트림에 대하여, 어레인지 제어부(221)에 의한 선택 지시에 의거하여 음악 콘텐츠 기억부(20)에서 취득된 당해 재생 대상 음악 콘텐츠의 악곡 데이터 자신의 템포나 음정이 보정되는 동시에, 2개의 악곡 소재가, 악곡 트랙(2), 악곡 트랙(3)으로서 영상 음향 데이터 디코드부(205)로부터 출력되며, 그 2개의 악곡 소재의 악곡 데이터가, 상기 악곡 재구성용 데이터(ARI)의 각각의 값의 목표치에 맞도록 보정되며, 악곡 트랙(1)의 재생 대상 음악 콘텐츠에 대하여 최종적으로 믹스된다.
즉, 악곡 트랙(1)의 음향 데이터는, 영상 음향 어레인지 처리부(206)에 있어서, 악곡 재구성용 데이터(ARI)의 목표 BPM값이나 목표 코드값에 합치하도록 보정되는 동시에, 악곡 트랙(2,3)의 음향 데이터가, 영상 음향 어레인지 처리부(206)에 있어서, 악곡 재구성용 데이터(ARI)의 목표 BPM값이나 목표 코드값에 합치하도록 보정된 후, 악곡 트랙(1)의 악곡 데이터에 믹스되고, 리믹스 처리가 이루어진다.
이 경우, 도 35에 나타내는 바와 같이, 악곡 트랙(1)의 음향 데이터는, 속성정보 취득부(203)를 통하여 취득된 이 악곡 소재(1)의 소절 구간(Pa,Pb)에서의 BPM값은「140」이며, 악곡 재구성용 데이터(ARI)의 BPM값「120」과 차이가 있기 때문에, 영상 음향 어레인지 처리부(206)에서 템포의 보정이 이루어지고, 당해 소절 구간(Pa 및 Pb)에 있어서의 악곡 트랙(1)의 악곡 데이터는, 그 BPM값이「140」에서「 120」으로 되도록 보정된다.
또, 악곡 트랙(1)의 음향 데이터는, 속성 정보 취득부(203)를 통하여 취득된 이 악곡 소재(1)의 소절 구간(Pa)에서의 코드값은 「D」이며, 악곡 재구성용 데이터(ARI)의 코드값 「C」와 차이가 있기 때문에, 영상 음향 어레인지 처리부(206)에서 음정 보정이 이루어지고, 악곡 트랙(1)의 악곡 데이터는, 그 코드값이 「D」에서 「C」가 되도록 보정된다.
그리고, 이 소절 구간(Pa)에서는, 악곡 트랙(3)의 악곡 소재(3)가, 악곡 트랙(1)의 음향 데이터에 믹스되지만, 속성 정보 취득부(203)를 통하여 취득된 이 악곡 소재(3)의 소절 구간(Pa)에서의 BPM값은 「120」이며, 악곡 재구성용 데이터(ARI)의 BPM값과 동일하기 때문에, 악곡 소재(3)의 악곡 데이터에 대해서는, 영상 음향 어레인지 처리부(206)에서는 템포의 보정은 이루어지지 않는다.
그러나, 속성 정보 취득부(203)를 통하여 취득된 악곡 소재(3)의 소절 구간(Pa)에서의 코드값은 「D」이며, 악곡 재구성용 데이터(ARI)의 코드값 「C」와는 다르기 때문에, 당해 악곡 소재(3)의 악곡 데이터에 대해서는, 영상 음향 어레인지 처리부(206)의 음정 보정 회로(226)에 있어서, 상술한 바와 같이 하여 음정 보정이 이루어지며, 「D」→「C」로 목표치가 되도록 변경된다.
또, 다음의 소절 구간(Pb)의 전반에 있어서는, 악곡 트랙(1)의 음향 데이터는, 속성 정보 취득부(203)를 통하여 취득된 이 악곡 소재(1)의 소절 구간(Pb)의 전반에서의 코드값은 「D」이며, 악곡 재구성용 데이터(ARI)의 코드값「G」과 차이가 있기 때문에, 영상 음향 어레인지 처리부(206)에서 음정 보정이 이루어지고, 악 곡 트랙(1)의 악곡 데이터는, 그 코드값이 「D」에서 「G」가 되도록 보정된다.
그리고, 악곡 트랙(1)의 음향 데이터는, 속성 정보 취득부(203)를 통하여 취득된 이 악곡 소재(1)의 소절 구간(Pb)의 후반에서의 코드값은 「D」이며, 악곡 재구성용 데이터(ARI)의 코드값 「F」과 차이가 있기 때문에, 영상 음향 어레인지 처리부(206)에서 음정 보정이 이루어지고, 악곡 트랙(1)의 악곡 데이터는, 그 코드값이 「D」에서 「F」가 되도록 보정된다.
그리고, 소절 구간(Pb)의 전반에 있어서는, 악곡 트랙(2)의 악곡 소재(2)가 악곡 트랙(1)의 음향 데이터에 믹스되며, 또, 소절 구간(Pb)의 후반에 있어서는, 악곡 트랙(2)의 악곡 소재(2)와, 악곡 트랙(3)의 악곡 소재(3)가 악곡 트랙(1)의 악곡 데이터에 믹스된다.
그리고, 이 소절 구간(Pb)의 전반에 있어서는, 속성 정보 취득부(203)에 의하여 취득된 악곡 소재(2)의 소절 구간(Pb)의 전반에서의 BPM값은 「100」, 코드값은 「E」이며, 악곡 재구성용 데이터(ARI)의 목표 BPM값 「120」 및 목표 코드값 「G」와 다르다. 이 때문에, 악곡 소재(2)의 악곡 데이터는, 소절 구간(Pb)의 전반에 있어서, 영상 음향 어레인지 처리부(206)에서, 「100」에서 「120」으로, 목표 BPM값에 합치하도록 템포의 보정이 이루어지는 동시에, 「E」에서 「G」로, 목표 코드값에 합치하도록 음정의 보정이 이루어진다. 그리고, 소절 구간(Pb)의 전반에서는, 그러한 보정이 이루어진 악곡 소재(2)의 악곡 데이터가, 악곡 트랙(1)의 악곡 데이터에 가산된다.
또, 이 소절 구간(Pb)의 후반에서는, 악곡 소재(2)의 BPM값은 「100」, 코드 값은 「E」이며, 악곡 재구성용 데이터(ARI)의 목표 BPM값 「120」 및 목표 코드값 「F」와 다르지만, 악곡 소재(3)의 BPM값은 「120」, 코드값은 「F」이며, 악곡 재구성용 데이터(ARI)의 목표 BPM값 「120」 및 목표 코드값 「F」와 동일하다.
이 때문에, 소절 구간(Pb)의 후반에서는, 악곡 트랙(2)의 악곡 소재(2)에 대해서는, 영상 음향 어레인지 처리부(206)에서 템포 및 음정의 보정이 이루어져 악곡 트랙(1)의 악곡 데이터에 가산되며, 또, 악곡 트랙(3)의 악곡 소재(3)에 대해서는 보정되지 않고, 악곡 트랙(1)의 악곡 데이터에 가산된다.
이상과 같이 하여, 이 제 2의 실시형태에 있어서는, 리듬 마스터부로부터의 동기신호(SYNC)와, 악곡 재구성용 데이터(ARI)를 기본으로 하여, 재생 대상의 음악 콘텐츠에 대하여, 예를 들면, 청취자의 기분에 따른 재구성을 행할 수 있는 동시에, 다른 악곡 소재를 믹스 함으로써, 이른바 리믹스 처리를 원래의 악곡에 대하여 위화감 없이, 실행할 수 있다. 그리고, 사용자가 어레인지 지시에 의하여, 곡조를 클래식풍, 재즈풍, 락 풍 등으로, 용이하게 변경하여 악곡을 즐길 수 있다.
또, 이 제 2의 실시형태에 있어서도, 동기신호(SYNC)에 의해, 소절이나 박자의 단락을 용이하게 검출할 수 있기 때문에, 악곡 데이터에 대하여 특수 효과를 실시하는 것도 용이하게 실시할 수 있다. 이와 같이 하여, 이 제 2의 실시형태에 있어서도, 리믹스의 특수 효과 처리의 하나로서, 루프 재생 처리를 할 수 있다.
그리고, 이 제 2의 실시형태에서는, 음향 재생된 악곡을 청취한 사용자의 생체정보나, 주변환경 정보 혹은 사용자의 재생 이력 정보에 의거하여, 동기신호를 변경할 수도 있도록 되어 있기 때문에, 사용자의 취향이나, 환경 변화에 따라서, 변화가 있는 음향 재생을 하는 것이 가능해진다.
[제 3의 실시형태]
이상의 실시의 형태에 있어서는, 어레인지용 정보는, 미리, 음악 콘텐츠의 제공자측이, 추천 정보를 작성하여, 속성정보에 포함해 두도록 했지만, 사용자가, 어레인지용 정보를 자작(自作)할 수 있도록 해 두어도 좋다.
이 경우에는, 음악 콘텐츠의 속성정보로서 포함되는 악곡구성 정보 중, 원곡에 대한 코드 진행이나 템포 등을 사용자에게 제시하고, 그것을 사용자가 수정할 수 있도록 한다.
즉, 사용자가, 악곡 ID 등의 악곡 식별정보를 수반하는 자작 어레인지용 정보의 작성 요구를, 음악 콘텐츠의 기록 재생장치에 있어서 실시하면, 당해 장치(CPU(1))는, 요구된 악곡에 대한 속성정보로부터, 코드 진행이나 템포, 등의 악곡구성 정보를, 악곡 소재 단위로 추출하고, 예를 들면 LCD 표시 화면(111)에 표시하도록 한다.
이것에 대해서, 사용자는, 표시된 악곡구성 정보의 각각에 대하여, 이것을 직접 변경하거나, 혹은, 카피, 수정을 실시함으로써, 어레인지용 정보의 작성 입력을 한다. 그리고, 사용자는, 음악 콘텐츠의 기록 재생장치에 대해서, 작성한 어레인지용 정보를, 그 이름 등의 식별정보와 함께 등록 요구를 한다.
그러면, 작성된 어레인지용 정보는, 자작 어레인지용 정보로서, 당해 악곡에 대한 속성정보에 포함되며, 상기 이름 등의 식별정보와 함께, 속성 정보기억부(22)에 기억된다. 속성 정보와는 별도로, 속성 정보기억부(22)가 아니고, 자작 어레 인지용 정보의 기억 영역을 별개로 설치하고, 당해 기억 영역에 자작 어레인지용 정보를 기억하도록 해도 좋다.
그리고, 사용자로부터의 어레인지 지시가, 자작 어레인지용 정보일 때, 음악 콘텐츠의 기록 재생장치는, 이 자작 어레인지용 정보의 일람을 읽어내 사용자에게 제시하고, 상술과 동일하게 하여, 사용자에 의해 선택 지시받은 자작 어레인지용 정보에 따라서 악곡을 재구성하여 어레인지를 실행하도록 한다.
또한, 자작한 어레인지용 정보는, 그 식별정보 및 악곡 ID와 함께, 서버 장치(6) 측에 업 로드하고, 다른 사용자의 사용을 위해서 제공하도록 해도 좋다. 서버 장치(6)측에서는, 각각의 악곡에 대한 자작 어레인지용 정보를, 사용자로부터의 악곡 다운로드 요구가 있었을 때에 제시하여, 사용자에게 제공할 수 있다.
[그 외의 실시형태 및 변형 예]
또한, 이상의 설명에서는, 어레인지 지시 조작은, 도 12에 나타낸 바와 같이, LCD표시 화면(111)과, 커서 버튼(112)을 이용하도록 했지만, LCD표시 화면(111)과 터치 패널을 조합하여, LCD표시 화면(111)상에서만 사용자가 어레인지 지시 조작을 할 수 있도록 해도 좋다.
또, 반대로, 도 12에 나타낸 바와 같은, LCD표시 화면(111)과 조작 버튼과의 편성이 아니고, 곡조 변경을 직접적으로 지시하는 조작 버튼 등의 조작부를, 음악 콘텐츠의 기록 재생장치에 설치하도록 해도 좋다.
예를 들면, 도 36의 예는, 어레인지 지시가 상술한 바와 같이, 곡조를 다른 장르의 곡풍으로 변경하도록 하는 경우에, 변경 후의 「장르풍」을 지시하는 버튼 을 설치하도록 했을 경우이다.
즉, 이 도 36의 예에 있어서는, 클래식풍 버튼(113), 재즈풍 버튼(114), 락 풍 버튼(115), 그 외의 풍 버튼(116)이 설치되어 있다. 그리고, 악곡의 재생중에, 사용자가 클래식풍 버튼(113)을 누르면, 재생중 악곡의 속성정보가 참조되어고, 클래식풍으로 하기 위한 어레인지용 정보가 읽어내지며, 당해 어레인지용 정보에 의거하여, 상술한 바와 같이 하여, 악곡이 재구성되어, 재생된다.
만약, 클래식풍의 어레인지를 위한 속성정보가, 상술한 바와 같이, 복수 형태의 클래식풍 어레인지용 정보를 포함하는 경우에는, 클래식풍 버튼(113)을 사용자가 누르면, 그 클래식풍어레인지의 복수의 형태의 일람이, 도 12b와 동일하게, LCD화면(111)에 표시된다. 이때에는, 십자형 커서 버튼(112)을 조작하고, 몇 개의 어레인지 형태를 선택하여, 결정하면, 그 어레인지 형태에, 재생중 악곡이 재구성되어 재생된다.
또, 도 36과 같이, 복수 개의 버튼을 설치하는 것이 아니라, 도 37에 나타내는 바와 같이, 곡조 변경 버튼(117)을, 1개, 설치하고, 이 곡조 변경 버튼(117)을 누를 때마다, 예를 들면, 클래식풍→재즈풍→락풍→힙합풍→…으로, 사이클릭으로 변경하도록 해도 좋다. 이때, 곡조 변경 버튼(117)을 눌렀을 때에, 어떤 곡조로 되는지는, LCD표시 화면(111)에 표시하여, 사용자에게 알리도록 하는 것이다.
또, LCD표시 화면(111)에 터치 패널을 붙이고, 도 36이나 도 37의 조작 버튼(113~117)을 LCD표시 화면(111)에 표시하여, 터치 패널을 통하여 사용자가, 그러한 조작 버튼을 조작하도록 구성해도 좋다.
도 36의 예는, 1개의 버튼 조작에 1개의 「장르풍」을 대응시킨 예이지만, 조작 버튼 등의 조작 수단을 볼륨형 가변조작수단의 구성으로 하고, 2종류의 「장르풍」에 1개의 조작 수단으로 바꾸도록 할 수도 있다.
도 38은, 그 경우의 예로, 회동 가능한 구성으로 된 볼륨형 가변 손잡이(118)를 이용하는 경우의 예로, 이 볼륨형 가변 손잡이(118)의 볼륨 위치를 중앙으로 하고 있을 때는, 음악 콘텐츠는 원래의 곡조로 재생되지만, 볼륨형 가변 손잡이(118)를, 중앙 위치에서 우측으로 돌리면, 그 회동각의 크기에 따라서, 도 38의 예에서는, 점점 「클래식풍」이 강조되도록 곡조를 변경하는 바와 같이, 재생장치가 구성된다. 반대로, 볼륨형 가변 손잡이(118)를, 중앙 위치에서 좌측으로 돌리면, 그 회동각의 크기에 따라서, 도 38의 예에서는, 점점 「힙합풍」이 강조되도록 곡조를 변경하는 바와 같이, 재생장치가 구성된다.
도 38의 예는, 볼륨형 가변조작수단은, 회동 손잡이에 의한 볼륨형 가변 손잡이의 예이지만, 볼륨형 가변조작수단은, 슬라이드형의 가변 손잡이여도 좋다.
또한, 도 36의 각 장르풍을 선택하는 조작 버튼(113~116)의 각각을, 누르는 버튼으로, 또한, 볼륨형 가변 손잡이의 구성으로 하여, 누르는 버튼을 누르는 것으로, 당해 장르풍을 선택할 수 있고, 또한, 예를 들면 왼쪽 끝까지 돌린 상태에서는, 음악 콘텐츠는 원래의 곡조로 재생되지만, 오른쪽으로 돌리는 만큼, 그 회동각에 따라서, 각각의 장르풍이 서서히 강조되도록 곡조가 변경될 수 있게 구성할 수도 있다.
또, 도 37의 예의 조작 버튼(117)에 대해서도 동일 구성으로 할 수 있다. 즉, 조작 버튼(117)을 누를 때마다, 장르풍을 변경 선택하는 동시에, 볼륨형 가변 손잡이의 구성 조작 버튼(117)을 오른쪽으로 돌리는 만큼, 그 회동각에 따라서, 각각 선택된 장르풍이 서서히 강조되도록 곡조가 변경될 수 있게 구성할 수도 있다.
또, 볼륨형 가변 손잡이도 LCD표시 화면(111)에 표시하고, 터치 패널을 통하여 가변 조작하도록 구성하는 일도 물론 가능하다.
또, 볼륨형 가변 손잡이를 사용자가 조작하도록 할 뿐만 아니라, 예를 들면 생체 정보 취득부(30)로부터 생체정보에 동기 시키고, 볼륨형 가변 손잡이를 가변 제어하도록 구성하는 것도 가능하다. 즉, 예를 들면, 사용자의 주행 템포 등을 생체 정보 취득부(30)에서 취득하고, 그 취득한 주행 템포에 따라서, 「사용자가 빠르게 달리고 있으면, 악곡 템포를 보다 빠르게 하는 동시에 힙합풍이 보다 강조된다」와 같이 어레인지를 실시할 수 있게 구성하는 것도 가능하다.
또한, 상술의 실시형태의 설명에서는, 어레인지 모드는, 자동 모드와 수동 모드를 설치하도록 했지만, 수동 모드뿐이어도 좋다.
수동 모드만의 경우에는, 상술의 실시형태의 경우와 같이, 사용자가 기호도를 나타내고 있을 때, 어레인지 지시를 하도록 할 필요는 없고, 임의의 시점에서 어레인지 지시를 할 수 있는 것은 말할 필요도 없다.
또, 수동모드 만의 경우에는, 생체 정보 취득부(30)나 주변환경 정보취득부(40)는, 설치할 필요가 없고, 구성을 간단하게 할 수 있다.
상술의 실시형태에서는, 어레인지용 정보는, 속성정보의 일부로서 속성정보 기억부에, 악곡 데이터와 대응하여 보존해 두도록 했지만, 어레인지용 정보는, 속성정보의 일부로 할 필요는 없고, 속성정보와는 별개로, 악곡 ID와 대응하고 기억하여 관리하도록 해도 좋다.
또, 상술의 실시형태에서는, 사용자가 어레인지 지시를 했을 때에, 음악 콘텐츠의 기록 재생장치의 기억부로부터 어레인지용 정보를 읽어내고, 악곡 데이터의 재구성을 하도록 했지만, 사용자가 어레인지 지시를 했을 때에 서버 장치로부터 어레인지용 정보를 취득하고, 당해 취득한 어레인지용 정보에 의거하여, 상술한 바와 같이 재구성 처리(어레인지 처리)를 실시하도록 할 수도 있다. 그 경우에는, 음악 콘텐츠의 기록 재생장치에는, 어레인지용 정보를 기억해 둘 필요는 없다.
그 경우에는, 음악 콘텐츠의 기록 재생장치에는, 직접적인 어레인지 지시 조작부를 설치할 필요는 없고, 음악 콘텐츠의 기록 재생장치는, 서버 장치(6)에 액세스하고, 서버 장치(6)로부터 제시되는 어레인지 종류의 일람으로부터, 예를 들면 십자형 커서 버튼 등에 의해, 자신이 희망하는 어레인지 종류를 지시할 수 있으면 좋다.
또, 그 경우의 서버 장치로부터의 어레인지용 정보의 취득은, 악곡의 재생전인 경우에 한정될 필요는 없고, 악곡 재생중이여도 좋고, 음악 콘텐츠의 기록 재생장치는, 취득한 어레인지용 정보를 리얼타임으로 이용하고, 상술한 바와 같은 재구성 처리(어레인지 처리)를 실시하도록 할 수도 있다.
또한, 상술의 실시형태의 설명에서는, 음악 콘텐츠 기억부는, 하드 디스크 장치로 구성하고, 음악 콘텐츠의 영상 음향 데이터와, 속성정보가, 음악 콘텐츠 식 별정보(음악 콘텐츠 ID)를 통하여 대응 지어져 기록되도록 했지만, 상술한 바와 같이, 음악 콘텐츠 기억부는, 리무버블 기록 미디어(착탈 가능 미디어)인 DVD 등의 광디스크로 구성할 수도 있다.
또, 상술의 설명에서는, 음악 콘텐츠 기억부에 있어서는, 음악 콘텐츠에는, 속성정보가 반드시 부수하도록 설명했지만, 속성정보는, 필요에 따라서, 예를 들면 인터넷으로부터, 음악 콘텐츠 ID를 검색자로서 취득하고 사용하도록 할 수도 있다. 그 경우에는, 인터넷에 접속되는 서버 장치가 속성정보 기억부를 구성하게 된다.
즉, 음악 콘텐츠의 영상 음향 데이터와, 속성정보는, 1개의 기억부에 격납되어 있을 필요는 없고, 음악 콘텐츠 ID 등의 양자를 대응짓는 정보를 이용하여 대응하는 것이 가능한 형태이면, 다른 기억부에 격납되어 있어도 좋다.
또, 상술의 실시형태는, 기록 재생장치의 경우이지만, 이 발명은, 기록 기능이 없는 재생장치여도 좋은 것은 말할 필요도 없다.
또, 상술한 도 22~도 24의 재생 처리의 흐름은, 일례이며, 어떻게 재생을 행할지는, 이것에 한정되는 것은 아니다.
예를 들면, 기호도가 높을 때에만, 재생중의 악곡에 대해서, 템포나 키를 변경하거나, 리믹스 하거나, 효과를 미치거나 하여 재구성 처리를 행하도록 했지만, 기호도에 관계없이, 재생중의 악곡에 대해 재구성 처리를 행해도 좋다.
또, 상술의 실시형태에서는, 음악 콘텐츠로서는, 영상 데이터가 부수한 것을 취급하도록 했지만, 영상 데이터가 필수가 아닌 것은 말할 필요도 없다.
또, 상술의 제 1의 실시형태에서는, 악곡의 재생을 개시할 때, 최초의 악곡 은, 사용자가 선택 지정하도록 했지만, 예를 들면, 청취자의 생체정보나, 주변환경정보 혹은 재생 이력 정보로부터 최초의 악곡을 장치가 자동적으로 선택해도 좋다.
예를 들면, 청취자의 생체정보로부터, 청취자가 흥분 상태 혹은 진정 상태인지를 판별하고, 거기에 합치하는 혹은 반대의 곡조의 악곡을 최초의 곡으로서 선택해도 좋다. 또, 현재 위치가 산인지, 바다인지를 주변환경정보로부터 판별하고, 속성정보에 포함되는 주변환경정보를 참조하여, 당해 장소에 합치하는 악곡을 선택하고, 최초의 악곡이라고 해도 좋다. 또, 재생 이력으로부터 자주 듣고 있는 악곡을 최초의 악곡으로서 선택해도 좋다.

Claims (8)

  1. 복수 개의 음악 콘텐츠의 데이터가 격납되어 있는 음악 콘텐츠 데이터 기억부로부터, 재생 대상의 음악 콘텐츠의 데이터를 취득하는 제 1의 취득수단과,
    상기 음악 콘텐츠와 대응 지어져, 적어도 상기 음악 콘텐츠의 악곡 소재 단위의 악곡구성정보를 포함하는 속성정보기억부로부터 상기 속성정보를 취득하는 제 2의 취득수단과,
    상기 음악 콘텐츠와 대응 지어져, 상기 악곡구성정보와 관련지어 생성되어 있는 어레인지용(arrangement) 정보를 취득하는 제 3의 취득수단과,
    상기 제 1의 취득수단에 의해 취득한 상기 재생 대상의 음악 콘텐츠 데이터를 음향 재생 출력하는 수단과,
    청취자의 어레인지 지시를 받아들이는 어레인지 지시접수수단과,
    상기 어레인지 지시접수수단으로 받아들인 어레인지 지시에 따라, 상기 제 2의 취득수단에 의해 취득한 상기 악곡구성정보와, 상기 제 3의 취득수단에 의해 취득한 상기 어레인지용 정보에 근거하여, 상기 음향 재생 출력하는 상기 재생 대상의 음악 콘텐츠의 데이터를 재구성하는 재구성 수단을 갖추는 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  2. 제 1항에 있어서,
    악곡의 소절에 대응하는 주기의 신호와 악곡의 박자에 대응하는 주기의 신호 를 포함하는 동기신호를 발생하는 동시에, 악곡 재구성용 정보를 상기 동기신호에 동기하여 발생하는 리듬 마스터부와,
    상기 제 1의 취득수단에 의해 취득한 상기 재생 대상의 음악 콘텐츠 데이터를, 상기 리듬 마스터부에서의 상기 동기신호와 상기 악곡 재구성용 정보에 근거하는 동시에, 상기 제 3의 취득수단에 의해 취득한 상기 어레인지용 정보를 이용하여 재구성하고, 출력 악곡 데이터를 생성하여 음향 재생 출력하는 리듬 슬레이브(rhythm slave)수단을 갖추는 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  3. 제 1항에 있어서,
    상기 어레인지용 정보는, 자장치(自裝置)의 기억부에 기억되어 있는 것이며,
    상기 제 3의 취득수단은, 상기 어레인지 지시접수수단으로 받아들여진 상기 어레인지 지시에 따라, 상기 자장치의 기억부로부터 상기 어레인지용 정보를 읽어내는 수단인 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  4. 제 1항에 있어서,
    상기 제 3의 취득수단은, 통신 네트워크를 통하여 상기 어레인지용 정보가 보관 유지되어 있는 서버 장치로부터, 상기 어레인지 지시접수수단으로 받아들여진 상기 어레인지 지시에 따라, 상기 어레인지용 정보를 취득하는 수단인 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  5. 제 1항에 있어서,
    상기 어레인지용 정보는, 상기 청취자에 의하여 작성된 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  6. 제 1항에 있어서,
    상기 어레인지 지시접수수단은, 어레인지 종류를 지정하기 위한 조작부를 갖추는 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  7. 제 1항에 있어서,
    상기 어레인지 지시접수수단은, 볼륨형 가변조작수단으로 구성되며,
    상기 볼륨형 가변조작수단에 의한 볼륨 위치가 한측으로 변위했을 때에는, 그 변위량에 따라 제 1의 어레인지 종류의 곡조가 서서히 강조되도록 되며, 상기 볼륨 위치가 다른 측으로 변위했을 때에는, 그 변위량에 따라 제 2의 어레인지 종류의 곡조가 서서히 강조되도록 되는 것을 특징으로 하는 음악 콘텐츠의 재생장치.
  8. 복수 개의 음악 콘텐츠의 데이터가 격납되어 있는 음악 콘텐츠 데이터 기억부로부터, 재생 대상의 음악 콘텐츠의 데이터를 취득하는 제 1의 취득 스텝과,
    상기 음악 콘텐츠와 대응 지어져, 적어도 상기 음악 콘텐츠의 악곡 소재 단위의 악곡구성정보를 포함하는 속성정보기억부로부터 상기 속성정보를 취득하는 제 2의 취득 스텝과,
    상기 음악 콘텐츠와 대응 지어져, 상기 악곡구성정보와 관련지어 생성되어 있는 어레인지용 정보를 취득하는 제 3의 취득 스텝과,
    상기 제 1의 취득 스텝에서 취득한 상기 재생 대상의 음악 콘텐츠 데이터를 음향 재생 출력하는 스텝과,
    청취자의 어레인지 지시를 받아들이는 어레인지 지시 접수 스텝과,
    상기 어레인지 지시 접수 스텝에서 받아들인 어레인지 지시에 따라, 상기 제 2의 취득 스텝에서 취득한 상기 악곡구성정보와, 상기 제 3의 스텝에서 취득한 상기 어레인지용 정보에 근거하여, 상기 음향 재생 출력하는 상기 재생 대상의 음악 콘텐츠의 데이터를 재구성하는 재구성 스텝을 갖추는 음악 콘텐츠의 재생방법.
KR1020077019469A 2005-04-25 2006-04-05 음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법 KR101233800B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2005-00125920 2005-04-25
JP2005125920A JP4626376B2 (ja) 2005-04-25 2005-04-25 音楽コンテンツの再生装置および音楽コンテンツ再生方法
PCT/JP2006/307191 WO2006114998A1 (ja) 2005-04-25 2006-04-05 音楽コンテンツの再生装置および音楽コンテンツ再生方法

Publications (2)

Publication Number Publication Date
KR20070122452A true KR20070122452A (ko) 2007-12-31
KR101233800B1 KR101233800B1 (ko) 2013-02-18

Family

ID=37214626

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077019469A KR101233800B1 (ko) 2005-04-25 2006-04-05 음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법

Country Status (6)

Country Link
US (1) US8269092B2 (ko)
EP (1) EP1876583B1 (ko)
JP (1) JP4626376B2 (ko)
KR (1) KR101233800B1 (ko)
CN (1) CN101160615B (ko)
WO (1) WO2006114998A1 (ko)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE43379E1 (en) * 2003-10-09 2012-05-15 Pioneer Corporation Music selecting apparatus and method
US20080022208A1 (en) * 2006-07-18 2008-01-24 Creative Technology Ltd System and method for personalizing the user interface of audio rendering devices
JP4623028B2 (ja) * 2007-03-20 2011-02-02 ヤマハ株式会社 曲編集装置およびプログラム
JP5259075B2 (ja) 2006-11-28 2013-08-07 ソニー株式会社 マッシュアップ装置およびコンテンツの作成方法
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
TW200828077A (en) * 2006-12-22 2008-07-01 Asustek Comp Inc Video/audio playing system
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
KR101410928B1 (ko) * 2007-07-26 2014-06-23 삼성전자주식회사 음악 재생 장치의 사용자에게 추천할 음악을 결정하는 방법및 이를 위한 장치
US7804016B2 (en) * 2007-07-26 2010-09-28 Samsung Electronics Co, Ltd. Method and device for selecting music to be recommended for user by using music reproduction device
JP5181640B2 (ja) * 2007-12-03 2013-04-10 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
EP2304726A1 (en) * 2008-05-16 2011-04-06 Tonium AB Audio mix instruction file with timing information referring to unique patterns within audio tracks
US8558100B2 (en) * 2008-06-24 2013-10-15 Sony Corporation Music production apparatus and method of producing music by combining plural music elements
US8347210B2 (en) * 2008-09-26 2013-01-01 Apple Inc. Synchronizing video with audio beats
WO2010041147A2 (en) * 2008-10-09 2010-04-15 Futureacoustic A music or sound generation system
JP2010262723A (ja) * 2009-05-11 2010-11-18 Pioneer Electronic Corp 再生装置、プレーヤー、再生装置の再生履歴情報記録方法、プレーヤーの再生履歴情報記録方法およびプログラム
US20120266738A1 (en) * 2009-06-01 2012-10-25 Starplayit Pty Ltd Music game improvements
JP2010282160A (ja) * 2009-06-08 2010-12-16 Yamaha Corp 音楽コンテンツ処理装置及びプログラム
US10254824B2 (en) * 2009-10-16 2019-04-09 Immersion Corporation Systems and methods for output of content based on sensing an environmental factor
KR101594391B1 (ko) * 2009-10-22 2016-02-16 삼성전자주식회사 휴대용 멀티미디어 재생기에서 사용자 경험에 기반한 멀티미디어 재생 목록 생성방법 및 장치
JP2012015809A (ja) * 2010-06-30 2012-01-19 Kddi Corp 楽曲選択装置、楽曲選択方法および楽曲選択プログラム
CN102412920B (zh) * 2010-09-20 2015-04-29 阿尔派株式会社 电子设备及其控制方法
JP5594052B2 (ja) * 2010-10-22 2014-09-24 ソニー株式会社 情報処理装置、楽曲再構成方法及びプログラム
US9514481B2 (en) * 2010-12-20 2016-12-06 Excalibur Ip, Llc Selection and/or modification of an ad based on an emotional state of a user
JP5853371B2 (ja) * 2011-01-25 2016-02-09 ヤマハ株式会社 楽音合成装置およびプログラム
US20120224828A1 (en) * 2011-02-08 2012-09-06 Stephen Silber Content selection
US9448713B2 (en) 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
CN102956230B (zh) * 2011-08-19 2017-03-01 杜比实验室特许公司 对音频信号进行歌曲检测的方法和设备
JP5614422B2 (ja) * 2012-03-19 2014-10-29 ブラザー工業株式会社 運動支援装置、運動支援方法、及び、プログラム
US9552607B2 (en) * 2012-03-21 2017-01-24 Beatport, LLC Systems and methods for selling sounds
CN103514432B (zh) 2012-06-25 2017-09-01 诺基亚技术有限公司 人脸特征提取方法、设备和计算机程序产品
JP2014010275A (ja) * 2012-06-29 2014-01-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
US9940970B2 (en) 2012-06-29 2018-04-10 Provenance Asset Group Llc Video remixing system
CN103578514A (zh) * 2012-08-01 2014-02-12 北大方正集团有限公司 歌曲播放方法和装置
JP5980930B2 (ja) * 2012-08-23 2016-08-31 パイオニア株式会社 コンテンツ再生方法、コンテンツ再生装置、コンテンツ再生システムおよびプログラム
JP5980931B2 (ja) * 2012-08-23 2016-08-31 パイオニア株式会社 コンテンツ再生方法、コンテンツ再生装置およびプログラム
US8869031B1 (en) * 2012-08-27 2014-10-21 Zynga Inc. Scaling intro music
EP2793222B1 (en) * 2012-12-19 2018-06-06 Bellevue Investments GmbH & Co. KGaA Method for implementing an automatic music jam session
US10016650B2 (en) * 2013-02-08 2018-07-10 Excel Equipment Llc Systems and methods for target training including synchronized music
EP2765573B1 (en) * 2013-02-08 2016-08-03 Native Instruments GmbH Gestures for DJ scratch effect and position selection on a touchscreen displaying dual zoomed timelines.
US9939900B2 (en) 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
US9639158B2 (en) 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
CN103794205A (zh) * 2014-01-21 2014-05-14 深圳市中兴移动通信有限公司 自动合成适配音乐的方法及设备
SG11201610951UA (en) * 2014-06-30 2017-02-27 Sony Corp Information processing apparatus and information processing method
CN104298722B (zh) * 2014-09-24 2018-01-19 张鸿勋 多媒体交互系统及其方法
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
CN104778216B (zh) * 2015-03-20 2017-05-17 广东欧珀移动通信有限公司 一种预设风格歌曲处理的方法及装置
JP5896064B2 (ja) * 2015-03-25 2016-03-30 ヤマハ株式会社 楽音合成装置およびプログラム
US20170019471A1 (en) * 2015-07-13 2017-01-19 II Paisley Richard Nickelson System and method for social music composition
CN105335507A (zh) * 2015-10-29 2016-02-17 维沃移动通信有限公司 一种推送歌曲的方法及装置
US10318233B2 (en) 2016-09-23 2019-06-11 Sonos, Inc. Multimedia experience according to biometrics
CN106453051A (zh) * 2016-10-10 2017-02-22 深圳万发创新进出口贸易有限公司 多媒体交互系统
TWI633784B (zh) * 2017-03-15 2018-08-21 宏碁股份有限公司 用於移動載具的多媒體播放方法與系統
CN108668154A (zh) * 2017-03-30 2018-10-16 宏碁股份有限公司 用于移动载具的多媒体播放方法与系统
GB201721061D0 (en) * 2017-12-15 2018-01-31 Pob Enterprises Ltd System for processing music
US10803843B2 (en) * 2018-04-06 2020-10-13 Microsoft Technology Licensing, Llc Computationally efficient language based user interface event sound selection
CN110555126B (zh) 2018-06-01 2023-06-27 微软技术许可有限责任公司 旋律的自动生成
US10714065B2 (en) * 2018-06-08 2020-07-14 Mixed In Key Llc Apparatus, method, and computer-readable medium for generating musical pieces
CN108831425B (zh) 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN110658979B (zh) * 2018-06-29 2022-03-25 杭州海康威视系统技术有限公司 一种数据重构方法、装置、电子设备及存储介质
US11127386B2 (en) * 2018-07-24 2021-09-21 James S. Brown System and method for generating music from electrodermal activity data
CN109144271B (zh) * 2018-09-07 2021-07-20 武汉轻工大学 三维空间音频关注度分析方法、系统、服务器及存储介质
GB2581319B (en) * 2018-12-12 2022-05-25 Bytedance Inc Automated music production

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3245890B2 (ja) * 1991-06-27 2002-01-15 カシオ計算機株式会社 拍検出装置及びそれを用いた同期制御装置
US5304112A (en) 1991-10-16 1994-04-19 Theresia A. Mrklas Stress reduction system and method
JP3013648B2 (ja) 1993-03-23 2000-02-28 ヤマハ株式会社 自動編曲装置
JP3239672B2 (ja) * 1995-02-15 2001-12-17 ヤマハ株式会社 自動演奏装置
US5693902A (en) 1995-09-22 1997-12-02 Sonic Desktop Software Audio block sequence compiler for generating prescribed duration audio sequences
JP3707122B2 (ja) * 1996-01-29 2005-10-19 ヤマハ株式会社 スタイル変更装置およびカラオケ装置
JP3846122B2 (ja) * 1999-09-17 2006-11-15 ヤマハ株式会社 再生制御装置と媒体
JP3087757B2 (ja) * 1999-09-24 2000-09-11 ヤマハ株式会社 自動編曲装置
AT500124A1 (de) * 2000-05-09 2005-10-15 Tucmandl Herbert Anlage zum komponieren
KR100867760B1 (ko) 2000-05-15 2008-11-10 소니 가부시끼 가이샤 재생장치, 재생방법 및 기록매체
EP1170722B1 (en) 2000-07-04 2010-09-22 Sony France S.A. Incremental music title item sequence completion apparatus and method
KR100516403B1 (ko) * 2000-10-23 2005-09-23 에누티티 코뮤니케-숀즈 가부시키가이샤 악곡인식방법 및 시스템 및 악곡인식 프로그램을 저장한기억매체 및 커머셜 인식방법 및 시스템 및 커머셜 인식프로그램을 저장한 기억매체
JP2002169550A (ja) * 2000-11-30 2002-06-14 Victor Co Of Japan Ltd 楽曲データ作成装置
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
JP2002091438A (ja) * 2001-08-09 2002-03-27 Yamaha Corp 自動演奏装置
US6683241B2 (en) * 2001-11-06 2004-01-27 James W. Wieder Pseudo-live music audio and sound
JP2003173350A (ja) 2001-12-05 2003-06-20 Rainbow Partner Inc 音楽・映像コンテンツを推薦するシステム
JP4303485B2 (ja) 2003-01-27 2009-07-29 株式会社音楽館 楽曲編成システム、楽曲編成システムの制御方法、プログラム及び楽曲編成方法
US7208672B2 (en) 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
JP2006171133A (ja) 2004-12-14 2006-06-29 Sony Corp 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
US20070261537A1 (en) * 2006-05-12 2007-11-15 Nokia Corporation Creating and sharing variations of a music file
US8311656B2 (en) * 2006-07-13 2012-11-13 Inmusic Brands, Inc. Music and audio playback system
US8618404B2 (en) * 2007-03-18 2013-12-31 Sean Patrick O'Dwyer File creation process, file format and file playback apparatus enabling advanced audio interaction and collaboration capabilities
US8173883B2 (en) * 2007-10-24 2012-05-08 Funk Machine Inc. Personalized music remixing
US20100075806A1 (en) * 2008-03-24 2010-03-25 Michael Montgomery Biorhythm feedback system and method

Also Published As

Publication number Publication date
US20090088877A1 (en) 2009-04-02
JP2006301471A (ja) 2006-11-02
CN101160615A (zh) 2008-04-09
EP1876583A4 (en) 2012-05-09
US8269092B2 (en) 2012-09-18
EP1876583A1 (en) 2008-01-09
EP1876583B1 (en) 2014-07-16
KR101233800B1 (ko) 2013-02-18
JP4626376B2 (ja) 2011-02-09
WO2006114998A1 (ja) 2006-11-02
CN101160615B (zh) 2012-11-14

Similar Documents

Publication Publication Date Title
KR101233800B1 (ko) 음악 콘텐츠의 재생장치 및 음악 콘텐츠 재생방법
JP4713129B2 (ja) 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
KR20070098804A (ko) 악곡 데이터 재구성 장치, 악곡 데이터 재구성 방법, 음악콘텐츠 재생 장치 및 음악 콘텐츠 재생 방법
JP4306754B2 (ja) 楽曲データ自動生成装置及び音楽再生制御装置
US7982120B2 (en) Performance apparatus and storage medium therefor
JP2006084749A (ja) コンテンツ生成装置およびコンテンツ生成方法
JP2007193907A (ja) 音楽再生制御装置及び音楽再生装置
KR20060049375A (ko) 콘텐츠 이용장치, 콘텐츠 이용방법, 분배 서버 장치, 정보분배 방법 및 기록 매체
JP2009093779A (ja) コンテンツ再生装置及びコンテンツ再生方法
JP4702071B2 (ja) 音楽再生制御装置及び音楽再生装置
JP2004117632A (ja) プレイリスト生成装置、音楽再生装置、音楽配信システム及びその方法、プログラム、記録媒体
JPWO2006087891A1 (ja) 情報選択方法及び情報選択装置等
JP4697166B2 (ja) 音楽再生制御装置
JP2007140224A (ja) 楽曲コンテンツ選択再生装置、楽曲コンテンツ選択再生方法および楽曲コンテンツ配信再生システム
JP6611633B2 (ja) カラオケシステム用サーバ
JP2006201389A (ja) 再生装置およびプログラム
JP6699137B2 (ja) データ管理装置、コンテンツ再生装置、コンテンツ再生方法、及びプログラム
JP2002268635A (ja) 光学的情報記録媒体の記録再生装置および光学的情報記録媒体並びに光学的情報記録媒体の再生方法
JP5980930B2 (ja) コンテンツ再生方法、コンテンツ再生装置、コンテンツ再生システムおよびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee