KR20070044780A - 정보 처리 장치, 정보 처리 방법, 및 프로그램 - Google Patents

정보 처리 장치, 정보 처리 방법, 및 프로그램 Download PDF

Info

Publication number
KR20070044780A
KR20070044780A KR1020060103227A KR20060103227A KR20070044780A KR 20070044780 A KR20070044780 A KR 20070044780A KR 1020060103227 A KR1020060103227 A KR 1020060103227A KR 20060103227 A KR20060103227 A KR 20060103227A KR 20070044780 A KR20070044780 A KR 20070044780A
Authority
KR
South Korea
Prior art keywords
level feature
feature amount
high level
low level
error
Prior art date
Application number
KR1020060103227A
Other languages
English (en)
Inventor
요시유끼 고바야시
스스무 다까쯔까
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20070044780A publication Critical patent/KR20070044780A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
    • G10H2250/011Genetic algorithms, i.e. using computational steps analogous to biological selection, recombination and mutation on an initial population of, e.g. sounds, pieces, melodies or loops to compose or otherwise generate, e.g. evolutionary music or sound synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

악곡 데이터 등의 콘텐츠 데이터로부터 대응하는 특징량을 추출할 수 있는 알고리즘을 이용하여, 정밀도 좋게 특징량을 연산한다. 스텝 S141에서, 저레벨 특징량을 입력으로 하여 고레벨 특징량의 정밀도를 출력하는 리젝트 영역 추출식을 학습에 의해 얻는 고정밀도 리젝트 처리를 실행시킨다. 스텝 S142에서, 고레벨 특징량을 구하고자 하는 악곡의 입력 데이터의 저레벨 특징량이 연산되고, 스텝 S143에서, 리젝트 영역 추출식에 의해 고레벨 특징량의 특징량 추출 정밀도가 연산된다. 스텝 S144에서, 특징량 추출 정밀도가 소정의 임계치 이상인지의 여부가 판정되고, 임계치 이상인 경우에만, 처리는 스텝 S145로 진행하여, 고레벨 특징량의 연산이 실행된다. 본 발명은, 악곡이나 영상의 고레벨 특징량을 취득하는 시스템에 적용할 수 있다.
고레벨 특징량, 저레벨 특징량, 특징량 추출 정밀도, 콘텐츠 데이터, 메타 데이터, 학습 알고리즘

Description

정보 처리 장치, 정보 처리 방법, 및 프로그램{INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD AND PROGRAM}
도 1은 종래의 특징량 추출 알고리즘을 설명하기 위한 도면.
도 2는 본 발명을 적용한 특징량 추출 알고리즘 생성 장치에 의해 생성되는 특징량 추출 알고리즘의 개요를 도시하는 도면.
도 3은 저레벨 특징량 추출식의 예를 도시하는 도면.
도 4는 고레벨 특징량 추출식의 예를 도시하는 도면.
도 5는 본 발명을 적용한 특징량 추출 알고리즘 생성 장치의 구성예를 도시하는 블록도.
도 6은 도 5의 고레벨 특징량 연산부의 구성예를 도시하는 블록도.
도 7은 특징량 추출 알고리즘 학습 처리를 설명하는 플로우차트.
도 8은 저레벨 특징량 추출식 리스트의 예를 도시하는 도면.
도 9는 저레벨 특징량 추출식 리스트 생성 처리를 설명하는 플로우차트.
도 10은 제1 세대 리스트 랜덤 생성 처리를 설명하는 플로우차트.
도 11은 저레벨 특징량 추출식의 기술 방법을 도시하는 도면.
도 12는 입력 데이터의 예를 도시하는 도면.
도 13은 입력 데이터 Wav를 설명하는 도면.
도 14는 입력 데이터 Chord를 설명하는 도면.
도 15는 입력 데이터 Key를 설명하는 도면.
도 16은 저레벨 특징량 추출식의 보유 차원을 설명하는 도면.
도 17은 차세대 리스트 제네틱 생성 처리를 설명하는 플로우차트.
도 18은 선택 생성 처리를 설명하는 플로우차트.
도 19는 교차 생성 처리를 설명하는 플로우차트.
도 20은 돌연 변이 생성 처리를 설명하는 플로우차트.
도 21은 오퍼레이터 Mean의 연산을 설명하기 위한 도면.
도 22는 저레벨 특징량 연산부의 처리를 설명하기 위한 도면.
도 23은 교사 데이터의 예를 도시하는 도면.
도 24는 고레벨 특징량 추출식 학습 처리를 설명하는 플로우차트.
도 25는 학습 알고리즘의 예를 설명하기 위한 도면.
도 26은 학습 알고리즘의 예를 설명하기 위한 도면.
도 27은 학습 알고리즘의 예를 설명하기 위한 도면.
도 28은 학습 알고리즘의 예를 설명하기 위한 도면.
도 29는 학습 알고리즘의 예를 설명하기 위한 도면.
도 30은 학습 알고리즘의 예를 설명하기 위한 도면.
도 31은 학습 알고리즘의 예를 설명하기 위한 도면.
도 32는 학습 알고리즘의 예를 설명하기 위한 도면.
도 33은 학습 알고리즘의 예를 설명하기 위한 도면.
도 34는 학습 알고리즘에 기초하는 학습 처리를 설명하는 플로우차트.
도 35는 오퍼레이터의 조합의 예를 도시하는 도면.
도 36은 오퍼레이터의 조합의 예를 도시하는 도면.
도 37은 신규 오퍼레이터 생성 처리를 설명하는 플로우차트.
도 38은 고정밀도 고레벨 특징량 연산 처리를 설명하는 플로우차트.
도 39는 고정밀도 리젝트 처리를 설명하는 플로우차트.
도 40은 범용 퍼스널 컴퓨터의 구성예를 도시하는 블록도.
<도면의 주요부분에 대한 부호의 설명>
20 : 특징량 추출 알고리즘 생성 장치
21 : 저레벨 특징량 추출식 리스트 생성부
22 : 오퍼레이터 조 검출부
23 : 오퍼레이터 생성부
24 : 저레벨 특징량 연산부
25 : 고레벨 특징량 추출식 학습부
26 : 고레벨 특징량 연산부
27 : 제어부
41 : 저레벨 특징량 연산부
42 : 고레벨 특징량 연산부
43 : 제곱 오차 연산부
44 : 리젝트 영역 추출식 학습부
45 : 특징량 추출 정밀도 연산부
100 : 퍼스널 컴퓨터
101 : CPU
111 : 기록 매체
[특허 문헌1] 미국 특허 출원 공보 US2004/0181401A1
본 발명은, 정보 처리 장치, 정보 처리 방법, 및 프로그램에 관한 것으로, 특히, 예를 들면 악곡 데이터에 기초하여 상기 악곡 데이터의 특징량을 추출하는 알고리즘을 생성하고, 생성한 알고리즘을 이용하여 높은 정밀도로 특징량을 연산하도록 한 정보 처리 장치, 정보 처리 방법, 및 프로그램에 관한 것이다.
종래, 악곡 데이터를 입력으로 하여 상기 악곡 데이터의 특징량(악곡 데이터의 속도, 경쾌함, 생생함 등)을 출력하는 알고리즘의 자동 생성에 관한 발명이 제안되어 있다(예를 들면 특허 문헌1 참조).
특허 문헌 1에 기재된 발명에서는, 도 1에 도시하는 바와 같이, 악곡 데이터와 그 메타 데이터로부터 특징량을 추출하는 특징량 추출 알고리즘을 작성하고 있어, 해당 알고리즘에 의해 계산된 특징량은 악곡에 따라서는 오차가 클 가능성이 있지만, 계산된 특징량이 어느 정도의 오차를 갖고 있는지를 추정할 수 없다.
따라서, 생성된 특징량 추출 알고리즘에 의해 특징량을 계산할 때, 어느 정도의 오차가 예상되는지를 추정하는 방법의 출현이 요망되고 있다.
본 발명은 이러한 상황을 감안하여 이루어진 것으로, 악곡 데이터 등의 콘텐츠 데이터로부터 대응하는 특징량을 추출할 수 있는 알고리즘을 이용하여, 해당 알고리즘에 의해 계산된 특징량의 오차를 정밀도 좋게 추정할 수 있도록 하는 것이다.
본 발명의 일 측면의 정보 처리 장치는, 콘텐츠 데이터의 특징량을 연산하는 정보 처리 장치로서, 상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하는 제1 연산 수단과, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하는 제2 연산 수단과, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하는 산출 수단과, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하는 생성 수단과, 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 제2 연 산 수단에 상기 고레벨 특징량을 연산시키는 제어 수단을 포함한다.
상기 산출 수단은, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 제곱 오차를 산출하도록 할 수 있다.
상기 제어 수단은, 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차가 임계치보다 작을 때만, 상기 제2 연산 수단에 상기 고레벨 특징량을 연산시키도록 할 수 있다.
본 발명의 일 측면의 정보 처리 방법은, 콘텐츠 데이터의 특징량을 연산하는 정보 처리 장치의 정보 처리 방법으로서, 상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하고, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하고, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하고, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하고, 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 고레벨 특징량을 연산시킨다.
본 발명의 일 측면인 프로그램은, 콘텐츠 데이터의 특징량을 연산하기 위한 프로그램으로서, 상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하고, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하고, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하고, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하고, 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 고레벨 특징량을 연산시킨다.
본 발명의 일 측면에서는, 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량이 연산되고, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량이 연산되고, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차가 산출되고, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식이, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성된다. 그리고, 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레 벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차가 추정되고, 추정된 상기 오차에 따라 상기 고레벨 특징량을 연산시킨다.
<실시예>
이하에 본 발명의 실시 형태에 대해 설명하지만, 본 발명의 구성 요건과, 명세서 또는 도면에 기재된 실시 형태와의 대응 관계를 예시하면, 다음과 같다. 이 기재는, 본 발명을 서포트하는 실시 형태가, 명세서 또는 도면에 기재되어 있는 것을 확인하기 위한 것이다. 따라서, 명세서 또는 도면 중에는 기재되어 있지만, 본 발명의 구성 요건에 대응하는 실시 형태로서, 여기에는 기재되어 있지 않은 실시 형태가 있었다고 해도, 그것은, 그 실시 형태가, 그 구성 요건에 대응하는 것이 아니라는 것을 의미하는 것은 아니다. 반대로, 실시 형태가 구성 요건에 대응하는 것으로서 여기에 기재되어 있었다고 해도, 그것은, 그 실시 형태가, 그 구성 요건 이외의 구성 요건에는 대응하지 않는 것을 의미하는 것도 아니다.
본 발명의 일 측면인 정보 처리 장치(예를 들면 도 5의 고레벨 특징량 연산부(26))는, 콘텐츠 데이터의 특징량을 연산하는 정보 처리 장치에서, 상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하는 제1 연산 수단(예를 들면 도 6의 저레벨 특징량 연산부(41))으로 하고, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하는 제2 연산 수단(예를 들면 도 6의 고레벨 특징량 연산부(42))과, 연산된 상 기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하는 산출 수단(예를 들면 도 6의 제곱 오차 연산부(43))과, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하는 생성 수단(예를 들면 도 6의 리젝트 영역 추출식 학습부(44))과, 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 제2 연산 수단에 상기 고레벨 특징량을 연산시키는 제어 수단(예를 들면 도 6의 특징량 추출 정밀도 연산부(45))을 포함한다.
본 발명의 일 측면인 정보 처리 방법은, 콘텐츠 데이터의 특징량을 연산하는 정보 처리 장치의 정보 처리 방법에서, 상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하고, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하고, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하고, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하고(예를 들면 도 38의 스텝 S141), 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용 하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 고레벨 특징량을 연산시킨다(예를 들면 도 38의 스텝 S144 및 S145).
본 발명의 일 측면인 프로그램은, 콘텐츠 데이터의 특징량을 연산하기 위한 프로그램으로서, 상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하고, 연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하고, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하고, 상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하고(예를 들면 도 38의 스텝 S141), 상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 고레벨 특징량을 연산시킨다(예를 들면 도 38의 스텝 S144 및 S145).
이하, 본 발명을 적용한 구체적인 실시 형태에 대해, 도면을 참조하면서 상세하게 설명한다.
도 2는, 본 발명의 일 실시 형태인 특징량 추출 알고리즘 생성 장치(20)(도 5)에 의해 생성되는 특징량 추출 알고리즘의 개요를 도시하고 있다. 이 특징량 추출 알고리즘(11)은, 콘텐츠 데이터(악곡 데이터)와 그것에 대응하는 메타 데이터 (속성 데이터)를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출부(12), 및, 저레벨 특징량을 입력으로 하여 고레벨 특징량을 출력하는 고레벨 특징량 추출부(14)로 구성된다.
저레벨 특징량 추출부(12)는, 입력 데이터에 소정의 연산을 실시하는 1 이상의 오퍼레이터(연산자)가 조합된 m종류의 저레벨 특징량 추출식으로 이루어지는 저레벨 특징량 추출식 리스트(13)를 갖고 있다. 따라서, 저레벨 특징량 추출부(12)는, m종류의 저레벨 특징량을 고레벨 특징량 추출부(14)에 출력한다.
도 3은 저레벨 특징량 추출식의 예를 도시하고 있다. 예를 들면 도 3의 A에 도시하는 저레벨 특징량 추출식 f1은, 악곡의 파형 데이터를 입력으로 하여, 각 채널(예를 들면, L(Left) 채널과 R(Right) 채널)간에서 파형 데이터의 평균치(Mean)를 연산하고, 연산된 평균치를 시간축을 따라서 고속 푸리에 변환(FFT)을 행하고, FFT 결과로부터 주파수의 표준 편차(StDev)를 구하고, 그 결과를 저레벨 특징량 a로서 출력한다.
또한 예를 들면, 도 3의 B에 도시하는 저레벨 특징량 추출식 f2는, 악곡의 코드 진행 데이터를 입력으로 하여, 시간축을 따라서 마이너 코드의 출현율(Ratio)을 구하고, 그 결과를 저레벨 특징량 b로서 출력한다.
또한, 저레벨 특징량 추출부(12)의 출력인 저레벨 특징량은, 그것 단체로 의미가 있는 값일 필요 없다.
고레벨 특징량 추출부(14)는, 입력되는 m종류의 저레벨 특징량 중의 1 종류 이상의 저레벨 특징량에 비교적 단순한 연산(사칙 연산, 누승 연산 등)을 행하고, 그 연산 결과를 고레벨 특징량으로서 출력하는 k종류의 고레벨 특징량 추출식을 갖고 있다. 따라서, 고레벨 특징량 추출부(14)는, k종류의 고레벨 특징량을 출력한다.
도 4는 고레벨 특징량 추출식의 예를 도시하고 있다. 예를 들면 도 4의 A에 도시하는 고레벨 특징량 추출식 F1은, 저레벨 특징량 a, b, c, d, e에 사칙 연산을 행하고, 그 결과를 1 종류의 고레벨 특징량인 속도의 값으로서 출력한다.
또한 예를 들면, 도 4의 B에 도시하는 저레벨 특징량 추출식 F2는, 저레벨 특징량 a, c, d, e에 사칙 연산과 누승 연산을 행하고, 그 결과를 1 종류의 고레벨 특징량인 경쾌함의 값으로서 출력한다.
다음으로, 도 5는, 본 발명의 일 실시 형태인 특징량 추출 알고리즘 생성 장치(20)의 구성예를 도시하고 있다. 이 특징량 추출 알고리즘 생성 장치(20)는, 최적의 저레벨 특징량 추출식과 고레벨 특징량 추출식을 제네틱(Genetic)한 학습에 의해 생성하는 것으로서, m종류의 저레벨 특징량 추출식으로 이루어지는 저레벨 특징량 추출식 리스트를 n개 생성하는 저레벨 특징량 추출식 리스트 생성부(21), 저레벨 특징량 추출식 리스트 생성부(21)로부터 공급되는 n개의 저레벨 특징량 추출식 리스트에 l곡분의 입력 데이터(콘텐츠 데이터나 메타 데이터)를 대입하여, 각 입력 데이터에 대응하는 m종류의 저레벨 특징량을 n조 얻는 저레벨 특징량 연산부(24), 저레벨 특징량 연산부(24)로부터의 n조의 출력과 대응하는 교사 데이터(l곡에 각각 대응하는 k 항목의 고레벨 특징량)에 기초하여 고레벨 특징량 추출식을 학습에 의해 추정하는 고레벨 특징량 추출식 학습부(25), 학습이 진행되어 최종적 으로 생성된 고레벨 특징량 추출식을 이용하여 고레벨 특징량을 연산하는 고레벨 특징량 연산부(26), 및, 각 부의 동작의 반복(루프)을 제어하는 제어부(27)로 구성된다.
저레벨 특징량 추출식 리스트 생성부(21)는, 제1 세대의 저레벨 특징량 추출식 리스트에 대해서는 랜덤하게, 제2 세대 이후의 저레벨 특징량 추출식 리스트에 대해서는 전세대의 저레벨 특징량 추출식 리스트에 기초하는 저레벨 특징량을 이용하여 학습된 고레벨 특징량 추출식의 정밀도 등에 기초하여 생성한다.
저레벨 특징량 추출식 리스트 생성부(21)에 내장된 오퍼레이터 조 검출부(22)는, 생성된 저레벨 특징량 추출식 중에 빈출하는 복수의 오퍼레이터의 조합을 검출한다. 오퍼레이터 생성부(23)는, 오퍼레이터 조 검출부(22)에 의해 검출된 복수의 오퍼레이터의 조합을 새로운 1 종류의 오퍼레이터로서 등록한다.
고레벨 특징량 추출식 학습부(25)는, n조의 저레벨 특징량에 각각 대응하고, k종류의 고레벨 특징량 추출식을 생성함과 함께, 각 고레벨 특징량 추출식의 추정 정밀도와 각 고레벨 특징량 추출식에서의 각 저레벨 특징량의 기여율을 산출하여 저레벨 특징량 추출식 리스트 생성부(21)에 출력한다. 또한, 고레벨 특징량 추출식 학습부(25)는, 학습의 최종 세대에서,n조의 저레벨 특징량 추출식 리스트 중, 얻어진 고레벨 특징량의 평균 정밀도가 가장 높았던 리스트의 m조의 저레벨 특징량 추출식과, 이것에 대응하는 k종류의 고레벨 특징량 추출식을 고레벨 특징량 연산부(26)에 공급한다.
고레벨 특징량 연산부(26)는, 마지막으로 고레벨 특징량 추출식 학습부(25) 로부터 공급된 저레벨 특징량 추출식, 고레벨 특징량 추출식을 이용하여 고레벨 특징량을 연산한다.
도 6은, 고레벨 특징량 연산부(26)의 상세한 구성예를 도시하고 있다.
이 고레벨 특징량 연산부(26)는, 입력 데이터(콘텐츠 데이터와 그것에 대응하는 메타 데이터)를 최종적인 저레벨 특징량 추출식 리스트에 대입하여 저레벨 특징량을 연산하는 저레벨 특징량 연산부(41), 저레벨 특징량 연산부(41)에 의한 연산 결과를 최종적인 고레벨 특징량 추출식에 대입하여 고레벨 특징량을 연산하는 고레벨 특징량 연산부(42), 고레벨 특징량 연산부(42)에 의한 연산 결과와 교사 데이터(입력 데이터에 대응하는 고레벨 특징량)와 제곱 오차를 연산하는 제곱 오차 연산부(43), 저레벨 특징량 연산부(41)의 연산 결과인 저레벨 특징량을 입력, 제곱 오차 연산부(43)의 연산 결과인 제곱 오차를 출력으로 하는 리젝트 영역 추출식을 학습에 의해 생성하는 리젝트 영역 추출식 학습부(44), 및, 입력 데이터를 리젝트 영역 추출식 학습부(44)에 의해 생성된 리젝트 영역 추출식에 대입하여, 입력 데이터에 대응하여 연산되는 고레벨 특징량의 특징 추출 정밀도(제곱 오차)를 추정하고, 추정한 특징 추출 정밀도가 소정의 임계치 이상인 경우에만 고레벨 특징량 연산부(42)에 고레벨 특징량을 연산시키는 특징량 추출 정밀도 연산부(45)로 구성된다.
다음으로, 특징량 추출 알고리즘 생성 장치(20)의 동작에 대해 설명한다.
도 7은 특징량 추출 알고리즘 생성 장치(20)의 기본적인 동작인 특징량 추출 알고리즘 생성 처리를 설명하는 플로우차트이다.
스텝 S1에서, 제어부(27)는, 학습 루프 파라미터 G를 1로 초기화하여 학습 루프를 개시한다. 또한, 학습 루프는, 유저 등에 의해 미리 설정되어 있는 학습 횟수 g만큼 반복된다.
스텝 S2에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 도 8에 도시하는 바와 같이, m종류의 저레벨 특징량 추출식으로 이루어지는 저레벨 특징량 추출식 리스트를 n개 생성하여 저레벨 특징량 연산부(24)에 출력한다.
스텝 S2의 처리(저레벨 특징량 추출식 리스트 생성 처리)에 대해, 도 9의 플로우차트를 참조하여 상술한다.
스텝 S11에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 생성하는 저레벨 특징량 추출식 리스트가 제1 세대인지의 여부를 판정한다. 또한, 이 판정은 학습 루프 파라미터 G가 0일 때, 생성하는 저레벨 특징량 추출식 리스트가 제1 세대인 것으로 판정하도록 한다. 생성하는 저레벨 특징량 추출식 리스트가 제1 세대라고 판정된 경우, 처리는 스텝 S12로 진행한다. 스텝 S12에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 제1 세대의 저레벨 특징량 추출식 리스트를 랜덤하게 생성한다.
반대로, 스텝 S11에서, 생성하는 저레벨 특징량 추출식 리스트가 제1 세대가 아니라고 판정된 경우, 처리는 스텝 S13으로 진행한다. 스텝 S13에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 차세대의 저레벨 특징량 추출식 리스트를, 전세대의 저레벨 특징량 추출식 리스트에 기초하여 제네틱(Genetic)으로 생성한다.
스텝 S12의 처리(제1 세대 리스트 랜덤 생성 처리)에 대해, 도 10을 참조하 여 설명한다. 스텝 S21에서, 제어부(27)는, 리스트 루프 파라미터 N을 1로 초기화해서 리스트 루프를 개시한다. 또한, 리스트 루프는, 미리 설정되어 있는 리스트수 n만큼 반복된다.
스텝 S22에서, 제어부(27)는, 식 루프 파라미터 M을 1로 초기화하여 식 루프를 개시한다. 또한,식 루프는, 1개의 저레벨 특징량 추출식 리스트를 구성하는 저레벨 특징량 추출식수 m만큼 반복된다.
여기서, 식 루프에서 생성되는 저레벨 특징량 추출식의 기술 방법에 대해 도 11을 참조하여 설명한다. 저레벨 특징량 추출식은, 입력 데이터가 좌단에 기술되고, 그 우측에 1 종류 이상의 오퍼레이터가 연산의 순서에 대응하여 기술된다. 각 오퍼레이터에는, 적절하게, 처리 대칭축과 파라미터가 포함된다.
예를 들면 도 11의 예의 경우, 12TonesM이 입력 데이터이고, 32#Differential, 32#MaxIndex, 16#LPF_1;0.861 등이 오퍼레이터이다. 또한, 오퍼레이터 중의 32#, 16# 등이 처리 대칭축을 나타내고 있다. 예를 들면, 12TonesM은, 입력 데이터가 모노럴인 PCM(pulse coded modulation sound source) 파형 데이터가 시간축 방향의 데이터인 것을 나타내고 있다. 48#은 채널축, 32#은 주파수축과 음정축, 16#은 시간축을 나타낸다. 오퍼레이터 중의 0.861은 로우 패스 필터 처리에서의 파라미터로서, 예를 들면 투과시키는 주파수의 임계치를 나타내고 있다.
도 10으로 되돌아간다. 스텝 S23에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 생성하는 리스트 N의 저레벨 특징량 추출식 M의 입력 데이터를 랜덤하게 결정한다.
입력 데이터의 종류로서는, 예를 들면 도 12에 도시하는 Wav, 12Tones, Chord, Key 등이 생각된다. 입력 데이터인 Wav는, 도 13에 도시하는 바와 같은 PCM 파형 데이터이며, 보유 차원은 시간축과 채널축이다. 입력 데이터인 12Tones는, PCM 파형 데이터를 시간축을 따라서 음정마다 해석한 것이며, 보유 차원은 시간축과 음정축이다. 입력 데이터인 Chord는, 도 14에 도시하는 바와 같은 악곡의 코드 진행(C, C#, D,…, Bm)을 나타내는 데이터이며, 보유 차원은 시간축과 음정축이다. 입력 데이터인 Key는, 악곡의 키(C, C#, D,…, B)를 나타내는 데이터이며, 보유 차원은 시간축과 음정축이다.
도 10으로 되돌아간다. 스텝 S24에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 생성하는 리스트 N의 저레벨 특징량 추출식 M의 처리 대칭축과 파라미터를 랜덤하게 1개 결정한다. 파라미터의 종류로서는, 평균치(Mean), 고속 푸리에 변환(FFT), 표준 편차(StDev), 출현율(Ratio), 로우 패스 필터(LPF), 하이 패스 필터(HPF), 절대치(ABS), 미분(Differential), 최대치(MaxIndex), 불편분산(UVariance) 등이 생각된다. 또한, 결정된 오퍼레이터에 따라서는 처리 대칭축이 고정되어 있는 경우가 있으므로, 그 경우, 파라미터에 고정되어 있는 처리 대칭축을 채용한다. 또한, 파라미터를 필요로 하는 오퍼레이터가 결정된 경우, 파라미터도 랜덤 또는 미리 설정되어 있는 값으로 결정한다.
스텝 S25에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 현시점에서 생성되어 있는 리스트 N의 저레벨 특징량 추출식 M의 연산 결과가 스칼라(1차원)인지, 또는 차원수가 소정의 값(예를 들면 1 또는 2 정도의 작은 수) 이하인지의 여부를 판정하고, 소정 값보다 크다고 판정한 경우, 스텝 S24의 처리로 되돌아가서 오퍼레이터를 1개 추가한다. 그리고, 도 16에 도시하는 바와 같이 연산 결과의 보유 차원수가 적어져, 스텝 S25에서, 리스트 N의 저레벨 특징량 추출식 M의 연산 결과가 스칼라인지, 또는 차원수가 소정의 값(예를 들면 1 또는 2 정도의 작은 수) 이하인 것으로 판정된 경우, 처리는 스텝 S26으로 진행한다.
스텝 S26에서, 제어부(27)는, 식 루프 파라미터 M이 최대치 m보다 작은지의 여부를 판정하고, 식 루프 파라미터 M이 최대치 m보다 작은 경우, 식 루프 파라미터 M을 1만큼 인크리먼트하여 처리를 스텝 S23으로 되돌린다. 반대로, 식 루프 파라미터 M이 최대치 m보다 작지 않은 경우(식 루프 파라미터 M이 최대치 m과 동일한 값인 경우), 식 루프를 빠져나와 처리를 스텝 S27로 진행시킨다. 여기까지의 처리에 의해, 저레벨 특징량 추출식 리스트가 1개 생성되게 된다.
스텝 S27에서, 제어부(27)는, 리스트 루프 파라미터 N이 최대치 n보다 작은지의 여부를 판정하고, 리스트 루프 파라미터 N이 최대치 n보다 작은 경우, 리스트 루프 파라미터 N을 1만큼 인크리먼트하여 처리를 스텝 S22로 되돌린다. 반대로, 리스트 루프 파라미터 N이 최대치 n보다 작지 않은 경우(리스트 루프 파라미터 N 이 최대치 n과 동일한 값인 경우), 리스트 루프를 빠져나와 제1 세대 리스트 랜덤 생성 처리를 종료한다. 여기까지의 처리에 의해, 제1 세대의 저레벨 특징량 추출식 리스트가 n개 생성되게 된다.
다음으로, 도 9의 스텝 S13의 처리(차세대 리스트 제네틱 생성 처리)에 대 해, 도 17을 참조하여 설명한다. 스텝 S31에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 선택수 ns, 교차수 nx, 돌연 변이수 nm을 랜덤하게 결정한다. 단, 선택수 ns, 교차수 nx, 돌연 변이수 nm의 합은 n으로 한다. 또한, 선택수 ns, 교차수 nx, 돌연 변이수 nm은 미리 설정한 상수를 채용해도 된다.
스텝 S32에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 결정한 선택수 ns에 기초하여, ns개의 저레벨 특징량 추출식 리스트를 생성한다. 스텝 S33에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 결정한 교차수 nx에 기초하여, nx개의 저레벨 특징량 추출식 리스트를 생성한다. 스텝 S34에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 결정한 돌연 변이수 nm에 기초하여 nm개의 저레벨 특징량 추출식 리스트를 생성한다.
스텝 S32의 선택 생성 처리에 대해, 도 18의 플로우차트를 참조하여 상술한다. 이 선택 생성 처리에서는, 차세대의 n개의 저레벨 특징량 추출식 리스트 중의 선택수 ns개가 생성된다.
스텝 S41에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 전세대(1세대 전)의 n개의 저레벨 특징량 추출식 리스트를, 고레벨 특징량 추출식 학습부(25)로부터 입력된 고레벨 특징량 추출식의 추정 정밀도의 평균치가 높은 순으로 재배열한다. 그리고, 스텝 S32에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 재배열한 전세대의 n개의 저레벨 특징량 추출식 리스트 중, 상위 ns개를 차세대의 저레벨 특징량 추출식 리스트로서 채용한다. 이상에서 선택 생성 처리는 종료된다.
도 17의 스텝 S33의 교차 생성 처리에 대해, 도 19의 플로우차트를 참조하여 설명한다. 이 교차 생성 처리에서는, 차세대의 n개의 저레벨 특징량 추출식 리스트 중의 교차수 nx개가 생성된다.
스텝 S51에서, 제어부(27)는, 교차 루프 파라미터 NX를 1로 초기화하여 교차 루프를 개시한다. 또한, 교차 루프는, 교차수 nx만큼 반복된다.
스텝 S52에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 전세대의 저레벨 특징량 추출식 리스트로부터, 고레벨 특징량 추출식 학습부(25)로부터 입력된 고레벨 특징량 추출식의 추정 정밀도의 평균치가 높은 쪽의 것이 우선적으로 선택되도록 가중치 부여를 한 후, 랜덤하게 2개의 저레벨 특징량 추출식 리스트 A, B를 선택한다. 또한, 여기서의 선택은, 전술한 선택 생성 처리에서 선택된 ns개의 저레벨 특징량 추출식 리스트를 선택 후보로부터 제외해도 되고, 선택 후보에 남겨 두어도 된다.
스텝 S53에서, 제어부(27)는, 식 루프 파라미터 M을 1로 초기화하여 식 루프를 개시한다. 또한,식 루프는, 1개의 저레벨 특징량 추출식 리스트에 포함되는 식수 m만큼 반복된다.
스텝 S54에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 저레벨 특징량 추출식 리스트 A, B에 포함되는 2m개의 저레벨 특징량 추출식 리스트로부터, 고레벨 특징량 추출식 학습부(25)로부터 입력된 고레벨 특징량 추출식에서의 기여율이 높은 쪽의 것이 우선적으로 선택되도록 가중치 부여를 한 후, 랜덤하게 1개의 저레벨 특징량 추출식을 선택하여 차세대의 저레벨 특징량 추출식 리스트에 추가한다.
스텝 S55에서, 제어부(27)는, 식 루프 파라미터 M이 최대치 m보다 작은지의 여부를 판정하고, 식 루프 파라미터 M이 최대치 m보다 작은 경우, 식 루프 파라미터 M을 1만큼 인크리먼트하여 처리를 스텝 S54로 되돌린다. 반대로, 식 루프 파라미터 M이 최대치 m보다 작지 않은 경우(식 루프 파라미터 M이 최대치 m과 동일한 값인 경우), 식 루프를 빠져나와 처리를 스텝 S56으로 진행시킨다. 여기까지의 처리에 의해, 저레벨 특징량 추출식 리스트가 1개 생성되게 된다.
스텝 S56에서, 제어부(27)는, 교차 루프 파라미터 NX가 최대치 nx보다 작은지의 여부를 판정하고, 교차 루프 파라미터 NX가 최대치 nx보다 작은 경우, 교차 루프 파라미터 NX를 1만큼 인크리먼트하여 처리를 스텝 S52로 되돌린다. 반대로, 교차 루프 파라미터 NX가 최대치 nx보다 작지 않은 경우(교차 루프 파라미터 NX가 최대치 nx와 동일한 값인 경우), 교차 루프를 빠져나와 교차 생성 처리를 종료한다. 여기까지의 처리에 의해, 교차수 nx개의 저레벨 특징량 추출식 리스트가 생성되게 된다.
도 17의 스텝 S34의 돌연 변이 생성 처리에 대해, 도 20의 플로우차트를 참조하여 설명한다. 이 돌연 변이 생성 처리에서는, 차세대의 n개의 저레벨 특징량 추출식 리스트 중의 돌연 변이수 nm개가 생성된다.
스텝 S61에서, 제어부(27)는, 돌연 변이 루프 파라미터 NM을 1로 초기화하여 돌연 변이 루프를 개시한다. 또한, 돌연 변이 루프는, 돌연 변이수 nm만큼 반복된다.
스텝 S62에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 전세대의 저레벨 특징량 추출식 리스트로부터, 고레벨 특징량 추출식 학습부(25)로부터 입력된 고레 벨 특징량 추출식의 추정 정밀도의 평균치가 높은 쪽의 것이 우선적으로 선택되도록 가중치 부여를 한 후, 랜덤하게 1개의 저레벨 특징량 추출식 리스트 A를 선택한다. 또한, 여기서의 선택은, 전술한 선택 생성 처리에서 선택된 ns개의 저레벨 특징량 추출식 리스트를 선택 후보로부터 제외해도 되고, 선택 후보에 남겨 두어도 된다. 또한, 전술한 교차 생성 처리의 스텝 S52의 처리에서 선택된 저레벨 특징량 추출식 리스트를 선택 후보로부터 제외해도 되고, 선택 후보에 남겨 두어도 된다.
스텝 S63에서, 제어부(27)는, 식 루프 파라미터 M을 1로 초기화하여 식 루프를 개시한다. 또한,식 루프는, 1개의 저레벨 특징량 추출식 리스트에 포함되는 식수 m만큼 반복된다.
스텝 S64에서, 저레벨 특징량 추출식 리스트 생성부(21)는, 저레벨 특징량 추출식 리스트 A에 포함되는 m개의 저레벨 특징량 추출식 중의 M번째의 것에 주목하여, M번째의 저레벨 특징량 추출식의 연산 결과인 저레벨 특징량의 기여율이, 저레벨 특징량 추출식 리스트 A에 포함되는 다른 저레벨 특징량 추출식의 연산 결과인 저레벨 특징량의 기여율에 비해 낮은지의 여부를 판정한다. 구체적으로는, 예를 들면 저레벨 특징량 추출식 리스트 A에 포함되는 m개의 저레벨 특징량 추출식 중, 연산 결과인 저레벨 특징량의 기여율이 낮은 쪽의 소정의 순번까지 속하는지의 여부를 판정한다.
스텝 S64에서,M번째의 저레벨 특징량 추출식의 연산 결과인 저레벨 특징량의 기여율이 다른 것보다 낮다고 판정한 경우, 처리는 스텝 S65로 진행하여, 저레벨 특징량 추출식 리스트 생성부(21)는, M번째의 저레벨 특징량 추출식을 랜덤하게 변형하여 차세대의 저레벨 특징량 추출식 리스트에 추가한다.
반대로, 스텝 S64에서,M번째의 저레벨 특징량 추출식의 연산 결과인 저레벨 특징량의 기여율이 다른 것보다 낮지 않다고 판정한 경우, 처리는 스텝 S66으로 진행하고, 저레벨 특징량 추출식 리스트 생성부(21)는, M번째의 저레벨 특징량 추출식을 그대로 차세대의 저레벨 특징량 추출식 리스트에 추가한다.
스텝 S67에서, 제어부(27)는, 식 루프 파라미터 M이 최대치 m보다 작은지의 여부를 판정하고, 식 루프 파라미터 M이 최대치 m보다 작은 경우, 식 루프 파라미터 M을 1만큼 인크리먼트하여 처리를 스텝 S64로 되돌린다. 반대로, 식 루프 파라미터 M이 최대치 m보다 작지 않은 경우(식 루프 파라미터 M이 최대치 m과 동일한 값인 경우), 식 루프를 빠져나와 처리를 스텝 S68로 진행시킨다. 여기까지의 처리에 의해, 저레벨 특징량 추출식 리스트가 1개 생성되게 된다.
스텝 S68에서, 제어부(27)는, 돌연 변이 루프 파라미터 NM이 최대치 nm보다 작은지의 여부를 판정하고, 돌연 변이 루프 파라미터 NM이 최대치 nm보다 작은 경우, 돌연 변이 루프 파라미터 NM을 1만큼 인크리먼트하여 처리를 스텝 S62으로 되돌린다. 반대로, 돌연 변이 루프 파라미터 NM이 최대치 nm보다 작지 않은 경우(돌연 변이 루프 파라미터 NM이 최대치 nm과 동일한 값인 경우), 돌연 변이 루프를 빠져나와 돌연 변이 생성 처리를 종료한다. 여기까지의 처리에 의해, 돌연 변이수 nm개의 저레벨 특징량 추출식 리스트가 생성되게 된다.
이상 설명한 차세대 리스트 제네틱 생성 처리에 따르면, 전세대의 저레벨 특징량 추출식 리스트에 대응하는 추정 정밀도가 높은 것, 저레벨 특징량 추출식에 대응하는 기여율이 높은 것은 차세대에 계승되고, 추정 정밀도나 기여율이 낮은 것은 차세대에 계승되지 않고 도태되게 된다. 따라서, 세대가 진행됨에 따라, 저레벨 특징량 추출식 리스트에 대응하는 추정 정밀도는 향상되고, 저레벨 특징량 추출식에 대응하는 기여율도 향상되는 것을 기대할 수 있다.
도 7로 되돌아간다. 스텝 S3에서, 저레벨 특징량 연산부(24)는, 저레벨 특징량 추출식 리스트 생성부(21)로부터 입력된 n개의 저레벨 특징량 추출식 리스트에 곡 C1 내지 Cl의 l곡분의 입력 데이터(콘텐츠 데이터나 메타 데이터)를 대입하여 저레벨 특징량을 연산한다. 또한, 여기서 입력되는 l곡분의 입력 데이터는, 각각 k항목의 교사 데이터(대응하는 고레벨 특징량)가 미리 얻어져 있는 것을 사용한다. 예를 들면, 저레벨 특징량 연산부(24)는, 도 21의 A에 도시되는 바와 같은 보유 차원이 음정축과 시간축인 입력 데이터에 대하여 #16Mean의 오퍼레이터에 상당하는 연산을 실행한 경우, 도 21의 B에 도시하는 바와 같이 시간축을 처리 대상축으로 하여 각 음정의 값의 평균치가 산출된다.
그리고 연산 결과로서 얻어지는 도 22에 도시하는 바와 같은 n조의 각 입력 데이터에 대응하는 m종류의 저레벨 특징량을 고레벨 특징량 추출식 학습부(25)에 출력한다.
도 7로 되돌아간다. 스텝 S4에서, 고레벨 특징량 추출식 학습부(25)는, 저레벨 특징량 연산부(24)로부터 입력된 각 입력 데이터에 각각 대응하여 연산된 n조의 저레벨 특징량과, 대응하는 교사 데이터(도 23에 도시하는 바와 같이, 각 입력 데이터(악곡 C1 내지 Cl)에 각각 대응하는 k종류의 고레벨 특징량)에 기초하여, 1 조가 k종류의 고레벨 특징량 추출식의 조를 n조, 학습에 의해 추정한다(생성한다). 또한, 각 고레벨 특징량 추출식의 추정 정밀도와 각 고레벨 특징량 추출식에서의 각 저레벨 특징량의 기여율을 산출하여 저레벨 특징량 추출식 리스트 생성부(21)에 출력한다.
스텝 S4에서의 고레벨 특징량 추출식 학습 처리에 대해, 도 24의 플로우차트를 참조하여 상술한다.
스텝 S71에서, 제어부(27)는, 리스트 루프 파라미터 N을 1로 초기화하여 리스트 루프를 개시한다. 또한, 리스트 루프는, 미리 설정되어 있는 리스트수 n만큼 반복된다. 스텝 S72에서, 제어부(27)는, 교사 데이터 루프 파라미터 K를 1로 초기화하여 교사 데이터 루프를 개시한다. 또한, 교사 데이터 루프는, 미리 설정되어 있는 교사 데이터의 종류수 k만큼 반복된다.
스텝 S73에서, 제어부(27)는, 알고리즘 파라미터 A를 1로 초기화하여 알고리즘 루프를 개시한다. 또한, 알고리즘 루프는, 학습 알고리즘의 종류수 a만큼 반복된다.
적용하는 학습 알고리즘으로서는, 예를 들면, Regression(회귀 해석), Classify(클래스 분류), SVM(Support Vector Machine), 및 GP(Genetic Programming)를 예로 들 수 있다.
Regression에 속하는 학습 알고리즘으로서는, 도 25에 도시하는 바와 같이, 교사 데이터와 저레벨 특징량이 선형의 관계에 있다고 하는 가정에 기초하여 교사 데이터와 Y의 제곱 오차가 최소로 되도록 파라미터 bn을 학습하는 것, 및, 도 26에 도시하는 바와 같이, 교사 데이터와 저레벨 특징량이 비선형의 관계에 있다라고 하는 가정에 기초하여 교사 데이터와 Y의 제곱 오차가 최소로 되도록 파라미터 bnm을 학습하는 것을 예로 들 수 있다.
Classify에 속하는 학습 알고리즘으로서는, 도 27에 도시하는 바와 같이, 각 클래스(도 27의 경우, 남성 보컬 클래스와 여성 보컬 클래스)의 각각의 중심으로부터의 유클리드 거리 d를 산출하여 유클리드 거리 d가 최단인 클래스로 분류하는 것, 도 28에 도시하는 바와 같이, 각 클래스(도 28의 경우, 남성 보컬 클래스와 여성 보컬 클래스)의 평균 벡터와의 상관 correl을 산출하여 상관 correl이 최대의 클래스로 분류되는 것, 도 29에 도시하는 바와 같이, 각 클래스(도 29의 경우, 남성 보컬 클래스와 여성 보컬 클래스)의 각각의 중심으로부터의 마하라노비스 거리 d를 산출하여 마하라노비스 거리 d가 최단인 클래스로 분류하는 것, 도 30의 A에 도시하는 바와 같이, 각 클래스군(도 30A의 경우, 남성 보컬 클래스군과 여성 보컬 클래스군)의 분포를 복수의 클래스로 표현하고, 각각의 클래스군의 중심으로부터의 유클리드 거리 d를 산출하여 유클리드 거리 d가 최단인 클래스로 분류하는 것, 및, 도 30의 B에 도시하는 바와 같이, 각 클래스군(도 30의 B의 경우, 남성 보컬 클래스군과 여성 보컬 클래스군)의 분포를 복수의 클래스로 표현하고, 각각의 클래스군의 중심으로부터의 마하라노비스 거리 d를 산출하여 마하라노비스 거리 d가 최단인 클래스로 분류하는 것을 예로 들 수 있다.
SVM에 속하는 학습 알고리즘으로서는, 도 31에 도시하는 바와 같이, 각 클래스(도 31의 경우, 남성 보컬 클래스와 여성 보컬 클래스)의 경계면을 서포트 벡터로 표현하고, 분리면과 경계 부근의 벡터와의 거리(마진)가 최대로 되도록 파라미터 bnm을 학습하는 것을 예로 들 수 있다.
GP에 속하는 학습 알고리즘으로서는, 도 32에 도시하는 바와 같이, 저레벨 특징량을 조합한 식을 GP에서 생성하는 것, 도 33의 A에 도시하는 바와 같이, 저레벨 특징량을 조합한 식을 교차시키는 것, 및, 도 33의 B에 도시하는 바와 같이, 저레벨 특징량을 조합한 식을 돌연 변이시키는 것을 예로 들 수 있다.
예를 들면, 전술한 모든 학습 알고리즘을 이용하는 경우, 학습 알고리즘의 종류수 a는 11로 된다.
도 24로 되돌아간다. 스텝 S74에서, 제어부(27)는, 크로스 바리데이션 루프 파라미터 C를 1로 초기화하여 크로스 바리데이션 루프를 개시한다. 또한, 크로스 바리데이션 루프는, 미리 설정되어 있는 크로스 바리데이션 횟수 c만큼 반복된다.
스텝 S75에서, 고레벨 특징량 추출식 학습부(25)는, k종류의 교사 데이터 중,K번째의 종류의 l곡분의 교사 데이터(고레벨 특징량)를 랜덤하게 학습용과 평가용으로 2분할한다(크로스 바리데이션). 이하, 교사 데이터 중, 학습용으로 분류된 것을 학습용 데이터, 평가용으로 분류된 것을 평가용 데이터라고 한다.
스텝 S76에서, 고레벨 특징량 추출식 학습부(25)는, N번째의 저레벨 특징량 추출식 리스트를 이용하여 연산된 m종류의 저레벨 특징량과 학습용 데이터를 a번째의 학습 알고리즘에 적용하여 고레벨 특징량 추출식을 학습에 의해 추정한다. 이 학습 시에는, 연산량의 삭감과 과학습(오버 피팅)을 억지하기 위해, m종류의 저레벨 특징량 중의 몇개를 제네틱으로 선택하여 사용한다.
이 저레벨 특징량을 선택할 때의 평가치에는, 함수인 정보량 기준 AIC(Akaike Information Criterion), 또는 정보량 기준 BIC(Bayesian Information Criterion)를 이용한다. 정보량 기준 AIC 및 BIC는 학습 모델(지금의 경우, 선택되어 있는 저레벨 특징량)의 선택 기준으로서 이용하는 것으로서, 그 값이 작을수록 학습 모델일수록 좋게(평가가 높게) 된다.
AIC는 다음 식과 같이 표기된다.
AIC=-2×최대 대수 우도+2×자유 파라미터수
예를 들면, 학습 알고리즘에 Regression(선형)이 채용되어 있는 경우(도 25의 경우), 자유 파라미터수=n+1, 대수 우도=-0.5×학습용 데이터수×((log2π)+1+log(평균 제곱 오차))이므로,
AIC=학습용 데이터수×((log2π)+1+log(평균 제곱 오차))+2×(n+1)로 된다.
BIC는 다음식과 같이 표기된다.
BIC=-2×최대 대수 우도+log(학습용 데이터수)×자유 파라미터수
예를 들면, 학습 알고리즘에 Regression(선형)이 채용되어 있는 경우(도 25의 경우), BIC=학습용 데이터수×((log2π)+1+log(평균 제곱 오차))+log(학습용 데이터수)×(n+1)
로 된다. BIC는 AIC와 비교하여, 학습용 데이터수가 증가해도 그 값이 증가하기 어려운 것이 특징이다.
여기서, 스텝 S76의 학습 알고리즘에 기초하는 학습 처리에 대해, 도 34를 참조하여 설명한다. 이 학습 처리 시에는, 전술한 바와 같이, 연산량의 삭감과 과학습(오버 피팅)을 억지하기 위해, m종류의 저레벨 특징량 중의 몇 개를 제네틱으로 선택하여 사용한다.
스텝 S91에서, 고레벨 특징량 추출식 학습부(25)는, m종류의 저레벨 특징량 중, 선택하는 것(학습에 사용하는 것)을 랜덤하게 추출한 초기 집단을 p조 생성한다.
스텝 S92에서, 고레벨 특징량 추출식 학습부(25)는, 제네틱 알고리즘(GA : 유전적 알고리즘)에 의한 특징 선택 루프를 개시한다. 이 GA에 의한 특징 선택 루프는, 후술하는 스텝 S98에서 소정의 조건을 만족시킬 때까지 반복된다.
스텝 S93에서, 제어부(27)는, 초기 집단 루프 파라미터 P를 1로 초기화하여 초기 집단 루프를 개시한다. 또한, 초기 집단 루프는, 스텝 S91의 처리에서 생성된 저레벨 특징량의 초기 집단수 p만큼 반복된다.
스텝 S94에서, 고레벨 특징량 추출식 학습부(25)는, P번째의 초기 집단에 포함되는 저레벨 특징량과 교사 데이터 중의 학습용 데이터를 이용하여, a번째의 학습 알고리즘에 적용하여 고레벨 특징량 추출식을 학습에 의해 추정한다.
스텝 S95에서, 고레벨 특징량 추출식 학습부(25)는, 스텝 S94의 처리 결과로서 얻어진 고레벨 특징량의 평가치로서, 정보량 기준 AIC 또는 BIC를 연산한다. 스텝 S96에서, 제어부(27)는, 초기 집단 루프 파라미터 P가 최대치 p보다 작은지의 여부를 판정하고, 초기 집단 루프 파라미터 P가 최대치 p보다 작은 경우, 초기 집 단 루프 파라미터 P를 1만큼 인크리먼트하고 처리를 스텝 S94로 되돌린다. 반대로, 초기 집단 루프 파라미터 P가 최대치 p보다 작지 않은 경우(초기 집단 루프 파라미터 P가 최대치 p와 동일한 값인 경우), 초기 집단 루프를 빠져나와 처리를 스텝 S97로 진행시킨다. 이 초기 집단 루프에 의해, 각 초기 집단에 기초하여 학습된 고레벨 특징량 추출식의 평가치로서 정보 기준량을 얻을 수 있다.
스텝 S97에서, 고레벨 특징량 추출식 학습부(25)는, 학습에 사용하는 저레벨 특징량으로 이루어지는 p조의 초기 집단을, 그 평가치(정보량 기준)에 기초하여 제네틱으로 갱신한다. 구체적으로는, 도 17의 스텝 S32 내지 S34와 마찬가지로, 선택, 교차, 돌연 변이에 의해 초기 집단을 갱신한다. 이 갱신에 의해, 당초에는 랜덤하게 생성된 초기 집단이 고레벨 특징량 추출식의 평가치를 향상시키는 학습이 진행되게 된다.
스텝 S98에서, 제어부(27)는, p조의 초기 집단에 각각 대응하는 고레벨 특징량 추출식 중, 가장 평가치가 높은(정보 기준량이 작은) 것의 평가치가, GA에 의한 특징 선택 루프가 반복될 때마다 향상되고 있는(정보 기준량이 감소하고 있는) 동안에는 처리를 스텝 S93으로 되돌린다. 반대로, p조의 초기 집단에 각각 대응하는 고레벨 특징량 추출식 중, 가장 평가치가 높은 것의 평가치가, GA에 의한 특징 선택 루프가 반복되어도 향상되지 않은(정보 기준량이 감소하지 않은) 경우, GA에 의한 특징 선택 루프를 빠져나와, 가장 평가치가 높은 고레벨 특징량 추출식을 후단의 처리(도 24의 스텝 S77의 처리)에 출력한다. 그리고, 학습 알고리즘에 기초하는 학습 처리는 종료된다.
도 24로 되돌아간다. 스텝 S77에서, 고레벨 특징량 추출식 학습부(25)는, 스텝 S76의 처리에서 얻은 고레벨 특징량 추출식을 평가용 데이터를 이용하여 평가한다. 구체적으로는, 얻어진 고레벨 특징량 추출식을 이용하여 고레벨 특징량을 연산하고, 평가용 데이터와의 제곱 오차를 산출한다.
스텝 S78에서, 제어부(27)는, 크로스 바리데이션 루프 파라미터 C가 최대치 c보다 작은지의 여부를 판정하고, 크로스 바리데이션 루프 파라미터 C가 최대치 c보다 작은 경우, 크로스 바리데이션 루프 파라미터 C를 1만큼 인크리먼트하여 처리를 스텝 S75로 되돌린다. 반대로, 크로스 바리데이션 루프 파라미터 C가 최대치 c보다 작지 않은 경우(크로스 바리데이션 루프 파라미터 C가 최대치 c와 동일한 값인 경우), 크로스 바리데이션 루프를 빠져나와 처리를 스텝 S79로 진행시킨다. 여기까지의 처리에 의해, c개의 학습 결과, 즉, 고레벨 특징량 추출식이 얻어지게 된다. 이 크로스 바리데이션 루프에 의해, 학습용 데이터와 평가용 데이터가 랜덤으로 변환되므로, 고레벨 특징량 추출식이 과학습되어 있지 않은 것을 확인할 수 있다.
스텝 S79에서, 고레벨 특징량 추출식 학습부(25)는, 크로스 바리데이션 루프에 의해 얻어진 c개의 학습 결과, 즉, 고레벨 특징량 추출식 중, 스텝 S77의 처리에서의 평가치가 가장 높은 것을 선택한다.
스텝 S80에서, 제어부(27)는, 알고리즘 루프 파라미터 A가 최대치 a보다 작은지의 여부를 판정하고, 알고리즘 루프 파라미터 A가 최대치 a보다 작은 경우, 알고리즘 루프 파라미터 A를 1만큼 인크리먼트하여 처리를 스텝 S74로 되돌린다. 반 대로, 알고리즘 루프 파라미터 A가 최대치 a보다 작지 않은 경우(알고리즘 루프 파라미터 A가 최대치 a와 동일한 값인 경우), 알고리즘 루프를 빠져나와 처리를 스텝 S81로 진행시킨다. 이 알고리즘 루프에 의해, A 종류의 학습 알고리즘에 의해 학습된 K번째의 종류의 고레벨 특징량 추출식이 a개 얻어지게 된다. 따라서, 스텝 S81에서, 고레벨 특징량 추출식 학습부(25)는, 알고리즘 루프에 의해 얻어진 a개의 학습 결과, 즉, 고레벨 특징량 추출식 중, 스텝 S77의 처리에서의 평가치가 가장 높은 것을 선택한다.
스텝 S82에서, 제어부(27)는, 교사 데이터 파라미터 K가 최대치 k보다 작은지의 여부를 판정하고, 교사 데이터 루프 파라미터 K가 최대치 k보다 작은 경우, 교사 데이터 루프 파라미터 K를 1만큼 인크리먼트하여 처리를 스텝 S73으로 되돌린다. 반대로, 교사 데이터 루프 파라미터 K가 최대치 k보다 작지 않은 경우(교사 데이터 루프 파라미터 K가 최대치 k와 동일한 값인 경우), 교사 데이터 루프를 빠져나와 처리를 스텝 S83으로 진행시킨다. 이 교사 데이터 루프에 의해, N번째의 저레벨 특징량 추출식 리스트에 대응하는, k종류의 고레벨 특징량 추출식이 얻어지게 된다.
스텝 S83에서, 제어부(27)는, 리스트 루프 파라미터 N이 최대치 n보다 작은지의 여부를 판정하고, 리스트 루프 파라미터 N이 최대치 n보다 작은 경우, 리스트 루프 파라미터 N을 1만큼 인크리먼트하여 처리를 스텝 S72로 되돌린다. 반대로, 리스트 루프 파라미터 N이 최대치 n보다 작지 않은 경우(리스트 루프 파라미터 N이 최대치 n과 동일한 값인 경우), 리스트 루프를 빠져나와 처리를 스텝 S84로 진행시 킨다. 이 리스트 루프에 의해, n개의 저레벨 특징량 추출식 리스트에 각각 대응하는, k종류의 고레벨 특징량 추출식이 얻어지게 된다.
스텝 S84에서, 고레벨 특징량 추출식 학습부(25)는, 얻어진 n개의 저레벨 특징량 추출식 리스트에 각각 대응하는, k종류의 고레벨 특징량 추출식의 추정 정밀도와 각 고레벨 특징량 추출식에서의 각 저레벨 특징량의 기여율을 산출하여 저레벨 특징량 추출식 리스트 생성부(21)에 출력한다. 이상으로, 고레벨 특징량 추출식 학습 처리가 종료된다.
도 7로 되돌아간다. 스텝 S5에서, 제어부(27)는, 학습 루프 파라미터 G가 최대치 g보다 작은지의 여부를 판정하고, 학습 루프 파라미터 G가 최대치 g보다 작은 경우, 학습 루프 파라미터 G를 1만큼 인크리먼트하여 처리를 스텝 S2로 되돌린다. 반대로, 학습 루프 파라미터 G가 최대치 g보다 작지 않은 경우(학습 루프 파라미터 G가 최대치 g와 동일한 값인 경우), 학습 루프를 빠져나와 처리를 스텝 S6에 진행시킨다. 또한, 스텝 S1 내지 S5의 학습 룰이 특징량 추출 알고리즘의 학습 과정이며, 이 이후의 스텝 S6은, 특징량 추출 알고리즘을 이용한 고레벨 특징량의 연산을 위한 처리이다.
스텝 S6에서, 고레벨 특징량 추출식 학습부(25)는, 학습의 최종 세대에서, n조의 저레벨 특징량 추출식 리스트 중, 얻어진 고레벨 특징량의 평균 정밀도가 가장 높았던 리스트의 m조의 저레벨 특징량 추출식과, 이것에 대응하는 k종류의 고레벨 특징량 추출식을 고레벨 특징량 연산부(26)에 공급한다. 스텝 S7에서, 고레벨 특징량 연산부(26)는, 고레벨 특징량 추출식 학습부(25)로부터 공급된 저레벨 특징 량 추출식, 고레벨 특징량 추출식 중, 마지막으로 고레벨 특징량 추출식 학습부(25)로부터 공급된 저레벨 특징량 추출식, 고레벨 특징량 추출식을 이용하여 고레벨 특징량을 연산한다. 또한, 스텝 S7의 처리에 대해서는 도 38 이후를 참조하여 후술한다.
이상, 특징량 추출 알고리즘 생성 장치(20)에 의한 특징량 추출 알고리즘 생성 처리의 설명을 종료한다.
다음으로, 전술한 특징량 추출 알고리즘 생성 처리에서의 스텝 S1 내지 S6의 학습 루프가 반복되어 저레벨 특징량 추출식 리스트의 세대가 진행되어 성장하였을 때, 즉, 저레벨 특징량 추출식의 기여도가 향상되거나, 대응하는 고레벨 특징량 추출식의 추정 정밀도가 향상되었을 때에 실행하는 신규 오퍼레이터 생성 처리에 대해 설명한다.
저레벨 특징량 추출식 리스트의 세대가 진행되어 성장한 경우, 저레벨 특징량 추출식 리스트 중에는, 도 35에 도시하는 바와 같이 복수의 오퍼레이터의 순열(이하, 오퍼레이터의 조합이라고 함)이 다른 저레벨 특징량 추출식 상에 빈출하게 된다. 따라서, 다른 저레벨 특징량 추출식 상에 빈출하는 복수의 오퍼레이터의 조합을 새로운 오퍼레이터의 하나로서, 저레벨 특징량 추출식 리스트 생성부(21)에서 사용하는 오퍼레이터에 등록하도록 한다.
예를 들면, 도 35의 경우, 3개의 오퍼레이터의 조합 "32#FFT, Log, 32#FFT"가 5개의 저레벨 특징량 추출식에 출현하고 있다. 이 "32#FFT, Log, 32#FFT"가 1개의 오퍼레이터 NewOperator1로서 등록된 경우, 차세대 이후의 저레벨 특징량 추 출식에는, 예를 들면 도 36에 도시하는 바와 같이 오퍼레이터NewOperator1이 포함되게 된다.
이 신규 오퍼레이터 생성 처리에 대해, 도 37의 플로우차트를 참조하여 설명한다. 스텝 S101에서, 오퍼레이터 조 검출부(22)는, 소정 수(예를 들면, 1 내지 5 정도) 이하의 오퍼레이터로 이루어지는 오퍼레이터의 순열(순서가 있는 오퍼레이터의 조합)을 생성한다. 여기서 생성되는 오퍼레이터의 조합수를 og로 한다.
스텝 S102에서, 제어부(27)는, 조합 루프 파라미터 OG를 1로 초기화하여 조합 루프를 개시한다. 또한, 조합 루프는, 오퍼레이터의 조합수 og만큼 반복된다.
스텝 S103에서,og번째의 오퍼레이터의 조합의 출현 빈도 Count를 1로 초기화한다. 스텝 S104에서, 제어부(27)는, 리스트 루프 파라미터 N을 0으로 초기화해서 리스트 루프를 개시한다. 또한, 리스트 루프는, 미리 설정되어 있는 리스트수 n만큼 반복된다. 스텝 S105에서, 제어부(27)는, 식 루프 파라미터 M을 1로 초기화하여 식 루프를 개시한다. 또한,식 루프는, 1개의 저레벨 특징량 추출식 리스트를 구성하는 저레벨 특징량 추출식수 m만큼 반복된다.
스텝 S106에서, 오퍼레이터 조 검출부(22)는, N번째의 저레벨 특징량 추출식 리스트를 구성하는 M번째의 저레벨 특징량 추출식 상에 og번째의 오퍼레이터의 조합이 존재하는지의 여부를 판정하고, 존재한다고 판정한 경우, 처리를 스텝 S107에 진행시켜 출현 빈도 Count를 1만큼 인크리먼트한다. 반대로, og번째의 오퍼레이터의 조합이 존재하지 않는다고 판정한 경우, 스텝 S107을 스킵하여, 처리를 스텝 S108로 진행시킨다.
스텝 S108에서, 제어부(27)는, 식 루프 파라미터 M이 최대치 m보다 작은지의 여부를 판정하고, 식 루프 파라미터 M이 최대치 m보다 작은 경우, 식 루프 파라미터 M을 1만큼 인크리먼트하여 처리를 스텝 S106으로 되돌린다. 반대로, 식 루프 파라미터 M이 최대치 m보다 작지 않은 경우(식 루프 파라미터 M이 최대치 m과 동일한 값인 경우), 식 루프를 빠져나와 처리를 스텝 S109로 진행시킨다.
스텝 S109에서, 제어부(27)는, 리스트 루프 파라미터 N이 최대치 n보다 작은지의 여부를 판정하고, 리스트 루프 파라미터 N이 최대치 n보다 작은 경우, 리스트 루프 파라미터 N을 1만큼 인크리먼트하여 처리를 스텝 S105로 되돌린다. 반대로, 리스트 루프 파라미터 N이 최대치 n보다 작지 않은 경우(리스트 루프 파라미터 N이 최대치 n과 동일한 값인 경우), 리스트 루프를 빠져나와 처리를 스텝 S110으로 진행시킨다.
스텝 S110에서, 제어부(27)는, 조합 루프 파라미터 OG가 최대치 og보다 작은지의 여부를 판정하고, 조합 루프 파라미터 OG가 최대치 og보다 작은 경우, 조합 루프 파라미터 OG를 1만큼 인크리먼트하여 처리를 스텝 S103으로 되돌린다. 반대로, 조합 루프 파라미터 OG가 최대치 og보다 작지 않은 경우(조합 루프 파라미터 OG가 최대치 og와 동일한 값인 경우), 조합 루프를 빠져나와 처리를 스텝 S110으로 진행시킨다. 여기까지의 처리에 의해, 모든 오퍼레이터의 조합에 각각 대응하는 출현 빈도 Count가 검출되게 된다.
스텝 S111에서, 오퍼레이터 조 검출부(22)는, 출현 빈도 Count가 소정의 임계치 이상의 오퍼레이터의 조합을 추출하여 오퍼레이터 생성부(23)에 출력한다. 스텝 S112에서, 오퍼레이터 생성부(23)는, 오퍼레이터 조 검출부(22)로부터 입력된 오퍼레이터의 조합을 새로운 1개의 오퍼레이터로서 등록한다. 이상으로 신규 오퍼레이터 생성 처리가 종료된다.
이상 설명한 바와 같이, 신규 오퍼레이터 생성 처리에 따르면, 출현 빈도가 높은, 즉, 고레벨 특징량을 연산하는 데 있어서 유효하다고 생각되는 오퍼레이터의 조합이 1개의 오퍼레이터로 되어, 차세대 이후의 저레벨 특징량 추출식에서 사용되므로, 저레벨 특징량 추출식의 작성 속도와 성장 속도가 향상된다. 또한, 유효한 저레벨 특징량 추출식이 조기에 발견되게 된다. 또한, 종래, 수동으로 발견하였던 유효하다고 생각되는 오퍼레이터의 조합을 자동적으로 검출할 수 있으므로, 이 점도 신규 오퍼레이터 생성 처리가 발휘하는 효과 중 하나이다.
다음으로, 전술한 도 7의 스텝 S7의 처리에 대해, 도 38의 플로우차트를 참조하여 설명한다. 스텝 S141에서, 고레벨 특징량 연산부(26)는, 고레벨 특징량 추출식 학습부(25)로부터 공급된 최종적인 고레벨 특징량 추출식 중, 높은 정밀도의 연산 결과가 얻어지는 것만을 선택하기 위한 고정밀도 리젝트 처리를 실행한다.
고정밀도 리젝트 처리는, 고레벨 특징량의 정밀도는 저레벨 특징량의 값에 인과 관계가 있다라는 생각에 기초하여, 저레벨 특징량을 입력으로 하여 고레벨 특징량의 정밀도를 출력하는 리젝트 영역 추출식을 학습에 의해 얻는 것이다. 고정밀도 리젝트 처리에 대해, 도 39의 플로우차트를 참조하여 설명한다.
스텝 S151에서, 고레벨 특징량 연산부(26)의 저레벨 특징량 연산부(41)는, 최종적인 저레벨 특징량 추출식 리스트를 취득한다. 고레벨 특징량 연산부(26)의 고레벨 특징량 연산부(42)는, 최종적인 고레벨 특징량 추출식을 취득한다.
스텝 S152에서, 제어부(27)는, 컨텐츠 루프 파라미터 L을 1로 초기화하여 콘텐츠 루프를 개시한다. 또한, 콘텐츠 루프는, 고정밀도 리젝트 처리를 실행하기 위해 준비할 수 있는 입력 데이터(콘텐츠 데이터와 메타 데이터)의 수 l만큼 반복된다. 또한, 준비할 수 있는 입력 데이터에 대응하는 고레벨 특징량도, 교사 데이터로서 준비되어 있는 것으로 한다.
스텝 S153에서, 저레벨 특징량 연산부(41)는, 스텝 S151의 처리에서 취득한 최종적인 저레벨 특징량 추출식 리스트에 L번째의 입력 데이터를 대입하고, 그 연산 결과인 m종류의 저레벨 특징량을 고레벨 특징량 연산부(42) 및 리젝트 영역 추출식 학습부(44)에 출력한다. 고레벨 특징량 연산부(42)는, 스텝 S151의 처리에서 취득한 최종적인 고레벨 특징량 추출식에, 저레벨 특징량 연산부(41)로부터 입력된 m종류의 저레벨 특징량을 대입하고, 그 연산 결과인 고레벨 특징량을 제곱 오차 연산부(43)에 출력한다.
스텝 S154에서, 제곱 오차 연산부(43)는, 고레벨 특징량 연산부(42)로부터 입력된 고레벨 특징량과, 교사 데이터(입력 데이터에 대응하는 참 고레벨 특징량)와의 제곱 오차를 연산하여 리젝트 영역 추출식 학습부(44)에 출력한다. 이 연산 결과인 제곱 오차가, 고레벨 특징량 연산부(42)에서 연산되는 고레벨 특징량 추출식의 정밀도(이하, 특징 추출 정밀도라고 함)로 된다.
스텝 S155에서, 제어부(27)는, 콘텐츠 루프 파라미터 L이 최대치 l보다 작은지의 여부를 판정하고, 콘텐츠 루프 파라미터 L이 최대치 l보다 작은 경우, 콘텐츠 루프 파라미터 L을 1만큼 인크리먼트하여 처리를 스텝 S153으로 되돌린다. 반대로, 콘텐츠 루프 파라미터 L이 최대치 l보다 작지 않은 경우(콘텐츠 루프 파라미터L이 최대치 l과 동일한 값인 경우), 콘텐츠 루프를 빠져나와 처리를 스텝 S156으로 진행시킨다. 여기까지의 처리에 의해, 각 입력 데이터에 각각 대응하는, 연산에 의해 얻어진 고레벨 특징량과 교사 데이터와의 제곱 오차가 얻어지게 된다.
스텝 S156에서, 리젝트 영역 추출식 학습부(44)는, 저레벨 특징량 연산부(41)로부터 입력되는 저레벨 특징량과 제곱 오차 연산부(43)로부터 입력되는 제곱 오차에 기초하는 학습에 의해, 저레벨 특징량을 입력으로 하여 그것에 기초하여 연산되는 고레벨 특징량의 특징 추출 정밀도를 출력으로 하는 리젝트 영역 추출식을 생성하고, 생성한 리젝트 영역 추출식을 특징량 추출 정밀도 연산부(45)에 공급한다. 이상으로 고정밀도 리젝트 처리가 종료되고, 처리는 도 38의 스텝 S142로 진행된다.
스텝 S142에서, 저레벨 특징량 연산부(41)는, 고레벨 특징량을 구하고자 하는 악곡의 입력 데이터를, 최종적인 저레벨 특징량 추출식 리스트에 L번째의 입력 데이터를 대입하여 저레벨 특징량을 연산하고, 연산 결과를 고레벨 특징량 연산부(42) 및 특징량 추출 정밀도 연산부(45)에 출력한다.
스텝 S143에서, 특징량 추출 정밀도 연산부(45)는, 저레벨 특징량 연산부(41)로부터 입력되는 저레벨 특징량을, 리젝트 영역 추출식 학습부(44)로부터 공급된 리젝트 영역 추출식에 대입하여, 저레벨 특징량 연산부(41)로부터 입력되는 저레벨 특징량에 기초하여 연산되는 고레벨 특징량의 특징량 추출 정밀도(즉, 고레 벨 특징량 연산부(42)에서 연산되는 고레벨 특징량에 대하여 추정되는 제곱 오차)를 연산한다.
스텝 S144에서, 특징량 추출 정밀도 연산부(45)는, 스텝 S143의 처리에서 연산한 특징량 추출 정밀도가 소정의 임계치 이상인지의 여부를 판정하고, 연산한 특징량 추출 정밀도가 소정의 임계치 이상이라고 판정한 경우, 처리는 스텝 S145로 진행하여, 특징량 추출 정밀도 연산부(45)는, 고레벨 특징량 연산부(42)에 대하여 고레벨 특징량의 연산을 실행시킨다. 고레벨 특징량 연산부(42)는, 스텝 S142의 처리에서 저레벨 특징량 연산부(41)로부터 입력된 m종류의 저레벨 특징량을, 최종적인 고레벨 특징량 추출식에 대입하여 고레벨 특징량을 연산한다. 그리고, 여기서 연산된 고레벨 특징량이 출력되어, 고정밀도 고레벨 특징량 연산 처리가 종료된다.
또한, 스텝 S144에서, 연산한 특징량 추출 정밀도가 소정의 임계치보다 작다고 판정된 경우, 스텝 S145는 스킵되어 고정밀도 고레벨 특징량 연산 처리가 종료된다.
따라서, 고정밀도 고레벨 특징량 연산 처리에 따르면, 고레벨 특징량 추출식에 의해 계산되는 고레벨 특징량의 정밀도를 추정할 수 있다. 또한, 높은 정밀도를 기대할 수 없는 고레벨 특징량을 연산하지 않으므로, 불필요한 연산을 생략하는 것이 가능해진다.
이상 설명한 바와 같이, 본 발명을 적용한 특징량 추출 알고리즘 생성 장치(20)에 의한 특징량 추출 알고리즘 학습 처리에 따르면, 악곡 데이터로부터 대응 하는 특징량을 추출할 수 있는 알고리즘을, 고정밀도로 신속하게 생성하는 것이 가능해질 뿐만 아니라, 고정밀도의 고레벨 특징량만을 적은 연산량으로 취득하는 것이 가능해진다.
또한, 본 발명은, 악곡의 고레벨 특징량을 취득하는 경우뿐만 아니라, 영상 데이터 등 모든 종류의 콘텐츠 데이터의 고레벨 특징량을 취득하는 경우에 적용하는 것이 가능하다.
그런데, 전술한 일련의 처리는, 하드웨어에 의해 실행시킬 수도 있지만, 소프트웨어에 의해 실행시킬 수도 있다. 일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 그 소프트웨어를 구성하는 프로그램이, 전용의 하드웨어에 내장되어 있는 컴퓨터, 또는, 각종 프로그램을 인스톨함으로써, 각종 기능을 실행하는 것이 가능한, 예를 들면 범용의 퍼스널 컴퓨터 등에, 기록 매체로부터 인스톨된다.
이 퍼스널 컴퓨터(100)는, CPU(Central Processing Unit)(101)를 내장하고 있다. CPU(101)에는 버스(104)를 통하여, 입출력 인터페이스(105)가 접속되어 있다. 버스(104)에는, ROM(Read Only Memory)(102) 및 RAM(Random Access Memory)(103)이 접속되어 있다.
입출력 인터페이스(105)에는, 유저가 조작 커맨드를 입력하는 키보드, 마우스 등의 입력 디바이스로 이루어지는 입력부(106), 조작 화면 등을 표시하는 CRT(Cathode Ray Tube) 또는 LCD(Liquid Crystal Display) 등의 디스플레이로 이루어지는 출력부(107), 프로그램이나 각종 데이터를 저장하는 하드디스크 드라이브 등으로 이루어지는 기억부(108), 및 모뎀, LAN(Local Area Network) 어댑터 등으로 이루어지고, 인터넷으로 대표되는 네트워크를 통한 통신 처리를 실행하는 통신부(109)가 접속되어 있다. 또한, 자기 디스크(플렉시블 디스크를 포함함), 광 디스크(CD-ROM(Compact Disc-Read Only Memory), DVD(Digital Versatile Disc)를 포함함), 광자기 디스크(MD(Mini Disc)를 포함함), 혹은 반도체 메모리 등의 기록 매체(111)에 대하여 데이터를 기입 및 판독하는 드라이브(110)가 접속되어 있다.
이 퍼스널 컴퓨터(100)에 전술한 일련의 처리를 실행시키는 프로그램은, 기록 매체(111)에 저장된 상태에서 퍼스널 컴퓨터(100)에 공급되고, 드라이브(110)에 의해 읽어내어져 기억부(108)에 내장되는 하드디스크 드라이브에 인스톨되어 있다. 기억부(108)에 인스톨되어 있는 프로그램은, 입력부(106)에 입력되는 유저로부터의 커맨드에 대응하는 CPU(101)의 명령에 의해, 기억부(108)로부터 RAM(103)에 로드되어 실행된다.
또한, 본 명세서에서, 프로그램에 기초하여 실행되는 스텝은, 기재된 순서에 따라서 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않더라도, 병렬적 혹은 개별적으로 실행되는 처리도 포함하는 것이다.
또한, 프로그램은, 1대의 컴퓨터에 의해 처리되는 것이어도 되고, 복수의 컴퓨터에 의해 분산 처리되는 것이어도 된다. 또한, 프로그램은, 먼 곳의 컴퓨터에 전송되어 실행되는 것이어도 된다.
또한, 본 명세서에서, 시스템이란, 복수의 장치에 의해 구성되는 장치 전체를 나타내는 것이다.
또한, 본 발명의 실시 형태는, 전술한 실시 형태에 한정되는 것이 아니라, 본 발명의 요지를 일탈하지 않는 범위에서 여러 가지 변경이 가능하다.
본 발명의 일 측면에 따르면, 악곡 데이터 등의 콘텐츠 데이터로부터 대응하는 특징량을 추출할 수 있는 알고리즘을 이용하여, 해당 알고리즘에 의해 계산된 특징량의 오차를 정밀도 좋게 추정할 수 있다.

Claims (5)

  1. 콘텐츠 데이터의 특징량을 연산하는 정보 처리 장치에 있어서,
    상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하는 제1 연산 수단과,
    연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하는 제2 연산 수단과,
    연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하는 산출 수단과,
    상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하는 생성 수단을 포함하고,
    상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 제2 연산 수단에 상기 고레벨 특징량을 연산시키는 연산 제어 수단
    을 포함하는 정보 처리 장치.
  2. 제1항에 있어서,
    상기 산출 수단은, 연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 제곱 오차를 산출하는 정보 처리 장치.
  3. 제1항에 있어서,
    상기 제어 수단은, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차가 임계치보다 작을 때에만, 상기 제2 연산 수단에 상기 고레벨 특징량을 연산시키는 정보 처리 장치.
  4. 콘텐츠 데이터의 특징량을 연산하는 정보 처리 장치의 정보 처리 방법에 있어서,
    상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하고,
    연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하고,
    연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하고,
    상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하고,
    상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 고레벨 특징량을 연산시키는
    스텝을 포함하는 정보 처리 방법.
  5. 콘텐츠 데이터의 특징량을 연산하기 위한 프로그램으로서,
    상기 콘텐츠 데이터 또는 상기 콘텐츠 데이터에 대응하는 메타 데이터를 입력으로 하여 저레벨 특징량을 출력하는 저레벨 특징량 추출식을 이용하여 상기 저레벨 특징량을 연산하고,
    연산된 상기 저레벨 특징량을 입력으로 하여 상기 콘텐츠 데이터의 특징을 나타내는 고레벨 특징량을 출력하는 고레벨 특징량 추출식을 이용하여 상기 고레벨 특징량을 연산하고,
    연산된 상기 고레벨 특징량과, 미리 얻어져 있는 상기 콘텐츠 데이터에 대응하는 고레벨 특징량과의 오차를 산출하고,
    상기 저레벨 특징량을 입력으로 하여 상기 오차를 출력하는 오차 추정식을, 산출된 상기 오차를 교사 데이터로 하는 학습에 의해 생성하고,
    상기 콘텐츠 데이터에 대응하는 고레벨 특징량을 취득하는 경우, 연산된 상기 저레벨 특징량을 생성한 상기 오차 추정식에 적용하여 대응하는 오차를 추정하고, 추정한 상기 오차에 따라 상기 고레벨 특징량을 연산시키는 스텝
    을 포함하는 처리를 컴퓨터에 실행시키는 프로그램.
KR1020060103227A 2005-10-25 2006-10-24 정보 처리 장치, 정보 처리 방법, 및 프로그램 KR20070044780A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2005-00310407 2005-10-25
JP2005310407A JP4987282B2 (ja) 2005-10-25 2005-10-25 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
KR20070044780A true KR20070044780A (ko) 2007-04-30

Family

ID=37696076

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060103227A KR20070044780A (ko) 2005-10-25 2006-10-24 정보 처리 장치, 정보 처리 방법, 및 프로그램

Country Status (5)

Country Link
US (1) US7738982B2 (ko)
EP (1) EP1780703A1 (ko)
JP (1) JP4987282B2 (ko)
KR (1) KR20070044780A (ko)
CN (1) CN101030366B (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4935047B2 (ja) * 2005-10-25 2012-05-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP4333700B2 (ja) * 2006-06-13 2009-09-16 ソニー株式会社 和音推定装置及び方法
JP4239109B2 (ja) 2006-10-20 2009-03-18 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
EP2111062B1 (en) * 2008-04-16 2014-11-12 LG Electronics Inc. A method and an apparatus for processing an audio signal
KR101061128B1 (ko) * 2008-04-16 2011-08-31 엘지전자 주식회사 오디오 신호 처리 방법 및 이의 장치
JP5594532B2 (ja) 2010-11-09 2014-09-24 ソニー株式会社 情報処理装置および方法、情報処理システム、並びに、プログラム
JP2013080538A (ja) 2011-10-04 2013-05-02 Sony Corp コンテンツ再生装置およびコンテンツ再生方法、並びにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3299574B2 (ja) * 1992-12-04 2002-07-08 富士通株式会社 認識装置
JP2993862B2 (ja) * 1995-03-22 1999-12-27 株式会社エイ・ティ・アール音声翻訳通信研究所 信号認識方法、信号認識装置、信号認識装置の学習方法及び信号認識装置の学習装置
DE19649296C2 (de) * 1996-11-28 2002-01-17 Blue Chip Music Gmbh Verfahren zur Tonhöhenerkennung bei zupf- oder schlagerregten Saiteninstrumenten
DE59814066D1 (de) * 1997-03-10 2007-09-06 Fraunhofer Ges Forschung Sichere identifikation mit vorauswahl und rückweisungsklasse
JP4027051B2 (ja) * 2001-03-22 2007-12-26 松下電器産業株式会社 楽曲登録装置、楽曲登録方法、及びそのプログラムと記録媒体
US6996525B2 (en) * 2001-06-15 2006-02-07 Intel Corporation Selecting one of multiple speech recognizers in a system based on performance predections resulting from experience
EP1300831B1 (en) * 2001-10-05 2005-12-07 Sony Deutschland GmbH Method for detecting emotions involving subspace specialists
DE20321797U1 (de) * 2002-12-17 2010-06-10 Sony France S.A. Vorrichtung zum automatischen Erzeugen einer allgemeinen Extraktionsfunktion, die aus einem Eingabesignal berechenbar ist, z.B. einem Audiosignal, um daraus einen vorbestimmten globalen charakteristischen Wert seines Inhalts zu erzeugen, z.B. einen Deskriptor
JP4115923B2 (ja) * 2003-11-05 2008-07-09 シャープ株式会社 楽曲検索システムおよび楽曲検索方法
EP1531478A1 (en) * 2003-11-12 2005-05-18 Sony International (Europe) GmbH Apparatus and method for classifying an audio signal

Also Published As

Publication number Publication date
CN101030366A (zh) 2007-09-05
JP2007121456A (ja) 2007-05-17
US7738982B2 (en) 2010-06-15
JP4987282B2 (ja) 2012-07-25
CN101030366B (zh) 2011-06-01
US20070095197A1 (en) 2007-05-03
EP1780703A1 (en) 2007-05-02

Similar Documents

Publication Publication Date Title
KR101193265B1 (ko) 정보 처리 장치, 정보 처리 방법 및 컴퓨터 판독가능 기록매체
JP4935047B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20070044780A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
US7567972B2 (en) Method and system for data mining in high dimensional data spaces
US20110029469A1 (en) Information processing apparatus, information processing method and program
US20130066452A1 (en) Information processing device, estimator generating method and program
TW202123098A (zh) 深度神經網路超參數選擇方法及電子裝置
JP2020034882A (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
CN110991494A (zh) 一种基于改进的飞蛾优化算法构建预测模型的方法
CN110738362A (zh) 一种基于改进的多元宇宙算法构建预测模型的方法
US8626685B2 (en) Information processsing apparatus, information processing method, and program
CN113673679A (zh) 一种基于粒子群优化神经网络的烘丝工艺参数选取方法
JP2007122186A (ja) 情報処理装置、情報処理方法、およびプログラム
JP4433323B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4392621B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7468088B2 (ja) 画像処理システム、及び画像処理プログラム
JP2009110212A (ja) 情報処理装置、情報処理方法、およびプログラム
JP6233432B2 (ja) 混合モデルの選択方法及び装置
JP2009104275A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2022244563A1 (ja) 予測装置、学習装置、予測方法、学習方法、予測プログラム及び学習プログラム
Antony et al. T-GEN: A tabu search based genetic algorithm for the automatic playlist generation problem
KR100914518B1 (ko) 장르 분류 택소노미 생성 시스템 및 그 방법, 상기 방법을구현하는 프로그램이 기록된 기록매체
Erickson Comparing self-extracted to third-party audio features for music genre classification
JP2008181294A (ja) 情報処理装置および方法、並びにプログラム
Jastrzebska et al. Optical music recognition as the case of imbalanced pattern recognition: A study of complex classifiers

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right