KR102402113B1 - 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법 - Google Patents

인공지능을 이용한 오케스트라 합주 시스템 및 그 방법 Download PDF

Info

Publication number
KR102402113B1
KR102402113B1 KR1020200147800A KR20200147800A KR102402113B1 KR 102402113 B1 KR102402113 B1 KR 102402113B1 KR 1020200147800 A KR1020200147800 A KR 1020200147800A KR 20200147800 A KR20200147800 A KR 20200147800A KR 102402113 B1 KR102402113 B1 KR 102402113B1
Authority
KR
South Korea
Prior art keywords
virtual
listener
performance
music
orchestra
Prior art date
Application number
KR1020200147800A
Other languages
English (en)
Other versions
KR20220061622A (ko
Inventor
이수지
Original Assignee
이수지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이수지 filed Critical 이수지
Priority to KR1020200147800A priority Critical patent/KR102402113B1/ko
Publication of KR20220061622A publication Critical patent/KR20220061622A/ko
Application granted granted Critical
Publication of KR102402113B1 publication Critical patent/KR102402113B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0083Recording/reproducing or transmission of music for electrophonic musical instruments using wireless transmission, e.g. radio, light, infrared
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

본 발명은 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법에 관한 것이다.
본 발명에 따르면, 가상의 오케스트라 합주 시스템을 이용한 합주 음악 제공 방법에 있어서, 가상의 오케스트라 합주 시스템에 접속한 복수의 연주자 단말기로부터 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받는 단계, 상기 오케스트라 합주 시스템에 접속한 복수의 청취자 단말기로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는 단계, 상기 악기의 종류 및 연주 위치, 가상의 객석 위치를 기 학습된 학습 모델에 적용하여, 상기 가상의 객석 위치에 대응하는 연주 음량을 결정하는 단계, 그리고 상기 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기를 통해 청취자에게 제공하는 단계를 포함한다.
이와 같이 본 발명에 따르면, 음악 송출의 방식조정을 통해 청취자들에게 더욱 현장감 있는 청취 경험 제공 및 타 음악 분야에도 적용 가능 범위를 확장 가능화하여 비대면 음악의 수요를 증가시킬 수 있다. 또한, 신인 음악가들이 더욱 간편하게 음악 연주의 기회를 가질 수 있게 하며 타 경력자들과 협주의 기회를 통한 신인 발굴 및 실력 향상의 기회를 제공할 수 있다.

Description

인공지능을 이용한 오케스트라 합주 시스템 및 그 방법{SYSTEM FOR ENSEMBLING ORCHESTRA USING ARTIFICIAL INTELLIGENCE LEARNING AND METHOD THEREOF}
인공지능을 이용한 오케스트라 합주 시스템 및 그 방법에 관한 것으로, 비대면 합동 연주를 위한 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법에 관한 것이다.
최근 컴퓨터 및 미디(MIDI: Musical Instrument Digital Interface) 입력장치의 관련기술 발달로 인해 컴퓨터를 이용한 디지털 음악 시스템에 대한 활용 및 연구가 지속되고 있는데, 컴퓨터 통신기술의 발달로 대량의 멀티미디어 정보를 실시간으로 전송하는 것이 가능하도록 한 초고속 정보통신망을 컴퓨터 음악과 접목시킨 시스템의 개발이 행해지고 있다.
현재, 한 사람이 연주하는 내용을 컴퓨터 시스템에서 입력받아 원음악의 음정 및 박자와 비교하여 그 정확성을 분석하는 기술은 제시되고 있다.
그러나, 여러 장소에서 개별적으로 연주하는 내용을 입력받아 합주곡 형태로 만들고 편집/수정할 수 있는 기술에 대해서는 제시된 바가 없다.
특히, 보컬 활동을 하는 그룹의 경우 그룹 구성원이 정해진 장소(연습실)에 모두 모여야만 제대로 된 합주 연습 등을 할 수 있다. 만약, 어느 한 구성원이 개 인적인 사정으로 인해 해당 장소에 올 수 없는 상황이면 개별적인 연습 또는 해당 구성원이 없는 상태에서 합주 연습을 하는 경우가 발생하는 문제가 있었다.
이러한 문제점을 해결하기 위해 인공지능 학습을 이용한 오케스트라 합주 시스템이 필요하게 되었다.
본 발명의 배경이 되는 기술은 대한민국 등록특허 제10-0602979호(2006.07.20. 공고)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 비대면 합동 연주를 위한 인공지능 학습을 이용한 오케스트라 합주 시스템 및 그 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시 예에 따르면, 가상의 오케스트라 합주 시스템을 이용한 합주 음악 제공 방법에 있어서, 가상의 오케스트라 합주 시스템에 접속한 복수의 연주자 단말기로부터 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받는 단계, 상기 오케스트라 합주 시스템에 접속한 복수의 청취자 단말기로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는 단계, 상기 악기의 종류 및 연주 위치, 가상의 객석 위치를 기 학습된 학습 모델에 적용하여, 상기 가상의 객석 위치에 대응하는 연주 음량의 크기를 결정하는 단계, 그리고 상기 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기를 통해 청취자에게 제공하는 단계를 포함한다.
상기 연주 음량의 크기를 결정하는 단계는, 상기 청취자가 상기 연주자의 가상의 무대에서의 연주 위치를 변경시키는 경우, 변경된 연주 위치에 대응하여 이퀄라이저, 음량 및 싱크를 조정하여 상기 연주 음량을 결정할 수 있다.
상기 학습 모델은, 기 저장된 악기의 종류, 가상의 무대에서의 연주 위치에 따른 악기의 음량, 싱크, 이퀄라이저 및 객석의 위치에 따른 연주 음량의 크기를 인공지능을 통해 학습하여 청취자가 선택한 가상의 객석 위치에서 들리는 연주 음량의 크기를 결정할 수 있다.
상기 청취자로부터 복수의 연주자의 무대에서의 위치 및 배열을 변경요청 받으면, 변경 요청에 대응하여 복수의 연주자의 가상 위치를 변경하여 해당되는 합주 음악을 제공하는 단계를 더 포함할 수 있다.
상기 청취자로부터 복수의 연주자 중 적어도 한명의 연주자를 선택받으면, 나머지 연주자의 연주 음량의 크기를 소거시키는 단계를 더 포함할 수 있다.
본 발명의 다른 실시예에 따르면, 합주 음악 제공을 위한 가상의 오케스트라 합주 시스템에 있어서, 가상의 오케스트라 합주 시스템에 접속한 복수의 연주자 단말기로부터 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받고, 상기 오케스트라 합주 시스템에 접속한 복수의 청취자 단말기로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는 입력부, 상기 악기의 종류 및 연주 위치, 가상의 객석 위치를 기 학습된 학습 모델에 적용하여, 상기 가상의 객석 위치에 대응하는 연주 음량을 결정하는 제어부, 그리고 상기 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기를 통해 청취자에게 제공하는 제공부를 포함한다.
이와 같이 본 발명에 따르면, 음악 송출의 방식조정을 통해 청취자들에게 더욱 현장감 있는 청취 경험 제공 및 타 음악 분야에도 적용 가능 범위를 확장 가능화하여 비대면 음악의 수요를 증가시킬 수 있다.
또한, 신인 음악가들이 더욱 간편하게 음악 연주의 기회를 가질 수 있게 하며 타 경력자들과 협주의 기회를 통한 신인 발굴 및 실력 향상의 기회를 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 오케스트라 합주 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 오케스트라 합주 시스템의 구성을 나타낸 구성도이다.
도 3은 본 발명의 실시예에 따른 오케스트라 합주 시스템을 이용한 합주 음악 제공 방법을 설명하기 위한 순서도이다.
도 4는 도 3의 S320 단계를 설명하기 위한 도면이다.
도 5는 도 3의 S330 단계를 설명하기 위한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
이하에서는 도 1 및 도 2를 이용하여 본 발명의 실시예에 따른 오케스트라 합주 시스템을 설명한다.
도 1은 본 발명의 실시예에 따른 오케스트라 합주 시스템을 설명하기 위한 도면이다.
도 1에서 나타낸 것처럼, 본 발명의 실시예에 따른 오케스트라 합주 시스템(100)은 복수의 연주자 단말기(200)와 복수의 청취자 단말기(300) 사이에 네트워크를 통해 연결된다.
이때, 오케스트라 합주 시스템(100)은 복수의 연주자 단말기(200)와 청취자 단말기(300)로부터 악기의 종류, 가상의 무대에서의 연주위치 및 객석 위치를 입력받고, 입력받은 악기의 종류 및 연주 위치, 가상의 객석 위치에 따라 합주된 음악을 청취자 단말기(300)에 제공한다.
다음으로, 연주자 단말기(200)는 악기를 이용하여 음악을 연주하는 사용자가 이용하는 단말기이며, 청취자 단말기(300)는 합주 음악을 청취하기 위해 이용하는 단말기를 의미한다.
즉, 단말기를 이용하는 사용자가 악기를 연주하면, 해당 단말기는 연주자 단말기(200)로 설정된다.
여기서, 단말기는 휴대가 가능한 사용자 단말기로서, 노트북 컴퓨터, 스마트 패드 또는 스마트 폰등과 같이 유선 또는 무선으로 네트워크에 접속하여 정보를 주고받을 수 있는 기기로 구현될 수 있다.
도 2는 본 발명의 실시예에 따른 오케스트라 합주 시스템의 구성을 나타낸 구성도이다.
도 2에서 나타낸 것처럼, 본 발명의 실시예에 따른 오케스트라 합주 시스템(100)은 입력부(110), 제어부(120) 및 제공부(130)를 포함한다.
먼저, 입력부(110)는 오케스트라 합주 시스템(100)에 접속한 복수의 연주자 단말기로부터 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받는다.
또한, 입력부(110)는 오케스트라 합주 시스템(100)에 접속한 복수의 청취자 단말기로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는다.
다음으로, 제어부(120)는 악기의 종류, 연주자의 연주위치 및 가상의 객석 위치를 기 학습된 학습모델에 적용하여 가상의 객석 위치에 대응하는 연주음량을 결정한다.
여기서, 학습모델은 기 저장된 악기의 종류, 가상의 무대에서의 연주 위치에 따른 악기의 음량, 싱크, 이퀄라이저 및 청취자의 가상의 객석 위치를 인공지능을 통해 학습한다.
그러면, 학습모델은 청취자가 선택한 가상의 객석 위치 따른 청취 음량의 크기를 결정한다.
또한, 제어부(120)는 청취자가 청취자 단말기(300)를 통해 연주자의 가상의 무대에서의 연주 위치를 변경시키는 경우, 변경된 연주 위치에 대응하여 이퀄라이저, 음량 및 싱크를 조정하여 연주 음량을 결정한다.
다음으로, 제공부(130)는 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기(300)를 통해 청취자에 제공한다.
이때, 제공부(130)는 청취자로부터 복수의 연주자의 무대에서의 위치 및 배열을 변경요청 받으면, 변경 요청에 대응하여 복수의 연주자의 가상 위치를 변경하여 해당되는 합주 음악을 제공한다.
또한, 제공부(130)는 청취자로부터 복수의 연주자 중 적어도 한명의 연주자를 선택받으면, 나머지 연주자의 연주 음량의 크기를 소거시킬 수 있다.
이하에서는 도 3 내지 도 5를 이용하여 본 발명의 실시예에 따른 합주 음악 제공 방법을 설명한다.
도 3은 본 발명의 실시예에 따른 오케스트라 합주 시스템을 이용한 합주 음악 제공 방법을 설명하기 위한 순서도이다.
먼저, 입력부(110)는 오케스트라 합주 시스템(100) 접속한 복수의 연주자 단말기로(200)를 통해 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받는다(S310).
이때, 입력부(110)는 해당 연주자의 경력, 연주영상 또는 주 연주 악기를 더 입력받을 수 있다.
여기서, 연주 악기는 오케스트라 음악에서 사용되는 관악, 현악, 금관, 목관 및 타악기 중에서 어느 하나일 수 있다.
또한, 국악 음악을 합주하는 경우, 연주 악기는 금부(金部), 석부(石部), 사부(絲部), 죽부(竹部), 포부(匏部), 토부(土部), 혁부(革部) 및 목부(木部)와 같은 악기 중에서 어느 하나일 수 있다.
다음으로, 입력부(110)는 오케스트라 합주 시스템(100)에 접속한 복수의 청취자 단말기(300)로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는다(S320).
도 4는 도 3의 S320 단계를 설명하기 위한 도면이다.
즉, 도 4에서 나타낸 것과 같이, 오케스트라 합주 시스템(100)은 청취자 단말기(300)에 청취자 위치를 선택할 수 있도록 객석배치도를 제공하고, 청취자는 청취자 단말기(300)를 이용하여 청취 위치를 선택할 수 있다.
여기서, 객석 배치도는 현재 오케스트라 합주를 제공하는 공연장의 객석배치도를 나타낼 수 있다.
다음으로, 제어부(120)는 악기의 종류 및 연주 위치, 가상의 객석 위치를 기 학습된 학습 모델에 적용하여, 가상의 객석 위치에 대응하는 연주 음량을 결정한다(S330).
이때, 학습모델은 인공지능 학습을 통해 청취자가 선택한 가상의 객석 위치에서 청취되는 연주 음량의 크기를 결정한다.
도 5는 도 3의 S330 단계를 설명하기 위한 도면이다.
즉, 도 5에서 나타낸 것처럼, 학습모델은 가상의 무대에서의 연주 위치에 따른 악기의 음량, 싱크, 이퀄라이저와 청취자가 선택한 가상의 객석 위치에서 들리는 연주 음량의 크기를 인공지능을 이용하여 학습한다.
또한, 제어부(120)는 청취자가 연주자의 가상의 무대에서의 연주 위치를 변경시키는 경우, 변경된 연주 위치에 대응하여 이퀄라이저, 음량 및 싱크를 조정하여 연주 음량을 결정한다.
예를 들어, 해당 연주자의 가상의 무대가 우측 끝에서 좌측 끝으로 위치가 변경되는 경우, 제어부(120)는 해당 연주자의 연주 음량이 왼쪽에서 들리도록 이퀄라이저, 음량 및 싱크를 조정한다.
다음으로, 제공부(130)는 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기를 통해 청취자에게 제공한다(S340).
이때, 청취자로부터 복수의 연주자의 무대에서의 위치 및 배열을 변경요청 받으면, 제공부(130)는 변경 요청에 대응하여 복수의 연주자의 가상 위치를 변경하여 해당되는 합주 음악을 제공한다.
또한, 청취자로부터 복수의 연주자 중 적어도 한명의 연주자를 선택받으면, 제공부(130)는 나머지 연주자의 연주 음량의 크기를 소거시킨다.
이와 같이 본 발명의 실시예에 따르면, 음악 송출의 방식조정을 통해 청취자들에게 더욱 현장감 있는 청취 경험 제공 및 타 음악 분야에도 적용 가능 범위를 확장 가능화하여 비대면 음악의 수요를 증가시킬 수 있다.
또한, 신인 음악가들이 더욱 간편하게 음악 연주의 기회를 가질 수 있게 하며 타 경력자들과 협주의 기회를 통한 신인 발굴 및 실력 향상의 기회를 제공할 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것이 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100: 오케스트라 합주 시스템, 110: 입력부,
120: 제어부, 130: 제공부
200: 연주자 단말기, 300: 청취자 단말기

Claims (10)

  1. 가상의 오케스트라 합주 시스템을 이용한 합주 음악 제공 방법에 있어서,
    가상의 오케스트라 합주 시스템에 접속한 복수의 연주자 단말기로부터 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받는 단계,
    상기 오케스트라 합주 시스템에 접속한 복수의 청취자 단말기로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는 단계,
    상기 악기의 종류 및 연주 위치, 가상의 객석 위치를 기 학습된 학습 모델에 적용하여, 상기 가상의 객석 위치에 대응하는 연주 음량의 크기를 결정하는 단계,
    상기 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기를 통해 청취자에게 제공하는 단계, 그리고
    상기 청취자로부터 복수의 연주자의 무대에서의 위치 및 배열을 변경요청 받으면, 변경 요청에 대응하여 복수의 연주자의 가상 위치를 변경하여 해당되는 합주 음악을 제공하는 단계를 포함하며,
    상기 연주 음량의 크기를 결정하는 단계는,
    상기 청취자가 상기 연주자의 가상의 무대에서의 연주 위치를 변경시키는 경우, 변경된 연주 위치에 대응하여 이퀄라이저, 음량 및 싱크를 조정하여 상기 연주 음량을 결정하고,
    상기 학습 모델은,
    기 저장된 악기의 종류, 가상의 무대에서의 연주 위치에 따른 악기의 음량, 싱크, 이퀄라이저 및 객석의 위치에 따른 연주 음량의 크기를 인공지능을 통해 학습하여 청취자가 선택한 가상의 객석 위치에서 들리는 연주 음량의 크기를 결정하는 합주 음악 제공 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 청취자로부터 복수의 연주자 중 적어도 한명의 연주자를 선택받으면, 나머지 연주자의 연주 음량의 크기를 소거시키는 단계를 더 포함하는 합주 음악 제공 방법.
  6. 합주 음악 제공을 위한 가상의 오케스트라 합주 시스템에 있어서,
    가상의 오케스트라 합주 시스템에 접속한 복수의 연주자 단말기로부터 악기의 종류 및 가상의 무대에서의 연주 위치를 각각 입력받고, 상기 오케스트라 합주 시스템에 접속한 복수의 청취자 단말기로부터 청취하고자 하는 가상의 객석 위치를 각각 입력받는 입력부,
    상기 악기의 종류 및 연주 위치, 가상의 객석 위치를 기 학습된 학습 모델에 적용하여, 상기 가상의 객석 위치에 대응하는 연주 음량을 결정하는 제어부, 그리고
    상기 연주자가 연주하는 가상의 영상을 합주된 음악과 함께 청취자 단말기를 통해 청취자에게 제공하는 제공부를 포함하며,
    상기 제공부는,
    상기 청취자로부터 복수의 연주자의 무대에서의 위치 및 배열을 변경요청 받으면, 변경 요청에 대응하여 복수의 연주자의 가상 위치를 변경하여 해당되는 합주 음악을 제공하는 포함하고,
    상기 제어부는,
    상기 청취자가 상기 연주자의 가상의 무대에서의 연주 위치를 변경시키는 경우, 변경된 연주 위치에 대응하여 이퀄라이저, 음량 및 싱크를 조정하여 상기 연주 음량을 결정하며,
    상기 학습 모델은,
    기 저장된 악기의 종류, 가상의 무대에서의 연주 위치에 따른 악기의 음량, 싱크, 이퀄라이저 및 객석의 위치에 따른 연주 음량의 크기를 인공지능을 통해 학습하여 청취자가 선택한 가상의 객석 위치에서 들리는 연주 음량의 크기를 결정하는 오케스트라 합주 시스템.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 제6항에 있어서,
    상기 제공부는,
    상기 청취자로부터 복수의 연주자 중 적어도 한명의 연주자를 선택받으면, 나머지 연주자의 연주 음량의 크기를 소거시키는 포함하는 오케스트라 합주 시스템.
KR1020200147800A 2020-11-06 2020-11-06 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법 KR102402113B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200147800A KR102402113B1 (ko) 2020-11-06 2020-11-06 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200147800A KR102402113B1 (ko) 2020-11-06 2020-11-06 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20220061622A KR20220061622A (ko) 2022-05-13
KR102402113B1 true KR102402113B1 (ko) 2022-05-25

Family

ID=81583183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200147800A KR102402113B1 (ko) 2020-11-06 2020-11-06 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102402113B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150157A (ja) * 2001-11-08 2003-05-23 Nec Soft Ltd 仮想音楽練習室提供システム及び提供方法
JP2008522239A (ja) * 2004-12-01 2008-06-26 クリエイティブ テクノロジー リミテッド ユーザがオーディオファイルを修正することを可能にするための方法及び装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100055662A (ko) * 2008-11-18 2010-05-27 한국과학기술원 클라이언트 단말 장치, 공연 감상 서비스 장치, 공연 감상 서비스 시스템 및 그 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150157A (ja) * 2001-11-08 2003-05-23 Nec Soft Ltd 仮想音楽練習室提供システム及び提供方法
JP2008522239A (ja) * 2004-12-01 2008-06-26 クリエイティブ テクノロジー リミテッド ユーザがオーディオファイルを修正することを可能にするための方法及び装置

Also Published As

Publication number Publication date
KR20220061622A (ko) 2022-05-13

Similar Documents

Publication Publication Date Title
US11727904B2 (en) Network musical instrument
McCarthy Sound systems: design and optimization: modern techniques and tools for sound system design and alignment
US7777117B2 (en) System and method of instructing musical notation for a stringed instrument
WO2015143076A1 (en) Method and system for selecting tracks on a digital file
CN104361884A (zh) 一种能弹奏出人声唱谱的电子装置及其操作方法
US20220383842A1 (en) Estimation model construction method, performance analysis method, estimation model construction device, and performance analysis device
Luizard et al. Singing in physical and virtual environments: How performers adapt to room acoustical conditions
KR102402113B1 (ko) 인공지능을 이용한 오케스트라 합주 시스템 및 그 방법
Böhm et al. A multi-channel anechoic orchestra recording of beethoven’s symphony no. 8 op. 93
US20190392803A1 (en) Transposing device, transposing method and non-transitory computer-readable storage medium
CN104520922A (zh) 音调生成分配设备和方法
JP6520162B2 (ja) 伴奏教習装置および伴奏教習プログラム
US9818388B2 (en) Method for adjusting the complexity of a chord in an electronic device
Luizard et al. Changes in the voice production of solo singers across concert halls
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
Corcuera et al. Perceptual Significance of Tone-Dependent Directivity Patterns of Musical Instruments
Gyebi-Tweneboah et al. Live Sound Reinforcement in Ghanaian Popular Music Scene (1940s–1950s)
Mulder The loudspeaker as musical instrument
JP2019207339A (ja) 電子楽器のキー配列と演奏音の伝送・出音機器
US20090234475A1 (en) Process for managing digital audio streams
JP6819236B2 (ja) 音処理装置、音処理方法、及びプログラム
Bradshaw A Bassoonist's Guide to Interactive Electroacoustic Music
Braasch et al. CAIRA-a Creative Artificially-Intuitive and Reasoning Agent as conductor of telematic music improvisations
Perez A Survey of Performance Practice of Electroacoustic Music for Wind Band Grades 2-3
JP2010032645A (ja) 楽器型演奏装置及び楽器演奏システム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right