KR20210123198A - 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치 - Google Patents

증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치 Download PDF

Info

Publication number
KR20210123198A
KR20210123198A KR1020200145234A KR20200145234A KR20210123198A KR 20210123198 A KR20210123198 A KR 20210123198A KR 1020200145234 A KR1020200145234 A KR 1020200145234A KR 20200145234 A KR20200145234 A KR 20200145234A KR 20210123198 A KR20210123198 A KR 20210123198A
Authority
KR
South Korea
Prior art keywords
information
acoustic
sound
image
processor
Prior art date
Application number
KR1020200145234A
Other languages
English (en)
Inventor
한대진
Original Assignee
주식회사 제이렙
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200040186A external-priority patent/KR102199591B1/ko
Application filed by 주식회사 제이렙 filed Critical 주식회사 제이렙
Priority to KR1020200145234A priority Critical patent/KR20210123198A/ko
Priority to US17/217,930 priority patent/US11240617B2/en
Publication of KR20210123198A publication Critical patent/KR20210123198A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Otolaryngology (AREA)
  • Processing Or Creating Images (AREA)
  • Stereophonic System (AREA)

Abstract

본 개시의 일 실시예에 따라, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 음향 시뮬레이션 장치의 프로세서로 하여금 이하의 단계들을 수행하기 위한 명령들을 포함하며, 상기 단계들은: 시뮬레이션 공간을 이루는 건축물과 관련된 건축 구조 정보를 획득하는 단계; 상기 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보를 획득하는 단계; 상기 시뮬레이션 공간에 설치되는 적어도 하나의 스피커와 관련된 스피커 정보를 획득하는 단계; 음향 시뮬레이션 장치의 현재 위치에 대한 위치 정보를 획득하는 단계; 상기 위치 정보를 분석하여 상기 시뮬레이션 공간에서 상기 현재 위치에 대응하는 가상 위치를 인식하는 단계; 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여 상기 가상 위치에서 현시(顯示)되는 영상을 생성하는 단계; 및 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여, 상기 가상 위치에서 청취(聽取)되는 음향을 생성하는 단계;를 포함할 수 있다.

Description

증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치{ARGUMENTED REALITY BASED SIMULATION APPARATUS FOR INTEGRATED ELECTRICAL AND ARCHITECTURAL ACOUSTICS}
본 개시는 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치에 관한 것으로서, 보다 구체적으로, 전기 음향과 건축 음향을 통합 시뮬레이션한 후 사용자에게 증강 현실을 통해 보여주기 위한 시뮬레이션 장치에 관한 것이다.
최근 가상 현실(Virtual Reality) 또는 증강 현실(Augmented Reality)과 같이 가상의 정보를 이용하여 구현된 다양한 컨텐츠가 제안되고 있다. 일반적인 가상 현실은 컴퓨터 등을 사용하여 인공적인 기술로 만들어 낸 가상 공간으로서, 실제와 유사하지만 실제가 아닌 특징이 있다. 한편, 증강 현실은 가상 현실의 한 분야로서, 사용자가 보는 현실의 객체에 가상의 정보를 합성하여, 가상의 정보를 현실의 일부로서 인식하도록 할 수 있는 기법을 의미한다.
이와 같은 가상 현실 또는 증강 현실이 적용된 가상 공간에서는, 시각적 콘텐츠뿐만 아니라 청각적 콘텐츠도 사용자에게 제공될 수 있다. 따라서, 가상 현실 또는 증강 현실 기술은 시각과 청각이 요구되는 다양한 분야에서 활용될 수 있다. 예를 들어, 가상 현실 또는 증강 현실 기술은 음향 설계 분야에 이용될 수 있다.
일반적으로, 음향(구체적으로, 건축 음향 및/또는 전기 음향) 설계는 건축물 및 스피커 등의 음향 특성과 사용자의 경험에 의존하여 실시되고 있다. 또한, 현재의 음향 설계 방법은 건축물 내부에 스피커를 직접 설치한 후 음향 계측 장치를 이용하여 건축물에 적합한 음향 환경을 만들고 있는 실정이다. 따라서, 현재의 음향 설계 방법은 음향 설계가 부적절하게 수행된 경우, 불필요한 비용이 발생될 수 있으며, 정확한 음향 설계를 수행하는데 한계가 존재한다.
따라서, 현재의 음향 설계 방법의 한계를 극복하고, 보다 편리하게 음향 설계를 수행할 수 있는 음향 시뮬레이션 방법에 대한 연구가 필요하다.
대한민국 공개특허공보 제10-2015-0008329호
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 음향 시뮬레이션을 위한 장치 및 컴퓨터 프로그램을 제공하고자 하는 것이다.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 과제를 해결하기 위한 본 개시의 몇몇 실시예에 따라, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은 음향 시뮬레이션 장치의 프로세서로 하여금 이하의 단계들을 수행하기 위한 명령들을 포함하며, 상기 단계들은: 시뮬레이션 공간을 이루는 건축물과 관련된 건축 구조 정보를 획득하는 단계; 상기 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보를 획득하는 단계; 상기 시뮬레이션 공간에 설치되는 적어도 하나의 스피커와 관련된 스피커 정보를 획득하는 단계; 음향 시뮬레이션 장치의 현재 위치에 대한 위치 정보를 획득하는 단계; 상기 위치 정보를 분석하여 상기 시뮬레이션 공간에서 상기 현재 위치에 대응하는 가상 위치를 인식하는 단계; 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여 상기 가상 위치에서 현시(顯示)되는 영상을 생성하는 단계; 및 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여, 상기 가상 위치에서 청취(聽取)되는 음향을 생성하는 단계;를 포함할 수 있다.
또한, 상기 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보를 획득하는 단계는, 상기 시뮬레이션 공간에 사용 가능한 복수의 건축 소재 중 어느 하나를 선택하는 제 1 입력을 수신하는 단계; 및 상기 제 1 입력에 기초하여 메모리에 저장된 상기 복수의 건축 소재와 관련된 정보 중 상기 시뮬레이션 공간에 사용되는 상기 적어도 하나의 건축 소재와 관련된 상기 건축 소재 정보를 획득하는 단계;를 포함할 수 있다.
또한, 상기 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보를 획득하는 단계는, 상기 제 1 입력을 수신하기 전, 상기 복수의 건축 소재 중 어느 하나를 추천하는 제 1 추천 정보를 출력하도록 영상 출력부를 제어하는 단계;를 더 포함하고, 상기 제 1 추천 정보는, 상기 복수의 건축 소재 각각을 상기 시뮬레이션 공간에 설치하여 생성된 예상 음향을 비교하여 생성될 수 있다.
또한, 상기 시뮬레이션 공간에 설치되는 적어도 하나의 스피커와 관련된 스피커 정보를 획득하는 단계는, 상기 시뮬레이션 공간에 설치 가능한 복수의 스피커 중 어느 하나를 선택하는 제 2 입력을 수신하는 단계; 및 상기 제 2 입력에 기초하여 메모리에 저장된 상기 복수의 스피커와 관련된 정보 중 상기 시뮬레이션 공간에 사용되는 상기 적어도 하나의 스피커와 관련된 상기 스피커 정보를 획득하는 단계;를 포함할 수 있다.
또한, 상기 시뮬레이션 공간에 설치되는 적어도 하나의 스피커와 관련된 스피커 정보를 획득하는 단계는, 상기 제 2 입력을 수신하기 전, 상기 복수의 스피커 중 어느 하나를 추천하는 제 2 추천 정보를 출력하도록 영상 출력부를 제어하는 단계; 및 상기 제 2 입력을 수신한 이후, 상기 적어도 하나의 스피커의 설치 위치를 추천하는 제 3 추천 정보를 출력하도록 상기 영상 출력부를 제어하는 단계;를 더 포함하고, 상기 제 3 추천 정보는, 상기 제 2 입력을 통해 선택된 스피커를 복수의 위치 각각에 설치하여 생성된 예상 음향을 비교하여 생성될 수 있다.
또한, 상기 건축 구조 정보는, 상기 건축물의 평면 설계도에 대한 정보, 상기 건축물의 천장 형상에 대한 정보, 상기 건축물 내부에 배치되는 발코니의 형태에 대한 정보, 상기 건축물의 내벽의 형상에 대한 정보, 상기 건축물의 바닥의 구조에 대한 정보 또는 상기 건축물 내부에 존재하는 반사판의 위치 및 형상에 대한 정보 중 적어도 하나를 포함하고, 상기 건축 소재 정보는, 상기 적어도 하나의 건축 소재의 외형에 대한 제 1 외형 정보, 상기 적어도 하나의 건축 소재가 갖는 음향의 반사율에 대한 제 1 음향 정보 또는 상기 적어도 하나의 건축 소재가 갖는 흡음율에 대한 제 2 음향 정보 중 적어도 하나를 포함하고, 상기 스피커 정보는, 상기 적어도 하나의 스피커의 설치 위치 정보, 상기 적어도 하나의 스피커의 외형에 대한 제 2 외형 정보 또는 상기 적어도 하나의 스피커의 음향 특성에 대한 제 3 음향 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여 상기 가상 위치에서 현시되는 영상을 생성하는 단계는, 상기 위치 정보, 상기 건축 구조 정보, 상기 제 1 외형 정보 및 상기 제 2 외형 정보를 이용하여 상기 영상을 생성하는 단계;를 포함할 수 있다.
또한, 상기 단계들은, 영상 출력부를 통해 상기 영상을 출력하는 단계;를 더 포함하고, 상기 영상은, 상기 음향 시뮬레이션 장치를 장착한 사용자가 상기 가상 위치에서 상기 시뮬레이션 공간을 바라보는 시야에 보이는 상기 적어도 하나의 건축 소재 및 상기 적어도 하나의 스피커가 설치된 상기 건축물의 내부 형상에 대한 가상 영상일 수 있다.
또한, 상기 단계들은, 상기 영상을 사용자의 눈으로 투사하도록 투광성 소재로 이루어진 영상 출력부를 제어하는 단계;를 더 포함하고, 상기 영상은, 상기 음향 시뮬레이션 장치를 장착한 사용자가 상기 가상 위치에서 상기 시뮬레이션 공간을 바라볼 때, 상기 사용자의 일반 시야 상에 오버랩 되는 영상일 수 있다.
또한, 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여 상기 가상 위치에서 현시되는 영상을 생성하는 단계는, 상기 시뮬레이션 공간을 하나 이상의 서브 공간으로 분할하는 단계; 상기 하나 이상의 서브 공간 각각의 서브 음향 특성을 인식하는 단계; 및 상기 서브 음향 특성 각각에 대응하는 영상 효과가 상기 서브 공간 각각에 표시되도록 상기 영상을 생성하는 단계;를 포함할 수 있다.
또한, 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여, 상기 가상 위치에서 청취되는 음향을 생성하는 단계는, 상기 적어도 하나의 스피커로부터 방사되어 상기 가상 위치에 위치하는 사용자에게 직접적으로 전달되는 제 1 가상 음향의 특성에 대한 제 1 음향 특성 정보 및 상기 적어도 하나의 스피커로부터 방사되어 상기 가상 위치에 위치하는 상기 사용자에게 간접적으로 전달되는 제 2 가상 음향의 특성에 대한 제 2 음향 특성 정보를 생성하는 단계; 및 상기 제 1 음향 특성 정보 및 상기 제 2 음향 특성 정보에 기초하여 상기 음향을 생성하는 단계;를 포함할 수 있다.
또한, 상기 제 1 음향 특성 정보 및 상기 제 2 음향 특성 정보를 생성하는 단계는, 상기 설치 위치 정보, 상기 위치 정보, 상기 제 3 음향 정보에 기초하여 상기 제 1 음향 특성 정보를 생성하는 단계; 및 상기 설치 위치 정보, 상기 위치 정보, 상기 건축 구조 정보, 상기 제 1 외형 정보, 상기 제 1 음향 정보, 상기 제 2 음향 정보 및 상기 제 3 음향 정보에 기초하여 상기 제 2 음향 특성 정보를 생성하는 단계;를 포함할 수 있다.
또한, 제 2 가상 음향은, 상기 적어도 하나의 건축 소재에 의해 상기 제 1 가상 음향이 흡수 또는 반사되어 변화된 가상 음향일 수 있다.
또한, 상기 설치 위치 정보, 상기 위치 정보, 상기 제 3 음향 정보에 기초하여 상기 제 1 음향 특성 정보를 생성하는 단계는, 상기 설치 위치 정보를 이용하여 상기 적어도 하나의 스피커가 설치된 제 1 위치를 인식하는 단계; 상기 위치 정보를 이용하여 상기 음향 시뮬레이션 장치의 현재 위치인 제 2 위치를 인식하는 단계; 상기 건축 구조 정보를 이용하여, 상기 제 1 위치와 상기 제 2 위치 사이에 객체가 존재하는지 여부를 인식하는 단계; 및 상기 제 3 음향 정보를 이용하여, 상기 제 1 위치에서 상기 제 2 위치로 방사되는 음파를 인식하여, 상기 제 1 음향 특성 정보를 생성하는 단계;를 포함할 수 있다.
또한, 상기 설치 위치 정보, 상기 위치 정보, 상기 건축 구조 정보, 상기 제 1 외형 정보, 상기 제 1 음향 정보, 상기 제 2 음향 정보 및 상기 제 3 음향 정보에 기초하여 상기 제 2 음향 특성 정보를 생성하는 단계는, 상기 설치 위치 정보를 이용하여 상기 적어도 하나의 스피커가 설치된 제 1 위치를 인식하는 단계; 상기 위치 정보를 이용하여 상기 음향 시뮬레이션 장치의 현재 위치인 제 2 위치를 인식하는 단계; 상기 제 3 음향 정보를 이용하여, 상기 적어도 하나의 스피커로부터 방사되는 가상 음향의 제 1 진행 경로를 인식하는 단계; 상기 가상 음향의 제 1 진행 경로를 인식한 경우, 상기 건축 구조 정보를 이용하여, 상기 가상 음향이 충돌되어 변화되는 제 2 진행 경로를 인식하는 단계; 상기 제 1 음향 정보 및 상기 제 2 음향 정보를 이용하여, 상기 적어도 하나의 건축 소재 중 상기 제 1 진행 경로와 상기 제 2 진행 경로 사이에 존재하는 특정 건축 소재가 갖는 음향의 반사율에 대한 제 1 정보와 상기 특정 건축 소재가 갖는 흡음률에 대한 제 2 정보를 인식하는 단계; 및 상기 설치 위치 정보, 상기 위치 정보, 상기 건축 구조 정보, 상기 제 1 외형 정보, 상기 제 1 정보, 상기 제 2 정보 및 상기 제 3 음향 정보를 이용하여 상기 제 2 음향 특성 정보를 생성하는 단계;를 포함할 수 있다.
또한, 상기 단계들은, 상기 가상 위치에서 청취되는 상기 음향을 생성한 경우, 상기 음향의 기 설정된 주파수 대역 별 증폭량에 대한 정보, 상기 기 설정된 주파수 대역 별 감쇠량에 대한 정보 및 상기 기 설정된 주파수 대역 별 잔향시간에 대한 정보를 획득하는 단계; 상기 기 설정된 주파수 대역 별 증폭량에 대한 정보, 상기 기 설정된 주파수 대역 별 감쇠량에 대한 정보 및 상기 기 설정된 주파수 대역 별 잔향시간에 대한 정보를 상기 영상과 함께 출력하도록 영상 출력부를 제어하는 단계; 및 상기 음향을 출력하도록 음향 출력부를 제어하는 단계;를 더 포함할 수 있다.
전술한 바와 같은 과제를 해결하기 위한 본 개시의 몇몇 실시예에 따라, 음향 시뮬레이션 장치가 개시된다. 상기 장치는: 시뮬레이션 공간을 이루는 건축물과 관련된 건축 구조 정보를 획득하는 프로세서; 상기 시뮬레이션 공간과 관련된 영상을 출력하기 위한 영상 출력부; 및 음향을 출력하기 위한 음향 출력부;를 포함하고, 상기 프로세서는, 상기 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보 및 상기 시뮬레이션 공간에 설치되는 적어도 하나의 스피커와 관련된 스피커 정보 및 상기 음향 시뮬레이션 장치의 현재 위치에 대한 위치 정보를 획득하고, 상기 위치 정보를 분석하여 상기 시뮬레이션 공간에서 상기 현재 위치에 대응하는 가상 위치를 인식하고, 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여 상기 가상 위치에서 현시(顯示)되는 상기 영상을 생성하고, 상기 건축 구조 정보, 상기 건축 소재 정보 및 상기 스피커 정보에 기초하여, 상기 가상 위치에서 청취(聽取)되는 상기 음향을 생성할 수 있다.
본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시는 음향 시뮬레이션을 위한 장치 및 컴퓨터 프로그램을 통해, 현재의 음향 설계 방법의 한계를 극복하고, 보다 편리하게 음향 설계를 수행할 수 있는 음향 시뮬레이션 방법을 제공할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 구체적인 세부사항들 없이 실시될 수 있음은 명백할 것이다.
도 1a는 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치의 블록 구성도이다.
도 1b는 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치의 일례를 설명하기 위한 도면이다.
도 2는 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치가 음향을 시뮬레이션 하는 방법의 일례를 설명하기 위한 흐름도이다.
도 3은 본 개시의 음향 시뮬레이션 장치에서 보여질 수 있는 영상의 일례를 설명하기 위한 도면이다.
도 4는 본 개시의 음향 시뮬레이션 장치에서 보여질 수 있는 영상의 다른 일례를 설명하기 위한 도면이다.
도 5는 본 개시의 음향 시뮬레이션 장치가 음향을 시뮬레이션 하는 방법의 일례를 설명하기 위한 도면이다.
도 6은 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치가 음향 특성에 대응하는 영상 효과가 표시되는 영상을 생성하는 방법의 일례를 설명하기 위한 흐름도이다.
도 7은 본 개시의 몇몇 실시예에 따른 시뮬레이션 영상의 일례를 설명하기 위한 도면이다.
도 8은 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치가 음향 관련 정보를 제공하는 방법의 일례를 설명하기 위한 흐름도이다.
도 9는 본 개시 내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나 이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 감지될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다. 구체적으로, 본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.
또한, 다양한 양상들 및 특징들이 하나 이상의 장치들, 단말들, 서버들, 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 단말들, 서버들, 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 단말들, 서버들, 디바이스들, 컴포넌트들, 모듈들 등의 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.
본 명세서에서 사용되는 용어 "컴퓨터 프로그램", "컴포넌트", "모듈", "시스템" 등은 서로 호환가능하게 사용될 수 있으며, 그리고 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다.
또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.
이하, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략한다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
비록 제1, 제2 등이 다양한 소자나 구성요소들을 서술하기 위해서 사용되나, 이들 소자나 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자나 구성요소를 다른 소자나 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자나 구성요소는 본 개시의 기술적 사상 내에서 제2 소자나 구성요소 일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
더불어, 본 명세서에서 사용되는 용어 "정보" 및 "데이터"는 종종 서로 상호교환 가능하도록 사용될 수 있다.
이하의 설명에서 사용되는 구성 요소에 대한 접미사 “모듈” 및 “부”는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 개시의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 개시를 설명하는데 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.
그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 개시내용의 청구범위에서의 단계들에 대한 권리범위는, 각 단계들에 기재된 기능 및 특징들에 의해 발생되는 것이지, 각각의 단계에서 그 순서의 선후관계를 명시하지 않는 이상, 청구범위에서의 각 단계들의 기재 순서에 영향을 받지 않는다. 예를 들어, A단계 및 B단계를 포함하는 단계로 기재된 청구범위에서, A단계가 B단계 보다 먼저 기재되었다고 하더라도, A단계가 B단계 이전에 선행되어야 한다는 것으로 권리범위가 제한되지는 않는다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)는 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치를 의미할 수 있다. 구체적으로, 음향 시뮬레이션 장치(100)는 전기 음향과 건축 음향을 통합 시뮬레이션한 후 사용자에게 증강 현실을 통해 보여주기 위한 시뮬레이션 장치를 의미할 수 있다. 다만, 이에 한정되는 것은 아니다.
도 1a는 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치의 블록 구성도이다. 도 1b는 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치의 일례를 설명하기 위한 도면이다.
도 1a를 참조하면, 음향 시뮬레이션 장치(100)는 프로세서(110), 통신부(120), 메모리(130), 영상 출력부(140), 음향 출력부(150), 입력부(160) 및 위치 인식부(170)를 포함할 수 있다. 다만, 상술한 구성 요소들은 음향 시뮬레이션 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, 상기 음향 시뮬레이션 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)는 건축 음향 설계 또는 전기 음향 설계를 위해 사용될 수 있다. 다만, 이에 한정되는 것은 아니다.
음향 시뮬레이션 장치(100)는 예를 들어, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 웨어러블 디바이스(wearable device, 글래스형 단말기(smart glass), HMD(head mounted display)) 등이 포함될 수 있다. 다만, 이에 한정되는 것은 아니다.
먼저, 음향 시뮬레이션 장치(100)의 통신부(120)는 음향 시뮬레이션 장치(100)와 외부 서버 사이 또는, 음향 시뮬레이션 장치(100)와 외부 단말(예를 들어, 사용자 단말) 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(120)는 음향 시뮬레이션 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
여기서, 음향 시뮬레이션 장치(100)와 외부 서버 사이 또는 음향 시뮬레이션 장치(100)와 외부 단말 사이의 통신을 연결하는 네트워크는 공중전화 교환망(PSTN:Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.
또한, 여기서 제시되는 네트워크는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.
본 개시의 실시예들에 따른 네트워크는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN:Personal Area Network), 근거리 통신망(WAN:Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW:World Wide Web)일 수 있으며, 적외선(IrDA:Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.
본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.
한편, 음향 시뮬레이션 장치(100)의 메모리(130)는 프로세서(110)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수도 있다. 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적 어도 하나의 타입의 저장매체를 포함할 수 있다. 이러한 메모리(130)는 프로세서(110)에 제어에 의하여 동작 될 수 있다.
본 개시의 몇몇 실시예에 따르면, 메모리(130)는 음향 시뮬레이션을 위한 정보를 저장하고 있을 수 있다. 예를 들어, 메모리(130)는 시뮬레이션 공간에 사용 가능한 복수의 건축 소재 대한 건축 소재 정보 및 시뮬레이션 공간에 사용 가능한 복수의 스피커에 대한 스피커 정보를 저장하고 있을 수 있다. 다만, 이에 한정되는 것은 아니다.
한편, 음향 시뮬레이션 장치(100)의 프로세서(110)는 메모리(130)에 저장된 건축 소재 정보 및 스피커 정보를 이용하여 음향 시뮬레이션을 수행할 수 있다.
그리고, 프로세서(110)는 음향 시뮬레이션의 수행됨에 따라 생성된 영상 및 음향을 사용자에게 제공할 수 있다. 구체적으로, 프로세서(110)는 상기 영상을 출력하도록 영상 출력부(140)를 제어할 수 있다. 또한, 프로세서(110)는 상기 음향을 출력하도록 음향 출력부(150)를 제어할 수 있다.
이하, 프로세서(110)가 음향 시뮬레이션을 수행하는 방법에 대한 설명은 도 2 내지 도 5를 참조하여 후술한다.
음향 시뮬레이션 장치(100)의 영상 출력부(140)는 음향 시뮬레이션 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 영상 출력부(140)는 음향 시뮬레이션 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치(100)의 영상 출력부(140)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
일반적으로 3차원 입체 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 좌 영상과 우 영상을 한 프레임 내 상하로 배치하는 탑-다운(top-down) 방식, 좌 영상과 우 영상을 한 프레임 내 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 좌 영상과 우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌 영상과 우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌 영상과 우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.
또한, 3차원 썸네일 영상은 원본 영상 프레임의 좌 영상 및 우 영상으로부터 각각 좌 영상 썸네일 및 우 영상 썸네일을 생성하고, 이들이 합쳐짐에 따라 하나의 영상으로 생성될 수 있다. 일반적으로 썸네일(thumbnail)은 축소된 화상 또는 축소된 정지영상을 의미한다. 이렇게 생성된 좌 영상 썸네일과 우 영상 썸네일은 좌 영상과 우 영상의 시차에 대응하는 깊이감(depth)만큼 화면 상에서 좌우 거리차를 두고 표시됨으로써 입체적인 공간감을 나타낼 수 있다.
3차원 입체영상의 구현에 필요한 좌 영상과 우 영상은 입체 처리부에 의하여 입체 디스플레이부에 표시될 수 있다. 입체 처리부는 3D 영상(기준시점의 영상과 확장시점의 영상)을 입력 받아 이로부터 좌 영상과 우 영상을 설정하거나, 2D 영상을 입력 받아 이를 좌 영상과 우 영상으로 전환하도록 이루어진다.
한편, 도 1b의 (a)를 참조하면, 음향 시뮬레이션 장치(100)는(구체적으로, 음향 시뮬레이션 장치(100)의 영상 출력부(140)) 프리즘을 이용하여 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 프리즘은 투광성으로 형성될 수 있다.
이처럼, 음향 시뮬레이션 장치(100)의 영상 출력부(140)를 통하여 출력되는 영상은, 사용자의 일반 시야 상에 오버랩(overlap)되어 상기 사용자에게 보여질 수 있다. 음향 시뮬레이션 장치(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강 현실(Augmented Reality, AR)을 제공할 수 있다.
다른 한편, 도 1b의 (b)를 참조하면, 도시된 바와 같이 음향 시뮬레이션 장치(100)는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스 타입의 음향 시뮬레이션 장치(100)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 영상 출력부(140)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안 및 좌안 각각을 향하여 영상을 출력할 수 있도록, 영상 출력부(140)가 우안 및 좌안 각각에 대응되는 부분에 위치한 것을 예시하고 있다.
음향 시뮬레이션 장치(100)는 이러한 디스플레이의 특성을 이용하여 가상으로 생성된 가상 공간의 이미지나 배경을 영상으로 보여주는 가상 현실(Virtual Reality, VR)을 제공할 수 있다.
도 1b의 (a) 및 (b)를 참조하면, 음향 시뮬레이션 장치(100)의 음향 출력부(150)는 복수의 개소에 구비되어 스테레오 음향(여기서, 시뮬레이션 된 음향)을 출력하도록 구성될 수 있다.
도 1b를 참조하여 설명한 음향 시뮬레이션 장치(100)는 본 개시의 이해를 돕기 위한 몇몇 예시적인 양상으로, 본 개시의 음향 시뮬레이션 장치(100)는 도 1b에 도시된 형태에 한정되는 것은 아니다.
다시 도 1a를 참조하면, 음향 시뮬레이션 장치(100)의 음향 출력부(150)는 시뮬레이션된 음향을 출력하거나, 메모리(130)에 저장된 음향 데이터를 출력할 수 있다. 음향 출력부(150)는 음향 시뮬레이션 장치(100)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(150)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
음향 출력부(150)는 시뮬레이션된 음향을 사용자의 귀로 전달시키는 리시버(receiver)로 구현될 수 있다. 또한, 음향 출력부(150)는 사용자의 귀에 착용되는 이어폰(earphone)으로 구현될 수 있다. 즉, 음향 출력부(150)는 유선 통신 또는 무선 통신으로 음향 시뮬레이션 장치(100)로부터 시뮬레이션된 음향을 수신하여 상기 음향을 출력할 수 있다. 추가적으로, 음향 출력부(150)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다. 또한, 음향 출력부(150)는 음향 시뮬레이션 장치(100)의 바디 전후면 또는 측면 중 적어도 하나에 구비될 수 있다. 다만, 이에 한정되는 것은 아니다.
음향 시뮬레이션 장치(100)의 입력부(160)는 사용자로부터 정보를 입력 받기 위한 것으로서, 입력부(160)를 통해 정보가 입력되면, 프로세서(110)는 입력된 정보에 대응되도록 음향 시뮬레이션 장치(100)의 동작을 제어할 수 있다. 이러한, 입력부(160)는 기계식(mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 음향 시뮬레이션 장치(100)의 전후면 또는 측면에 위치하는 버튼, 돔 스위치(dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다.
일 예로서, 입력부(160)에 포함된 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린(여기서, 터치스크린은 사용자의 터치 입력을 수신하기 위해 음향 시뮬레이션 장치(100)의 후측면에 구비될 수 있다.)에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있는 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
추가적으로, 입력부(160)는 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰, 또는 오디오 입력부를 포함할 수 있다.
일례로, 입력부(160)는 영상 신호 입력을 사용자로부터 수신하여 음향 시뮬레이션 장치(100)의 제어 정보를 획득할 수 있다. 예를 들어, 입력부(160)에 포함된 카메라를 통해 사용자의 제스처가 촬영될 수 있다. 이 경우, 프로세서(110)는 촬영된 제스처에 대응하는 동작(여기서, 제스처에 대응하는 동작은 메모리(130)에 사전 저장되어 있을 수 있다.)을 수행할 수 있다. 다만, 이에 한정되는 것은 아니다.
다른 일례로, 입력부(160)는 오디오 신호 입력을 사용자로부터 수신하여 음향 시뮬레이션 장치(100)의 제어 정보를 획득할 수 있다. 예를 들어, 입력부(160)에 포함된 마이크로폰 또는 오디오 입력부는 사용자의 음성 명령을 획득할 수 있다. 이 경우, 프로세서(110)는 획득된 음성 명령에 대응하는 동작(여기서, 음성 명령에 대응하는 동작은 메모리(130)에 사전 저장되어 있을 수 있다.)을 수행할 수 있다. 다만, 이에 한정되는 것은 아니다.
음향 시뮬레이션 장치(100)의 위치 인식부(170)는 음향 시뮬레이션 장치(100)의 위치를 확인하기 위한, 위성 위치 확인 시스템(Global Positioning System, GPS)과 연계될 수 있다. 즉, 위치 인식부(170)는 GPS와 음향 시뮬레이션 장치(100)의 위치를 확인하기 위한 위치 정보를 송수신할 수 있다. 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수 있다. 다만, 이에 한정되는 것은 아니고, GPS 기술뿐만 아니라 음향 시뮬레이션 장치(100)의 위치를 추적할 수 있는 모든 기술들을 이용하여 음향 시뮬레이션 장치(100)의 위치가 추적될 수 있다.
그리고, 음향 시뮬레이션 장치(100)의 프로세서(110)는 통상적으로 음향 시뮬레이션 장치(100)의 전반적인 동작을 제어한다. 프로세서(110)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(130)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 프로세서(110)는 메모리(130)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(110)는 상기 응용 프로그램의 구동을 위하여, 음향 시뮬레이션 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 메모리(130)에 저장된 정보를 이용하여 음향 시뮬레이션을 수행할 수 있다. 그리고, 프로세서(110)는 음향 시뮬레이션의 수행됨에 따라 생성된 영상 및 음향을 사용자에게 제공할 수 있다.
즉, 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치(100)는 보다 편리하게 음향 설계를 수행하는 방법을 사용자에게 제공할 수 있다.
이하, 프로세서(110)가 음향 시뮬레이션을 수행하는 방법에 대한 설명은 도 2 내지 도 5를 참조하여 후술한다.
도 2는 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치가 음향을 시뮬레이션 하는 방법의 일례를 설명하기 위한 흐름도이다. 도 3은 본 개시의 음향 시뮬레이션 장치에서 보여질 수 있는 영상의 일례를 설명하기 위한 도면이다. 도 4는 본 개시의 음향 시뮬레이션 장치에서 보여질 수 있는 영상의 다른 일례를 설명하기 위한 도면이다. 도 5는 본 개시의 음향 시뮬레이션 장치가 음향을 시뮬레이션 하는 방법의 일례를 설명하기 위한 도면이다.
도 2를 참조하면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 시뮬레이션 공간을 이루는 건축물과 관련된 건축 구조 정보를 획득할 수 있다(S110).
구체적으로, 프로세서(110)는 통신부(120)를 통해 외부 서버 또는 외부 단말로부터 건축 구조 정보를 수신할 수 있다. 여기서, 외부 서버 또는 외부 단말은 건축물의 설계와 관련된 기업 또는 사용자와 관련될 수 있다. 다만, 이에 한정되는 것은 아니다.
추가적으로, 음향 시뮬레이션 장치(100)의 프로세서(110)는 입력부(160)를 통해 건축 구조 정보를 사용자로부터 입력 받을 수 있다. 즉, 사용자는 음향 시뮬레이션을 수행하고자 하는 건축물과 관련된 건축 구조 정보를 음향 시뮬레이션 장치(100)에 입력할 수 있다.
본 개시의 몇몇 실시예에 따른 건축 구조 정보는 건축물의 평면 설계도에 대한 정보(예를 들어, 건축물이 장방형인지, 부채꼴인지, 다각형인지, 또는 말굽형인지에 대한 정보), 건축물의 천장 형상에 대한 정보(예를 들어, 건축물의 천장이 굽었는지에 대한 정보), 건축물 내부에 배치되는 발코니의 형태에 대한 정보(예를 들어, 건축물 내부에 배치되는 발코니가 장형인지, 팬형인지에 대한 정보), 건축물의 내벽의 형상에 대한 정보(예를 들어, 건축물의 내벽에 흡음 처리를 위한 형상이 존재하는지 여부 등과 같은 벽면 계획에 대한 정보), 건축물의 바닥의 구조에 대한 정보(예를 들어, 건축물이 계단 형인지, 평면형인지에 대한 정보 및 무대의 바닥은 어떻게 생겼는지에 대한 정보) 또는 건축물 내부에 존재하는 반사판의 위치 및 형상에 대한 정보 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보를 획득할 수 있다(S120).
본 개시의 몇몇 실시예에 따른 건축 소재 정보는 적어도 하나의 건축 소재의 외형에 대한 제 1 외형 정보(예를 들어, 건축 소재의 외형의 재질에 대한 정보 및 건축 소개의 외형의 색상에 대한 정보), 적어도 하나의 건축 소재가 갖는 음향의 반사율에 대한 제 1 음향 정보 또는 적어도 하나의 건축 소재가 갖는 흡음율에 대한 제 2 음향 정보 중 적어도 하나를 포함할 수 있다.
예를 들어, 건축 소재 정보는 건축물 자체에 사용되는 재질에 대한 정보, 건축물의 천장에 사용되는 재질에 대한 정보, 건축물 내부에 배치되는 발코니의 재질에 대한 정보, 건축물 내벽의 재질에 대한 정보, 건축물 바닥의 재질에 대한 정보, 건축물에 설치 가능한 반사판의 재질에 대한 정보를 포함할 수 있다. 여기서, 건축물 자체, 천장, 발코니, 바닥 및 반사판 각각의 재질에 대한 정보는 각 재질의 외형에 대한 정보 및 각 재질을 이루는 소재로 인해 음향(또는, 음파)이 반사되거나 흡음되는 것과 관련된 정보를 의미할 수 있다. 다만, 이에 한정되는 것은 아니다.
한편, 프로세서(110)는 건축 소재 정보를 획득할 때, 시뮬레이션 공간에 사용 가능한 복수의 건축 소재 중 어느 하나를 선택하는 제 1 입력을 수신할 수 있다. 그리고, 프로세서(110)는 제 1 입력에 기초하여 메모리(130)에 저장된 복수의 건축 소재와 관련된 정보 중 시뮬레이션 공간에 사용되는 적어도 하나의 건축 소재와 관련된 건축 소재 정보를 획득할 수 있다.
구체적으로, 프로세서(110)는 시뮬레이션 공간에 적용(즉, 설치) 가능한 복수의 건축 소재 각각에 대한 정보를 리스트화된 영상이 출력되도록(즉, 사용자에게 보여지도록) 영상 출력부(140)를 제어할 수 있다. 그리고, 프로세서(110)는 입력부(160)를 통해 리스트화된 영상에 포함된 적어도 하나의 건축 소재를 선택하는 제 1 입력을 사용자로부터 수신할 수 있다.
즉, 프로세서(110)는 입력부(160)를 통해 복수의 건축 소재 중 시뮬레이션 공간에 적용할 적어도 하나의 건축 소재를 선택하는 제 1 입력을 사용자로부터 수신할 수 있다. 그리고, 프로세서(110)는 메모리(130)에서 사전 저장된 제 1 입력에 대응하는 건축 소재 정보를 검색하여 제 1 입력에 대응하는 건축 소재 정보를 획득할 수 있다. 여기서, 메모리(130)는 복수의 건축 소재 각각에 대한 정보를 사전 저장하고 있을 수 있다.
추가적으로, 프로세서(110)는 통신부(120)를 통해 제 1 입력에 대응하는 건축 소재 정보를 외부 서버 또는 외부 단말로부터 수신할 수 있다. 구체적으로, 프로세서(110)는 제 1 입력에 대응하는 건축 소재 정보를 요청하는 제 1 신호를 외부 서버 또는 외부 단말로 전송할 수 있다. 그리고, 프로세서(110)는 제 1 신호에 대응하는 건축 소재 정보를 상기 외부 서버 또는 외부 단말로부터 수신할 수 있다. 여기서, 외부 서버 또는 외부 단말은 복수의 건축 소재 각각에 대한 정보를 사전 저장하고 있을 수 있다. 또한, 외부 서버 또는 외부 단말은 음향 시뮬레이션 장치(100)로부터 특정 건축 소재의 건축 소재 정보를 요청하는 하는 신호를 수신함에 따라, 상기 신호에 대응하는 건축 소재 정보를 음향 시뮬레이션 장치(100)로 전송할 수 있다.
따라서, 사용자는 시뮬레이션 공간에 적용하기 위한 건축 소재와 관련된 정보(예를 들어, 건축 소재의 반사율 및/또는 흡음률)을 확인하기 위한 별도의 계산을 생략할 수 있다. 즉, 음향 시뮬레이션 장치(100)는 건축 소재와 관련된 정보를 확인하기 위한 사용자의 번거로움을 해소시킬 수 있다.
추가적으로, 프로세서(110)는 상기 제 1 입력을 수신하기 전, 복수의 건축 소재 중 어느 하나를 추천하는 제 1 추천 정보를 출력하도록 영상 출력부(140)를 제어할 수 있다. 여기서, 제 1 추천 정보는, 복수의 건축 소재 각각을 시뮬레이션 공간에 설치하여 생성된 예상 음향을 비교하여 생성될 수 있다. 예를 들어, 프로세서(110)는 복수의 건축 소재 각각이 설치된 복수의 시뮬레이션 공간에서 기 설정된 스피커를 기 설정된 위치에 설치하였을 때, 기 설정된 청취 지점에서 획득되는 음향들을 비교하여, 제 1 추천 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.
따라서, 사용자는 다양한 건축 소재 중 시뮬레이션 공간에 적용하기에 적합한 건축 소재를 쉽게 선택할 수 있다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 시뮬레이션 공간에 설치되는 적어도 하나의 스피커와 관련된 스피커 정보를 획득할 수 있다(S130).
본 개시의 몇몇 실시예에 따른 스피커 정보는 적어도 하나의 스피커의 설치 위치 정보(예를 들어, 적어도 하나의 스피커가 설치되는 지점에 대한 정보 및 적어도 하나의 스피커가 설치되는 방향에 대한 정보), 적어도 하나의 스피커의 외형에 대한 제 2 외형 정보 또는 적어도 하나의 스피커의 음향 특성에 대한 제 3 음향 정보 중 적어도 하나를 포함할 수 있다.
한편, 프로세서(110)는 스피커 정보를 획득할 때, 시뮬레이션 공간에 설치 가능한 복수의 스피커 중 어느 하나를 선택하는 제 2 입력을 수신할 수 있다. 그리고, 프로세서(110)는 제 2 입력에 기초하여 메모리(130)에 저장된 복수의 스피커와 관련된 정보 중 시뮬레이션 공간에 사용되는 적어도 하나의 스피커와 관련된 스피커 정보를 획득할 수 있다.
구체적으로, 프로세서(110)는 시뮬레이션 공간에 설치 가능한 복수의 스피커 각각에 대한 정보를 리스트화된 영상이 출력되도록(즉, 사용자에게 보여지도록) 영상 출력부(140)를 제어할 수 있다. 그리고, 프로세서(110)는 입력부(160)를 통해 리스트화된 영상에 포함된 적어도 하나의 스피커를 선택하는 제 2 입력을 사용자로부터 수신할 수 있다.
즉, 프로세서(110)는 입력부(160)를 통해 복수의 스피커 중 시뮬레이션 공간에 설치할 적어도 하나의 스피커를 선택하는 제 2 입력을 사용자로부터 수신할 수 있다. 그리고, 프로세서(110)는 메모리(130)에 사전 저장된 제 2 입력에 대응하는 스피커 정보를 획득할 수 있다. 여기서, 메모리(130)는 복수의 스피커 각각에 대한 정보를 사전 저장하고 있을 수 있다.
추가적으로, 프로세서(110)는 통신부(120)를 통해 제 2 입력에 대응하는 스피커 정보를 외부 서버 또는 외부 단말로부터 수신할 수 있다. 구체적으로, 프로세서(110)는 제 2 입력에 대응하는 건축 소재 정보를 요청하는 제 2 신호를 외부 서버 또는 외부 단말로 전송할 수 있다. 그리고, 프로세서(110)는 제 2 신호에 대응하는 스피커 정보를 상기 외부 서버 또는 외부 단말로부터 수신할 수 있다. 여기서, 외부 서버 또는 외부 단말은 복수의 스피커 각각에 대한 정보를 사전 저장하고 있을 수 있다. 또한, 외부 서버 또는 외부 단말은 음향 시뮬레이션 장치(100)로부터 특정 스피커의 스피커 정보를 요청하는 하는 신호를 수신함에 따라, 상기 신호에 대응하는 스피커 정보를 음향 시뮬레이션 장치(100)로 전송할 수 있다.
따라서, 음향 시뮬레이션 장치(100)의 프로세서(110)는 시뮬레이션 공간에 적용하기 위한 스피커에 대한 정보(예를 들어, 스피커의 주파수 대역 별 출력량)를 사용자가 별도로 찾아야 하는 번거로움을 해소시킬 수 있다.
추가적으로, 프로세서(110)는 제 2 입력을 수신하기 전, 복수의 스피커 중 어느 하나를 추천하는 제 2 추천 정보를 출력하도록 영상 출력부(140)를 제어할 수 있다. 여기서, 제 2 추천 정보는 메모리(130)에 저장된 복수의 스피커 각각의 스피커 정보를 이용하여, 복수의 스피커 각각을 시뮬레이션 공간의 기 설정된 위치에 설치하여 생성된 예상 음향을 비교하여 생성될 수 있다. 예를 들어, 프로세서(110)는 시뮬레이션 공간에서 복수의 스피커 각각을 설치하였을 때, 기 설정된 청취 지점에서 획득되는 음향들을 비교하여, 제 2 추천 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.
따라서, 사용자는 다양한 스피커 중 시뮬레이션 공간에 설치하기에 적합한 스피커를 쉽게 선택할 수 있다.
한편, 프로세서(110)는 제 2 입력을 수신한 이후, 적어도 하나의 스피커의 설치 위치를 추천하는 제 3 추천 정보를 출력하도록 상기 영상 출력부(140)를 제어할 수 있다. 여기서, 제 3 추천 정보는, 제 2 입력을 통해 선택된 스피커를 복수의 위치 각각에 설치하여 생성된 예상 음향을 비교하여 생성될 수 있다. 예를 들어, 프로세서(110)는 시뮬레이션 공간에서 적어도 하나의 스피커를 복수의 위치 각각에 설치하였을 때, 기 설정된 청취 지점에서 획득되는 음향들을 비교하여, 제 3 추천 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.
따라서, 사용자는 스피커가 설치 가능한 다양한 위치 중 스피커가 설치되기에 적합한 위치를 편리하게 인식할 수 있다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 위치 인식부(170)를 통해 음향 시뮬레이션 장치의 현재 위치에 대한 위치 정보를 획득할 수 있다(S140). 그리고, 프로세서(110)는 획득된 위치 정보를 분석하여, 시뮬레이션 공간에서 현재 위치에 대응하는 가상 위치를 인식할 수 있다(S150).
구체적으로, 프로세서(110)는 현실 공간의 크기와 시뮬레이션 공간의 크기를 비교하여, 공간의 크기에 대한 비율을 인식할 수 있다. 그리고, 프로세서(110)는 크기에 대한 비율과 위치 정보를 이용하여 시뮬레이션 공간에서 현재 위치에 대응하는 가상 위치를 인식할 수 있다.
좀더 구체적으로, 프로세서(110)는 현실 공간의 크기(예를 들어, 현실 공간의 바닥 넓이 및 현실 공간의 천장 높이 등)를 인식할 수 있다. 또한, 프로세서(110)는 시뮬레이션 공간의 크기(즉, 시뮬레이션 공간의 바닥 넓이 및 시뮬레이션 공간의 천장 높이)를 인식할 수 있다. 또한, 프로세서(110)는 현실 공간의 크기와 가상 공간의 크기의 비율을 인식할 수 있다. 또한, 프로세서(110)는 현실 공간에서 이동되는 현실 이동 거리를 획득(즉, 기 설정된 시간 간격으로 현재 위치에 대한 위치 정보를 획득)할 수 있다. 그리고, 프로세서(110)는 상기 비율과 상기 현실 이동 거리를 연산하여 상기 시뮬레이션 공간에서 현재 위치에 대응하는 가상 위치를 인식할 수 있다. 다만, 이에 한정되는 것은 아니다.
따라서, 사용자는 프로세서(110)가 인식한 가상 위치에 기반하여 가상 공간(즉, 시뮬레이션 공간)을 이동하여, 시뮬레이션 공간 내부를 보다 자연스럽게(현실 공간과 유사하게) 인식할 수 있다.
본 개시의 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 가상 위치를 인식한 경우, 건축 구조 정보, 건축 소재 정보 및 스피커 정보에 기초하여 가상 위치에서 현시되는 영상을 생성할 수 있다(S160).
구체적으로, 프로세서(110)는 위치 정보, 건축 구조 정보, 제 1 외형 정보 및 제 2 외형 정보를 이용하여 상기 가상 위치에서 현시되는 영상을 생성할 수 있다. 좀더 구체적으로, 프로세서(110)는 가상 현실 또는 증강 현실에 기반하여, 음향 시뮬레이션 장치(100)를 장착한 사용자가 가상 위치에서 상기 시뮬레이션 공간을 바라보는 시야에 보이는 영상을 생성할 수 있다.
그리고, 프로세서(110)는 생성된 영상을 출력하도록 영상 출력부(140)를 제어할 수 있다.
일례로, 프로세서(110)가 생성한 영상은 음향 시뮬레이션 장치(100)를 장착한 사용자가 가상 위치에서 상기 시뮬레이션 공간을 바라보는 시야에 보이는 적어도 하나의 건축 소재 및 적어도 하나의 스피커가 설치된 건축물의 내부 형상에 대한 가상 영상일 수 있다. 즉, 프로세서(110)는 가상 현실에 기반한 시뮬레이션 영상을 생성할 수 있다.
구체적으로, 도 3의 (a)를 참조하면, 음향 시뮬레이션 장치(100)를 장착한 사용자는 음향 시뮬레이션을 하기 위한 건축물이 아닌 공간에서 음향 시뮬레이션 장치(100)를 통해 상기 음향 시뮬레이션을 하기 위한 건축물의 내부 공간을 볼 수 있다. 예를 들어, 도 3의 (a)에 도시된 사용자는 도 1b의 (b)에 도시된 헤드 마운티드 디스플레이 형태로 구현된 음향 시뮬레이션 장치(100)를 착용한 사용자일 수 있다. 다만, 이에 한정되는 것은 아니다.
즉, 사용자는 공간의 제약을 받지 않고, 음향 시뮬레이션 장치(100)를 이용하여 특정 건축물 내부의 음향 설계를 수행할 수 있다.
도 3의 (b)를 참조하면, 사용자에게 보여질 수 있는 가상 영상(구체적으로, 가상 현실 영상)을 도시하였다. 도 3의 (b)에 도시된 바와 같이, 가상 영상은 시뮬레이션 공간에 사용되는 제 1 소재(11)가 적용된 제 1 벽면, 제 2 소재(12)가 적용된 천장 및 제 3 소재(13)가 적용된 제 2 벽면을 포함할 수 있다. 또한, 가상 영상은 시뮬레이션 공간에 설치되는 적어도 하나의 스피커(20)를 포함할 수 있다. 다만, 음향 시뮬레이션 장치(100)에서 출력되는 영상은 이에 한정되지 않는다.
따라서, 사용자는 음향 시뮬레이션 장치(100)를 이용하여, 시뮬레이션 공간의 음향 설계를 수행할 수 있을 뿐만 아니라, 시뮬레이션 공간의 인테리어를 확인할 수 있다.
다른 일례로, 프로세서(110)가 생성한 영상은 음향 시뮬레이션 장치(100)를 장착한 사용자가 가상 위치에서 시뮬레이션 공간을 바라볼 때, 사용자의 일반 시야 상에 오버랩 되는 영상일 수 있다. 즉, 프로세서(110)는 증강 현실에 기반한 시뮬레이션 영상을 생성할 수 있다. 이 경우, 영상 출력부(140)는 상기 영상을 사용자의 눈으로 투사하도록 투광성 소재로 이루어질 수 있다.
구체적으로, 도 4의 (a)를 참조하면, 음향 시뮬레이션 장치(100)를 장착한 사용자는 음향 시뮬레이션을 하기 위한 건축물의 내부 공간에서 상기 음향 시뮬레이션 장치(100)를 통해 오버랩 되는 영상을 볼 수 있다. 예를 들어, 도 4의 (a)에 도시된 사용자는 도 1b의 (a)에 도시된 증강 현실 글라스 형태로 구현된 음향 시뮬레이션 장치(100)를 착용한 사용자일 수 있다. 다만, 이에 한정되는 것은 아니다.
도 4의 (b)를 참조하면, 사용자에게 보여지는 것(구체적으로, 증강 현실 영상)을 도시하였다. 도 4의 (b)에 도시된 바와 같이, 오버랩 영상은 시뮬레이션 공간에 사용되는 제 1 소재(11)가 적용된 제 1 벽면, 제 2 소재(12)가 적용된 천장 및 제 3 소재(13)가 적용된 제 2 벽면을 포함할 수 있다. 또한, 가상 영상은 시뮬레이션 공간에 설치되는 적어도 하나의 스피커(20)를 포함할 수 있다. 다만, 음향 시뮬레이션 장치(100)에서 출력되는 영상은 이에 한정되지 않는다.
다시 말하면, 도 4의 (a)에 도시된 바와 같이 음향 시뮬레이션 장치(100)를 착용한 사용자는 건축 소재가 적용되지 않은 건축물 내부를 바라보고 있을 수 있다. 하지만, 건축 소재 및 적어도 하나의 스피커의 영상이 사용자의 일반 시야 상에 오버랩되어 사용자는 도 4의 (b)와 같이 자신이 선택한 건축 소재가 적용되고 적어도 하나의 스피커가 설치된 건축물 내부의 모습을 확인할 수 있다.
따라서, 음향 시뮬레이션 장치(100)를 착용한 사용자는 건축 소재 및/또는 스피커가 실제 공간에는 존재하지 않지만, 상기 실제 공간에 건축 소재 및/또는 스피커가 마치 존재하는 것처럼 인식할 수 있다.
즉, 음향 시뮬레이션 장치(100)는 오버랩 영상을 통해, 특정 소재가 적용되거나, 특정 스피커가 설치되지 않은 도 4의 (a)에 도시된 공간에 있는 사용자에게 도 4의 (b)에 도시된 공간과 같이 보여줄 수 있다.
따라서, 사용자는 음향 시뮬레이션 장치(100)를 이용하여, 시뮬레이션 공간의 음향 설계를 수행할 수 있을 뿐만 아니라, 시뮬레이션 공간의 인테리어를 확인할 수 있다.
본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치(100)는 도 3 및 도 4를 참조하여 설명한 바와 같이, 시뮬레이션 공간에 대한 영상을 가상 영상(도 3)으로 사용자에게 제공하거나, 시뮬레이션 공간에 대한 영상을 일반 시야 상에 오버랩되는 영상(도 4)으로 제공할 수 있다.
본 개시의 추가적인 몇몇 실시예에 따르면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 가상 위치에서 현시되는 영상을 생성할 때, 시뮬레이션 공간을 이루는 하나 이상의 서브 공간 각각의 서브 음향 특성을 인식할 수 있다. 그리고, 프로세서(110)는 서브 음향 특성에 대응하는 영상 효과가 표시되도록 상기 영상을 생성할 수 있다.
따라서, 사용자는 시뮬레이션 공간의 서브 공간 별 음향 특성을 직관적으로 인식할 수 있다.
이하, 프로세서(110)가 영상 효과가 표시되는 영상을 생성하는 방법에 대한 설명은 도 6 및 도 7를 참조하여 후술한다.
다시 도 2를 참조하면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 가상 위치를 인식한 경우, 건축 구조 정보, 건축 소재 정보 및 스피커 정보에 기초하여, 가상 위치에서 청취되는 음향을 생성할 수 있다(S170).
먼저, 프로세서(110)는 적어도 하나의 스피커로부터 방사되어 가상 위치에 위치하는 사용자에게 직접적으로 전달되는 제 1 가상 음향의 특성에 대한 제 1 음향 특성 정보를 획득할 수 있다.
구체적으로, 프로세서(110)는 적어도 하나의 스피커의 설치 위치 정보, 음향 시뮬레이션 장치(100)의 위치 정보, 적어도 하나의 스피커의 제 3 음향 정보에 기초하여 제 1 음향 특성 정보를 생성할 수 있다.
좀더 구체적으로, 도 5를 참조하면, 프로세서(110)는 설치 위치 정보를 이용하여 시뮬레이션 공간(30)에서 적어도 하나의 스피커가 설치된 제 1 위치(51)를 인식할 수 있다. 또한, 프로세서(110)는 위치 정보를 이용하여 시뮬레이션 공간(30)에서 음향 시뮬레이션 장치의 현재 위치인 제 2 위치(52)를 인식할 수 있다. 또한, 프로세서(110)는 건축 구조 정보를 이용하여, 제 1 위치(51)와 제 2 위치(52) 사이에 객체(즉, 장애물)가 존재하는지 여부를 인식할 수 있다. 그리고, 프로세서(110)는 제 1 위치(51)에서 제 2 위치(52)로 직접 전달되는 제 1 가상 음향(41)을 인식할 수 있다. 또한, 프로세서(110)는 제 1 가상 음향(41)을 이용하여 제 1 음향 특성 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.
한편, 프로세서(110)는 적어도 하나의 스피커로부터 방사되어 가상 위치에 위치하는 사용자에게 간접적으로 전달되는 제 2 가상 음향(42)의 특성에 대한 제 2 음향 특성 정보를 생성할 수 있다. 여기서, 제 2 가상 음향(42)은 적어도 하나의 건축 소재에 의해 제 1 가상 음향(41)이 흡수 또는 반사되어 변화된 가상 음향일 수 있다.
구체적으로, 프로세서(110)는 적어도 하나의 스피커의 설치 위치 정보, 음향 시뮬레이션 장치(100)의 위치 정보, 건축 구조 정보, 건축 소재의 외형에 대한 제 1 외형 정보(예를 들어, 건축 소재의 외형의 재질에 대한 정보), 적어도 하나의 건축 소재가 갖는 음향의 반사율에 대한 제 1 음향 정보, 적어도 하나의 건축 소재가 갖는 흡음율에 대한 제 2 음향 정보 및 적어도 하나의 스피커의 음향 특성에 대한 제 3 음향 정보에 기초하여 제 2 음향 특성 정보를 생성할 수 있다.
좀더 구체적으로, 프로세서(110)는 설치 위치 정보를 이용하여 시뮬레이션 공간(30)에서 적어도 하나의 스피커가 설치된 제 1 위치(51)를 인식할 수 있다. 또한, 프로세서(110)는 위치 정보를 이용하여 시뮬레이션 공간(30)에서 음향 시뮬레이션 장치의 현재 위치인 제 2 위치(52)를 인식할 수 있다. 그리고, 프로세서(110)는 제 3 음향 정보를 이용하여 적어도 하나의 스피커로부터 방사되는 가상 음향의 제 1 진행 경로(P1)를 인식할 수 있다.
프로세서(110)는 가상 음향의 제 1 진행 경로(P1)를 인식한 경우, 건축 구조 정보를 이용하여, 가상 음향이 충돌되어 변화되는 제 2 진행 경로(P2)를 인식할 수 있다. 또한, 프로세서(110)는 제 1 음향 정보 및 제 2 음향 정보를 이용하여, 적어도 하나의 건축 소재 중 제 1 진행 경로(P1)와 상기 제 2 진행 경로(P2) 사이에 존재하는 특정 건축 소재(M)가 갖는 음향의 반사율에 대한 제 1 정보와 특정 건축 소재가 갖는 흡음률에 대한 제 2 정보를 인식할 수 있다. 그리고, 프로세서(110)는 적어도 하나의 스피커로부터 방사되어 제 1 진행 경로(P1), 특정 건축 소재(M) 및 제 2 진행 경로(P2)를 거쳐, 가상 위치에 위치하는 사용자에게 간접적으로 전달되는 제 2 가상 음향(42)을 인식할 수 있다.
즉, 프로세서(110)는 적어도 하나의 스피커의 설치 위치 정보, 음향 시뮬레이션 장치(100)의 위치 정보, 건축 구조 정보, 제 1 외형 정보, 제 1 정보, 제 2 정보 및 제 3 음향 정보를 이용하여, 제 2 가상 음향(42)을 인식할 수 있다. 그리고, 프로세서(110)는 제 2 가상 음향(42)을 이용하여 제 2 음향 특성 정보를 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.
음향 시뮬레이션 장치(100)의 프로세서(110)는 제 1 음향 특성 정보를 획득하고 및 제 2 음향 특성 정보를 생성한 경우, 제 1 음향 특성 정보 및 제 2 음향 특성 정보에 기초하여 가상 위치에서 청취되는 음향을 생성할 수 있다. 구체적으로, 프로세서(110)는 제 1 음향 특성 정보에 포함된 직접음(즉, 사용자에게 직접적으로 전달되는 음향)의 음향 특성 정보와 제 2 음향 특성 정보에 포함된 간접음(즉, 사용자에게 간접적으로 전달되는 음향)의 음향 특성 정보를 이용하여, 상기 음향을 생성할 수 있다. 다만, 이에 한정되는 것은 아니다.
그리고, 프로세서(110)는 생성된 음향을 출력하도록 음향 출력부(150)를 제어할 수 있다.
따라서, 사용자는 건축물 내부에 마감재(여기서, 건축 소재)나 스피커를 직접 설치해보지 않더라도, 건축물 내부의 인테리어를 확인할 수 있을 뿐만 아니라, 건축물 내부의 음향 설계를 수행할 수 있다.
도 6은 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치가 음향 특성에 대응하는 영상 효과가 표시되는 영상을 생성하는 방법의 일례를 설명하기 위한 흐름도이다. 도 7은 본 개시의 몇몇 실시예에 따른 시뮬레이션 영상의 일례를 설명하기 위한 도면이다.
먼저, 도 6을 참조하면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 시뮬레이션 공간을 하나 이상의 서브 공간으로 분할할 수 있다(S161).
구체적으로, 프로세서(110)는 시뮬레이션 공간 내에서 서로 다른 음향 특성을 가질 수 있는 복수의 서브 공간을 인식할 수 있다. 그리고, 프로세서(110)는 시뮬레이션 공간을 인식된 복수의 서브 공간들로 분할할 수 있다.
도 7을 참조하면, 도시된 바와 같이, 적어도 하나의 스피커(20)가 설치된 시뮬레이션 공간(30)은 4 개의 서브 공간들로 분할될 수 있다.
즉, 프로세서(110)는 시뮬레이션 공간(30)을 제 1 서브 공간(31), 제 2 서브 공간(32), 제 3 서브 공간(33) 및 제 4 서브 공간(34)으로 분할할 수 있다. 여기서, 제 1 서브 공간(31), 제 2 서브 공간(32), 제 3 서브 공간(33) 및 제 4 서브 공간(34) 각각은 서로 다른 음향 특성을 가질 수 있다. 다만, 이에 한정되는 것은 아니고, 제 1 서브 공간(31), 제 2 서브 공간(32), 제 3 서브 공간(33) 및 제 4 서브 공간(34) 각각은 동일한 음향 특성을 가질 수도 있다.
다시 도 6을 참조하면, 음향 시뮬레이션 장치(100)의 프로세서(110)는 하나 이상의 서브 공간 각각의 서브 음향 특성을 인식할 수 있다(S162).
구체적으로, 프로세서(110)는 각 서브 공간에 포함된 특정 위치를 가상 위치로하여 상기 각 서브 공간의 서브 음향 특성을 인식할 수 있다.
좀더 구체적으로, 프로세서(110)는 각 서브 공간에 포함된 특정 위치를 가상 위치로 하여, 상기 가상 위치에서 청취되는 서브 음향을 생성할 수 있다. 그리고, 프로세서(110)는 생성된 서브 음향의 음향 특성을 인식할 수 있다. 여기서, 음향 특성은 예를 들어, 음향의 기 설정된 주파수 대역 별 증폭량에 대한 정보, 기 설정된 주파수 대역 별 감쇠량에 대한 정보 및 기 설정된 주파수 대역 별 잔향시간(예를 들어, 직접음 방사 후 직접음이 60dB 감쇠되어 소멸되는 시간)에 대한 정보 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되는 것은 아니고, 음향 특성 정보는 음성 명료도에 대한 정보 및 주파수 응답 특성(예를 들어, 저음과 중고음의 밸런스에 대한 정보)에 대한 정보를 더 포함할 수도 있다.
한편, 프로세서(110)는 서브 음향 특성 각각에 대응하는 영상 효과가 서브 공간 각각에 표시되도록 영상을 생성할 수 있다(S163).
본 개시의 몇몇 실시예에 따른 영상 효과는 색상 효과 및 안개 효과를 포함할 수 있다.
일례로, 제 1 음향 특성을 갖는 제 1 서브 공간에는 제 1 색상(예컨대, 빨강색)의 안개 효과가 표시될 수 있다. 또한, 제 2 음향 특성을 갖는 제 2 서브 공간에는 제 2 색상(예컨대, 초록색)의 안개 효과가 표시될 수 있다. 다만, 이에 한정되는 것은 아니다.
다른 일례로, 제 1 음향 특성을 갖는 제 1 서브 공간의 바닥면 또는 벽면에는 제 1 색상(예컨대, 빨강색)으로 채워질 수 있다. 또한, 제 2 음향 특성을 갖는 제 2 서브 공간의 바닥면 및/또는 벽면에는 제 2 색상(예컨대, 초록색)으로 채워질 수 있다. 다만, 이에 한정되는 것은 아니다.
따라서, 본 개시의 음향 시뮬레이션 장치(100) 사용자는 음향 특성에 대응하는 색상을 통해 시뮬레이션 공간의 서브 공간 별 음향 특성을 직관적으로 인식할 수 있다.
도 8은 본 개시의 몇몇 실시예에 따른 음향 시뮬레이션 장치가 음향 관련 정보를 제공하는 방법의 일례를 설명하기 위한 흐름도이다.
본 개시의 몇몇 실시예에 따르면, 도 2의 단계(S170)에서 음향 시뮬레이션 장치(100)의 프로세서(110)는 가상 위치에서 청취되는 음향을 생성한 경우, 상기 음향을 분석하여, 음향 특성 정보를 생성할 수 있다.
구체적으로, 프로세서(110)는 시뮬레이션 공간에 설치된 적어도 하나의 스피커에서 가청 주파수(20hz ~ 20Khz)가 방사되는 것을 시뮬레이션 할 수 있다. 그리고, 프로세서(110)는 방사되는 것으로 시뮬레이션 된 가청 주파수의 반사음의 패턴을 기 설정된 주파수 대역별로 분석하여, 음향 특성 정보를 생성할 수 있다.
여기서, 음향을 분석하여 생성되는 음향 특성 정보는 기 설정된 주파수 대역 별 증폭량에 대한 정보, 기 설정된 주파수 대역 별 감쇠량에 대한 정보 및 기 설정된 주파수 대역 별 잔향시간(예를 들어, 직접음 방사 후 직접음이 60dB 감쇠되어 소멸되는 시간)에 대한 정보를 포함할 수 있다. 다만, 이에 한정되는 것은 아니고, 음향 특성 정보는 음성 명료도에 대한 정보 및 주파수 응답 특성(예를 들어, 저음과 중고음의 밸런스에 대한 정보)에 대한 정보를 더 포함할 수도 있다.
도 8을 참조하면, 상술한 바와 같이, 음향 시뮬레이션 장치(100)의 프로세서(110)는 가상 위치에서 청취되는 음향을 생성한 경우, 음향의 기 설정된 주파수 대역 별 증폭량에 대한 정보, 기 설정된 주파수 대역 별 감쇠량에 대한 정보 및 기 설정된 주파수 대역 별 잔향시간에 대한 정보를 획득할 수 있다(S210).
그리고, 프로세서(110)는 음향의 기 설정된 주파수 대역 별 증폭량에 대한 정보, 기 설정된 주파수 대역 별 감쇠량에 대한 정보 및 기 설정된 주파수 대역 별 잔향시간에 대한 정보를 가상 위치에서 현시되는 영상과 함께 출력하도록 영상 출력부(140)를 제어할 수 있다(S220).
따라서, 사용자는 음향 시뮬레이션 장치(100)를 통해 음향 설계를 편리하게 수행할 수 있다. 구체적으로, 사용자는 음향 시뮬레이션 장치(100)로부터 제공된 음향 특성 정보를 이용하여, 시뮬레이션 공간에 적합하도록 스피커의 선택 또는, 튜닝 그리고, 마감재의 선택을 용이하게 할 수 있다.
또한, 프로세서(110)는 가상 위치에서 청취되는 음향을 출력하도록 음향 출력부(150)를 제어할 수 있다(S230).
즉, 사용자는 음향 시뮬레이션 장치(100)를 통해 음향 특성에 대한 정보를 시각적 정보로 확인하는 것 뿐만 아니라, 청각적 정보로서 확인할 수 있다. 따라서, 사용자는 시각 및 청각을 통해 음향 특성을 파악하여, 보다 정확하고 편리하게 음향 설계를 수행할 수 있다.
도 9는 본 개시 내용의 실시예들이 구현될 수 있는 예시적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.
본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다는 것을 잘 알 것이다.
일반적으로, 본 명세서에서의 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로시져, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.
본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘 다에 위치할 수 있다.
컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있고, 이러한 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다.
컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.
컴퓨터 판독가능 전송 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.
컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.
시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.
컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)―이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음―, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 예를 들어, USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘다를 포함한다.
이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 저장 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 저장 매체도 역시 예시적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.
운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.
사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.
모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.
컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 서버 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 서버에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.
컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.
Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.
여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다.
제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.

Claims (1)

  1. 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
KR1020200145234A 2020-04-02 2020-11-03 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치 KR20210123198A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200145234A KR20210123198A (ko) 2020-04-02 2020-11-03 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치
US17/217,930 US11240617B2 (en) 2020-04-02 2021-03-30 Augmented reality based simulation apparatus for integrated electrical and architectural acoustics

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200040186A KR102199591B1 (ko) 2020-04-02 2020-04-02 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치
KR1020200145234A KR20210123198A (ko) 2020-04-02 2020-11-03 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200040186A Division KR102199591B1 (ko) 2020-04-02 2020-04-02 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치

Publications (1)

Publication Number Publication Date
KR20210123198A true KR20210123198A (ko) 2021-10-13

Family

ID=77922108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200145234A KR20210123198A (ko) 2020-04-02 2020-11-03 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치

Country Status (2)

Country Link
US (1) US11240617B2 (ko)
KR (1) KR20210123198A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210123198A (ko) * 2020-04-02 2021-10-13 주식회사 제이렙 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150008329A (ko) 2013-07-11 2015-01-22 (주)에스엠인스트루먼트 음원 추적 센서를 이용한 시뮬레이션 방법 및 장치

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6901379B1 (en) * 2000-07-07 2005-05-31 4-D Networks, Inc. Online shopping with virtual modeling and peer review
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
KR100902874B1 (ko) 2007-06-26 2009-06-16 버츄얼빌더스 주식회사 재질 스타일에 기초한 공간 음향 분석기 및 그 방법
US8170222B2 (en) * 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
US8243970B2 (en) * 2008-08-11 2012-08-14 Telefonaktiebolaget L M Ericsson (Publ) Virtual reality sound for advanced multi-media applications
KR101576294B1 (ko) * 2008-08-14 2015-12-11 삼성전자주식회사 가상 현실 시스템에서 사운드 처리를 수행하기 위한 장치 및 방법
US8688443B2 (en) * 2009-12-23 2014-04-01 At&T Intellectual Property I, L.P. Multimodal augmented reality for location mobile information service
US8860760B2 (en) * 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US9245514B2 (en) * 2011-07-28 2016-01-26 Aliphcom Speaker with multiple independent audio streams
US8606645B1 (en) * 2012-02-02 2013-12-10 SeeMore Interactive, Inc. Method, medium, and system for an augmented reality retail application
US9330478B2 (en) * 2012-02-08 2016-05-03 Intel Corporation Augmented reality creation using a real scene
US8831255B2 (en) * 2012-03-08 2014-09-09 Disney Enterprises, Inc. Augmented reality (AR) audio with position and action triggered virtual sound effects
US10127724B2 (en) * 2013-01-04 2018-11-13 Vuezr, Inc. System and method for providing augmented reality on mobile devices
US20160088417A1 (en) * 2013-04-30 2016-03-24 Intellectual Discovery Co., Ltd. Head mounted display and method for providing audio content by using same
US9942685B2 (en) * 2013-06-28 2018-04-10 Microsoft Technology Licensing, Llc Navigation with three dimensional audio effects
US9769589B2 (en) * 2013-09-27 2017-09-19 Sony Interactive Entertainment Inc. Method of improving externalization of virtual surround sound
US20150302651A1 (en) * 2014-04-18 2015-10-22 Sam Shpigelman System and method for augmented or virtual reality entertainment experience
US9864909B2 (en) * 2014-04-25 2018-01-09 Huntington Ingalls Incorporated System and method for using augmented reality display in surface treatment procedures
US20160140868A1 (en) * 2014-11-13 2016-05-19 Netapp, Inc. Techniques for using augmented reality for computer systems maintenance
EP3234925A1 (en) 2014-12-16 2017-10-25 Metail Limited Methods for generating a 3d virtual body model of a person combined with a 3d garment image, and related devices, systems and computer program products
KR20160136160A (ko) 2015-05-19 2016-11-29 주식회사 드로잉쇼 가상현실 공연시스템 및 공연방법
EP3174005A1 (en) * 2015-11-30 2017-05-31 Nokia Technologies Oy Apparatus and method for controlling audio mixing in virtual reality environments
US10134198B2 (en) * 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
EP3236345A1 (en) * 2016-04-22 2017-10-25 Nokia Technologies Oy An apparatus and associated methods
US9906885B2 (en) 2016-07-15 2018-02-27 Qualcomm Incorporated Methods and systems for inserting virtual sounds into an environment
US10957083B2 (en) * 2016-08-11 2021-03-23 Integem Inc. Intelligent interactive and augmented reality based user interface platform
CN109844691A (zh) 2016-09-01 2019-06-04 哈曼国际工业有限公司 动态增强真实世界声音到虚拟现实混音
KR101835675B1 (ko) 2016-10-05 2018-03-07 연세대학교 산학협력단 증강현실 환경에서 입체 음향을 제공하기 위한 장치 및 그 방법
US10866631B2 (en) * 2016-11-09 2020-12-15 Rockwell Automation Technologies, Inc. Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality
WO2018093193A1 (en) * 2016-11-17 2018-05-24 Samsung Electronics Co., Ltd. System and method for producing audio data to head mount display device
US11037202B2 (en) * 2016-12-27 2021-06-15 Paypal, Inc. Contextual data in augmented reality processing for item recommendations
EP3379379A1 (en) * 2017-03-24 2018-09-26 Nokia Technologies Oy Virtual reality system and method
KR20190132666A (ko) 2017-03-28 2019-11-28 매직 립, 인코포레이티드 공간화된 오디오가 사용자 조작 가상 객체들에 결속된 증강 현실 시스템
KR101975920B1 (ko) 2017-10-24 2019-05-09 에스케이텔레콤 주식회사 가상 음향 합성 장치 및 방법
WO2019150321A1 (en) * 2018-02-01 2019-08-08 Isg Central Services Limited Improved augmented reality system
WO2019156961A1 (en) * 2018-02-06 2019-08-15 Bose Corporation Location-based personal audio
US10636188B2 (en) * 2018-02-09 2020-04-28 Nicholas T. Hariton Systems and methods for utilizing a living entity as a marker for augmented reality content
US10375506B1 (en) * 2018-02-28 2019-08-06 Google Llc Spatial audio to enable safe headphone use during exercise and commuting
WO2019173566A1 (en) * 2018-03-08 2019-09-12 Bose Corporation Augmented reality software development kit
WO2019173573A1 (en) * 2018-03-08 2019-09-12 Bose Corporation User-interfaces for audio-augmented-reality
US10846935B2 (en) * 2018-04-12 2020-11-24 PRO Unlimited Global Solutions, Inc. Augmented reality campus assistant
KR102140029B1 (ko) 2018-10-19 2020-07-31 송경준 증강현실을 활용한 글래스 하프의 음색 시뮬레이션 및 학습 시스템
US11501658B2 (en) * 2018-11-28 2022-11-15 Purdue Research Foundation Augmented reality platform for collaborative classrooms
US10645092B1 (en) * 2019-01-03 2020-05-05 Truly Social Games Llc Control and/or verification of interactions of an augmented reality deployment
US11182513B2 (en) * 2019-02-15 2021-11-23 Procore Technologies, Inc. Generating technical drawings from building information models
KR20200101235A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 증강 현실 컨텐츠 제공 방법 및 이를 위한 전자 장치
US11625222B2 (en) * 2019-05-07 2023-04-11 Apple Inc. Augmenting control sound with spatial audio cues
US20210006976A1 (en) * 2019-07-03 2021-01-07 Qualcomm Incorporated Privacy restrictions for audio rendering
US11580213B2 (en) * 2019-07-03 2023-02-14 Qualcomm Incorporated Password-based authorization for audio rendering
US11830460B2 (en) * 2019-11-14 2023-11-28 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US10878600B1 (en) * 2019-12-10 2020-12-29 Capital One Services, Llc Augmented reality system with color-based fiducial marker utilizing local adaptive technology
US11386652B2 (en) * 2019-12-26 2022-07-12 Paypal, Inc. Tagging objects in augmented reality to track object data
KR20210123198A (ko) * 2020-04-02 2021-10-13 주식회사 제이렙 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150008329A (ko) 2013-07-11 2015-01-22 (주)에스엠인스트루먼트 음원 추적 센서를 이용한 시뮬레이션 방법 및 장치

Also Published As

Publication number Publication date
US20210314715A1 (en) 2021-10-07
US11240617B2 (en) 2022-02-01

Similar Documents

Publication Publication Date Title
US9134952B2 (en) Terminal and control method thereof
US11617050B2 (en) Systems and methods for sound source virtualization
CN104811511B (zh) 移动终端
EP2982042B1 (en) Terminal and control method thereof
EP3934220A1 (en) Mobile terminal and control method thereof
EP2987244B1 (en) Mobile terminal and control method for the mobile terminal
KR102108069B1 (ko) 이동단말기 및 그 제어방법
EP2824665A1 (en) Mobile terminal and method of controlling the mobile terminal
EP3043239A1 (en) Mobile terminal and method for controlling the same
CN106664488A (zh) 根据所跟踪的用户位置来驱动参量扬声器
CN102376101A (zh) 用于编辑三维图像的方法和利用该方法的移动终端
CN114072761A (zh) 用于控制针对扩展现实体验的音频渲染的用户接口
CN110401898B (zh) 输出音频数据的方法、装置、设备和存储介质
CN108924705B (zh) 3d音效处理方法及相关产品
KR20210123198A (ko) 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치
CN109121069B (zh) 3d音效处理方法及相关产品
KR102668752B1 (ko) 이동 단말기 및 이동 단말기 제어 방법
KR102199591B1 (ko) 증강 현실 기반의 전기 음향과 건축 음향 통합 시뮬레이션 장치
KR20120039848A (ko) 단말기 및 그 제어 방법
EP3975541A1 (en) Mobile terminal and method for controlling same
CN116490250A (zh) 环境的非对称呈现
KR102026639B1 (ko) 이동 단말기 및 그것의 제어방법
CN116610282B (zh) 一种数据处理方法、装置及电子设备
KR20120130394A (ko) 휴대 단말기 및 그 제어방법
KR20110060125A (ko) 이동 단말기 및 그 제어방법