KR100947027B1 - 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체 - Google Patents

가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체 Download PDF

Info

Publication number
KR100947027B1
KR100947027B1 KR1020070139600A KR20070139600A KR100947027B1 KR 100947027 B1 KR100947027 B1 KR 100947027B1 KR 1020070139600 A KR1020070139600 A KR 1020070139600A KR 20070139600 A KR20070139600 A KR 20070139600A KR 100947027 B1 KR100947027 B1 KR 100947027B1
Authority
KR
South Korea
Prior art keywords
virtual sound
sound field
information
transfer function
screen
Prior art date
Application number
KR1020070139600A
Other languages
English (en)
Other versions
KR20090071722A (ko
Inventor
박영진
황성목
권병호
조현
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020070139600A priority Critical patent/KR100947027B1/ko
Priority to US12/017,244 priority patent/US8155358B2/en
Publication of KR20090071722A publication Critical patent/KR20090071722A/ko
Application granted granted Critical
Publication of KR100947027B1 publication Critical patent/KR100947027B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체에 관한 것으로, 보다 상세하게는 여러 명이 동시에 화상통화를 할 때 실제 공간에서 통화하는 듯한 효과를 느낄 수 있도록 하는 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체에 관한 것이다. 이를 달성하기 위한 수단으로, 휴대용 단말기나 컴퓨터의 화면을 구획하여 다수의 대화자와 화상통화하는 방법에 있어서, 대화자 중 한 화자로부터 음성정보가 발생되면, 화자의 영상정보와 음성정보 및 위치정보를 분리하는 단계; 화자의 분리된 위치정보를 이용하여 가상음장을 구현하는 단계; 및 가상음장과 분리된 영상정보를 합쳐 화면에 디스플레이하고, 스피커로 출력하는 단계;로 이루진 것이 특징이다. 본 발명에 의하면 휴대용 단말기나 컴퓨터를 이용하여 다자가 동시에 화상통화를 할 때, 실제 현실 공간에서 대화하는 것처럼 영상정보와 음성정보를 일치시킴으로써 통화 현실감을 높이는데 활용 가능하다. 또한 화면의 영상정보와 음성정보가 일치되기 때문에 음성정보만으로도 말하고 있는 화자를 쉽게 인식할 수 있게 된다.
동시통화, 다자간, 머리전달함수, 화상통화, 가상음장

Description

가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체{Method of communicating with multi-user simultaneously using virtual sound and computer-readable medium therewith}
본 발명은 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체에 관한 것으로, 보다 상세하게는 여러 명이 동시에 화상통화를 할 때 실제 공간에서 통화하는 듯한 효과를 느낄 수 있도록 하는 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체에 관한 것이다.
일반적으로 휴대용 단말기는 시간과 장소에 구애받지 않고 상대방과 연락을 취할 수 있는 편리함으로 인하여 그 수가 폭발적으로 늘어나고 있는 추세이다. 이러한 휴대용 단말기의 기술의 발전으로 인하여 음성과 데이터를 교환하는 수준에서 한걸음 더 나아가 통화중 화상 데이터까지 송·수신 가능한 시대에 도래하였다. 또한 1 : 1 화상통화를 비롯하여 다자간의 화상통화도 가능하게 된다.
이러한 다자간 간의 화상통화시에는 화면에 전송되는 화자의 위치에 관계없이 말하는 화자의 목소리가 모두 평면적으로 들리게 된다. 또한 여러 명의 화자가 동시에 말을 하는 경우 여러 명의 목소리가 한꺼번에 들리게 되어 어떤 사람이 말 을 한 것인지 분간을 하지 못하는 경우가 종종 발생된다.
만약 얼굴을 처음 보는 화자와의 화상통화를 하는 경우에는 익숙하지 않은 목소리로 인하여 어떤 사람이 말을 하는지 알지 못하게 되어 혼돈스럽게 된다.
휴대용 단말기나 컴퓨터를 이용한 화상통화의 경우 실제 공간에서 대화하는 것처럼 대화자의 목소리가 들린다면 이러한 혼돈은 크게 줄어들 것이다. 그러나 아직까지는 화상통화시 실제 공간에서처럼 현실감있게 통화하지 못한다.
인간이 소리의 방향을 인식하는 메카니즘의 핵심은 머리전달함수(HRTF, Head Related Transfer Function)이다. 머리주변 3차원 공간 전 영역에 대한 머리전달함수를 측정하여 음원 위치에 따른 데이터베이스를 구축하게 되면, 이를 이용하여 3차원 상의 가상음장을 재현할 수 있다.
머리전달함수는 머리주변 임의의 위치를 갖는 음원에서 방사되는 음파와 양귀 고막에 도달하는 음파간의 전달함수를 의미하며, 방위각과 고도각에 따라 그 값을 달리한다.
머리전달함수를 방위각과 고도각에 따라 확보하고 있을 때, 특정 위치에 해당하는 머리전달함수를 주파수 영역에서 들려주고자 하는 음원에 곱해주면 음원이 특정 각도에서 들리는 것 같은 효과를 줄 수 있다. 이를 이용한 것이 가상음장(Virtual Sound) 구현 기술이다.
이론상의 머리전달함수는 음원의 음압(Psource)과 귀의 위치에 해당하는 머리표면에서의 음압(Pt) 사이의 전달함수(H2)를 의미하며 [수학식1]과 같이 표현할 수 있다.
Figure 112007094171340-pat00001
하지만 상기 전달함수를 구하기 위해서는 음원의 음압(Psource)을 측정해야 하며, 이는 실제 측정 시 용이하지 않다. 음원의 음압(Psource)과 자유음장(free field condition)에서 머리중심점에 맺히는 음압(Pff) 사이의 전달함수(H1)는 [수학식2]과 같이 표현할 수 있다.
Figure 112007094171340-pat00002
상기의 [수학식1]과 [수학식2]를 이용하여 귀의 위치와 음원의 위치를 고려한 머리전달함수는 [수학식3]과 같이 표현할 수 있다.
Figure 112007094171340-pat00003
상기의 [수학식3]과 같이 자유음장에서 머리중심점에 맺히는 음압(Pff)과 머 리표면에서의 음압(Pt)을 측정하여 머리중심점의 음압과 머리 표면의 음압 사이의 전달함수(H)를 구한 후 음원의 거리에 해당하는 거리보정을 하여 머리전달함수를 구하는 것이 일반적이다.
본 발명은 상기와 같은 문제를 해결하고자 하는 것으로, 본 발명의 목적은 다자간의 동시 화상통화시 머리전달함수를 이용한 가상음장을 구현하여 사용자에게 통화 현실감을 높이는 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체를 제공하는데 있다.
상기와 같은 목적을 달성하기 위한 수단으로,
휴대용 단말기나 컴퓨터의 화면을 구획하여 다수의 대화자와 화상통화하는 방법에 있어서, 대화자 중 한 화자로부터 음성정보가 발생되면, 화자의 영상정보와 음성정보 및 위치정보를 분리하는 단계; 화자의 분리된 위치정보를 이용하여 가상음장을 구현하는 단계; 및 가상음장과 분리된 영상정보를 합쳐 화면에 디스플레이하고, 스피커로 출력하는 단계;로 이루진 것이 특징이다.
또한 가상음장 구현단계는, 미리선정된 머리전달함수 표로부터 위치정보에 대응되는 머리전달함수를 선택하는 단계; 및 선택된 머리전달함수와 음성정보로부터 얻은 음압을 곱하여 가상음장을 구현하는 단계;를 포함하는 것이 특징이다.
또한 머리전달함수 표는 2차원 또는 3차원으로 구현 가능한 것이 특징이다.
또한 가상음장 구현단계에서 대화자가 2명이면, 각 대화자의 가상음장은 서로 대칭되도록 평면상에 구현되는 것이 특징이다.
또한 가상음장 구현단계에서 대화자가 3명이면, 한 명의 대화자의 가상음장 을 중심으로 나머지 대화자의 가상음장이 서로 대칭되도록 평면상에 구현되는 것이 특징이다.
또한 가상음장은 이어폰 또는 적어도 2개 이상의 스피커를 이용하여 출력되는 것이 특징이다.
또한 가상음장은 2채널 또는 다채널 서라운드 방식으로 구현되는 것이 특징이다.
또한 휴대용 단말기나 컴퓨터의 화면을 구획하여 다수의 대화자와 화상통화를 가능하게 하는 프로그램에 있어서, 대화자 중 한 화자로부터 음성정보가 발생되었는지 판단하는 프로그램 코드와; 화자의 영상정보와 음성정보 및 위치정보를 분리하는 프로그램 코드와; 화자의 분리된 위치정보를 이용하여 가상음장을 구현하는 프로그램 코드; 및 가상음장과 분리된 영상정보를 합쳐 화면에 디스플레이하고, 스피커로 출력하는 프로그램 코드;를 갖는 것이 특징이다.
또한 가상음장을 구현하는 프로그램 코드는, 미리 선정된 머리전달함수 표로부터 위치정보에 대응되는 머리전달함수를 선택하는 프로그램 코드; 및 선택된 머리전달함수와 음성정보로부터 얻은 음압을 곱하여 가상음장을 구현하는 프로그램 코드;를 포함하는 것이 특징이다.
또한 가상음장을 구현하는 프로그램 코드에서 대화자가 2명이면, 각 대화자의 가상음장은 서로 대칭되도록 평면상에 구현되는 것이 특징이다.
아울러 가상음장을 구현하는 프로그램 코드에서 대화자가 3명이면, 한 명의 대화자의 가상음장을 중심으로 나머지 대화자의 가상음장이 서로 대칭되도록 평면 상에 구현되는 것이 특징이다.
본 발명에 의하면 휴대용 단말기나 컴퓨터를 이용하여 다자가 동시에 화상통화를 할 때, 실제 현실 공간에서 대화하는 것처럼 영상정보와 음성정보를 일치시킴으로써 통화 현실감을 높이는데 활용 가능하다.
또한 화면의 영상정보와 음성정보가 일치되기 때문에 음성정보만으로도 말하고 있는 화자를 쉽게 인식할 수 있게 된다.
이하, 본 발명의 바람직한 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 사용한다.
또한 하기에서 본 발명을 설명함에 있어, 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
도 1은 본 발명에 따른 가상음장을 이용하여 다자간 동시 통화하는 방법의 흐름도이다. 도 1에 도시된 바와 같이, 휴대용 단말기나 컴퓨터의 화면을 구획하여 다수의 대화자와 화상통화하는 방법에 있어서, 대화자 중 한 화자로부터 음성정보가 발생되면, 화자의 영상정보와 음성정보 및 위치정보를 분리하는 단계(S10); 화자의 분리된 위치정보를 이용하여 가상음장을 구현하는 단계(S20); 및 가상음장과 분리된 영상정보를 합쳐 화면에 디스플레이하고, 스피커로 출력하는 단계(S30);로 이루어진다.
가상음장 구현단계(S20)는, 미리선정된 머리전달함수 표로부터 위치정보에 대응되는 머리전달함수를 선택하는 단계(S21); 및 선택된 머리전달함수와 음성정보로부터 얻은 음압을 곱하여 가상음장을 구현하는 단계(S22);를 포함한다.
휴대용 단말기나 컴퓨터를 이용하여 화상통화를 시작하게 되면, 각각의 대화자는 구획된 액정화면상에 영상정보가 출력된다. 이때 다수의 대화자 중 한 대화자로부터 음성정보가 발생되면 화자의 영상정보와 음성정보 및 위치정보를 받아 이를 분리한다.(S10)
저장수단에 미리 저장된 머리전달함수 표로부터 음성정보가 발생된 화자의 위치정보에 대응하는 머리전달함수를 선택하게 된다.(S21) 이때 머리전달함수 표는 컴퓨터의 하드디스크와 같은 저장수단에 저장되며, 각각 대화자의 위치정보(예를들어 방위각과 고도각 등의 변수)에 따라 구분할 수 있도록 설정된다.
선택된 머리전달함수에는 화자의 음성정보로부터 얻어진 음압이 곱해져서 각 대화자에 해당하는 가상음장이 구현된다.(S22)
구현된 가상음장을 영상정보와 합쳐 화면에 디스플레이하고, 대화자의 위치에 따라 소리가 지정된 방향에서 들리도록 스피커로 출력하여 가상효과를 줄 수 있게 된다.(S30)
또한 머리전달함수 표은 2차원 또는 3차원으로 구현이 가능하다.
예를들어, 2차원으로 표를 구현하는 경우에는 방위각을 이용한다. 2차원으로 표를 구현할 때에는 가상음장을 구현하는 단계(S20)에서 머리전달함수 데이터를 그대로 이용할 수도 있고, 머리전달함수 중에서도 양이간 시간차(ITD, Interaural Time Difference)와 양이간 레벨차(ILD, Interaural Level Difference)만을 이용하여 가상음장을 구현할 수도 있다. 양이간 시간차는 특정위치의 음원에 대해 양 귀간에 도달하는 음원의 시간차이를 의미한다. 양이간 레벨차는 특정 위치의 음원에 대해 양 귀간에 도달하는 음압의 크기차이(절대값)를 의미한다. 양이간 시간차와 양이간 레벨차를 이용할 시에는 머리전달함수를 음원에 곱해주는 과정이 필요 없기 때문에 적은 계산량을 이용하여 효과적으로 가상음장의 구현이 가능하다.
3차원으로 표를 구현하는 경우에는 화면상 대화자의 방위각과 함께 고도각까지 고려하여 가상음장을 구현한다.
본 발명은 휴대용 단말기나 컴퓨터뿐만 아니라 다수의 대화자와 화상통화가 가능한 모든 분야에 적용되어 통화의 현실감을 높일 수 있다.
하기에 작성된 머리전달함수 표[표1]는 3명의 대화자에 대한 가상음장을 평면상에서 예시적으로 구현한 것이다.
고도각 방위각 -30° 30°
-60° A
B
60° C
* 방위각에서 -60°은 휴대용 단말기의 액정화면을 두 구역으로 나누었을 때 대화자가 왼쪽 구역에 위치하는 것을 나타내고, 방위각에서 60°은 액정화면의 오른쪽 구역에 대화자가 위치하는 것을 나타낸다.
* 고도각에서 0°은 사용자가 정면을 바라보고 있을 때를 나타내는 것이고, -30°은 액정화면의 아래 구역을 나타내고, 30°은 액정화면의 윗 구역을 나타낸다.
(제 1실시예)
도 2a는 휴대용 단말기를 이용하여 2명의 대화자와 화상통화하는 장면을 나타낸 그림이고, 도 2b는 도 2a의 개념을 설명하기 위한 개략도이다. 본 명세서에서 설명되는 사용자(500)는 다수의 대화자와 화상통화를 하는 사람을 나타낸다.
도 2a 및 도 2b에 도시된 바와 같이, 휴대용 단말기(1)를 이용하여 2명의 대화자와 동시에 화상통화를 하는 경우에는 휴대용 단말기(1)의 액정화면(2)을 두 구역으로 구획하여 각각의 구역에 제 1대화자(100)와 제 2대화자(200)가 위치되도록 한다. 이때 제 1대화자(100)에게서 음성정보가 발생되면, 제 1대화자(100)의 영상정보와 음성정보 및 위치정보를 분리한다.
[표1]에 나타난 바와 같이, 사용자(500)를 기준으로 기준선(3)의 방위각을 0°라고 할 때, 제 1 대화자(100)의 방위각은 -60°이고, 제 2대화자(200)의 방위각은 60°이다.
제 1대화자(100)가 대화를 시작하여 음성정보가 발생하게 되면, 제 1대화자(100)가 액정화면(2)의 왼쪽에 위치하기 때문에 머리전달함수 표에서 방위각인 -60°에 해당하는 'A'값을 이용하여 제 1대화자(100)의 가상음장을 구현하게 된다. 즉, 제 1대화자(100)의 음성정보로부터 얻은 음압에 선택된 머리전달함수인 'A'값을 곱하여 제 1대화자(100)의 가상음장이 구현된다.
구현된 제 1대화자(100)의 가상음장은 분리된 영상정보와 합쳐져 휴대용 단말기(1)의 화면을 통해 디스플레이되고, 스피커(5)로 출력되어 사용자(500)에게 전달되어 사용자(500)는 전화통화가 아닌 현실에서 제 1대화자(100)와 대화하는 것처럼 느낄 수 있게 된다.
또한 제 2대화자(200)가 대화를 시작하면, 제 2대화자(200)의 위치에 따른 머리전달함수 표의 'C'값을 이용하여 가상음장이 구현된다. 각 대화자의 가상음장은 서로 대칭되도록 평면상에 구현된다.
각 구역에 위치한 대화자들과 음원이 전달되는 위치가 일치됨으로써 실제 공간에서 여러 사람과 통화하는 듯한 효과가 나타난다.
(제 2실시예)
도 3a는 휴대용 단말기를 이용하여 3명의 대화자와 화상통화하는 장면을 나타낸 그림이고, 도 3b는 도 3a의 개념을 설명하기 위한 개략도이다. 도 3a 및 도 3b에 도시된 바와 같이, 3명의 대화자와 동시에 화상통화를 하는 경우에는 휴대용 단말기(1)의 액정화면(2)을 세 구역으로 구획하여 왼쪽 구역부터 제 1대화자(100)와 제 2대화자(200) 및 제 3대화자(300)가 위치되도록 한다. 이때 제 2대화자(200)가 대화를 시작하여 음성정보가 발생되면, 제 2대화자(200)의 영상정보와 음성정보 및 위치정보를 분리한다.
액정화면(2)의 왼쪽 구역에 위치한 제 1대화자(100)는 [표1]에서 방위각이 -60°이고, 제 2대화자(200)의 방위각은 0°이며, 제 3대화자(300)의 방위각은 60°이다.
상기 [표1]에서 제 2대화자(200)가 위치한 구역의 방위각 0°의 머리전달함수 'B'값을 선택한다. 선택된 머리전달함수 값을 제 2대화자(200)의 음성정보로부터 얻은 음압에 곱하여 가상음장을 구현하게 된다.
구현된 제 2대화자(200)의 가상음장은 분리된 영상정보와 합쳐져 휴대용 단말기(1)의 화면을 통해 디스플레이되고, 스피커(5)로 출력되어 사용자(500)에게 전달되어 사용자(500)는 전화통화가 아닌 현실에서 제 2대화자(200)와 대화하는 것처럼 느낄 수 있게 된다.
또한 제 1대화자(100)가 대화를 시작하면, 제 1대화자(100)의 위치에 따라 머리전달함수 표로부터 'A'값을 이용하여 가상음장을 구현한다. 또한 제 3대화자(300)가 대화를 시작하면, 제 3대화자(300)의 위치에 따라 머리전달함수 표로부터 'C'값을 이용하여 가상음장을 구현한다. 제 2대화자(200)의 가상음장을 중심으로 나머지 대화자의 가상음장이 서로 대칭이 되도록 평면상에 구현된다.
머리전달함수를 이용하여 구현된 가상음장은 이어폰이나 적어도 2개 이상의 스피커를 이용하여 사용자(500)에게 전달되어진다.
또한 대화자들의 가상음장은 2채널 또는 다채널 서라운드 방식으로 구현되어 현실에서 사용자(500)와 대화자들이 실제로 대화하는 것처럼 느낄 수 있다.
또한 가상음장의 구현은 상기의 방식으로 한정하는 것이 아니라 모든 음향시스템을 사용하여 구현할 수 있다.
본 발명인 가상음장을 이용한 다자간 동시 통화 방법을 수행할 수 있고, 컴퓨터에서 판독 가능한 저장매체에 기록하여 이용할 수 있다.
기록매체로는 R-CD, 하드디스크, 휴대용 단말기의 저장장치 등이 있다.
도 1은 본 발명에 따른 가상음장을 이용하여 다자간 동시 통화하는 방법의 흐름도.
도 2a는 휴대용 단말기를 이용하여 2명의 대화자와 화상통화하는 장면을 나타낸 그림.
도 2b는 도 2a의 개념을 설명하기 위한 개략도.
도 3a는 휴대용 단말기를 이용하여 3명의 대화자와 화상통화하는 장면을 나타낸 그림.
도 3b는 도 3a의 개념을 설명하기 위한 개략도.
* 도면의 주요부분에 대한 부호의 설명 *
1 : 휴대용 단말기 2 : 액정화면
3 : 기준선 5 : 스피커
100 : 제 1대화자 200 : 제 2대화자
300 : 제 3대화자 500 : 사용자

Claims (11)

  1. 휴대용 단말기나 컴퓨터의 화면을 구획하여 다수의 대화자와 화상통화하는 방법에 있어서,
    상기 대화자 중 한 화자로부터 음성정보가 발생되면,
    상기 화자의 영상정보와 음성정보 및 위치정보를 상기 화면 상에서 분리하는 단계(S10);
    상기 화자의 분리된 위치정보를 이용하여 가상음장을 구현하는 단계(S20); 및
    상기 가상음장과 분리된 상기 영상정보를 합쳐 상기 화면에 디스플레이 하고, 스피커(5)로 출력하는 단계(S30);로 이루진 것을 특징으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  2. 제 1항에 있어서,
    상기 가상음장 구현단계(S20)는,
    미리선정된 머리전달함수 표로부터 상기 위치정보에 대응되는 머리전달함수를 선택하는 단계(S21); 및
    상기 선택된 머리전달함수와 상기 음성정보로부터 얻은 음압을 곱하여 가상음장을 구현하는 단계(S22);를 포함하는 것을 특징으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  3. 제 2항에 있어서,
    상기 머리전달함수 표는 2차원 또는 3차원으로 구현 가능한 것을 특징으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  4. 제 1항에 있어서,
    상기 가상음장 구현단계(S20)에서 상기 대화자가 2명이면, 각 대화자의 가상음장은 서로 대칭되도록 평면상에 구현되는 것을 특징으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  5. 제 1항에 있어서,
    상기 가상음장 구현단계(S20)에서 상기 대화자가 3명이면, 한 명의 대화자의 가상음장을 중심으로 나머지 대화자의 가상음장이 서로 대칭되도록 평면상에 구현되는 것을 특징으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  6. 제 1항에 있어서,
    상기 가상음장은 이어폰 또는 적어도 2개 이상의 스피커를 이용하여 출력되는 것을 특징으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  7. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 가상음장은 2채널 또는 다채널 서라운드 방식으로 구현되는 것을 특징 으로 하는 가상음장을 이용한 다자간 동시 통화 방법.
  8. 휴대용 단말기나 컴퓨터의 화면을 구획하여 다수의 대화자와 화상통화를 가능하게 하는 프로그램에 있어서,
    상기 대화자 중 한 화자로부터 음성정보가 발생되었는지 판단하는 프로그램 코드와;
    상기 화자의 영상정보와 음성정보 및 위치정보를 상기 화면 상에서 분리하는 프로그램 코드와;
    상기 화자의 분리된 위치정보를 이용하여 가상음장을 구현하는 프로그램 코드; 및
    상기 가상음장과 분리된 상기 영상정보를 합쳐 상기 화면에 디스플레이하고 스피커로 출력하는 프로그램 코드;를 갖는 프로그램을 기록한 컴퓨터 판독 가능 기록매체.
  9. 제 8항에 있어서,
    상기 가상음장을 구현하는 프로그램 코드는,
    미리선정된 머리전달함수 표로부터 상기 위치정보에 대응되는 머리전달함수를 선택하는 프로그램 코드; 및
    상기 선택된 머리전달함수와 상기 음성정보로부터 얻은 음압을 곱하여 가상음장을 구현하는 프로그램 코드;를 포함하는 프로그램을 기록한 컴퓨터 판독 가능 기록매체.
  10. 제 8항에 있어서,
    상기 가상음장을 구현하는 프로그램 코드에서 상기 대화자가 2명이면, 각 대화자의 가상음장은 서로 대칭되도록 평면상에 구현되는 프로그램을 기록한 컴퓨터 판독 가능 기록매체.
  11. 제 8항에 있어서,
    상기 가상음장을 구현하는 프로그램 코드에서 상기 대화자가 3명이면, 한 명의 대화자의 가상음장을 중심으로 나머지 대화자의 가상음장이 서로 대칭되도록 평면상에 구현되는 프로그램을 기록한 컴퓨터 판독 가능 기록매체.
KR1020070139600A 2007-12-28 2007-12-28 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체 KR100947027B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070139600A KR100947027B1 (ko) 2007-12-28 2007-12-28 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체
US12/017,244 US8155358B2 (en) 2007-12-28 2008-01-21 Method of simultaneously establishing the call connection among multi-users using virtual sound field and computer-readable recording medium for implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070139600A KR100947027B1 (ko) 2007-12-28 2007-12-28 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체

Publications (2)

Publication Number Publication Date
KR20090071722A KR20090071722A (ko) 2009-07-02
KR100947027B1 true KR100947027B1 (ko) 2010-03-11

Family

ID=40798496

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070139600A KR100947027B1 (ko) 2007-12-28 2007-12-28 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체

Country Status (2)

Country Link
US (1) US8155358B2 (ko)
KR (1) KR100947027B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022060035A1 (ko) * 2020-09-15 2022-03-24 삼성전자 주식회사 복수의 사용자들과 통화 수행 중 사용자 음성을 처리하는 전자 장치 및 그 작동 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110055703A1 (en) * 2009-09-03 2011-03-03 Niklas Lundback Spatial Apportioning of Audio in a Large Scale Multi-User, Multi-Touch System
JP5668765B2 (ja) 2013-01-11 2015-02-12 株式会社デンソー 車載音響装置
KR102222318B1 (ko) * 2014-03-18 2021-03-03 삼성전자주식회사 사용자 인식 방법 및 장치
KR102513586B1 (ko) 2016-07-13 2023-03-27 삼성전자주식회사 전자 장치 및 전자 장치의 오디오 출력 방법
US10219095B2 (en) * 2017-05-24 2019-02-26 Glen A. Norris User experience localizing binaural sound during a telephone call
JP2022543121A (ja) * 2019-08-08 2022-10-07 ジーエヌ ヒアリング エー/エス 1人以上の所望の話者の音声を強調するバイラテラル補聴器システム及び方法
CN112261337B (zh) * 2020-09-29 2023-03-31 上海连尚网络科技有限公司 一种在多人语音中播放语音信息的方法与设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050060313A (ko) * 2003-12-16 2005-06-22 김일성 음성 커뮤니티 서비스 제공방법 및 시스템
KR20060107641A (ko) * 2005-04-11 2006-10-16 에스케이 텔레콤주식회사 이동 화상 전화를 이용한 화상 회의 시스템 및 방법
KR20070111270A (ko) * 2006-05-17 2007-11-21 삼성전자주식회사 다자간 화상통화 중 음성인식을 활용한 화면 디스플레이방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
US5796843A (en) * 1994-02-14 1998-08-18 Sony Corporation Video signal and audio signal reproducing apparatus
US5459790A (en) * 1994-03-08 1995-10-17 Sonics Associates, Ltd. Personal sound system with virtually positioned lateral speakers
US6072877A (en) * 1994-09-09 2000-06-06 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
FR2761562B1 (fr) * 1997-03-27 2004-08-27 France Telecom Systeme de visioconference
US6850496B1 (en) * 2000-06-09 2005-02-01 Cisco Technology, Inc. Virtual conference room for voice conferencing
JP4304845B2 (ja) * 2000-08-03 2009-07-29 ソニー株式会社 音声信号処理方法及び音声信号処理装置
US20050147261A1 (en) * 2003-12-30 2005-07-07 Chiang Yeh Head relational transfer function virtualizer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050060313A (ko) * 2003-12-16 2005-06-22 김일성 음성 커뮤니티 서비스 제공방법 및 시스템
KR20060107641A (ko) * 2005-04-11 2006-10-16 에스케이 텔레콤주식회사 이동 화상 전화를 이용한 화상 회의 시스템 및 방법
KR20070111270A (ko) * 2006-05-17 2007-11-21 삼성전자주식회사 다자간 화상통화 중 음성인식을 활용한 화면 디스플레이방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022060035A1 (ko) * 2020-09-15 2022-03-24 삼성전자 주식회사 복수의 사용자들과 통화 수행 중 사용자 음성을 처리하는 전자 장치 및 그 작동 방법

Also Published As

Publication number Publication date
US20090169037A1 (en) 2009-07-02
KR20090071722A (ko) 2009-07-02
US8155358B2 (en) 2012-04-10

Similar Documents

Publication Publication Date Title
KR100947027B1 (ko) 가상음장을 이용한 다자간 동시 통화 방법 및 그 기록매체
Härmä et al. Augmented reality audio for mobile and wearable appliances
US9854378B2 (en) Audio spatial rendering apparatus and method
US10015443B2 (en) Adjusting spatial congruency in a video conferencing system
US8693713B2 (en) Virtual audio environment for multidimensional conferencing
US20170324931A1 (en) Adjusting Spatial Congruency in a Video Conferencing System
Hyder et al. Placing the participants of a spatial audio conference call
Begault Auditory and non-auditory factors that potentially influence virtual acoustic imagery
US11632627B2 (en) Systems and methods for distinguishing audio using positional information
Kirsch et al. Spatial resolution of late reverberation in virtual acoustic environments
Gamper Enabling technologies for audio augmented reality systems
US20240031759A1 (en) Information processing device, information processing method, and information processing system
Jo et al. Confirming the perception of virtual source elevation effects created using 5.1 channel surround sound playback
CN114339582B (zh) 双通道音频处理、方向感滤波器生成方法、装置以及介质
Gupta et al. Study on differences between individualized and non-individualized hear-through equalization for natural augmented listening
KR20090090693A (ko) 거리측정을 통한 가상음장 구현방법 및 그 기록매체
Martin et al. Psychoacoustic evaluation of systems for delivering spatialized augmented-reality audio
CN111201784A (zh) 消除由于语音的估计到达方向引起的空间冲突
Müller et al. Perceptual differences for modifications of the elevation of early room reflections
Alonso-Martınez Improving Binaural Audio Techniques for Augmented Reality
Evans et al. Perceived performance of loudspeaker-spatialized speech for teleconferencing
Dick et al. Comparison of just noticeable differences in localization of virtual sound sources over headphones and loudspeakers
KR101540434B1 (ko) 대화 보안 시스템 및 방법
Wersényi Evaluation of Bone Conduction and Active-Noise-Cancellation Headsets Based on Listening Tests in a Virtual Environment
US20240267678A1 (en) Change of a mode for capturing immersive audio

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140303

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee