KR20170058321A - 오디오장치와, 컴퓨터 독취가능 매체 - Google Patents

오디오장치와, 컴퓨터 독취가능 매체 Download PDF

Info

Publication number
KR20170058321A
KR20170058321A KR1020160154413A KR20160154413A KR20170058321A KR 20170058321 A KR20170058321 A KR 20170058321A KR 1020160154413 A KR1020160154413 A KR 1020160154413A KR 20160154413 A KR20160154413 A KR 20160154413A KR 20170058321 A KR20170058321 A KR 20170058321A
Authority
KR
South Korea
Prior art keywords
user
submodule
sub
module
voice
Prior art date
Application number
KR1020160154413A
Other languages
English (en)
Other versions
KR102674808B1 (ko
Inventor
박지훈
로 데이비드
바스케스 필립
헤이즈 로빈
추유나
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20170058321A publication Critical patent/KR20170058321A/ko
Application granted granted Critical
Publication of KR102674808B1 publication Critical patent/KR102674808B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/007Monitoring arrangements; Testing arrangements for public address systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/271Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/021Transducers or their casings adapted for mounting in or to a wall or ceiling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/005Audio distribution systems for home, i.e. multi-room use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/03Connection circuits to selectively connect loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Otolaryngology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 실시예에 따른 오디오장치는, 음성을 출력하게 마련된 스피커 및 통신을 수행하는 통신부를 각기 포함하고, 상호 분리된 복수의 서브모듈을 포함하며, 복수의 서브모듈 중 제1서브모듈은, 제1서브모듈의 스피커를 통해 음성이 출력되게 음성신호를 처리하며, 복수의 서브모듈 각각에 대한 사용자의 위치를 판단하고, 제1서브모듈의 스피커를 통한 음성의 출력 상태가 판단한 사용자의 위치에 대응하여 변경되도록 처리하는 프로세서를 포함하는 것을 특징으로 한다.

Description

오디오장치와, 컴퓨터 독취가능 매체 {AUDIO APPARATUS AND COMPUTER-READABLE MEDIA}
본 발명은 다양한 소스로부터 입력되는 음성신호를 처리하여 음성으로 출력하거나 또는 외부장치로 전송할 수 있는 오디오장치와, 컴퓨터 독취가능 매체에 관한 것으로서, 상세하게는 사용자가 직접 손으로 조작할 필요 없이 음성을 사용하여 다양한 기기 제어를 할 수 있게 제공하는 구조의 오디오장치와, 컴퓨터 독취가능 매체에 관한 것이다.
소정의 정보를 특정 프로세스에 따라서 연산 및 처리하기 위해, 연산을 위한 CPU, 칩셋, 메모리 등의 전자부품들을 기본적으로 포함하는 전자장치는, 처리 대상이 되는 정보가 무엇인지에 따라서 다양한 종류로 구분될 수 있다. 예를 들면, 전자장치에는 범용의 정보를 처리하는 PC나 서버 등의 정보처리장치가 있고, 영상 정보를 처리하는 영상장치가 있고, 음성 정보를 처리하는 오디오장치가 있다. 이와 같은 다양한 전자장치는 단일 개체로서 그 자체적으로 사전 부여된 기능을 수행한다.
이러한 전자장치 중에서, 오디오장치는 음성신호를 음성처리 프로세스에 따라서 처리하는 기능의 제반 장치를 통칭하는 바, 음성신호의 입출력 방식에 따라서 여러 가지 형태로 구현될 수 있다. 예를 들면, 입력 방식의 측면에서 오디오장치는 통신모듈을 통해 외부장치로부터 전송되는 음성신호를 수신하거나, 마이크로폰을 통해 외부 환경의 음성을 입력받아 음성신호를 생성할 수 있다. 출력 방식의 측면에서 오디오장치는 처리된 음성신호를 스피커(loudspeaker)를 통해 음성으로 출력하거나, 처리된 음성신호를 통신모듈을 통해 외부장치로 전송할 수 있다.
이와 같은 오디오장치는 대체로 단일 기기 단위로 기 설정된 기능을 제공하는 바, 예를 들면 사용자는 음악 재생, 타 기기 제어, 메시징 등의 원하는 기능 별로 각기 마련된 오디오장치를 사용하는 것이 일반적이다. 그런데, 예를 들어 사용자가 가정집 내부의 전체 공간을 오디오장치로부터 출력되는 음성으로 채우고자 할 때, 이를 구현하기 위해서는 홈 시어터와 같은 복잡한 기기의 설정이 필요하다. 만일 간단한 구조를 가지거나 사용이 간편한 오디오장치를 적용한다고 하더라도, 이러한 오디오장치는 성능이 사용자의 요구에 미치지 못할 수도 있다. 예를 들면, 가정집 내부의 공간은 개방되어 있지 않고 벽 등의 구조물로 인해 복잡한 형태를 가진다. 따라서, 이러한 공간을 음성으로 채우기 위해서는 단일 오디오장치로는 곤란할 수 있다.
또한, 여러 가지 기능을 지원하는 오디오장치라고 하더라도, 해당 오디오장치는 버튼, 터치스크린과 같이 사용자의 접촉이 필요한 인터페이스를 제공하는 경우가 많다. 가정 또는 오피스 내에서 오디오장치가 사용될 때, 오디오장치의 조작을 위해서는 사용자가 이러한 인터페이스에 직접 접근해야 하는 불편함이 있다.
이러한 관점에서, 사용자가 직접 접촉하는 인터페이스를 사용하지 않고도, 다양하고 복잡한 기능을 사용자가 용이하게 제어할 수 있는 오디오장치가 제공되는 것은, 사용의 편의성을 비롯한 여러 측면에서 바람직할 것이다.
본 발명의 실시예에 따른 오디오장치는, 음성을 출력하게 마련된 스피커 및 통신을 수행하는 통신부를 각기 포함하고, 상호 분리된 복수의 서브모듈을 포함하며, 상기 복수의 서브모듈 중 제1서브모듈은, 상기 제1서브모듈의 스피커를 통해 음성이 출력되게 음성신호를 처리하며, 상기 복수의 서브모듈 각각에 대한 사용자의 위치를 판단하고, 상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태가 상기 판단한 사용자의 위치에 대응하여 변경되도록 처리하는 프로세서를 포함하는 것을 특징으로 한다. 이로써, 오디오장치는 사용자가 어떠한 위치에 있더라도, 각 위치에 대응하여 사용자가 음성을 청취하기에 최적화된 환경을 제공할 수 있다.
여기서, 상기 프로세서는, 상기 복수의 서브모듈 사이의 거리들에 기초하여 상기 서브모듈들의 위치에 따른 영역을 설정하고, 상기 설정된 영역 상에서 상기 사용자의 위치를 판단할 수 있다. 이로써, 오디오장치는 서브모듈들의 배치 형태에 대응하여 사용자의 상대적인 위치를 용이하게 판단할 수 있다.
여기서, 상기 제1서브모듈은 음성이 입력되게 마련된 마이크로폰을 더 포함하며, 상기 프로세서는, 상기 제1서브모듈의 상기 스피커를 통해 출력되는 초음파가 상기 복수의 서브모듈 중 제2서브모듈에 의해 반사되어 상기 제1서브모듈의 상기 마이크로폰에 수신되는 소요시간에 기초하여, 상기 제1서브모듈 및 상기 제2서브모듈 사이의 거리를 판단할 수 있다. 이로써, 오디오장치는 서브모듈들의 배치 형태를 판단하기 위하여, 서브모듈들 사이의 거리를 용이하게 판단할 수 있다.
또한, 상기 프로세서는, 상기 제1서브모듈의 상기 통신부를 통해 상기 복수의 서브모듈 중 상기 제2서브모듈 또는 제3서브모듈로부터, 상기 제2서브모듈 및 상기 제3서브모듈 사이의 거리 정보를 수신할 수 있다. 이로써, 제1서브모듈이 직접 산출할 수 없는 두 서브모듈 사이의 거리 정보를 취득함으로써, 제1서브모듈이 복수의 서브모듈에 의해 형성되는 영역을 판단할 수 있다.
또한, 상기 프로세서는, 상기 설정된 영역 상에서 각각의 상기 서브모듈 대비 상기 사용자의 각도를 산출함으로써, 상기 사용자의 위치를 판단할 수 있다. 이로써, 오디오장치는 서브모듈 대비 사용자의 상대적인 위치를 판단할 수 있다.
여기서, 상기 제1서브모듈은 음성이 입력되게 마련된 둘 이상의 마이크로폰을 더 포함하며, 상기 프로세서는, 상기 둘 이상의 마이크로폰에 각기 수신되는 음성의 위상차에 기초하여 상기 사용자의 위치를 판단할 수 있다. 이로써, 서브모듈은 사용자의 상대적인 위치를 용이하게 판단할 수 있다.
또한, 상기 프로세서는, 상기 판단한 사용자의 위치에 대응하여 상기 음성신호 내의 복수의 채널 중 어느 하나를 선택하고, 선택한 어느 하나의 상기 채널의 볼륨이 상기 복수의 채널 중 나머지의 볼륨과 상이하도록 조정할 수 있다. 이로써, 오디오장치는 사용자의 현재 위치에서 사용자에게 최적화된 음성 출력 환경을 제공할 수 있다.
또한, 상기 프로세서는, 상기 판단한 사용자의 위치에 대응하여 상기 스피커를 통해 출력되는 상기 음성의 볼륨을 조정할 수 있다. 이로써, 오디오장치는 사용자의 현재 위치에서 사용자에게 최적화된 음성 출력 환경을 제공할 수 있다.
또한, 상기 제1서브모듈은, 상기 음성신호의 관련 정보를 표시하게 마련된 디스플레이부와; 음성이 입력되게 마련된 마이크로폰을 더 포함하며, 상기 프로세서는, 상기 판단한 사용자의 위치가 상기 제2서브모듈보다 상기 제1서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰을 활성화시키고, 상기 판단한 사용자의 위치가 상기 제1서브모듈보다 상기 제2서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰 중 적어도 어느 하나를 비활성화시킬 수 있다. 이로써, 오디오장치는 사용자의 현재 위치에서 사용자에게 최적화된 서브모듈의 제어 환경을 제공할 수 있다.
또한, 상기 제1서브모듈은 상기 사용자의 발화가 입력되게 마련된 마이크로폰을 더 포함하며, 상기 프로세서는, 상기 제1서브모듈의 상기 통신부를 통해 접속 가능한 모바일 폰으로부터 상기 마이크로폰을 통해 입력되는 상기 발화가 지정하는 연락처 정보를 검색하고, 상기 모바일 폰을 통해 상기 검색된 연락처 정보로 다이얼링하게 처리할 수 있다. 이로써, 오디오장치는 사용자가 직접 모바일 폰을 조작하지 않고도 서브모듈을 통한 음성인식방법에 의해 용이하게 통화할 수 있게 제공한다.
또한, 본 발명의 실시예에 따른 상호 분리된 복수의 서브모듈을 포함하는 오디오장치의, 상기 복수의 서브모듈 중 제1서브모듈의 프로세서에 의해 실행 및 처리 가능하도록 마련된 방법의 프로그램 코드를 저장하는 컴퓨터 독취가능 매체에서, 상기 방법은, 음성신호를 처리하여 상기 제1서브모듈의 스피커를 통해 음성을 출력하는 단계와; 상기 복수의 서브모듈 각각에 대한 사용자의 위치를 판단하는 단계와; 상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태를 상기 판단한 사용자의 위치에 대응하여 변경하는 단계를 포함하는 것을 특징으로 한다. 이로써, 오디오장치는 사용자가 어떠한 위치에 있더라도, 각 위치에 대응하여 사용자가 음성을 청취하기에 최적화된 환경을 제공할 수 있다.
여기서, 상기 복수의 서브모듈 각각에 대한 상기 사용자의 위치를 판단하는 단계는, 상기 복수의 서브모듈 사이의 거리들에 기초하여 상기 서브모듈들의 위치에 따른 영역을 설정하는 단계와; 상기 설정된 영역 상에서 상기 사용자의 위치를 판단하는 단계를 포함할 수 있다. 이로써, 오디오장치는 서브모듈들의 배치 형태에 대응하여 사용자의 상대적인 위치를 용이하게 판단할 수 있다.
여기서, 상기 서브모듈들의 위치에 따른 상기 영역을 설정하는 단계는, 상기 제1서브모듈의 상기 스피커를 통해 출력되는 초음파가 상기 복수의 서브모듈 중 제2서브모듈에 의해 반사되어 상기 제1서브모듈의 마이크로폰에 수신되는 소요시간에 기초하여, 상기 제1서브모듈 및 상기 제2서브모듈 사이의 거리를 판단하는 단계를 포함할 수 있다. 이로써, 오디오장치는 서브모듈들의 배치 형태를 판단하기 위하여, 서브모듈들 사이의 거리를 용이하게 판단할 수 있다.
또한, 상기 서브모듈들의 위치에 따른 상기 영역을 설정하는 단계는, 상기 복수의 서브모듈 중 상기 제2서브모듈 또는 제3서브모듈로부터, 상기 제2서브모듈 및 상기 제3서브모듈 사이의 거리 정보를 수신하는 단계를 포함할 수 있다. 이로써, 제1서브모듈이 직접 산출할 수 없는 두 서브모듈 사이의 거리 정보를 취득함으로써, 제1서브모듈이 복수의 서브모듈에 의해 형성되는 영역을 판단할 수 있다.
또한, 상기 설정된 영역 상에서 상기 사용자의 위치를 판단하는 단계는, 상기 설정된 영역 상에서 각각의 상기 서브모듈 대비 상기 사용자의 각도를 산출함으로써, 상기 사용자의 위치를 판단하는 단계를 포함할 수 있다. 이로써, 오디오장치는 서브모듈 대비 사용자의 상대적인 위치를 판단할 수 있다.
여기서, 상기 각각의 상기 서브모듈 대비 상기 사용자의 각도를 산출함으로써 상기 사용자의 위치를 판단하는 단계는, 상기 제1서브모듈에 마련된 둘 이상의 마이크로폰에 각기 수신되는 음성의 위상차에 기초하여 상기 사용자의 위치를 판단하는 단계를 포함할 수 있다. 이로써, 서브모듈은 사용자의 상대적인 위치를 용이하게 판단할 수 있다.
또한, 상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태를 상기 판단한 사용자의 위치에 대응하여 변경하는 단계는, 상기 판단한 사용자의 위치에 대응하여 상기 음성신호 내의 복수의 채널 중 어느 하나를 선택하고, 선택한 어느 하나의 상기 채널의 볼륨이 상기 복수의 채널 중 나머지의 볼륨과 상이하도록 조정하는 단계를 포함할 수 있다. 이로써, 오디오장치는 사용자의 현재 위치에서 사용자에게 최적화된 음성 출력 환경을 제공할 수 있다.
또한, 상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태를 상기 판단한 사용자의 위치에 대응하여 변경하는 단계는, 상기 판단한 사용자의 위치에 대응하여 상기 음성의 볼륨을 조정하는 단계를 포함할 수 있다. 이로써, 오디오장치는 사용자의 현재 위치에서 사용자에게 최적화된 음성 출력 환경을 제공할 수 있다.
또한, 상기 제1서브모듈은, 상기 음성신호의 관련 정보를 표시하게 마련된 디스플레이부와; 음성이 입력되게 마련된 마이크로폰을 더 포함하며, 상기 판단한 사용자의 위치가 상기 제2서브모듈보다 상기 제1서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰을 활성화시키는 단계와; 상기 판단한 사용자의 위치가 상기 제1서브모듈보다 상기 제2서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰 중 적어도 어느 하나를 비활성화시키는 단계를 더 포함할 수 있다. 이로써, 오디오장치는 사용자의 현재 위치에서 사용자에게 최적화된 서브모듈의 제어 환경을 제공할 수 있다.
또한, 모바일 폰에 접속하고, 상기 모바일 폰으로부터 상기 제1서브모듈의 마이크로폰을 통해 입력되는 사용자 발화가 지정하는 연락처 정보를 검색하는 단계와; 상기 모바일 폰을 통해 상기 검색된 연락처 정보로 다이얼링하는 단계를 더 포함할 수 있다. 이로써, 오디오장치는 사용자가 직접 모바일 폰을 조작하지 않고도 서브모듈을 통한 음성인식방법에 의해 용이하게 통화할 수 있게 제공한다.
도 1은 본 발명의 실시예에 따른 오디오장치가 설치된 모습을 나타내는 예시도,
도 2는 도 1의 오디오장치의 서브모듈의 사시도,
도 3은 도 2의 서브모듈이 설치면에 거치되는 구조를 나타내는 사시도,
도 4는 도 2의 서브모듈이 설치면에 거치되는 구조의 상이한 형태를 나타내는 사시도,
도 5는 도 2의 서브모듈의 신호처리 구성에 관한 구성 블록도,
도 6은 도 1의 오디오장치의 서브모듈의 제어 동작을 나타내는 플로우차트,
도 7은 도 1의 오디오장치가 복수의 서브모듈에 의해 형성되는 보이스필드를 설정하는 원리를 나타내는 예시도,
도 8은 도 1의 오디오장치의 각 서브모듈이 보이스필드에서 사용자의 위치를 판단하는 원리를 나타내는 예시도,
도 9는 도 1의 오디오장치의 각 서브모듈이 사용자 위치에 대응하여 스테레오 채널의 음성을 출력하는 원리를 나타내는 예시도,
도 10은 도 1의 오디오장치의 각 서브모듈이 사용자 위치에 대응하여 서브모듈의 여러 동작 상태를 조정하는 원리를 나타내는 예시도,
도 11은 도 1의 오디오장치의 서브모듈의 음성재생모드의 원리를 나타내는 구성 블록도,
도 12는 도 1의 오디오장치의 서브모듈에서 사용자가 후방프레임을 회전시키는 모습을 나타내는 사시도,
도 13은 도 1의 오디오장치의 서브모듈에서 사용자가 전방프레임을 회전시키는 모습을 나타내는 사시도,
도 14는 도 1의 오디오장치의 서브모듈이 외부장치로부터 수신되는 음성데이터의 카테고리를 전환하는 원리를 나타내는 예시도,
도 15는 도 1의 오디오장치의 서브모듈이 모바일 폰을 통해 메시지를 보내는 방법을 나타내는 예시도,
도 16은 도 1의 오디오장치의 서브모듈이 모바일 폰을 통해 통화하는 방법을 나타내는 예시도,
도 17은 도 1의 오디오장치의 서브모듈이 허브를 통해 외부기기를 제어하는 방법을 나타내는 예시도이다.
이하에서는 첨부도면을 참조하여 본 발명에 따른 실시예들에 관해 상세히 설명한다. 이하 실시예들의 설명에서는 첨부된 도면들에 기재된 사항들을 참조하는 바, 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 나타낸다.
만일, 실시예에서 제1구성요소, 제2구성요소 등과 같이 서수를 포함하는 용어가 있다면, 이러한 용어는 다양한 구성요소들을 설명하기 위해 사용되는 것이며, 용어는 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용되는 바, 이들 구성요소는 용어에 의해 그 의미가 한정되지 않는다. 실시예에서 사용하는 용어는 해당 실시예를 설명하기 위해 적용되는 것으로서, 본 발명의 사상을 한정하지 않는다.
도 1은 본 발명의 실시예에 따른 오디오장치(1)가 설치된 모습을 나타내는 예시도이다.
도 1에 도시된 바와 같이, 오디오장치(1)는 예를 들면 가정 내와 같은 다양한 장소에 설치함으로써, 음성의 입력, 처리 및 출력 등의 프로세스를 수행한다. 오디오장치(1)는 기본적으로 설치 위치가 한정되지는 않으나, 벽면과 같이 수직한 설치면에 거치될 수 있으며, 거치된 상태에서 전방으로 음성을 출력하도록 마련된다.
종래의 경우에 따른 오디오장치가 단일 디바이스로 구현되는 것과 달리, 본 실시예에 따른 오디오장치(1)는 복수의 서브모듈(100, 200, 300)을 포함한다. 복수의 서브모듈(100, 200, 300)은 상호 물리적으로 분리된 별개의 디바이스로 구현되며, 각기 음성신호를 처리함에 있어서 상호 연계하여 동작할 수 있다.
복수의 서브모듈(100, 200, 300)은 사용자에 의해 소정 위치에 자유로이 설치될 수 있으며, 특정 설치면이 상호 인접하게 설치되기보다는 상호간에 소정의 거리를 두고 이격되도록 설치된다. 각 서브모듈(100, 200, 300)이 설치되는 높이 또한 한정되지 않으며, 예를 들면 서브모듈(100, 200, 300)로부터 출력되는 음성을 사용자가 용이하게 듣고 또한 사용자로부터의 음성이 서브모듈(100, 200, 300)에 적절히 도달할 수 있도록, 사용자의 머리 정도의 높이에 설치될 수 있다.
오디오장치(1)가 포함하는 서브모듈(100, 200, 300)의 개수는 둘 이상일 수 있지만, 기본적으로 본 실시예에서는 세 개의 서브모듈(100, 200, 300)이 하나의 오디오장치(1)의 세트를 구성하는 경우에 관해 설명한다. 물론, 서브모듈(100, 200, 300)은 네 개 이상이 하나의 세트를 구성할 수도 있으며, 이 경우의 각 서브모듈(100, 200, 300)의 동작은 이하 설명할 본 실시예의 원리를 응용할 수 있다.
서브모듈(100, 200, 300)은 설치면에 거치된 상태에서, 동작 전원을 공급하는 전원 케이블(10)이 서브모듈(100, 200, 300)에 접속될 수 있다. 또는, 서브모듈(100, 200, 300)은 내부에 전원을 공급하는 배터리(미도시)를 내장할 수도 있다.
각 서브모듈(100, 200, 300)에 전원이 공급되는 방식은 이 외에도 여러 가지 기술이 적용될 수 있는 바, 예를 들면 서브모듈(100, 200, 300)은 태양광 등의 에너지를 변환함으로써 자가발전을 수행 가능한 자가발전 모듈을 장착하거나, 외부로부터 무선으로 전송되는 전력을 수신하여 사용할 수 있다. 또한, 서브모듈(100, 200, 300)이 배터리(미도시)를 사용하는 경우에, 본 배터리는 소모형 배터리일 수 있지만, 충전이 가능한 배터리일 수도 있다. 충전이 가능한 배터리는 서브모듈(100, 200, 300)로부터 분리된 상태에서 별도의 충전장치에 의해 충전되는 형태일 수 있고, 또는 서브모듈(100, 200, 300)에 유선 또는 무선으로 직접 공급되는 전원에 의해 충전되도록 마련될 수도 있다.
복수의 서브모듈(100, 200, 300)은 각기 설치된 상태에서, 사용자의 상대적인 위치를 감지하고, 감지된 위치에 기초하여 각기 음성신호를 처리할 수 있다. 즉, 본 실시예에 따른 오디오장치(1)는 상호 이격 설치된 복수의 서브모듈(100, 200, 300)을 포함하며, 각 서브모듈(100, 200, 300)이 사용자의 위치에 대응하여 개별적으로 음성신호를 처리함으로써, 사용자에게 보다 발전된 음성처리 환경을 제공할 수 있다.
이하, 서브모듈(100)의 구체적인 구성에 관해 설명한다. 오디오장치(1) 내의 복수의 서브모듈(100, 200, 300)은 기본적으로 동일한 구성을 포함하는 바, 본 실시예에서는 하나의 서브모듈(100)의 구성에 관해서만 설명한다.
도 2는 도 1의 오디오장치(1)의 서브모듈(100)의 사시도이다.
도 2에 도시된 바와 같이, 서브모듈(100)은 소정 두께를 가진 원판 형태를 가진다. 다만, 원판 형태라는 것은 하나의 예시에 불과한 바, 서브모듈(100)은 설계 방식에 따라서 다양한 형태 및 다양한 두께를 가질 수 있다. 서브모듈(100)은 서브모듈(100)의 후방에 배치되는 후방프레임(110)과, 서브모듈(100)의 전방에 배치되는 전방프레임(120)을 포함한다. 후방프레임(110) 및 전방프레임(120)의 결합에 의해 형성되는 서브모듈(100)의 내부 공간에는, 서브모듈(100)을 동작시키기 위한 여러 구성이 수용된다.
후방프레임(110)은 메탈 또는 플라스틱 재질을 포함하는 원판 형태를 가진다. 서브모듈(100)의 여러 구성이 수용되기 위한 수용공간은 기본적으로 후방프레임(110)에 의해 형성된다. 후방프레임(110)의 측벽은 다이얼 구조를 가지는 바, 사용자가 후방프레임(110)의 측벽을 회전시킬 수 있게 마련된다.
전방프레임(120)은 후방프레임(110)의 전방에 끼워맞출 수 있게 마련되며, 후방프레임(110)의 전방을 커버한다. 후방프레임(110)에 끼워맞춰지는 전방프레임(120)의 측벽은 메탈 또는 플라스틱 재질을 포함할 수 있지만, 전방프레임(120)의 원형의 판면(121)은 패브릭(fabric) 또는 텍스타일(textile) 재질을 포함한다. 전방프레임(120)이 견고하고 불투명한 재질이 아닌, 이와 같은 패브릭 재질을 포함하는 이유에 관해서는 후술한다.
전방프레임(120)은 패브릭 판면(121)이 다양한 컬러를 가지도록 마련될 수 있는데, 서브모듈(100)에서 이 전방프레임(120)만 교체됨으로써 사용자가 원하는 컬러의 전방프레임(120)이 서브모듈(100)에 적용될 수 있다.
서브모듈(100)은 전방프레임(120) 내측에 설치된 디스플레이부(130)가 설치된다. 디스플레이부(130)는 액정 디스플레이 패널과 같이 복잡한 영상을 표시할 수 있는 구성이 아닌, 간단한 텍스트 정보를 표현할 수 있을 정도의 구조를 가진다. 예를 들면, 디스플레이부(130)는 매트릭스 형태로 배치된 복수의 LED를 포함하며, 각 LED의 온/오프에 따라서 소정의 텍스트 정보를 표시할 수 있다.
전방프레임(120) 내측에는 디스플레이부(130)를 비롯하여 스피커(미도시), 마이크로폰(미도시) 등이 설치된다. 즉, 전방프레임(120)이 패브릭 재질을 포함하는 이유는, 디스플레이부(130)에 표시되는 정보를 사용자가 인지하는 것 이외에도, 스피커로부터 출력되는 음성을 사용자가 듣고, 사용자의 음성이 마이크로폰에 의해 수집될 수 있도록 하기 위함이다.
디스플레이부(130)는 전방프레임(120) 내측에 설치되어 있지만, 전방프레임(120)이 패브릭 재질을 포함하므로, 디스플레이부(130)에 표시되는 정보는 사용자가 전방프레임(120)을 통해 인지할 수 있다. 즉, 디스플레이부(130)의 LED로부터의 광이 전방프레임(120)의 판면(121)을 통과하여 외부로 조사되는 바, 디스플레이부(130)에 표시되는 텍스트 정보는 사용자가 확인할 수 있다. 물론, 디스플레이부(130)의 구조는 LED에 한정되지 않으며, 사용자가 전방프레임(120)을 통해 디스플레이부(130)에 표시되는 정보를 확인할 수 있는 범위라면 그 구현 형태가 한정되지 않는다.
전방프레임(120)은 후방프레임(110)의 경우와 유사하게, 다이얼 구조를 가짐으로써 사용자에 의해 회전할 수 있게 마련된다. 즉, 서브모듈(100)에는 후방프레임(110)의 측벽 및 전방프레임(120)의 두 가지의 다이얼이 적용된다. 각 다이얼 구조는 사용자에 의해 회전 조작됨으로써, 서브모듈(100)에 기 설정된 기능을 조정할 수 있게 마련된다. 이러한 다이얼 구조에 의해 조정되는 기능에 관해서는 후술한다.
전방프레임(120)의 가장자리, 즉 패브릭 재질을 포함하는 원형의 판면(121)의 주위에는 인디케이터 링(indicator ring)(123)이 설치된다. 인디케이터 링(123)은 소정 컬러의 광을 생성하는 LED를 포함한다. 인디케이터 링(123)은 서브모듈(100)의 현재 상태를 나타내도록 발광 상태를 조정한다.
몇 가지 예를 들면, 인디케이터 링(123)은 서브모듈(100)이 턴온되면 활성화되며, 서브모듈(100)이 턴오프되면 비활성화될 수 있다. 또는, 인디케이터 링(123)은 서브모듈(100)이 음성을 출력하는 동안에는 활성화되며, 서브모듈(100)이 음성을 출력하지 않는 동안에는 비활성화될 수 있다. 또는, 인디케이터 링(123)은 서브모듈(100)의 음성인식모드의 활성화 여부에 대응하여 선택적으로 활성화 또는 비활성화될 수 있다.
전방프레임(120)의 원형 판면(121)의 일 영역, 예를 들면 패브릭 재질의 원형 판면(121) 중에서 디스플레이부(130)에 대응하는 영역의 하측에는 토글 버튼(125)이 설치된다. 토글 버튼(125)은 사용자가 누름에 따라서 온 상태 및 오프 상태가 전환되도록 마련된다.
도 3은 도 2의 서브모듈(100)이 설치면에 거치되는 구조를 나타내는 사시도이다.
도 3에 도시된 바와 같이, 서브모듈(100)을 설치면 상에 거치하기 위해서 별도의 거치 구조가 적용된다. 예를 들면, 설치면 상에는 브래킷(20)이 결합되고 브래킷(20)에 서브모듈(100)이 거치되는 형태로, 결과적으로 서브모듈(100)이 설치면 상에 지지될 수 있다. 브래킷(20)이 설치면에 결합되는 구조는 여러 가지 방식이 가능하며, 예를 들면 브래킷(20)은 스크루에 의해 설치면에 체결되거나 또는 접착부재에 의해 설치면에 접착될 수 있다.
브래킷(20)은 소정 형상의 판면(21) 상에 소정 높이의 벽(23)이 돌출된 형상을 가진다. 브래킷(20)의 이러한 벽(23)은 서브모듈(100)의 후방프레임(110)의 외형에 대응하는 형태를 가짐으로써, 서브모듈(100)의 후방프레임(110)이 브래킷(20)의 벽(23)에 끼워맞춰지는 상태로 서브모듈(100)이 브래킷(20)에 지지된다. 이러한 상태에서, 후방프레임(110)의 후방판면(111)은 브래킷(20)의 판면(21)과 마주보게 되며, 후방프레임(110)의 후방판면(111)의 원형의 가장자리는 브래킷(20)의 벽(23)을 따라서 배치된다.
또한, 브래킷(20)의 판면(21)의 일 영역에는 전원 케이블(10)에 전기적으로 접속된 커넥터(25)가 설치된다. 서브모듈(100)이 브래킷(20)에 지지되는 상태에서, 브래킷(20)의 커넥터(25)는 후방프레임(110)의 후방판면(111)의 일 영역에 설치된 서브모듈(100)의 커넥터(113)에 전기적으로 접속된다. 각 커넥터(25, 113)는 상호 대응하는 전기단자(미도시)를 포함하는 바, 상호 결합에 의해 전기가 소통되게 마련된다. 이러한 전기단자는, 예를 들면 상호 인게이지되게 마련된 암수 커넥터들을 포함할 수 있다. 이로써, 서브모듈(100)은 브래킷(20)에 지지되는 동안에 동작 전원을 공급받을 수 있다.
본 실시예에서는 서브모듈(100)의 후방프레임(110)이 브래킷(20)에 끼워맞춰지는 형태로, 서브모듈(100)이 브래킷(20)에 지지되는 방식을 설명하였다. 그러나, 이러한 방식이 한 가지 형태로 한정되는 것은 아니며, 예를 들면 브래킷(20)의 판면(21)은 자석(미도시)을 포함할 수도 있다. 이 경우에, 후방프레임(110)이 메탈 재질을 포함하므로, 자석(미도시)의 자력에 의해 후방프레임(110)이 브래킷(20)의 판면(21)에 지지되는 구조가 가능하다.
다만, 서브모듈(100)이 설치면에 지지되는 구조 및 서브모듈(100)이 전원을 공급받는 구조는 도 3의 방식으로만 한정되는 것은 아니다.
도 4는 도 2의 서브모듈이 설치면에 거치되는 구조의 상이한 형태를 나타내는 사시도이다.
도 4에 도시된 바와 같이, 서브모듈(400)은 후방프레임(410)을 비롯한 여러 구성을 포함한다. 본 도면의 서브모듈(400)의 기본적인 구조는 앞선 실시예에서의 서브모듈(100)과 실질적으로 동일한 바, 자세한 설명을 생략한다.
다만, 서브모듈(400)은 설치면에 지지되는 구조에 있어서 앞선 실시예에서의 서브모듈(100)과 상이하다. 구체적으로, 서브모듈(400)은 후방프레임(410)의 하측으로부터 소정 형태를 가지고 돌출된 서브프레임(420)을 가진다. 서브프레임(420)의 후방으로부터 전기 플러그(430)가 돌출된다. 전기 플러그(430)가 외부 전원의 콘센트에 접속됨으로써, 서브모듈(400)이 설치면 상에 지지되는 한편 외부 전원으로부터 동작 전원을 공급받는다. 외부 전원은, 예를 들면 벽 등에 설치된 교류전원 소켓을 포함할 수 있다.
이하, 음성신호의 처리를 위한 서브모듈의 구성에 관해 설명한다.
도 5는 도 2의 서브모듈(100)의 신호처리 구성에 관한 구성 블록도이다.
도 5에 도시된 바와 같이, 서브모듈(100)은 디스플레이부(130)와, 음성을 출력하는 스피커(140)와, 음성을 수집하는 마이크로폰(150)과, 통신을 수행하여 신호를 송수신하는 통신부(160)와, 데이터가 저장되는 저장부(170)와, 기 설정된 프로세스에 따라서 신호 또는 데이터를 처리하는 신호처리부(180)를 포함한다. 서브모듈(100) 내의 이와 같은 구성요소들은 시스템 버스를 통해 상호 억세스가 가능하게 마련됨으로써, 구성요소들 사이의 연계 동작이 가능하다. 본 실시예에서의 구성요소들 중에서, 통신부(160), 저장부(170), 신호처리부(180)은 각기 별개의 구성으로 구현될 수 있으며, 또는 이들 중 적어도 둘 이상이 SOC로 일체화되어 구현될 수도 있다.
디스플레이부(130)는 인쇄회로기판 상에 복수의 LED가 매트릭스 형태로 배치된 형태로 구현되며, 각 LED의 온, 오프에 따라서 간단한 텍스트 정보를 표시한다. 디스플레이부(130)는 복수의 LED와, 복수의 LED가 장착되고 전원 공급을 위한 배선이 프린팅된 인쇄회로기판을 포함한다.
스피커(140)는 신호처리부(180)에 의해 처리되는 음성신호를 음성으로 출력한다. 스피커(140)는 지원 가능한 채널에 따라서, 음성신호의 각 채널에 대응하는 단위 스피커를 포함할 수 있다. 예를 들면, 스피커(140)는 스테레오 채널을 지원하도록 좌우 두 개의 단위 스피커를 포함할 수 있으며, 또는 좌측채널, 우측채널, 중앙채널에 각각 대응하는 3개의 단위 스피커를 포함할 수도 있다.
스피커(140)는 음성의 출력 이외에도, 소정의 대상이 얼마나 이격되었는지를 감지하기 위한 초음파를 출력하도록 마련될 수 있다. 스피커(140)가 출력하는 초음파가 특정 대상에 충돌하고 이러한 충돌에 의하여 발생하는 반사파를 마이크로폰(150)이 수집함으로써, 서브모듈(100)으로부터 해당 대상의 이격 거리가 산출될 수 있다. 이러한 원리의 활용에 관해서는 후술한다.
마이크로폰(150)은 서브모듈(100)의 외부에서 발생하는 음성을 수집하여 음성신호로 변환하고, 음성신호를 신호처리부(180)에 전달한다. 예를 들면, 마이크로폰(150)는 사용자의 발화를 입력받아, 해당 발화에 대응하는 음성신호를 생성한다. 물론, 마이크로폰(150)이 수집 가능한 음성은 사용자만으로 한정할 수 없으며, 타 서브모듈로부터 출력되는 음성 또한 수집이 가능하다.
마이크로폰(150)은 기본적으로 사람의 가청범위에 있는 음성 뿐만 아니라, 초음파의 반사파를 수집할 수 있다. 또한, 마이크로폰(150)은 빔 포밍(beam forming) 기능을 지원하는 바, 이를 위하여 적어도 두 개의 단위 마이크로폰(150)이 서브모듈(100)에 설치된다. 빔 포밍 기능을 지원하는 마이크로폰(150)은 서브모듈(100)에 대한 사용자의 상대적인 위치를 판단하도록 활용되는 바, 이에 관한 자세한 설명은 후술한다.
통신부(160)는 인쇄회로기판 상에 장착된 통신모듈 칩셋으로 구현될 수 있다. 사용자가 용이하게 설치면 상에 거치시킬 수 있도록 마련된 서브모듈(100)의 특성을 고려하여, 통신부(160)는 와이파이, 와이파이 다이렉트, 블루투스와 같은 무선통신 프로토콜을 지원하는 통신모듈을 포함한다. 무선통신 프로토콜에 따라서, 통신부(160)는 TV나 모바일 장치와 같은 전자장치, 사물인터넷을 위한 허브, 억세스 포인트 등은 물론이고, 별도의 서브모듈과도 통신이 가능하다. 특히, 통신부(160)는 오디오장치 내의 타 서브모듈과의 통신을 위해 사전에 규정된 프로토콜을 지원할 수도 있다.
저장부(170)는 신호처리부(180)에 의해 처리되는 데이터가 저장된다. 저장부(170)는 플래시메모리, 하드디스크 드라이브, 솔리드 스테이트 드라이브 등 비휘발성 메모리가 적용될 수 있지만, 서브모듈(100)의 경량화 및 소형화를 고려하면 플래시메모리로 구현되는 것이 바람직하다. 기본적으로, 저장부(170)는 이와 같은 비휘발성 메모리로 구현되는 경우에, 신호처리부(180)의 연산 및 동작을 위해 실행되는 운영체제, 드라이버, 펌웨어, 어플리케이션 등의 데이터가 저장될 수 있다. 또한, 저장부(170)는 상기한 데이터들이 신호처리부(180)에 의해 실행될 수 있도록, 램(RAM)과 같은 휘발성 메모리를 더 포함한다.
신호처리부(180)는 인쇄회로기판 상에 장착된 칩셋, CPU, 마이크로 컨트롤러, 또는 SOC와 같은 하드웨어 회로로 구현될 수 있다. 신호처리부(180)는 기본적으로 음성신호의 처리 이외에도, 서브모듈(100)에 대한 타 서브모듈의 상대위치 설정, 현재 사용자의 위치 설정, 디스플레이부(130)의 제어 등 서브모듈(100)의 동작을 위한 다양한 프로세스를 수행한다. 이러한 프로세스는, 예들 들면 저장부(170)의 비휘발성 메모리에 저장된 데이터가 저장부(170)의 휘발성 메모리에 로딩되고, 로딩된 데이터가 신호처리부(180)에 의해 실행됨으로써 수행될 수 있다.
이하, 신호처리부(180)의 프로세스 중에서 음성신호를 스피커(140)로 출력하기 위한 처리 구성요소에 관해 간단히 설명한다. 이하 설명하는 구성요소들은 음성신호를 스피커(140)로 출력하는 프로세스에 관여하는 것들이므로, 신호처리부(180)는 별도의 프로세스를 처리하기 위한 추가적인 구성요소들을 포함할 수 있다.
신호처리부(180)는 음성신호인 디지털신호를 출력하는 디지털신호 공급부(181)와, 디지털신호 공급부(181)로부터 출력되는 디지털신호에 기초하여 펄스폭 변조(pulse width modulation, PWM) 신호를 출력하는 PWM 처리부(182)와, PWM 처리부(182)로부터 출력되는 PWM 신호를 증폭시키는 증폭부(183)를 포함한다.
디지털신호 공급부(181)는 입력되는 음성신호를 펄스코드의 디지털신호로 변조하여 출력한다. 이를 위해, 디지털신호 공급부(181)는 DSP, MPEG 컨버터 IC 등의 구성을 포함한다.
PWM 처리부(182)는 디지털신호 공급부(181)로부터 출력되는 진폭이 작은 펄스코드 변조 신호를 소출력의 PWM 신호로 변환시킨다.
증폭부(183)는 PWM 처리부(182)로부터 출력되는 소출력의 PWM 신호를 스위칭회로부의 반도체 스위칭소자, 예를 들면 전계효과 트랜지스터(field effect transistor, FET)를 사용하여 대출력의 PWM 신호로 증폭시킨다. 예를 들면, 증폭부(183)는 3.3V 정도의 소출력 PWM 신호를 받아서 5 내지 40V 정도 수준의 대출력 PWM 신호로 증폭시킨다. 증폭부(183)는 이와 같이 증폭시킨 대출력 PWM 신호를 저역통과 필터링 처리하여 스피커(140)로 출력한다.
증폭부(183)는 음성신호의 채널 개수에 대응하는 앰프 및 LC 필터를 포함한다. 앰프는 입력되는 음성신호를 증폭시키는 구성요소로서, 기본적으로 FET가 사용된다. LC 필터는 특정 주파수 대역의 신호를 필터링하기 위한 구성으로서, 공진회로를 포함하며, 인덕터(inductor) 및 커패시터(capacitor)가 사용된다.
PWM 처리부(182)는 증폭부(183)의 각 앰프에 대해 PWM 신호를 인가하며, 각 앰프는 PWM 처리부(182)로부터 개별적으로 인가되는 PWM 신호를 증폭시키고, 각 LC 필터는 증폭된 PWM 신호를 특정 수파수 대역으로 필터링함으로써 PWM 신호를 복조하여 스피커(140)에 출력한다. 스피커(140)는 음성신호의 채널 별로 음성을 출력한다.
이러한 구조 하에서, 본 실시예에 따른 오디오장치(1)의 서브모듈(100)의 처리 동작에 관해 설명한다.
도 6은 도 1의 오디오장치의 서브모듈의 제어 동작을 나타내는 플로우차트이다.
도 6에 도시된 바와 같이, S110 단계에서 서브모듈의 시스템 전원이 턴온된다.
S120 단계에서 서브모듈은 보이스필드(voice field) 또는 사운드필드(sound field)의 설정정보가 기 저장되어 있는지 판단한다. 보이스필드에 관한 설명은 후술한다.
보이스필드의 설정정보가 기 저장되어 있으면, S130 단계에서 서브모듈은 보이스필드의 설정정보를 취득한다.
반면, 보이스필드의 설정정보가 기 저장되어 있지 않으면, S140 단계에서 서브모듈은 오디오장치 내 타 서브모듈들의 상대 위치들을 판단한다. 여기서 각 서브모듈은 각기 판단한 위치 정보를 상호 공유한다.
S150 단계에서 서브모듈은 판단 및 공유되는 위치 정보들에 기초하여, 오디오장치 내의 서브모듈들에 의한 보이스필드를 설정한다.
S160 단계에서 서브모듈은 취득한 보이스필드의 설정정보를 저장한다.
이와 같이 보이스필드 설정정보가 취득되면, S170 단계에서 서브모듈은 보이스필드 상에서 서브모듈에 대한 사용자의 현재 위치를 판단한다.
S180 단계에서 서브모듈은 판단한 사용자의 현재 위치에 대응하여 스피커를 통한 음성의 출력상태를 조정한다.
이로써, 오디오장치는 복수의 서브모듈에 의해 보이스필드를 형성하고, 각 서브모듈이 사용자의 현재 위치에 대응하여 음성 출력상태를 조정하도록 할 수 있다. 보이스필드 내에서 사용자가 계속 이동하더라도 사용자의 현재 위치에 대응하도록 각 서브모듈의 음성출력을 조정하는 바, 본 실시예에 따른 오디오장치는 사용자에게 맞는 음성환경을 제공할 수 있다.
보이스필드는 오디오장치의 복수의 서브모듈에 의해 형성되는 영역으로서, 서브모듈들에 의한 음성의 입출력의 영향이 미치는 범위를 의미한다. 본 실시예와 같이 3개의 서브모듈이 한 세트의 오디오장치를 구성하는 경우에, 각 서브모듈을 서로 연결하면 삼각형을 형성한다. 보이스필드는 본 삼각형 내의 영역을 지칭한다.
실제로 서브모듈들에 의한 음성의 입출력의 영향이 미치는 범위는 삼각형 내의 영역만이 아닌, 본 영역을 포함하는 보다 넓은 영역이 된다. 다만, 실제로 서브모듈들에 의한 음성의 입출력의 영향이 미치는 범위를 계측하는 것은 곤란하므로 이러한 범위의 경계를 명확히 구분하는 것은 곤란하다. 따라서, 본 실시예에서의 보이스필드는 편의상 본 삼각형 내의 영역을 지칭하기로 한다.
이하, 서브모듈이 보이스필드를 설정하는 방법에 관해 설명한다.
도 7은 도 1의 오디오장치(1)가 복수의 서브모듈(100, 200, 300)에 의해 형성되는 보이스필드를 설정하는 원리를 나타내는 예시도이다.
도 7에 도시된 바와 같이, 오디오장치(1)는 3개의 서브모듈(100, 200, 300)을 포함한다. 보이스필드(500)는 각 서브모듈(100, 200, 300) 사이를 연결하는 직선에 의해 형성되는 삼각형의 영역을 포함한다. 따라서, 보이스필드(500)를 판단하기 위해서는 각 직선의 길이, 즉 3개의 서브모듈(100, 200, 300) 사이의 거리를 산출해야 한다. 이러한 3개의 거리값이 산출되면, 해당 거리값의 모서리들에 의해 형성되는 삼각형의 영역을 포함하는 보이스필드(500)가 결정된다. 보이스필드(500)의 각 꼭지점에는 서브모듈(100, 200, 300)이 위치하게 된다.
복수의 서브모듈(100, 200, 300) 사이의 거리를 산출하는 방법에는 여러 가지 기술이 적용될 수 있는데, 예를 들면 초음파에 의한 계측방법이 가능하다. 각 서브모듈(100, 200, 300)의 스피커는 사람의 가청범위인 16 내지 20000Hz의 주파수를 가진 음성을 출력할 수 있지만, 그 외에도 20kHz 이상의 주파수를 가지는 초음파를 출력할 수도 있다.
예를 들면, 제1서브모듈(100)은 역압전 현상에 기초하여 펄스 제네레이터(pulse generator)에 의해 초음파를 생성 및 방출한다. 제1서브모듈(100)은 압전소자에 플러스 전압 및 마이너스 전압을 짧은 시간 동안에 교차하여 인가함으로써 압전소자의 변형 및 복원을 교대로 일으킨다. 압전소자의 변형 및 복원에 의해 발생하는 진동에너지는 초음파가 되어 제1서브모듈(100)으로부터 방출된다.
제1서브모듈(100)으로부터의 초음파가 제2서브모듈(200)에 도달하면, 초음파는 제2서브모듈(200)에 의해 반사 및 굴절되어 반사파가 된다. 반사파는 제2서브모듈(200)으로부터 제1서브모듈(100)으로 전파된다.
제1서브모듈(100)가 반사파를 수신하면, 압전 현상에 기초하여 제1서브모듈(100)의 진동자가 반사파에 의해 전압을 발생시키고, 발생한 전압이 전압계에 의해 측정된다.
이와 같은 원리로 제1서브모듈(100)은 초음파의 방출 및 반사파의 수신을 수행한다. 여기서, 제1서브모듈(100)은 초음파의 방출 시점으로부터 반사파가 수신되는 시점 사이의 시간, 즉 초음파가 방출된 이후에 제2서브모듈(200)에 부딪혀 되돌아오는 시간을 측정함으로써 제1서브모듈(100) 및 제2서브모듈(200) 사이의 거리를 산출할 수 있다.
동일한 원리로, 제1서브모듈(100) 및 제3서브모듈(300) 사이의 거리와, 제2서브모듈(200) 및 제3서브모듈(300) 사이의 거리 또한 산출될 수 있다. 제1서브모듈(100), 제2서브모듈(200) 및 제3서브모듈(300)은 상호 통신이 가능하므로, 각기 산출한 거리 정보를 송수신함으로써, 3개의 거리 패러미터를 공유한다. 예를 들어, 제2서브모듈(200)은 제2서브모듈(200) 및 제3서브모듈(300) 사이의 거리를 산출하고, 산출된 정보를 제1서브모듈(100)에 전송할 수 있다.
이로써, 각 서브모듈(100, 200, 300)은 보이스필드(500)의 범위를 판단할 수 있으며, 보이스필드(500)에서 각 서브모듈(100, 200, 300)의 위치를 판단할 수 있다.
이하, 이와 같이 판단 및 설정된 보이스필드(500) 내에서 사용자의 위치를 판단하는 방법에 관해 설명한다.
도 8은 도 1의 오디오장치(1)의 각 서브모듈(100, 200, 300)이 보이스필드(500)에서 사용자(U)의 위치를 판단하는 원리를 나타내는 예시도이다.
도 8에 도시된 바와 같이, 오디오장치(1)는 3개의 서브모듈(100, 200, 300)을 포함하며, 각 서브모듈(100, 200, 300) 사이를 연결하는 직선(519, 520, 530)에 의해 보이스필드(500)가 형성된다.
일 시점에서 사용자(U)가 보이스필드(500) 상의 일 위치에 있을 때, 각 서브모듈(100, 200, 300)에 대한 사용자(U)의 상대적 위치를 판단하는 방법은 여러 가지 방법이 가능하다. 예를 들면, 각 서브모듈(100, 200, 300)으로부터 사용자(U)의 이격 거리를 계측하는 방법이 있다. 또는, 각 서브모듈(100, 200, 300)과 사용자(U) 사이의 상대적인 각도를 계측하는 방법도 있다.
후자의 경우에, 서브모듈(100, 200, 300)과 사용자(U) 사이의 상대적인 각도는 여러 가지 형태로 나타날 수 있지만, 예를 들면 보이스필드(500)의 모서리를 기준으로 하는 각도일 수 있다. 제1서브모듈(100) 및 사용자(U) 사이의 각도는 보이스필드(500)의 모서리(510)에 대한 각도 d1으로 나타내고, 제2서브모듈(200) 및 사용자(U) 사이의 각도는 보이스필드(500)의 모서리(520)에 대한 각도 d2로 나타내고, 제3서브모듈(300) 및 사용자(U) 사이의 각도는 보이스필드(500)의 모서리(530)에 대한 각도 d3로 나타낼 수 있다. 그러나, 이는 상대적인 각도를 나타내는 한 가지 예시일 뿐이며, 그 구현 형태를 한정하는 것은 아니다.
서브모듈(100, 200, 300)과 사용자(U) 사이의 상대적인 각도를 계측하는 방법으로는 여러 가지 기술이 적용될 수 있는데, 예를 들면 빔 포밍(beam forming) 기술이 가능하다. 빔 포밍 기술은 음성이 들려오는 위치를 감지하는 방법으로서, 무지향성 마이크로폰을 사용한다. 하나의 마이크로폰으로 빔 포밍 기술을 구현하는 것은 곤란하며, 적어도 둘 이상의 마이크로폰이 각기 수신하는 음성의 위상차를 계산함으로써 구현할 수 있다. 즉, 각 서브모듈(100, 200, 300)은 적어도 둘 이상의 마이크로폰을 포함한다.
구체적으로, 각 서브모듈(100, 200, 300)이 각기 음성을 출력하고 있다고 할 때, 제1서브모듈(100)은 마이크로폰을 통해 출력되는 음성을 수집한다. 제1서브모듈(100)은 제2서브모듈(200) 및 제3서브모듈(300) 각각으로부터 제2서브모듈(200)이 출력하는 음성신호 및 제3서브모듈(300)이 출력하는 음성신호의 정보를 수신한다.
제1서브모듈(100)은 마이크로폰을 통해 수신되는 음성의 음성신호로부터 각 서브모듈(100, 200, 300)이 출력하는 음성신호를 제거한 상태의 파형을 분석함으로써, 사용자(U)의 위치의 상대적인 각도 d1을 판단할 수 있다. 파형의 분석은 기 설정된 프로파일과의 비교에 의한 것이거나, 또는 파형의 진폭값을 기 설정된 문턱값과 비교하는 방법 등 여러 가지 방식이 가능하다.
제2서브모듈(200) 및 제3서브모듈(300) 또한 상기한 원리에 따라서 각도 d2, d3를 산출할 수 있다. 이러한 방법에 따라서, 각 서브모듈(100, 200, 300)은 사용자(U)의 상대적인 위치를 판단할 수 있으며, 판단한 위치에 기초하여 각각 다양한 음성출력 상태를 조정할 수 있다.
그런데, 각 서브모듈(100, 200, 300)이 사용자(U)의 상대적인 위치에 대응하여 음성출력 상태를 조정함에 있어서, 어떠한 음성출력 상태를 조정할 것인지 관해서는 여러 가지 예시가 가능하다.
도 9는 도 1의 오디오장치(1)의 각 서브모듈(100, 200, 300)이 사용자(U) 위치에 대응하여 스테레오 채널의 음성을 출력하는 원리를 나타내는 예시도이다.
도 9에 도시된 바와 같이, 복수의 서브모듈(100, 200, 300)에 의해 형성된 보이스필드(500) 상에서 사용자(U)가 현재 위치(550)에 있다고 할 때, 각 서브모듈(100, 200, 300)은 해당 위치(550)에 대응하여 각기 음성의 출력상태를 조정한다. 예를 들면, 각 서브모듈(100, 200, 300)이 좌측채널, 센터채널, 우측채널을 포함하는 음성신호의 음성을 출력할 때, 사용자(U)의 현재 위치(550)에 대응하여 각 서브모듈(100, 200, 300)이 중점적으로 출력하는 음성신호의 채널이 상이하게 설정될 수 있다. 여기서, 어느 채널이 중점적으로 출력된다는 것은, 타 채널은 배제되고 해당 채널만이 출력된다는 의미일 수 있고, 또는 해당 채널이 타 채널에 비해 상대적으로 볼륨이 높게 출력된다는 의미일 수 있다.
만일 복수의 서브모듈(100, 200, 300) 중에서 사용자(U)의 현재 위치(550)가 제2서브모듈(200)에 가장 근접해 있다고 판단되면, 제2서브모듈(200)은 음성을 출력함에 있어서 센터채널의 음성을 상대적으로 중점을 두어 출력하고, 제1서브모듈(100) 및 제3서브모듈(300)은 나머지 좌측채널 및 우측채널의 음성을 상대적으로 중점을 두어 출력한다. 여기서, 제1서브모듈(100) 및 제3서브모듈(300)은 좌측채널의 음성 및 우측채널의 음성을 실질적으로 유사한 수준으로 중점을 두어 출력할 수도 있다.
또는, 사용자(U)가 이전 위치(540)로부터 현재 위치(550)로 이동하였다는 점을 고려하면, 현재 사용자(U)가 제2서브모듈(200)을 마주보는 자세에 있고, 사용자(U) 좌측에는 제1서브모듈(100)이 있으며 사용자(U) 우측에는 제3서브모듈(300)이 있다고 분석될 수도 있다. 이러한 점을 고려하여, 제2서브모듈(200)은 센터채널의 음성을 중점적으로 출력하고, 제1서브모듈(100)은 좌측채널의 음성을 중점적으로 출력하고, 제3서브모듈(300)은 우측채널의 음성을 중점적으로 출력할 수도 있다. 정리하면, 오디오장치(1)는 사용자(U)의 이동 이력에 기초하여 사용자(U)의 현재 자세를 판단하고, 판단한 자세에 기초하여 각 서브모듈(100, 200, 300) 별로 출력하는 음성의 채널이 조정되도록 할 수 있다. 이와 같은 사용자(U)의 이동 이력은 각 서브모듈(100, 200, 300)에 의해 저장된다.
이러한 방식에 따라서, 오디오장치(1)의 각 서브모듈(100, 200, 300)은 사용자(U)의 현재 위치(550)에 대응하여 음성의 출력 상태를 조정할 수 있다.
본 실시예에서는 각 서브모듈(100, 200, 300)이 사용자(U)의 위치에 대응하여 음성의 출력 상태를 조정하는 경우에 관해 설명하였으나, 오디오장치(1)의 설계 방식에 따라서는 음성의 출력 상태 뿐만 아니라 각 서브모듈(100, 200, 300)의 다양한 동작 상태를 조정할 수도 있다.
도 10은 도 1의 오디오장치(1)의 각 서브모듈(100, 200, 300)이 사용자(U) 위치에 대응하여 서브모듈(100, 200, 300)의 여러 동작 상태를 조정하는 원리를 나타내는 예시도이다.
도 10에 도시된 바와 같이, 복수의 서브모듈(100, 200, 300)에 의해 형성된 보이스필드(500) 상에서, 사용자(U)의 현재 위치가 제2서브모듈(200) 및 제3서브모듈(300)에 비해 제1서브모듈(100)에 근접해 있는 경우를 고려한다.
이러한 경우에, 제1서브모듈(100)은 사용자(U)가 상대적으로 근접해 있다는 점을 고려하여, 출력하는 음성의 볼륨을 상대적으로 올릴 수 있다. 이에 대비하여, 제2서브모듈(200) 및 제3서브모듈(300)은 사용자(U)가 상대적으로 이격되어 있다는 점을 고려하여, 출력하는 음성의 볼륨을 상대적으로 낮출 수 있다.
다만, 사용자(U)가 근접하였다고 해서 음성의 볼륨을 올린다고 한정할 수는 없는 바, 설계 방식에 따라서는 그 반대의 조정 방법도 가능하다. 즉, 제1서브모듈(100)은 음성의 볼륨을 상대적으로 낮추고, 이에 대비하여 제2서브모듈(200) 및 제3서브모듈(300)은 음성의 볼륨을 상대적으로 높일 수도 있다.
사용자(U)가 제1서브모듈(100)에 상대적으로 근접해 있다는 것은, 사용자가 제2서브모듈(200) 및 제3서브모듈(300)보다 제1서브모듈(100)을 보고 있을 확률 또는 제1서브모듈(100)을 조작하고자 할 확률이 상대적으로 높다고 분석될 수 있다. 이를 고려하여, 제1서브모듈(100)은 LED를 턴온시키고, 제2서브모듈(200) 및 제3서브모듈(300)는 LED를 턴오프시킬 수 있다. 여기서, LED는 서브모듈(100, 200, 300)의 인디케이터 링 또는 디스플레이부를 지칭한다.
또는, 사용자(U)가 제1서브모듈(100)로 접근할 때, 제1서브모듈(100)은 마이크로폰을 턴온시키고, 제2서브모듈(200) 및 제3서브모듈(300)은 마이크로폰을 턴오프시킬 수 있다. 여기서, 마이크로폰의 턴온 동작은 마이크로폰의 턴업(turn-up) 동작으로 대체될 수 있고, 마이크로폰의 턴오프 동작은 마이크로폰의 턴다운(turn-down) 동작으로 대체될 수 있다.
이와 같이, 오디오장치(1)는 각 서브모듈(100, 200, 300)에 대한 사용자(U)의 상대적인 위치에 대응하여 서브모듈(100, 200, 300)의 여러 동작 상태를 조정할 수 있다.
이하, 서브모듈(100, 200, 300)의 몇 가지의 동작 모드들에 대해 설명한다.
도 11은 도 1의 오디오장치의 서브모듈(100)의 음성재생모드의 원리를 나타내는 구성 블록도이다.
도 11에 도시된 바와 같이, 서브모듈(100)은 특정 이벤트에 응답하여 음성재생모드로 동작할 수 있는 바, 예를 들면 S210 단계에서 마이크로폰(150)을 통해 기 설정된 명령어가 입력되면 음성재생모드로 동작한다.
S220 단계에서 통신부(160)는 모바일 폰, 태블릿, 컴퓨터본체 등 다양한 종류로 구현될 수 있는 외부장치로부터 단위시간당 소정의 데이터량의 음성데이터를 수신하고, 이 음성데이터를 신호처리부(180)에 전달한다. 통신부(160)가 단위시간당 수신하는 음성데이터의 데이터량은 통신부(160)가 지원하는 통신 프로토콜, 저장부(170)의 용량, 신호처리부(180)의 처리능력 등 다양한 원인에 의해 결정된다.
S230 단계에서 신호처리부(180)는 통신부(160)로부터의 음성데이터를 저장부(170)에 버퍼링, 즉 임시로 저장한다. 또는, 설계 방식에 따라서는 음성데이터가 신호처리부(180)를 거치지 않고 통신부(160)로부터 다이렉트로 저장부(170)에 버퍼링될 수도 있다.
S240 단계에서 신호처리부(180)는 저장부(170)에 버퍼링된 음성데이터를 취득하고, S250 단계에서 취득한 음성데이터를 처리한다. 음성데이터의 처리는, 예를 들면 음성데이터로부터 메타정보 또는 메타데이터의 추출, 음성데이터의 디코딩, 디코딩된 음성데이터의 증폭과 볼륨 조정 등의 프로세스를 포함한다. 이 과정에서, 신호처리부(180)는 앞선 실시예에서 설명한 바와 같은 사용자의 위치에 대응하는 음성의 출력상태 조정 단계를 적용할 수 있다.
S260 단계에서 신호처리부(180)는 처리한 음성데이터를 스피커(140)로 출력한다.
추가적으로, S270 단계에서 신호처리부(180)는 메타정보를 디스플레이부(130)에 표시한다. 메타정보는 음성데이터에 관한 다양한 정보로서, 예를 들면 음성데이터가 노래 데이터인 경우에, 노래 제목, 가수, 노래가 출시된 날짜, 노래가 수록된 앨범 정보 등을 포함한다.
여기서, 신호처리부(180)는 기 설정된 조건에 따라서 메타정보의 표시를 선택적으로 적용할 수 있는 바, 예를 들면 서브모듈(100)의 음성인식모드가 활성화된 동안에는 메타정보를 표시하고, 서브모듈(100)의 음성인식모드가 비활성화된 동안에는 메타정보를 표시하지 않을 수 있다.
이와 같이 서브모듈(100)이 음성재생모드로 동작하며 음성을 출력함에 있어서, 서브모듈(100)은 사용자가 음성의 출력상태를 조정하기 위한 두 가지 형태의 인터페이스를 제공한다. 한 가지 형태는 사용자가 직접 서브모듈(100)에 설치된 다이얼을 조작함으로써 서브모듈(100)을 제어하는 방법으로서, 서브모듈(100)의 음성인식모드가 비활성화된 동안에 가능한 방법이다. 다른 한 가지 형태는 사용자의 음성에 의해 서브모듈(100)을 제어하는 방법으로서, 서브모듈(100)의 음성인식모드가 활성화된 동안에 가능한 방법이다.
이하, 서브모듈(100)의 음성인식모드가 비활성화된 경우의 사용자 조작의 예시에 관해 설명한다.
도 12는 도 1의 오디오장치의 서브모듈(100)에서 사용자가 후방프레임(110)을 회전시키는 모습을 나타내는 사시도이다.
도 12에 도시된 바와 같이, 서브모듈(100)은 후방프레임(110), 전방프레임(120), 전방프레임(120)의 판면(121)을 통해 사용자가 인지 가능한 디스플레이부(130), 전방프레임(120)의 판면(121) 하측에 설치된 토글 버튼(125)을 포함한다.
토글 버튼(125)은 사용자에 의해 토글됨으로써, 서브모듈(100)의 음성인식모드를 활성화시키거나 또는 비활성화시킨다. 토글 버튼(125)에 의해 음성인식모드가 비활성화되면, 사용자는 서브모듈(100)의 다이얼 구조가 적용된 후방프레임(110) 또는 전방프레임(120)을 직접 회전시켜 조작할 수 있다.
사용자가 후방프레임(110)을 회전시키는 것에 응답하여, 서브모듈(100)은 예를 들면 출력되는 음성의 볼륨을 조정한다. 서브모듈(100)은 음성의 볼륨을 조정하고, 조정되는 볼륨의 정보를 디스플레이부(130)에 표시한다.
여기서, 사용자가 후방프레임(110) 또는 전방프레임(120)을 회전시키는 것에 응답하여 서브모듈(100)이 동작하는지 여부는, 서브모듈(100)의 음성인식모드의 활성화 여부에 대응하게 설정될 수도 있고, 서브모듈(100)의 음성인식모드의 활성화 여부에 무관할 수도 있다.
전자의 경우에, 서브모듈(100)은 음성인식모드가 활성화된 상태 하에서 후방프레임(110) 또는 전방프레임(120)의 회전에 응답하여 동작하고, 음성인식모드가 비활성화된 상태 하에서 후방프레임(110) 또는 전방프레임(120)의 회전에 응답하여 동작하지 않는다. 후자의 경우에, 서브모듈(100)은 음성인식모드의 활성화 여부에 무관하게, 후방프레임(110) 또는 전방프레임(120)의 회전에 응답하여 동작한다.
도 13은 도 1의 오디오장치의 서브모듈(100)에서 사용자가 전방프레임(120)을 회전시키는 모습을 나타내는 사시도이다.
도 13에 도시된 바와 같이, 서브모듈(100)은 사용자가 전방프레임(120)을 회전시키는 것에 응답하여, 현재 재생되고 있는 음성데이터의 카테고리 채널을 전환한다. 서브모듈(100)은 현재 음성데이터가 재생되고 있는 제1카테고리를 제2카테고리로 전환하고, 제2카테고리 내의 음성데이터를 재생한다. 제2카테고리 내에 복수의 음성데이터 파일이 있는 경우에는, 기 설정된 순서에 따라서 음성데이터 파일을 선택한다.
제2카테고리 내에 음성데이터 파일이 복수 개 있는 경우에, 전환 재생할 파일을 선택하는 순서는 여러 가지 방법이 있다. 한 가지 예시로는, 제2카테고리 내 음성데이터 파일이 다양한 패러미터에 따라서 소정의 순서대로 배열된 상태에서, 항상 첫 번째 순서의 파일이 선택될 수 있다. 이러한 패러미터의 예를 들면, 파일명, 파일수정시간, 파일생성시간, 또는 음성데이터 파일이 음악 컨텐츠인 경우에는 아티스트명 등이 가능하다.
다른 한 가지 예시로는, 제2카테고리 내 음성데이터 파일이 특정 순서대로 배열된 상태에서, 시간적으로 가장 근접한 이전 시점에 재생되었던 파일이 선택될 수 있다. 이러한 선택을 위해서는 사용 이력이 저장되고 서브모듈(100)이 저장된 사용 이력을 호출할 수 있어야 하는데, 사용 이력은 서브모듈(100) 내에 저장될 수 있고, 또는 서브모듈(100)이 음성데이터를 수신하는 외부장치에 저장될 수도 있다.
이하, 음성데이터 파일의 카테고리를 전환하는 원리에 관해 설명한다.
도 14는 도 1의 오디오장치의 서브모듈(100)이 외부장치(30)로부터 수신되는 음성데이터의 카테고리를 전환하는 원리를 나타내는 예시도이다.
도 14에 도시된 바와 같이, 외부장치(30)는 복수의 카테고리 별로 음성데이터 파일을 저장한다. 서브모듈(100)은 외부장치(30)와 통신함으로써, 음성재생모드에서 외부장치(30)로부터 음성데이터 파일을 수신할 수 있다.
S310 단계에서 서브모듈(100)은 사용자로부터 음성재생 지시를 수신한다.
S320 단계에서 서브모듈(100)은 사용 이력(610)을 호출하고, 사용 이력(610)에서 지시하는 A 카테고리의 A01 파일을 외부장치(30)에 요청한다. 사용 이력(610)은 서브모듈(100), 외부장치(30) 또는 별도의 장치에 저장될 수 있다.
S330 단계에서 외부장치(30)는 서브모듈(100)으로부터의 요청에 응답하여, 기 저장된 복수의 카테고리 중에서 A 카테고리의 A01 파일을 서브모듈(100)에 전송한다. 이에, 서브모듈(100)은 A 카테고리의 A01 파일을 재생한다.
본 실시예에서는 서브모듈(100)이 하나의 파일을 외부장치(30)에 요청하고, 외부장치(30)가 본 요청에 대응하는 하나의 파일을 서브모듈(100)에 전송하는 것으로 설명하였으나, 반드시 이러한 1:1의 대응만이 있는 것은 아니며, 1:N, N:1, N:N 등의 대응도 가능하다. 여기서, N은 양의 정수이다. 예를 들면, 서브모듈(100)이 A 카테고리의 A01 파일을 요청하면, 외부장치(30)는 A 카테고리 내에서 A01 파일 및 그 아래 순서의 소정 개수의 파일을 함께 서브모듈(100)에 전송하는 1:N의 대응이 수행될 수 있다.
한편, S340 단계에서 서브모듈(100)은 사용자로부터 현재 재생 카테고리를 A 카테고리로부터 B 카테고리로 전환하는 지시를 수신한다. 이와 같은 전환 지시는, 앞선 도 13과 관련하여 설명한 방식으로 수행될 수 있다.
S350 단계에서 서브모듈(100)은 사용 이력(610)을 호출하고, 사용 이력(610)에서 B 카테고리 내의 음성데이터 파일 중 가장 최근 시점에 재생된 B02 파일을 확인하고, B 카테고리의 B02 파일을 외부장치(30)에 요청한다.
S360 단계에서 외부장치(30)는 서브모듈(100)로부터의 요청에 응답하여, A 카테고리 대신 B 카테고리를 선택하고, B 카테고리의 B02 파일을 서브모듈(100)에 전송한다.
이에, 서브모듈(100)은 B02 파일을 재생한다.
한편, 서브모듈(100)은 음성인식모드가 활성화된 동안에, 마이크로폰을 통해 입력되는 사용자의 발화를 인식하고, 인식된 발화의 명령어 내용에 응답하여 동작할 수 있다. 음성인식모드에서는 사용자의 발화 내용을 인식하므로, 서브모듈(100)은 사용자가 직접 서브모듈(100)을 조작하는 경우에 비해 보다 복잡하여 정교한 여러 기능을 지원할 수 있다. 음성인식모드 하에서 서브모듈(100)이 제공 가능한 기능으로는, 모바일 폰을 통해 통화를 하는 기능, 허브를 통해 타 기기의 동작을 제어하는 기능 등이 있다.
이하, 서브모듈(100)이 모바일 폰에 접속하여 타 모바일 폰에 메시지를 전송하는 실시예에 관해 설명한다.
도 15는 도 1의 오디오장치의 서브모듈(100)이 모바일 폰(700)을 통해 메시지를 보내는 방법을 나타내는 예시도이다.
도 15에 도시된 바와 같이, S410 단계에서 서브모듈(100)은 모바일 폰(700)과 통신 가능하도록 페어링을 수행한다.
S420 단계에서 서브모듈(100)은 사용자(U)로부터 메시지 전송준비 지시를 수신한다. 메시지 전송준비 지시는 사용자(U)의 발화에 의해 서브모듈(100)에 입력되며, 기본적으로 메시지를 전송할 대상을 특정하는 정보를 포함한다. 이러한 정보는, 예를 들면 모바일 폰(700)에 등록된 전화번호에 대응하도록 저장된 이름, 별명일 수 있다.
S430 단계에서 서브모듈(100)은 메시지 전송준비 지시가 특정하는 대상의 연락처 정보를 모바일 폰(700)으로부터 취득한다. 예를 들면, 서브모듈(100)은 모바일 폰(700)에 저장된 여러 사람들의 전화번호를 취득하고, 이 중에서 메시지 전송 지시가 특정하는 대상의 전화번호를 검색한다.
S440 단계에서 서브모듈(100)은 취득한 연락처 정보를 표시한다. 이로써, 사용자는 서브모듈(100)이 메시지 전송준비 지시가 특정하는 대상을 맞게 인식하였는지 확인할 수 있다.
S450 단계에서 서브모듈(100)은 사용자(U)로부터 메시지 내용 입력을 수신한다. 메시지 내용 입력은, 메시지 전송준비 지시에 의해 특정된 연락처로 보낼 메시지의 본 내용을 입력하는 것으로서, 사용자(U)의 발화에 의해 서브모듈(100)에 입력된다.
S460 단계에서 서브모듈(100)은 메시지 내용을 모바일 폰(700)에 전송한다.
S470 단계에서 모바일 폰(700)은 수신된 내용의 메시지를 해당 연락처로 전송한다. 이러한 메시지는, 예를 들면 SMS(short message service), 인스턴트 메시지, 이메일 등을 통해 전송될 수 있다.
이로써, 서브모듈(100)은 모바일 폰(700)을 통해 사용자의 음성으로 입력된 메시지를 전송할 수 있다.
이하, 서브모듈(100)이 모바일 폰에 접속하여 타 모바일 폰에 메시지를 전송하는 실시예에 관해 설명한다.
도 16은 도 1의 오디오장치의 서브모듈(100)이 모바일 폰(700)을 통해 통화하는 방법을 나타내는 예시도이다.
도 16에 도시된 바와 같이, S510 단계에서 서브모듈(100)은 모바일 폰(700)과 통신 가능하도록 페어링을 수행한다.
S520 단계에서 서브모듈(100)은 사용자(U)로부터 대상지정 지시를 수신한다. 대상지정 지시는, 서브모듈(100)이 모바일 폰(700)을 통해 통화할 대상을 특정하는 정보를 포함하며, 사용자(U)의 발화에 의해 서브모듈(100)에 입력된다.
S530 단계에서 서브모듈(100)은 대상지정 지시가 특정하는 대상의 연락처 정보를 취득하고, S540 단계에서 이 취득한 정보를 표시한다.
S550 단계에서 사용자(U)로부터 확인 지시가 수신되면, S560 단계에서 서브모듈(100)은 모바일 폰(700)에 연락처로 다이얼링 지시를 전송한다.
S570 단계에서 모바일 폰(700)은 다이얼링 지시에 따라서 해당 연락처로 다이얼링을 수행한다. 이 동안, 서브모듈(100)은 다이얼링이 수행되고 있음을 알리는 메시지를 표시할 수 있다.
모바일 폰(700)은 다이얼링이 성공하면, S580 단계에서 해당 연락처의 타 모바일 폰으로부터 수신되는 음성신호를 서브모듈(100)에 전달함으로써, 해당 음성신호가 서브모듈(100)의 스피커로부터 출력되게 한다. 또한, 모바일 폰(700)은 S590 단계에서 서브모듈(100)으로부터 수신되는 음성신호를 타 모바일 폰에 전송한다.
이로써, 서브모듈(100)은 사용자(U)의 음성 지시에 의해, 모바일 폰(700)을 통해 타 모바일 폰과 통화하도록 할 수 있다.
이하, 서브모듈(100)이 허브를 통해 사물인터넷 구조에서 타 외부기기를 제어하는 예시에 관해 설명한다.
도 17은 도 1의 오디오장치의 서브모듈(100)이 허브(710)를 통해 외부기기(720)를 제어하는 방법을 나타내는 예시도이다.
도 17에 도시된 바와 같이, 서브모듈(100)은 허브(710)를 통해 외부기기(720)의 동작을 제어할 수 있도록 마련된다. 허브(710)는 기본적으로 서브모듈(100) 및 외부기기(720) 등 다양한 장치들, 즉 사물들을 공통적인 프로토콜 기반의 단위 네트워크로 묶는다.
여기서, 공통적인 프로토콜이라는 의미에 관해 설명한다. 복수의 사물들이 하나의 단위 네트워크로 묶이기 위해서는, 단순히 사물들 사이의 상호 통신이 가능하게 마련되는 것 뿐만 아니라, 사물들 사이에 송수신되는 명령어를 상호간에 인식 및 처리 가능해야 한다. 여기서, 사물은 전자장치를 포함할 수 있다. 이를 위하여, 하나의 단위 네트워크 내의 사물들은 공통되거나 또는 상호 호환되는 어플리케이션 또는 플랫폼 상에서 동작한다. 예를 들어 어느 특정 플랫폼 상에서 동작하는 전송측의 사물이 허브를 통해 수신측의 사물에 신호를 전송하는 경우를 고려한다. 이 경우에, 수신측의 사물이 전송측의 사물과 공통된 플랫폼 상에서 동작한다면, 수신되는 신호를 인식 및 처리할 수 있다. 이와 같이 복수의 사물이 공통되거나 상호 호환되는 어플리케이션 또는 플랫폼에 의해 동작할 때, 각 사물은 공통적인 프로토콜 기반으로 동작한다고 말할 수 있다.
사물은 TV, 전자액자와 같이 영상을 표시하는 디스플레이장치나, 셋탑박스와 같이 직접 영상을 표시하지 않고 영상신호를 처리하는 영상처리장치나, 세탁기, 냉장고, 공기조화기와 같은 일반 가전기기나, 프린터, 복사기, 스캐너와 같은 사무기기나, 전구, 전열기와 같은 기타 장치 등으로 구현될 수 있으며, 또는 센서가 설치된 다양한 형태의 웨어러블 디바이스 또는 모바일 디바이스로 구현될 수 있다.
한 가지 예시로서 외부기기(720)가 보일러이고, 사용자가 보일러의 온도를 맞추고자 하는 경우를 고려한다. 이 경우에, 사용자는 예를 들어 "온도를 70도로 맞춰"라고 발화하면, 서브모듈(100)은 사용자 발화를 인식하여 발화 내용을 분석한다. 분석 결과에 따라서, 서브모듈(100)은 사용자 발화의 명령어가 지시하는 대상 및 내용을 도출한다. 본 예시의 경우에, 서브모듈(100)은 지시 대상이 보일러인 외부기기(720)이며, 지시 내용이 온도를 70도로 조정하는 것임을 도출할 수 있다.
서브모듈(100)은 외부기기(720)가 온도를 70도로 조정하도록 지시하는 명령어를 허브(710)를 통해 외부기기(720)에 전송한다.
외부기기(720)는 허브(710)를 통해 서브모듈(100)으로부터 수신되는 명령어를 해석하고, 명령어에 따라서 온도를 70도로 조정한다. 그리고, 외부기기(720)는 명령어가 정상적으로 수행되었음을 알리는 응답을 허브(710)를 통해 서브모듈(100)에 전송한다.
서브모듈(100)은 외부기기(720)로부터의 응답을 수신하면, 온도가 70도로 설정되었음을 알리는 메시지(630)를 표시한다.
이와 같이, 서브모듈(100)은 사물인터넷 구조 하의 외부기기(720)의 동작을 제어할 수 있다.
본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 예를 들어, 컴퓨터 판독 가능 매체는 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 이동 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 본 저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어의 기술 분야에서 숙련된 기술자에게 공지되어 사용 가능한 것일 수도 있다.
상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술 분야의 통상의 지식을 가진 자라면 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 정해져야 할 것이다.
1 : 오디오장치
100, 200, 300, 400 : 서브모듈
110 : 후방프레임
120 : 전방프레임
123 : 인디케이터 링
125 : 토글 버튼
130 : 디스플레이부
140 : 스피커
150 : 마이크로폰
160 : 통신부
170 : 저장부
180 : 신호처리부

Claims (20)

  1. 오디오장치에 있어서,
    음성을 출력하게 마련된 스피커 및 통신을 수행하는 통신부를 각기 포함하고, 상호 분리된 복수의 서브모듈을 포함하며,
    상기 복수의 서브모듈 중 제1서브모듈은,
    상기 제1서브모듈의 스피커를 통해 음성이 출력되게 음성신호를 처리하며, 상기 복수의 서브모듈 각각에 대한 사용자의 위치를 판단하고, 상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태가 상기 판단한 사용자의 위치에 대응하여 변경되도록 처리하는 프로세서를 포함하는 것을 특징으로 하는 오디오장치.
  2. 제1항에 있어서,
    상기 프로세서는, 상기 복수의 서브모듈 사이의 거리들에 기초하여 상기 서브모듈들의 위치에 따른 영역을 설정하고, 상기 설정된 영역 상에서 상기 사용자의 위치를 판단하는 것을 특징으로 하는 오디오장치.
  3. 제2항에 있어서,
    상기 제1서브모듈은 음성이 입력되게 마련된 마이크로폰을 더 포함하며,
    상기 프로세서는, 상기 제1서브모듈의 상기 스피커를 통해 출력되는 초음파가 상기 복수의 서브모듈 중 제2서브모듈에 의해 반사되어 상기 제1서브모듈의 상기 마이크로폰에 수신되는 소요시간에 기초하여, 상기 제1서브모듈 및 상기 제2서브모듈 사이의 거리를 판단하는 것을 특징으로 하는 오디오장치.
  4. 제2항에 있어서,
    상기 프로세서는, 상기 제1서브모듈의 상기 통신부를 통해 상기 복수의 서브모듈 중 제2서브모듈 또는 제3서브모듈로부터, 상기 제2서브모듈 및 상기 제3서브모듈 사이의 거리 정보를 수신하는 것을 특징으로 하는 오디오장치.
  5. 제2항에 있어서,
    상기 프로세서는, 상기 설정된 영역 상에서 각각의 상기 서브모듈 대비 상기 사용자의 각도를 산출함으로써, 상기 사용자의 위치를 판단하는 것을 특징으로 하는 오디오장치.
  6. 제5항에 있어서,
    상기 제1서브모듈은 음성이 입력되게 마련된 둘 이상의 마이크로폰을 더 포함하며,
    상기 프로세서는, 상기 둘 이상의 마이크로폰에 각기 수신되는 음성의 위상차에 기초하여 상기 사용자의 위치를 판단하는 것을 특징으로 하는 오디오장치.
  7. 제1항에 있어서,
    상기 프로세서는, 상기 판단한 사용자의 위치에 대응하여 상기 음성신호 내의 복수의 채널 중 어느 하나를 선택하고, 선택한 어느 하나의 상기 채널의 볼륨이 상기 복수의 채널 중 나머지의 볼륨과 상이하도록 조정하는 것을 특징으로 하는 오디오장치.
  8. 제1항에 있어서,
    상기 프로세서는, 상기 판단한 사용자의 위치에 대응하여 상기 스피커를 통해 출력되는 상기 음성의 볼륨을 조정하는 것을 특징으로 하는 오디오장치.
  9. 제1항에 있어서,
    상기 제1서브모듈은,
    상기 음성신호의 관련 정보를 표시하게 마련된 디스플레이부와;
    음성이 입력되게 마련된 마이크로폰을 더 포함하며,
    상기 프로세서는, 상기 판단한 사용자의 위치가 제2서브모듈보다 상기 제1서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰을 활성화시키고, 상기 판단한 사용자의 위치가 상기 제1서브모듈보다 상기 제2서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰 중 적어도 어느 하나를 비활성화시키는 것을 특징으로 하는 오디오장치.
  10. 제1항에 있어서,
    상기 제1서브모듈은 상기 사용자의 발화가 입력되게 마련된 마이크로폰을 더 포함하며,
    상기 프로세서는, 상기 제1서브모듈의 상기 통신부를 통해 접속 가능한 모바일 폰으로부터 상기 마이크로폰을 통해 입력되는 상기 발화가 지정하는 연락처 정보를 검색하고, 상기 모바일 폰을 통해 상기 검색된 연락처 정보로 다이얼링하게 처리하는 것을 특징으로 하는 오디오장치.
  11. 상호 분리된 복수의 서브모듈을 포함하는 오디오장치의, 상기 복수의 서브모듈 중 제1서브모듈의 프로세서에 의해 실행 및 처리 가능하도록 마련된 방법의 프로그램 코드를 저장하는 컴퓨터 독취가능 매체에 있어서,
    상기 방법은,
    음성신호를 처리하여 상기 제1서브모듈의 스피커를 통해 음성을 출력하는 단계와;
    상기 복수의 서브모듈 각각에 대한 사용자의 위치를 판단하는 단계와;
    상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태를 상기 판단한 사용자의 위치에 대응하여 변경하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  12. 제11항에 있어서,
    상기 복수의 서브모듈 각각에 대한 상기 사용자의 위치를 판단하는 단계는,
    상기 복수의 서브모듈 사이의 거리들에 기초하여 상기 서브모듈들의 위치에 따른 영역을 설정하는 단계와;
    상기 설정된 영역 상에서 상기 사용자의 위치를 판단하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  13. 제12항에 있어서,
    상기 서브모듈들의 위치에 따른 상기 영역을 설정하는 단계는,
    상기 제1서브모듈의 상기 스피커를 통해 출력되는 초음파가 상기 복수의 서브모듈 중 제2서브모듈에 의해 반사되어 상기 제1서브모듈의 마이크로폰에 수신되는 소요시간에 기초하여, 상기 제1서브모듈 및 상기 제2서브모듈 사이의 거리를 판단하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  14. 제12항에 있어서,
    상기 서브모듈들의 위치에 따른 상기 영역을 설정하는 단계는,
    상기 복수의 서브모듈 중 제2서브모듈 또는 제3서브모듈로부터, 상기 제2서브모듈 및 상기 제3서브모듈 사이의 거리 정보를 수신하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  15. 제12항에 있어서,
    상기 설정된 영역 상에서 상기 사용자의 위치를 판단하는 단계는,
    상기 설정된 영역 상에서 각각의 상기 서브모듈 대비 상기 사용자의 각도를 산출함으로써, 상기 사용자의 위치를 판단하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  16. 제15항에 있어서,
    상기 각각의 상기 서브모듈 대비 상기 사용자의 각도를 산출함으로써 상기 사용자의 위치를 판단하는 단계는,
    상기 제1서브모듈에 마련된 둘 이상의 마이크로폰에 각기 수신되는 음성의 위상차에 기초하여 상기 사용자의 위치를 판단하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  17. 제11항에 있어서,
    상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태를 상기 판단한 사용자의 위치에 대응하여 변경하는 단계는,
    상기 판단한 사용자의 위치에 대응하여 상기 음성신호 내의 복수의 채널 중 어느 하나를 선택하고, 선택한 어느 하나의 상기 채널의 볼륨이 상기 복수의 채널 중 나머지의 볼륨과 상이하도록 조정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  18. 제11항에 있어서,
    상기 제1서브모듈의 상기 스피커를 통한 음성의 출력 상태를 상기 판단한 사용자의 위치에 대응하여 변경하는 단계는,
    상기 판단한 사용자의 위치에 대응하여 상기 음성의 볼륨을 조정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  19. 제11항에 있어서,
    상기 제1서브모듈은,
    상기 음성신호의 관련 정보를 표시하게 마련된 디스플레이부와;
    음성이 입력되게 마련된 마이크로폰을 더 포함하며,
    상기 판단한 사용자의 위치가 제2서브모듈보다 상기 제1서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰을 활성화시키는 단계와;
    상기 판단한 사용자의 위치가 상기 제1서브모듈보다 상기 제2서브모듈에 근접하다고 판단되면 상기 디스플레이부 및 상기 마이크로폰 중 적어도 어느 하나를 비활성화시키는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
  20. 제11항에 있어서,
    모바일 폰에 접속하고, 상기 모바일 폰으로부터 상기 제1서브모듈의 마이크로폰을 통해 입력되는 사용자 발화가 지정하는 연락처 정보를 검색하는 단계와;
    상기 모바일 폰을 통해 상기 검색된 연락처 정보로 다이얼링하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 독취가능 매체.
KR1020160154413A 2015-11-18 2016-11-18 오디오장치 및 그 제어방법 KR102674808B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562256958P 2015-11-18 2015-11-18
US62/256,958 2015-11-18
US15/350,631 US10154358B2 (en) 2015-11-18 2016-11-14 Audio apparatus adaptable to user position
US15/350,631 2016-11-14

Publications (2)

Publication Number Publication Date
KR20170058321A true KR20170058321A (ko) 2017-05-26
KR102674808B1 KR102674808B1 (ko) 2024-06-14

Family

ID=58690676

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160154413A KR102674808B1 (ko) 2015-11-18 2016-11-18 오디오장치 및 그 제어방법

Country Status (5)

Country Link
US (4) US10154358B2 (ko)
EP (1) EP4235208A3 (ko)
KR (1) KR102674808B1 (ko)
CN (1) CN109844690B (ko)
WO (1) WO2018088609A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112646A1 (ko) * 2019-12-06 2021-06-10 엘지전자 주식회사 무선 통신 시스템에서 근거리 무선 통신을 이용한 오디오 데이터 전송 방법 및 이에 대한 장치
WO2024106883A1 (ko) * 2022-11-16 2024-05-23 삼성전자주식회사 전자 장치 및 그 음향 출력 방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10154358B2 (en) 2015-11-18 2018-12-11 Samsung Electronics Co., Ltd. Audio apparatus adaptable to user position
WO2018041801A1 (en) * 2016-08-29 2018-03-08 Zound Industries International Ab Audio device and a system of audio devices
US10621980B2 (en) * 2017-03-21 2020-04-14 Harman International Industries, Inc. Execution of voice commands in a multi-device system
CN107071632A (zh) * 2017-06-16 2017-08-18 苏州美声电子有限公司 一种语音音箱
US10460527B2 (en) * 2017-06-30 2019-10-29 Tobii Ab Systems and methods for displaying images in a virtual world environment
US10599377B2 (en) * 2017-07-11 2020-03-24 Roku, Inc. Controlling visual indicators in an audio responsive electronic device, and capturing and providing audio using an API, by native and non-native computing devices and services
US10474417B2 (en) * 2017-07-20 2019-11-12 Apple Inc. Electronic device with sensors and display devices
US11062710B2 (en) 2017-08-28 2021-07-13 Roku, Inc. Local and cloud speech recognition
US11062702B2 (en) 2017-08-28 2021-07-13 Roku, Inc. Media system with multiple digital assistants
US10777197B2 (en) 2017-08-28 2020-09-15 Roku, Inc. Audio responsive device with play/stop and tell me something buttons
US10306394B1 (en) * 2017-12-29 2019-05-28 Samsung Electronics Co., Ltd. Method of managing a plurality of devices
US11145298B2 (en) 2018-02-13 2021-10-12 Roku, Inc. Trigger word detection with multiple digital assistants
US11172293B2 (en) * 2018-07-11 2021-11-09 Ambiq Micro, Inc. Power efficient context-based audio processing
WO2020030303A1 (en) * 2018-08-09 2020-02-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An audio processor and a method for providing loudspeaker signals
CN109284081B (zh) * 2018-09-20 2022-06-24 维沃移动通信有限公司 一种音频的输出方法、装置及音频设备
CN109660929B (zh) * 2018-12-24 2021-06-11 广州励丰文化科技股份有限公司 一种基于电子标签的语音播放方法及装置
US10817246B2 (en) * 2018-12-28 2020-10-27 Baidu Usa Llc Deactivating a display of a smart display device based on a sound-based mechanism
US11653148B2 (en) * 2019-07-22 2023-05-16 Apple Inc. Modifying and transferring audio between devices
CN110996217B (zh) * 2019-11-28 2021-08-24 荣成歌尔科技有限公司 音箱声道的选择方法、装置及音箱
TWI741549B (zh) * 2020-03-31 2021-10-01 和碩聯合科技股份有限公司 揚聲裝置及調整揚聲裝置的播音方向的方法
US11877058B1 (en) 2022-08-25 2024-01-16 Benjamin Slotznick Computer program product and automated method for auto-focusing a camera on a person in a venue who is wearing, or carrying, or holding, or speaking into a microphone at the venue
US11601731B1 (en) * 2022-08-25 2023-03-07 Benjamin Slotznick Computer program product and method for auto-focusing a camera on an in-person attendee who is speaking into a microphone at a hybrid meeting that is being streamed via a videoconferencing system to remote attendees
US11902659B1 (en) 2022-08-25 2024-02-13 Benjamin Slotznick Computer program product and method for auto-focusing a lighting fixture on a person in a venue who is wearing, or carrying, or holding, or speaking into a microphone at the venue
US11889187B1 (en) 2022-08-25 2024-01-30 Benjamin Slotznick Computer program product and method for auto-focusing one or more lighting fixtures on selected persons in a venue who are performers of a performance occurring at the venue
US11889188B1 (en) 2022-08-25 2024-01-30 Benjamin Slotznick Computer program product and method for auto-focusing one or more cameras on selected persons in a venue who are performers of a performance occurring at the venue

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4027338C2 (de) 1990-08-29 1996-10-17 Drescher Ruediger Balanceregelung für Stereoanlagen mit wenigstens zwei Lautsprechern
US6859417B1 (en) 1999-05-07 2005-02-22 Micron Technology, Inc. Range finding audio system
US7444353B1 (en) * 2000-01-31 2008-10-28 Chen Alexander C Apparatus for delivering music and information
SE518418C2 (sv) * 2000-12-28 2002-10-08 Ericsson Telefon Ab L M Ljudbaserad närhetsdetektor
US6952672B2 (en) 2001-04-25 2005-10-04 International Business Machines Corporation Audio source position detection and audio adjustment
US20090017791A1 (en) 2002-04-03 2009-01-15 Bruno Gros Interactive communication device
US7259906B1 (en) 2002-09-03 2007-08-21 Cheetah Omni, Llc System and method for voice control of medical devices
EP2544101A1 (en) 2002-11-28 2013-01-09 Nuance Communications Austria GmbH Method to assign word class information
US7295664B1 (en) * 2003-01-15 2007-11-13 Verizon Data Services Inc. Automated telephone attendant
US7613313B2 (en) * 2004-01-09 2009-11-03 Hewlett-Packard Development Company, L.P. System and method for control of audio field based on position of user
US20070172083A1 (en) * 2006-01-25 2007-07-26 Cheng-Te Tseng Method and apparatus for controlling a gain of a voice signal
US8611876B2 (en) * 2009-10-15 2013-12-17 Larry Miller Configurable phone with interactive voice response engine
US8219394B2 (en) * 2010-01-20 2012-07-10 Microsoft Corporation Adaptive ambient sound suppression and speech tracking
US20150279354A1 (en) 2010-05-19 2015-10-01 Google Inc. Personalization and Latency Reduction for Voice-Activated Commands
EP2572212B1 (en) 2010-05-20 2013-12-25 Koninklijke Philips N.V. Distance estimation using sound signals
EP2498481A1 (en) * 2011-03-09 2012-09-12 Sensirion AG Mobile phone with humidity sensor
US20120259544A1 (en) 2011-04-05 2012-10-11 Christopher Evan Watson Feature Location and Resource Management System and Method
WO2013022483A1 (en) * 2011-08-05 2013-02-14 Thomson Licensing Methods and apparatus for automatic audio adjustment
CN103139351B (zh) * 2011-11-24 2016-10-05 联想(北京)有限公司 音量控制方法、装置及通信终端
CN103634720A (zh) * 2012-08-21 2014-03-12 联想(北京)有限公司 播放控制的方法及电子设备
CN103676827A (zh) 2012-09-06 2014-03-26 Ip音乐集团有限公司 用于远程控制音频设备的系统和方法
US9232337B2 (en) * 2012-12-20 2016-01-05 A-Volute Method for visualizing the directional sound activity of a multichannel audio signal
CN103024193A (zh) * 2012-12-25 2013-04-03 北京百度网讯科技有限公司 用于移动终端的播放控制方法、装置和移动终端
CN104010251B (zh) * 2013-02-27 2018-06-19 晨星半导体股份有限公司 收音系统与相关方法
EP3879523A1 (en) * 2013-03-05 2021-09-15 Apple Inc. Adjusting the beam pattern of a plurality of speaker arrays based on the locations of two listeners
US9191914B2 (en) 2013-03-15 2015-11-17 Comcast Cable Communications, Llc Activating devices based on user location
TW201442481A (zh) * 2013-04-30 2014-11-01 Chi Mei Comm Systems Inc 音頻處理系統及方法
KR20140137080A (ko) * 2013-05-22 2014-12-02 (주)정직한기술 무선 리모컨 기능을 갖는 ip 카메라를 이용한 전자기기의 제어 방법
US9215545B2 (en) 2013-05-31 2015-12-15 Bose Corporation Sound stage controller for a near-field speaker-based audio system
CN103327186A (zh) * 2013-06-20 2013-09-25 张家港保税区润桐电子技术研发有限公司 一种手机音乐播放器的控制方法
US9432791B2 (en) 2013-12-11 2016-08-30 Harman International Industries, Inc. Location aware self-configuring loudspeaker
KR102170398B1 (ko) * 2014-03-12 2020-10-27 삼성전자 주식회사 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치
US9712940B2 (en) * 2014-12-15 2017-07-18 Intel Corporation Automatic audio adjustment balance
US10595147B2 (en) * 2014-12-23 2020-03-17 Ray Latypov Method of providing to user 3D sound in virtual environment
CN107431860B (zh) * 2015-03-12 2020-11-13 北京四达时代软件技术股份有限公司 基于位置服务的音频系统
CN104967953B (zh) * 2015-06-23 2018-10-09 Tcl集团股份有限公司 一种多声道播放方法和系统
US10154358B2 (en) * 2015-11-18 2018-12-11 Samsung Electronics Co., Ltd. Audio apparatus adaptable to user position
CN205610909U (zh) * 2016-05-12 2016-09-28 歌尔股份有限公司 一种智能设备
US10034111B1 (en) * 2017-05-11 2018-07-24 Stmicroelectronics, Inc. TOF based gain control

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112646A1 (ko) * 2019-12-06 2021-06-10 엘지전자 주식회사 무선 통신 시스템에서 근거리 무선 통신을 이용한 오디오 데이터 전송 방법 및 이에 대한 장치
US11622196B2 (en) 2019-12-06 2023-04-04 Lg Electronics Inc. Method for transmitting audio data by using short-range wireless communication in wireless communication system, and apparatus for same
WO2024106883A1 (ko) * 2022-11-16 2024-05-23 삼성전자주식회사 전자 장치 및 그 음향 출력 방법

Also Published As

Publication number Publication date
US20200059744A1 (en) 2020-02-20
EP4235208A3 (en) 2023-09-20
CN109844690B (zh) 2022-11-18
US10499172B2 (en) 2019-12-03
EP4235208A2 (en) 2023-08-30
US20210037337A1 (en) 2021-02-04
US20190069109A1 (en) 2019-02-28
US20170142533A1 (en) 2017-05-18
KR102674808B1 (ko) 2024-06-14
WO2018088609A1 (en) 2018-05-17
US10154358B2 (en) 2018-12-11
CN109844690A (zh) 2019-06-04
US11272302B2 (en) 2022-03-08
US10827291B2 (en) 2020-11-03

Similar Documents

Publication Publication Date Title
KR102674808B1 (ko) 오디오장치 및 그 제어방법
US9036856B2 (en) Sound reproduction device
JP4304627B2 (ja) 音響システム
US10824277B2 (en) Electrical device with piezoelectric elements communicating haptically and audibly with user
KR102538775B1 (ko) 오디오 재생 방법 및 오디오 재생 장치, 전자 기기 및 저장 매체
AU2013211541B2 (en) Mobile apparatus and control method thereof
US9467759B2 (en) Speaker box
KR20180076830A (ko) 오디오 장치 및 그 제어방법
KR20180010866A (ko) 이동 단말기
CN109218913B (zh) 声音调节方法、终端设备和具有存储功能的装置
KR101609777B1 (ko) 이어폰 탈착 판별 장치, 방법, 및 이어폰 탈착 판별 방법을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터 판독가능한 기록매체
CN108777727B (zh) 一种电路控制方法及移动终端
KR102571518B1 (ko) 복수의 스피커를 포함하는 전자 장치
KR20190105857A (ko) 스피커의 온도를 감지하기 위한 전자 장치 및 그의 동작 방법
US20070041598A1 (en) System for location-sensitive reproduction of audio signals
CN112256230A (zh) 菜谱交互方法及系统、存储介质
CN112689051A (zh) 音频播放控制方法、装置、移动终端及存储介质
CN111866226B (zh) 终端及发声方法
KR102536323B1 (ko) 스피커 장치 및 그 제어 방법
CN111479193A (zh) 一种振动发声装置及方法
CN109587597B (zh) 一种组合音箱的交互控制方法、装置及组合音箱
CN105554630A (zh) 受话器、音频播放方法及装置、电子设备
EP3476134A1 (en) Audio apparatus adaptable to user position
CN113709281A (zh) 控制方法、电子设备和外放系统
KR20160049965A (ko) 환경 상황 적응 방식의 청력 보조 기기 및 멀티미디어 장치 연계를 위한 청력 보조 기기의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)