KR20170022727A - 전자 장치의 음향 처리 방법 및 그 전자 장치 - Google Patents

전자 장치의 음향 처리 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20170022727A
KR20170022727A KR1020150118088A KR20150118088A KR20170022727A KR 20170022727 A KR20170022727 A KR 20170022727A KR 1020150118088 A KR1020150118088 A KR 1020150118088A KR 20150118088 A KR20150118088 A KR 20150118088A KR 20170022727 A KR20170022727 A KR 20170022727A
Authority
KR
South Korea
Prior art keywords
sound
electronic device
image
processor
subject
Prior art date
Application number
KR1020150118088A
Other languages
English (en)
Other versions
KR102339798B1 (ko
Inventor
김준태
배민호
최현민
고한호
김강열
양재모
최철민
손백권
이남일
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150118088A priority Critical patent/KR102339798B1/ko
Priority to US15/187,271 priority patent/US9967658B2/en
Priority to EP16181106.2A priority patent/EP3142352B1/en
Priority to PCT/KR2016/008294 priority patent/WO2017034166A1/en
Priority to CN201680040358.4A priority patent/CN107852440B/zh
Publication of KR20170022727A publication Critical patent/KR20170022727A/ko
Application granted granted Critical
Publication of KR102339798B1 publication Critical patent/KR102339798B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • H04M1/72522
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06K9/00221
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2400/00Loudspeakers
    • H04R2400/01Transducers used as a loudspeaker to generate sound aswell as a microphone to detect sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Networks & Wireless Communication (AREA)

Abstract

다양한 실시 예에 따르면 전자 장치에 있어서, 카메라 모듈; 및 프로세서를 포함하고, 상기 프로세서는, 상기 카메라 모듈을 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하고; 상기 영상이 촬영되는 적어도 일시 동안, 상기 프로세서와 기능적으로 연결된 마이크를 이용하여 음향을 획득하고; 상기 음향이 상기 피사체와 관련되는 지를 결정하고; 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하도록 설정될 수 있다. 다른 실시 예가 가능하다.

Description

전자 장치의 음향 처리 방법 및 그 전자 장치{METHOD FOR PROCESSING SOUND OF ELECTRONIC DEVICE AND ELECTRONIC DEVICE THEREOF}
다양한 실시 예는 전자 장치의 음향 처리 방법 및 그 전자 장치에 관한 것이다.
스마트 폰(smart phone)의 등장 이후, 휴대 전화와 같은 전자 장치는 통화 기능뿐 아니라 다른 다양한 기능들이 구비되고 있다. 또한, 전자 장치의 다양한 기능들을 발전시키기 위한 노력이 이루어 지고 있다.
전자 장치의 다양한 기능들 중에서, 음향 녹음 기능 및/또는 동영상 촬영 기능(캠코더 기능)에서는, 전자 장치에 입력되는 음향 신호들 중 사용자가 원하는 음향 신호만을 사용자에게 제공하기 위한 다양한 기술들이 개발되고 있다. 예를 들어, 입력되는 음향 신호에서 불필요한 신호를 제거 또는 감소시키기 위한 다양한 전처리 기술들이 개발되고 있다.
일반적으로 동영상 촬영 시, 촬영자가 전자 장치를 파지하여 동영상 촬영을 진행한다. 이러한 경우, 전자 장치를 파지하는 촬영자의 음성 신호는 다른 음성 신호들보다 크게 입력될 수 있다. 도 13을 참조하면, 촬영자가 전자 장치를 이용하여 동영상을 촬영할 때, 촬영자와 전자 장치의 마이크간의 거리는 촬영 대상과 상기 전자 장치의 마이크 간의 거리보다 상대적으로 가까울 수 있다. 이에 따라, 전자 장치는, 전자 장치와의 거리가 가까운 촬영자의 음성을 크게 녹음하고, 상기 촬영자보다 전자 장치와의 거리가 상대적으로 먼 촬영 대상의 음성을 작게 녹음할 수 있다. 이에 따라, 촬영자의 음성과 촬영 대상의 음성의 세기 밸런스가 맞지 않는 문제가 발생할 수 있다.
또한, 전자 장치로부터 특정 방향의 사운드를 수신하는 목적으로 복수의 마이크들을 이용하여 수음 범위를 정하는 빔포밍 등의 알고리즘을 이용할 경우, 전자 장치에 실장되어 있는 제한된 마이크들의 개수(마이크들의 개수가 많지 않음)에 따라, 알고리즘의 구현이 어려울 수도 있다. 예를 들어, 촬영자와 촬영 대상을 구별하기 위해서는 마이크가 전자 장치의 앞이나 뒤에 실장되어야 하지만, 디자인, 실장 공간, 및 가격 등에 의해, 마이크 실장에 제약 사항이 많다. 이에 따라, 기존의 제한된 개수의 마이크들로 전자 장치를 파지하는 촬영자의 음성 신호와 촬영 대상의 음성 신호를 정확하게 분별하는 것에 한계가 있을 수 있다.
실시 예에 따른 전자 장치에 있어서, 카메라 모듈; 및 프로세서를 포함하고, 상기 프로세서는, 상기 카메라 모듈을 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하고; 상기 영상이 촬영되는 적어도 일시 동안, 상기 프로세서와 기능적으로 연결된 마이크를 이용하여 음향을 획득하고; 상기 음향이 상기 피사체와 관련되는 지를 결정하고; 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하도록 설정될 수 있다.
실시 예에 따른 전자 장치의 음향 처리 방법에 있어서, 전자 장치의 음향 처리 방법에 있어서, 상기 전자 장치와 기능적으로 연결된 카메라를 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하는 동작; 상기 영상이 촬영되는 적어도 일시 동안, 상기 전자 장치와 기능적으로 연결된 적어도 하나의 마이크를 이용하여 음향을 획득하는 동작; 상기 음향이 피사체와 관련되는 지를 결정하는 동작; 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하는 동작을 포함할 수 있다.
실시 예에 따른 전자 장치의 음향 처리 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은, 상기 전자 장치와 기능적으로 연결된 카메라를 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하는 동작; 상기 영상이 촬영되는 적어도 일시 동안, 상기 전자 장치와 기능적으로 연결된 적어도 하나의 마이크를 이용하여 음향을 획득하는 동작; 상기 음향이 피사체와 관련되는 지를 결정하는 동작; 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따른 전자 장치의 음향 처리 방법 및 그 전자 장치는, 전자 장치에 실장되어 있는 스피커 및/또는 리시버의 수음 기능을 활용하여, 전자 장치의 사운드 신호 수신 성능(예: 정확도, 또는 감도 등)을 향상시킬 수 있다. 또한, 추가로, 종래의 전자 장치에 실장된 전면 카메라(촬영자 측 카메라)를 활용하여, 전자 장치의 음향 신호 수신 성능을 향상시킬 수 있다. 예를 들어, 전자 장치가 동영상을 촬영하거나, 또는 사운드를 녹음할 때, 사운드의 세기 밸런스를 조절하여, 이를 통해 세기 밸런스가 맞는 음향 신호를 사용자에게 제공할 수 있다.
도 1은 다양한 실시 예에 따른 네트워크 환경을 도시한다.
도 2는 다양한 실시 예에 따른 전자 장치의 블록도를 도시한다.
도 3은 다양한 실시 예에 따른 프로그램 모듈의 블록도를 도시한다.
도 4는 다양한 실시 예에 따른 전자 장치(401)의 블록도(400)를 도시한다.
도 5는 다양한 실시 예에 따른 전자 장치(501)를 나타낸 도면이다.
도 6은 다양한 실시 예에 따른 전자 장치의 동영상 촬영 시 전면 카메라를 활용하는 방법의 일 예를 설명하기 위한 도면이다.
도 7은 다양한 실시 예에 따른 전자 장치(701)의 회로 블록도(700)를 도시한다.
도 8a는 다양한 실시 예에 따른 마이크 호환 가능한 스피커 회로 블록도를 도시한다.
도 8b는 다양한 실시 예에 따른 마이크 호환 가능한 리시버 회로 블록도를 도시한다.
도 9는 다양한 실시 예에 따른 전자 장치의 음향 처리 동작의 일 예를 나타낸 흐름도이다.
도 10은 다양한 실시 예에 따른 캠코더 실행 시의 전자 장치의 음향 처리 동작의 일 예를 나타낸 흐름도이다.
도 11은 다양한 실시 예에 따른 캠코더 실행 시의 전자 장치의 음향 처리 동작의 일 예를 나타낸 흐름도이다.
도 12는 다양한 실시 예에 따른 캠코더 실행 시의 전자 장치의 음향 처리 동작의 일 예를 나타낸 흐름도이다.
도 13은 종래의 전자 장치의 동영상 촬영을 설명하기 위한 도면이다.
이하, 본 문서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(110)는, 예를 들면, 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(application programming interface(API))(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.
또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어(143)는 상기 적어도 하나에 부여된 우선 순위에 따라 상기 하나 이상의 작업 요청들을 처리함으로써, 상기 하나 이상의 작업 요청들에 대한 스케쥴링 또는 로드 밸런싱 등을 수행할 수 있다.
API(145)는, 예를 들면, 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스(150)는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신(164)을 포함할 수 있다. 근거리 통신(164)은, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 한 실시예에 따르면, 서버(106)는 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP(application processor))(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈(220)은, 도 1의 통신 인터페이스(170)와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)를 포함할 수 있다.
셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(touch panel)(252),(디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다. 패널(262)은, 도 1의 디스플레이(160)와 동일 또는 유사한 구성을 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이(260)는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치(201)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.
프로그램 모듈(310)은 커널(320), 미들웨어(330), 어플리케이션 프로그래밍 인터페이스(application programming interface (API))(360), 및/또는 어플리케이션(370)을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드(download) 가능하다.
커널(320)(예: 커널(141))은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.
미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)(예: 미들웨어(143))는 런타임 라이브러리(335), 어플리케이션 매니저(application manager)(341), 윈도우 매니저(window manager)(342), 멀티미디어 매니저(multimedia manager)(343), 리소스 매니저(resource manager)(344), 파워 매니저(power manager)(345), 데이터베이스 매니저(database manager)(346), 패키지 매니저(package manager)(347), 연결 매니저(connectivity manager)(348), 통지 매니저(notification manager)(349), 위치 매니저(location manager)(350), 그래픽 매니저(graphic manager)(351), 또는 보안 매니저(security manager)(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370) 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370) 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저(345)는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저(346)는 어플리케이션(370) 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저(348)는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저(349)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저(350)는 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시예에 따르면, 전자 장치(예: 전자 장치(101))가 전화 기능을 포함한 경우, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.
미들웨어(330)는 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어(330)는 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.
API(360)(예: API(145))는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)(예: 어플리케이션 프로그램(147))은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 또는 시계(384), 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.
한 실시예에 따르면, 어플리케이션(370)은 전자 장치(예: 전자 장치(101))와 외부 전자 장치(예: 전자 장치(102, 104)) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치(102, 104))로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치(102, 104))의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.
한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치(예: 전자 장치(102, 104))의 속성(에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치(예: 서버(106) 또는 전자 장치(102, 104))로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시예에 따른 프로그램 모듈(310)의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.
다양한 실시예에 따르면, 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈(310)의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서(210))에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈(310)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
도 4는 다양한 실시 예에 따른 전자 장치(401)의 블록도(400)를 도시한다. 상기 전자 장치(401)는, 예를 들면, 도 1에 도시된 전자 장치(101)일 수 있다. 전자 장치(410)는 프로세서(410), 입력 모듈(420), 마이크 모듈(430), 카메라 모듈(470), 및 메모리(480)를 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(420)은 도 2에 도시된 입력 장치(250)일 수 있다. 입력 모듈(420)은 전자 장치(101)의 특정 동작 모드를 실행시키기 위한, 사용자 조작을 입력 받을 수 있다. 상기 특정 동작 모드는, 예를 들어, 동영상을 촬영하는 캠코더 모드일 수 있다.
일 실시 예에 따르면, 마이크 모듈(430)은 복수의 마이크들을 포함할 수 있으며, 특정 방향으로부터의 음향을 수신할 수 있다. 상기 음향은, 예를 들어, 음성을 포함할 수 있다. 상기 복수의 마이크들은 스테레오 마이크일 수 있다. 상기 복수의 마이크들은 전자 장치(401)의 하우징의 미리 정해진 위치들에 각각 배치되어 있을 수 있다. 상기 복수의 마이크들은 적어도 3개의 마이크들을 포함할 수 있다. 상기 적어도 3개의 마이크들 중 일부는 마이크로 호환 가능한 스피커(미도시) 또는 마이크로 호환 가능한 리시버(미도시) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 마이크 모듈(430)은 외부 장치(예: 전자 장치(102))에 포함된 마이크 모듈일 수 있다. 예를 들어, 전자 장치(101)는, 외부 장치에 포함된 마이크 모듈에서 획득된 음향을 통신 인터페이스(107)을 통해 수신할 수 있다.
상기 스피커 및 상기 리시버는 각각 진동판과 보이스 코일을 포함할 수 있으며, 사운드를 출력하는 스피커 기능 또는 사운드를 입력 받는 마이크 기능(수음 기능)을 할 수 있다.
일 실시 예에 따르면, 카메라 모듈(470)는 도 2에 도시된 카메라 모듈(291)일 수 있다. 상기 카메라 모듈(470)은 적어도 하나의 카메라를 포함할 수 있다. 예를 들어, 카메라 모듈(470)은 제1 카메라(미도시) 및 제2 카메라(미도시)를 포함할 수 있다. 상기 제1 카메라는 전자 장치(401)의 후면의 미리 정해진 위치에 배치된 후면 카메라일 수 있으며, 상기 제2 카메라는 전자 장치(401)의 전면의 미리 정해진 위치에 배치된 전면 카메라일 수 있다. 예를 들어, 상기 제1 카메라는 동영상을 촬영할 수 있으며, 제1 카메라의 동영상 촬영 시, 상기 제2 카메라는 촬영자 측 방향의 이미지를 획득할 수 있다.
일 실시 예에 따르면, 메모리(480)는 도 1에 도시된 메모리(130)일 수 있다. 예를 들어, 메모리(130)에는 마이크 모듈(430)의 적어도 하나의 마이크로부터 수신되는 음향이 저장될 수 있다. 또한, 예를 들어, 메모리(130)에는 카메라 모듈(470)을 통해 촬영된 영상에 대응하는 정보, 마이크 모듈(430)을 이용하여 획득된 음향에 대응하는 정보, 또는 상기 음향과 관련된 비쥬얼 정보 중 적어도 하나가 저장될 수 있다.
일 실시 예에 따르면, 프로세서(410)는 도 1에 도시된 프로세서(120)일 수 있다.
일 실시 예에 따르면, 프로세서(410)는 카메라 모듈(470)을 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영할 수 있다. 상기 영상은 예를 들어, 동영상, 또는 사운드가 포함된 영상(사운드&샷) 등 다양할 수 있다.
일 실시 예에 따르면, 프로세서(410)는 상기 영상이 촬영되는 적어도 일시 동안, 프로세서(410)와 기능적으로 연결된 마이크 모듈(430)을 이용하여 음향을 획득할 수 있다.
일 실시 예에 따르면, 프로세서(410)는 상기 음향이 상기 피사체와 관련되는 지를 결정할 수 있다.
예를 들어, 프로세서(410)는 기 저장된 음향에 대응하는 정보(음향 정보라고도 함)와의 비교를 통해, 상기 음향이 상기 피사체와 관련되는 지를 결정할 수 있다. 상기 음향 정보는 예를 들어, 음향의 방향, 전자 장치(401)와 음향 간의 거리, 세기, 및/또는 음향의 패턴(노이즈, 음악, 등) 등 다양할 수 있다. 상기 음향이 상기 기 저장된 음향 정보와 대응할 경우, 상기 음향이 상기 피사체와 관련이 있다라고 결정할 수 있다.
예를 들어, 프로세서(410)는 상기 음향에 대응하는 방향의 판단을 통해, 상기 음향이 상기 피사체와 관련되는 지를 결정할 수 있다. 상기 음향이 카메라 모듈(470)의 배면 방향과 반대 방향으로부터의 음향인 것으로 판단한 경우, 프로세서(410)는 상기 음향이 상기 피사체와 관련이 있다라고 결정할 수 있다. 반면, 상기 음향이 카메라 모듈(470)의 배면 방향으로부터의 음향인 것으로 판단한 경우, 프로세서(410)는 상기 음향이 상기 피사체와 관련이 없다라고 결정할 수 있다.
상기 음향에 대응하는 방향의 결정은, 예를 들어, 프로세서(410)가 DOA(direction of arrival) 추정 기술을 이용할 수 있다.
상기 DOA 추정 기술은 복수의 마이크들을 이용하여 보통 어느 한 지점으로부터 파동이 도착하는 방향을 감지하는 기술을 나타낸다.
상기 DOA 추정 기술을 이용하여 수신된 음성에 대응하는 방향을 결정하는 방법은, 특정 방향의 음성이 수신되면, 전자 장치(401)는 수신되는 음성이 마이크 모듈(430)에 포함된 각 마이크로 수신되는 시간의 차이 정보에 기초하여 음성의 수신 방향을 결정할 수 있다. 예를 들면, 전자 장치(401)는 특정 방향의 사운드가 스피커로 수신되는 제1 수신 시간과 마이크 모듈(430)의 제1 마이크로 수신되는 제2 수신 시간을 비교하고, 제1 수신 시간과 제2 수신 시간과의 시간 차이에 기초하여 음의 수신 방향을 결정할 수 있다. 전자 장치(401)의 메모리(480)는 미리 측정된(또는 정해진) 수신 시간 차이 값과 수신 방향 사이의 대응 관계 데이터를 저장할 수 있으며, 전자 장치(401)는 결정된 제1 수신 시간과 제2 수신 시간 사이의 수신 시간 차이(예를 들면, 0초)에 기초하여 모든 방향("0도"에서 "360도" 사이의 방향) 중 해당 수신 시간 차이에 대응되는 특정 방향(예를 들면, "90도")을 메모리(480)에 저장된 대응 관계 데이터로부터 검색할 수 있다.
예를 들어, 전자 장치(401)가 상기 음향에 대응되는 오브젝트와의 거리를 획득하기 위한 적어도 하나의 센서를 더 포함 수 있으며, 프로세서(410)는 전자 장치(401)와 상기 오브젝트와의 거리에 더 기반하여 상기 음향이 상기 피사체와 관련되는 지를 결정할 수 있다. 상기 적어도 하나의 센서는, 예를 들어, 카메라 모듈(470)에 포함된 상기 제2 카메라, 물체가 접근해 왔을 때의 위치를 검출하기 위한 근접 센서(예: 근접 센서(240G)), 또는 초음파의 특성을 이용하거나 초음파를 발생시켜 물체와의 거리, 움직임 등을 검출하는 초음파 센서 등 다양할 수 있다.
예를 들어, 전자 장치(401)가 카메라 모듈(470)과는 다른 카메라 모듈(미도시)을 더 포함할 수 있으며, 프로세서(410)는 상기 다른 카메라 모듈을 통해 촬영된 영상을 분석하여 상기 음향이 상기 피사체와 관련되는 지를 결정할 수 있다. 프로세서(410)는, 얼굴 인식 기술을 통해, 상기 다른 카메라 모듈을 통해 획득한 적어도 하나의 영상이 얼굴을 포함하는지 확인하고, 상기 다른 카메라 모듈을 통해 획득한 적어도 하나의 영상이 상기 얼굴을 포함하는 경우 상기 얼굴의 입 부분을 인식할 수 있다. 또한, 프로세서(410)는 상기 입 부분이 움직이는 지의 여부에 기반하여 상기 음향이 피사체와 관련이 있는지를 결정할 수 있다. 예를 들어, 상기 입 부분이 움직이는 경우, 상기 음향이 피사체와 관련이 있다라고 결정할 수 있다. 이와 반대로, 상기 입 부분이 움직이지 않는 경우, 상기 음향이 피사체와 관련이 없다라고 결정할 수 있다.
예를 들어, 프로세서(410)는 기 저장된 음향(예: 특정 사람의 음성)과 상기 획득된 음향과의 대응 여부(예: 일치 여부)를 비교하여, 상기 기 저장된 음향과 상기 획득된 음향이 대응할 경우, 상기 획득된 음향이 피사체와 관련이 있다라고 결정할 수 있다.
예를 들어, 프로세서(410)는 기 저장된 음향의 패턴(예: 노이즈, 음악 등)과 상기 획득된 음향의 패턴과의 대응 여부(예: 일치 여부)를 비교하여, 상기 기 저장된 음향의 패턴과 상기 획득된 음향의 패턴이 대응할 경우, 상기 획득된 음향이 피사체와 관련이 없다라고 결정할 수 있다.
일 실시 예에 따르면, 프로세서(410)는 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하도록 설정할 수 있다.
예를 들어, 상기 음향의 적어도 일부 속성의 변경은, 음향의 세기 변경(더 세게, 더 약하게, 또는 무음 처리)일 수 있다.
예를 들어, 프로세서(410)는 상기 음향과 관련하여 비쥬얼 정보를 저장하도록 할 수 있다. 또한, 프로세서(410)는 상기 촬영된 영상의 재생 시, 상기 음향이 상기 피사체에 관련이 없다고 판단되거나, 상기 음향의 세기가 약하다고 판단된 경우, 상기 음향의 세기를 변경하여 변경된 음향을 출력 및/또는 상기 저장된 비쥬얼 정보를 표시할 수 있다. 상기 피사체에 관련이 없다고 판단된 음향은, 예를 들어, 전자 장치의 사용자의 음성, 전자 장치 주변의 다른 사용자, 또는 다른 장치(예: TV 또는 라디오)로부터의 음향일 수 있다. 또한, 상기 비쥬얼 정보는, 예를 들어, 상기 적어도 하나의 영상이 촬영되는 시점이 아니라 재생되는 시점에 프로세서(410)에 의해 동적으로 결정되어 디스플레이 될 수 있다.
일 실시 예에 따르면, 프로세서(410)는 상기 음향이 상기 피사체와 관련이 있다 라고 결정된 경우, 상기 음향의 속성(예를 들어, 음향의 세기)을 변경하지 않도록(refrain from change) 할 수 있다.
일 실시 예에 따르면, 프로세서(410)는 카메라 모듈(470)의 상기 제1 카메라를 이용하여 동영상을 촬영할 수 있다. 또한, 프로세서(410)는 상기 동영상의 촬영 동안, 전자 장치(401)의 제1 방향으로부터 음향이 수신되는지 여부를 판단할 수 있다.
예를 들면, 상기 제1 방향은 전자 장치(401)를 이용하여 동영상을 촬영하는 촬영자가 위치한 방향일 수 있다. 또한, 상기 제1 방향은 전자 장치(401)를 파지하여 동영상을 촬영하는 촬영자가 위치한 방향일 수 있다. 또한, 상기 제1 방향은 카메라 모듈(470)의 제2 카메라와 대응하는 방향, 예를 들어, 상기 제2 카메라가 획득하는 이미지의 대상이 위치하는 방향일 수 있다.
예를 들면, 프로세서(410)는 마이크 모듈(430)에 포함된 복수의 마이크들(예를 들어, 상기 수음 기능이 활성화된 스피커 또는 리시버 중 적어도 하나와, 제1 마이크(미도시), 및 제2 마이크(미도시))을 통해, 음향을 수신할 수 있다. 또한, 프로세서(410)는 상기 수신되는 음향에 대응하는 방향(수신되는 음향의 방향)을 결정하여, 상기 결정된 방향이 상기 제1 방향인지를 판단할 수 있다. 예를 들어, 상기 수신되는 음향의 방향이 촬영자 측 방향인 것으로 결정된 경우, 상기 결정된 방향을 상기 제1 방향인 것으로 판단할 수 있다.
상기 결정된 방향이 상기 제1 방향인지를 판단하기 위해, 추가로, 프로세서(410)는 카메라 모듈(470)의 상기 제2 카메라를 활성화할 수 있다. 예를 들어, 상기 동영상 촬영의 실행 시, 상기 제2 카메라를 활성화할 수 있다. 또한, 상기 제2 카메라를 통해 획득되는 이미지의 얼굴에서 입 부분을 인식하여 상기 인식된 입 부분이 움직이는 지의 여부를 판단하고, 상기 결정된 방향이 상기 제1 방향인지를 판단할 수 있다. 예를 들어, 상기 인식된 입 부분이 움직이는 것으로 판단되면, 상기 결정된 방향이 상기 제1 방향인 것으로 판단할 수 있다. 예를 들면, 프로세서(410)는, DOA 추정 기술을 이용하여, 상기 수신되는 음성에 대응하는 방향을 결정할 수 있다.
일 실시 예에 따르면, 프로세서(410)는 전자 장치(401)의 상기 제1 방향으로부터 음향이 수신되면, 상기 제1 방향으로부터 마이크 모듈(430)에 포함된 복수의 마이크들을 통해 수신되는 음향의 세기를 제어하여 메모리(480)에 저장할 수 있다.
예를 들면, 상기 제1 방향으로부터 음향이 수신되면, 상기 수신되는 음향의 세기를 상기 제1 방향에 대응하는 세기로 변경 할 수 있다. 예를 들어, 상기 수신되는 음향의 세기를 지정된 세기로 감소시킬 수 있다.
예를 들면, 프로세서(410)는, 빔 포밍 기술을 이용하여, 상기 제1 방향에 대응하는 수음 범위를 결정하며, 상기 결정된 수음 범위의 상기 수신되는 음향의 세기를 상기 제1 방향에 대응하는 세기로 변경할 수 있다. 상기 빔 포밍 기술은 전자 장치(401)로부터 특정 방향의 사운드를 수신하는 목적으로 복수의 마이크들을 이용하여 수음 범위를 결정하는 기술을 나타낸다.
예를 들면, 프로세서(410)는, 마이크 모듈(430)에 포함된 복수의 마이크들 간의 상기 수신되는 음향의 수신 시간차를 보상할 수 있다. 또한, 마이크 모듈(430)에 포함된 복수의 마이크들 각각의 상기 수신 시간차가 보상된 상기 음향을 모두 합성하여, 메모리(480)에 저장할 수 있다.
상기 수신 시간차의 보상은, 상기 마이크 모듈(430)에 포함된 복수의 마이크들 간의 상기 수신되는 음향의 수신 시간차를, 상기 수신되는 음향의 방향(예: 상기 제1 방향)의 수신 시간과 대응되도록 수신 시간으로 보상할 수 있다. 또한, 상기 수신 시간차의 보상은, 다양한 딜레이 보상 기술들을 이용할 수 있다.
일 실시 예에 따르면, 상기 복수의 마이크들을 통해 수신되는 음향을 멀티 사운드 채널에서 지정된 제1 사운드 채널로 할당할 수 있다.
예를 들면, 메모리(480)에 저장하는 동작은, 멀티 채널을 이용 할 수 있다. 예를 들어, 멀티 채널은 제1 사운드 채널 및 제2 사운드 채널을 포함할 수 있으며, 제1 채널에는 제1 방향에 대응하는 음향이 할당되고, 제2 채널에는 제2 방향에 대응하는 음향이 할당되도록 할 수 있다. 상기 제1 방향에 대응하는 음향은 촬영자 방향의 음향(예: 촬영자 음성)일 수 있으며, 상기 제2 방향에 대응하는 음향은 촬영 대상 방향의 음향(예: 촬영 대상 음성)일 수 있다.
일 실시 예에 따르면, 프로세서(410)는 상기 스피커 또는 상기 리시버 중 적어도 하나의 마이크 기능을 활성화할 수 있다.
예를 들면, 프로세서(410)는 입력 모듈(420)을 통한 사용자 조작에 따라, 전자 장치(401)의 제1 동작 실행 시, 상기 스피커 또는 상기 리시버 중 적어도 하나의 장치의 마이크 기능을 활성화할 수 있다.
상기 제1 동작은, 예를 들어, 영상 촬영 동작 일 수 있다. 또한, 상기 제1 동작은, 영상 촬영 동작의 실행 중 특정 사람이 이야기하는 것을 인식하는 동작일 수 있다. 상기 특정 사람이 이야기하는 것을 인식하는 동작은, 예를 들어, 다양한 음성 인식 기술들을 이용할 수 있다.
예를 들면, 프로세서(410)는, 디지털 형태의 신호를 아날로그 형태의 신호로 변환하는 스피커 구동 신호 처리부(미도시) 및 리시버 구동 신호 처리부(미도시)와, 아날로그 형태의 신호를 디지털 형태의 신호로 변환하는 제1 마이크 입력 신호 처리부(미도시) 및 제2 마이크 입력 신호 처리부(미도시)를 포함할 수 있다. 이와 같은 구성의 프로세서(410)는 상기 스피커 구동 신호 처리부와 연결된 스피커의 일단이, 상기 스피커 구동 신호 처리부 대신, 상기 제1 마이크 입력 신호 처리부로 연결되도록 하여, 상기 스피커의 마이크 기능을 활성화할 수 있다. 또한, 프로세서(410)는 상기 리시버 구동 신호 처리부와 연결된 상기 리시버의 일단이, 상기 리시버 구동 신호 처리부 대신, 상기 제2 마이크 입력 신호 처리부로 연결되도록 하여, 상기 리시버의 마이크 기능을 활성화할 수 있다.
상기 방법 이외에도, 스피커 및 리시버가 마이크 기능을 할 수 있도록 하는 다양한 기술들이 적용될 수 있다.
도 5는 다양한 실시 예에 따른 전자 장치(501)를 나타낸 도면이다. 도 5를 참조하면, 스피커(551)는, 전자 장치(501; 예: 전자 장치(401))의 전면부 하단 일측면에 위치할 수 있다. 또한, 리시버(553)는 전자 장치(501)의 전면부 상단 중앙에 위치할 수 있다.
일반적으로 스피커(551) 및/또는 리시버(553)는 사운드 기능만을 가지며, 전자 장치(501)가 전화 통화, 음악 재생 등을 실행할 때 이용될 수 있다. 그러나, 상술한 실시 예에 따르면, 바이어스의 변경에 따라, 스피커(551) 및/또는 리시버(553)를 마이크 기능을 하는 수음 장치로도 사용될 수 있다. 예를 들어, 전자 장치(501)의 제1 카메라(571; 카메라 모듈(470)에 포함된 상기 제1 카메라)를 이용하여 동영상 촬영 시, 리시버(553)는 마이크 기능으로 활용되는 장치들 중 촬영자에게 가장 가까운 마이크로서, 촬영자의 음향을 인식할 수 있다. 이와 같이 마이크 기능을 하는 스피커(551) 및/또는 리시버(553)를 통해, 음향을 수신하면, 스피커(551) 및/또는 리시버(553)는 음향 인식 등에 도움이 되어, 전자 장치(501)의 복수의 마이크들을 이용하여 음향을 수신하여 처리하는 멀티 마이크 프로세서의 추가적인 성능 개선에 도움이 될 수 있다.
도 6은 다양한 실시 예에 따른 전자 장치(예: 전자 장치(401))의 동영상 촬영 시 전면 카메라를 활용하는 방법의 일 예를 설명하기 위한 도면이다. 일반적으로 전자 장치는 대부분 전면 카메라 및 후면 카메라를 구비하고 있으나, 후면 카메라를 사용하여 동영상 촬영 시에는 전면 카메라는 사용되지 않았다. 그러나, 일 실시 예에 따르면, 후면 카메라를 사용하여 영상(예: 동영상) 촬영 시, 전면 카메라를 활성화하여 촬영자의 모습을 촬영하고, 얼굴 인식 기술을 통해 촬영자 입 부분의 움직임 여부를 판단하여, 촬영자 측 방향의 음향 인식 동작의 정확도를 향상시킬 수 있다. 예를 들어, 촬영자가 전자 장치의 후면 카메라를 이용하여 동영상을 촬영하여 녹화할 수 있다. 이때, 전자 장치의 후면 카메라에 대응하는 화면에 촬영 영상을 표시할 수 있다. 또한, 예를 들어, 동영상 촬영 실행 시, 전자 장치는 전면 카메라를 활성화하여, 촬영자의 이미지를 획득할 수 있으며 얼굴 인식 기술을 이용하여, 촬영자의 얼굴에서 입 부분의 움직임 여부를 모니터링 할 수 있다. 상기 입 부분의 움직임이 확인되면, 촬영자가 이야기하고 있는 것으로 결정하여, 전자 장치의 음향 인식 시, 촬영자 측 방향의 음향 인식 정확도를 향상시킬 수 있다. 한편, 촬영자 측 이미지는 화면에 표시되지 않도록 할 수 있다.
도 7은 다양한 실시 예에 따른 전자 장치(701)의 회로 블록도(700)를 도시한다. 상기 전자 장치(701)는, 예를 들면, 도 4에 도시된 전자 장치(401)일 수 있다. 전자 장치(710)는 어플리케이션 프로세서(application processor; AP; 711), 디지털 신호 프로세서(digital signal processor; 713), 이미지 프로세서(image processor; 715), 제1 마이크 (731), 제2 마이크(733), 스피커(751), 리시버(753), 제1 카메라(773), 및 제2 카메라(771)를 포함할 수 있다. 또한, 전자 장치(701)는 스위치 모듈(790)을 포함할 수 있다.
일 실시 예에 따르면, 제1 마이크(731) 및 제2 마이크(733)는 도 4의 마이크 모듈(430)에 포함된 마이크들일 수 있다.
일 실시 예에 따르면, 디지털 신호 프로세서(713)는 도 4에 도시된 프로세서(410)에 포함될 수 있다. 디지털 신호 프로세서(713)는 입력된 신호를 오디오 프로세싱 할 수 있다. 예를 들면, 디지털 신호 프로세서(713)는 사운드와 전기 신호를 쌍방향으로 변환시킬 수 있다. 디지털 신호 프로세서(713)는 제1 마이크(731)를 통해 수신된 아날로그 형태의 사운드 신호를 디지털 형태의 사운드 신호로 변환하여, AP(711)로 전송할 수 있다. 디지털 신호 프로세서(713)는 제2 마이크(733)를 통해 수신된 아날로그 형태의 사운드 신호를 디지털 형태의 사운드 신호로 변환하여, AP(711)로 전송할 수 있다.
일 실시 예에 따르면, 디지털 신호 프로세서(713)는 도 8a에 도시된 디지털 신호 프로세서(813))를 포함할 수 있다.
도 8a를 참조하면, 디지털 신호 프로세서(813)는 디지털 신호를 아날로그 신호로 변환하는 디지털-아날로그 변환기(DAC; digital-analog converter; 8131), 입력 신호를 증폭하여 출력하는 앰프(AMP; amplifier; 8133), 및 아날로그 신호를 디지털 신호로 변환하는 아날로그-디지털 변환기(ADC; analog-digital converter; 8135)를 포함할 수 있다.
디지털 신호 프로세서(813)는 스피커(851; 예: 스피커(751))와 연결된 스위치(891; 예: 제1 스위치(791))와 연결되며, 스위치(891)는 디지털 신호 프로세서(813)로부터 수신된 제어 신호에 따라 스위칭 동작을 할 수 있다. 스위치(891)의 스위칭에 따라, 스피커(851)가 스피커 기능 또는 마이크 기능을 할 수 있다. 예를 들어, 스위치(851)가, AP(미도시; 예; AP(711))의 제어에 따라, 스피커(851)를 디지털-아날로그 변환기(8131)와 연결된 앰프(8133)와 연결되도록 스위칭하여, 스피커(851)가 스피커 기능을 하도록 할 수 있다. 이 때, 디지털 신호 프로세서(813)는 수신되는 디지털 형태의 사운드 신호를 아날로그 형태의 사운드 신호로 변환하여, 스피커(851)로 전송할 수 있다. 또한, 예를 들어, 스위치(851)가 스피커(851)를 아날로그-디지털 변환기(8135)와 연결되도록 스위칭하여, 스피커(851)가 마이크 기능을 하도록 할 수 있다. 이 때, 디지털 신호 프로세서(813)는 수신되는 아날로그 형태의 사운드 신호를 디지털 형태의 사운드 신호로 변환하여, AP로 전송할 수 있다.
한편, 디지털-아날로그 변환기(8131) 및 앰프(8133)를 포함하는 구성을 스피커 구동 신호 처리부라 할 수 있다. 아날로그-디지털 변환기(8135)를 포함하는 구성을 마이크 입력 신호 처리부라 할 수 있다.
일 실시 예에 따르면, 디지털 신호 프로세서(713)는 도 8b에 도시된 디지털 신호 프로세서(813))를 포함할 수 있다.
도 8b를 참조하면, 디지털 신호 프로세서(813)는, 디지털-아날로그 변환기(8132), 앰프(8134), 및 아날로그-디지털 변환기(8136)를 포함할 수 있다. 디지털 신호 프로세서(813)는 리시버(853; 예: 리시버(753))와 연결된 스위치(893; 예: 제2 스위치(793))와 연결되며, 스위치(893)는 디지털 신호 프로세서(813)로부터 수신된 제어 신호에 따라 스위칭 동작을 할 수 있다. 스위치(893)의 스위칭에 따라, 리시버(853)가 스피커 기능 또는 마이크 기능을 할 수 있다. 예를 들어, 스위치(853)가, AP(미도시; 예: AP(711))의 제어에 따라, 리시버(853)를 디지털-아날로그 변환기(8132)와 연결된 앰프(8134)와 연결되도록 스위칭하여, 리시버(853)가 스피커 기능을 하도록 할 수 있다. 또한, 예를 들어, 스위치(853)가 리시버(853)를 아날로그-디지털 변환기(8136)와 연결되도록 스위칭하여, 리시버(853)가 마이크 기능을 하도록 할 수 있다.
일 실시 예에 따르면, 제1 카메라(773) 및 제2 카메라(771)는 도 4에 도시된 카메라 모듈(470)에 포함된 카메라들일 수 있다. 제1 카메라(773)는 후면 카메라일 수 있으며, 제2 카메라(771)는 전면 카메라일 수 있다.
일 실시 예에 따르면, 이미지 프로세서(715)는 도 4에 도시된 프로세서(410)에 포함될 수 있다. 이미지 프로세서(715)는 제2 카메라(771)를 통해 획득된 이미지를 이미지 프로세싱 할 수 있다. 예를 들어, 제2 카메라(771)를 통해 획득된 이미지를 라인 또는 프레임 단위로 입력하며, 상기 단위 이미지를 처리하여 표시 이미지 및 압축 부호화한 이미지를 생성할 수 있다. 예를 들어, 이미지 프로세서(715)는 제2 카메라(771)를 통해 획득된 이미지를 디지털 이미지로 변환하여 출력할 수 있다.
일 실시 예에 따르면, 이미지 프로세서(715)는 얼굴 인식 기술을 이용하여, 제2 카메라(771)를 통해 획득된 이미지의 얼굴에서 입 부분을 인식하여, 파라미터를 디지털 신호 프로세서(713)로 전송할 수 있다. 상기 파라미터는 예를 들어, 인식된 입 부분의 움직임 여부를 나타내는 정보일 수 있다. 한편, 상기 얼굴 인식 기술은, 다양한 기술들이 적용될 수 있다.
일 실시 예에 따르면, 스위치 모듈(790)은 제1 스위치(791) 및 제2 스위치(793)를 포함할 수 있다.
예를 들어, 제1 스위치(791)는 디지털 신호 프로세서(713)(또는AP(711))의 제어에 따라, 스피커(751)가 스피커 기능 또는 마이크 기능을 할 수 있도록 스위칭될 수 있다. 또한, 제2 스위치(793)는 디지털 신호 프로세서(713)(또는 AP(711))의 제어에 따라, 리시버(753)가 스피커 기능 또는 마이크 기능을 하도록 스위칭될 수 있다. 또한, 제1 스위치(791)와 제2 스위치(793)는, 디지털 신호 프로세서(713)(또는AP(711))의 제어에 따라, 각각 또는 동시에 스위칭 동작이 실행될 수 있다.
한편, 스위치 모듈(790)은 디지털 신호 프로세서(713)에 포함될 수 있다.
일 실시 예에 따르면, AP(711)는 도 4에 도시된 프로세서(410)에 포함될 수 있다. AP(711)는 디지털 신호 프로세서(713), 이미지 프로세서(715), 제1 마이크(731), 제2 마이크(733), 스피커(751), 리시버(753), 제1 카메라(773), 및 제2 카메라(771), 스위치 모듈(790)을 제어할 수 있다.
일 실시 예에 따르면, AP(711)는, 제1 카메라(773)의 동영상 촬영 동작 실행할 수 있다. 이에 따라, 제1 카메라(773)로 촬영되는 이미지 신호와, 스피커(751), 리시버(753), 제1 마이크(731) 및 제2 마이크(733)로 입력된 후 디지털 신호 프로세서(713)의 오디오 프로세싱(또는 멀티 마이크 프로세싱)을 거친 음향 신호를 수신하여, 동영상을 인코딩할 수 있다.
추가로, AP(711)는, 동영상 촬영의 실행 시, 제2 카메라(771)를 활성화 할 수 있다. 또한, AP(711)는 제2 카메라(771)를 통해 획득된 이미지에서, 이미지 프로세서(715)의 이미지 프로세싱을 통해 파라미터를 획득하도록 제어할 수 있다. 상기 파리미터는, 예를 들어, 이미지에 얼굴 인식 기술을 적용하여, 인식된 얼굴에서의 입 부분의 움직임 여부를 나타내는 정보일 수 있다. 또한, AP(711)는 제1 스위치(791) 및 제2 스위치(793)를 제어함으로써, 스피커(751) 및 리시버(753)가 마이크 기능을 하도록 하여, 상기 오디오 프로세싱에 음향 신호가 입력되도록 할 수 있다.
또한, AP(711)는, 디지털 신호 프로세서(713)에서 오디오 프로세싱을 거친 음향 신호에 대응하는 방향(음향 신호가 수신된 방향)을 결정할 수 있다. 상기 결정된 방향이 제1 방향이면, 상기 수신된 음향의 세기를 상기 제1 방향에 대응하는 세기로 변경하거나 상기 수신된 음향을 상기 제1 방향에 대응하는 채널로 할당하여, 음향을 녹음할 수 있다. 또한, 상기 결정된 방향이 제1 방향인 경우에서, 추가로, 상기 파라미터가 입 부분의 움직임을 나타내는 정보인 경우에도, 상기 수신된 음향의 세기를 상기 제1 방향에 대응하는 세기로 변경하거나 상기 수신된 음향 상기 제1 방향에 대응하는 채널로 할당하여, 음향을 녹음할 수 있다.
도 9는 다양한 실시 예에 따른 전자 장치의 음향 처리 동작의 일 예를 나타낸 흐름도이다. 도 9를 참조하면, 음향이 음성이며, 영상이 동영상인 경우를 예로 들어 설명한다.
910 동작에서 전자 장치(예: 전자 장치(401))는 캠코더 모드(동영상 촬영)를 실행할 수 있다.
일 실시 예에 따르면, 전자 장치는 제1 카메라를 이용하여 동영상을 촬영할 수 있다.
930 동작에서 전자 장치(예: 프로세서(410))는 제1 방향으로부터 음성의 수신 여부를 결정할 수 있다. 930 동작에서 전자 장치가 제1 방향으로부터 음성을 수신한 것으로 결정하면 950 동작을 실행하고, 그렇지 않으면 930 동작을 다시 실행할 수 있다.
일 실시 예에 따르면, 상기 제1 카메라를 이용하여 동영상을 촬영하는 동안, 전자 장치의 제1 방향으로부터 음성이 수신되는지 여부를 판단할 수 있다. 예를 들어, 상기 전자 장치의 제1 방향으로부터 음성이 수신되는지 여부를 판단하는 동작은, 복수의 마이크들을 통해, 상기 음성을 수신하고, 상기 수신되는 음성에 대응하는 방향을 결정하여 상기 결정된 방향이 제1 방향인지를 판단할 수 있다. 상기 결정된 방향이 제1 방향인지를 판단하는 동작은, 추가로, 제2 카메라를 활성화하며, 상기 제2 카메라를 통해 획득되는 이미지의 얼굴에서 입 부분을 인식하며, 상기 인식된 입 부분이 움직이는 지의 여부를 판단하여 상기 결정된 방향이 제1 방향인지를 판단할 수 있다.
한편, 상기 수신되는 음성에 대응하는 방향을 결정하는 동작은, DOA 추정 기술을 이용하여, 상기 수신되는 음성에 대응하는 방향을 결정할 수 있다.
일 실시 예에 따르면, 상기 전자 장치의 제1 방향으로부터 음성이 수신되는지 여부를 판단하는 동작은, 제2 카메라를 활성화하며, 상기 제2 카메라를 통해 획득되는 이미지의 얼굴에서 입 부분을 인식하며, 상기 인식된 입 부분이 움직이는 지의 여부를 판단하며, 상기 인식된 입 부분이 움직이는 것으로 판단되면, 상기 전자 장치의 제1 방향으로부터 음성이 수신되는 것으로 결정할 수 있다.
한편, 상기 복수의 마이크들은 적어도 3개의 마이크들을 포함할 수 있으며, 상기 적어도 3개의 마이크들 중 일부는, 마이크로 호환 가능한 스피커 또는 리시버 중 적어도 하나를 포함할 수 있다.
예를 들어, 상기 동영상 촬영의 실행 시, 스피커 구동 신호 처리부와 연결된 상기 스피커의 일단이, 상기 스피커 구동 신호 처리부 대신, 제1 마이크 입력 신호 처리부로 연결되도록 하여, 상기 스피커의 마이크 기능을 활성화할 수 있다. 또한, 리시버 구동 신호 처리부와 연결된 상기 리시버의 일단이, 상기 리시버 구동 신호 처리부 대신, 제2 마이크 입력 신호 처리부로 연결되도록 하여, 상기 리시버의 마이크 기능을 활성화할 수 있다.
한편, 상기 스피커 구동 신호 처리부 및 상기 리시버 구동 신호 처리부는 디지털 형태의 신호를 아날로그 형태의 신호로 변환하며, 상기 제1 마이크 입력 신호 처리부 및 상기 제2 마이크 입력 신호 처리부는 아날로그 형태의 신호를 디지털 형태의 신호로 변환하는 것을 포함할 수 있다.
950 동작에서 전자 장치(예: 프로세서(410))는 제1 방향으로부터 수신되는 음성의 세기를 제어할 수 있다.
일 실시 예에 따르면, 상기 제1 방향으로부터 복수의 마이크들을 통해 수신되는 음성의 세기를 제어하는 동작은, 빔 포밍 기술을 이용하여, 상기 제1 방향에 대응하는 수음 범위를 결정하고, 상기 결정된 수음 범위의 상기 수신되는 음성의 세기를 상기 제1 방향에 대응하는 세기로 변경할 수 있다.
970 동작에서 전자 장치(예: 프로세서(410))는 세기가 제어된 음성을 저장할 수 있다.
일 실시 예에 따르면, 상기 세기가 제어된 음성을 저장하는 동작은, 상기 복수의 마이크들 간의 상기 수신되는 음성의 수신 시간차를 보상하여 합성할 수 있다.
일 실시 예에 따르면, 전자 장치는 추가로 상기 제1 방향으로부터 상기 복수의 마이크들을 통해 수신되는 음성을 멀티 사운드 채널의 제1 사운드 채널로 할당할 수 있다.
도 10은 다양한 실시 예에 따른 캠코더 실행 시의 전자 장치(예: 전자 장치(401))의 음향 처리 동작의 일 예를 나타낸 흐름도이다. 예를 들어, 전자 장치를 이용하여 영상을 촬영할 경우, 촬영자가 촬영 대상보다 전자 장치와 근접하여, 촬영자의 음향이 촬영 대상의 음향보다 크게 녹음되는 경우가 있다. 이를 해결하기 위해, 도 10을 참조하면, 화자의 방향을 검출하여, 화자의 방향이 촬영자 방향인 경우, 지정된 조건에 따라 수신된 음향을 지정된 세기로 감소시킬 수 있다. 이하에서는, 음향이 음성이며, 영상이 동영상인 경우를 예로 들어 설명한다.
1010 동작에서 전자 장치(예: 프로세서(410))는 사용자 조작에 따라, 동영상을 촬영하는 캠코더 모드를 실행할 수 있다. 예를 들어, 전자 장치를 이용하여 동영상을 촬영할 경우, 촬영자가 전자 장치를 파지하여, 전자 장치의 제1 카메라를 이용하여 동영상을 촬영할 수 있다.
1020 동작에서 전자 장치(예: 프로세서(410))는 스피커 및 리시버의 마이크 기능을 활성화할 수 있다.
1030 동작에서 전자 장치(예: 프로세서(410))는 음성의 수신 방향을 결정하여 화자를 예측하기 위해, 음성 수신을 통한 화자 예측 솔루션을 활성화 할 수 있다. 상기 화자 예측 솔루션은, 상기 마이크 기능이 활성화된 스피커 및 리시버와 전자 장치의 적어도 하나의 마이크를 통해, 음성을 수신하는 동작과, 상기 수신되는 음성에 대응하는 방향, 예를 들어, 상기 수신된 음성의 방향을 결정하는 동작을 포함할 수 있다.
1040 동작에서 전자 장치(예: 프로세서(410))는 화자의 방향이 촬영자의 방향인지를 결정할 수 있다. 예를 들어, 전자 장치는, 상기 1030 동작에서 상기 결정된 수신 방향이, 촬영자의 방향인지를 결정함으로써, 화자의 방향이 촬영자의 방향인지를 결정할 수 있다. 예를 들어, 상기 결정된 수신 방향이 동영상 촬영 대상이 위치한 방향이면, 촬영 대상의 방향으로 결정하고, 상기 동영상 촬영 대상의 방향과 맞서는 방향이면, 촬영자의 방향인 것으로 결정할 수 있다. 예를 들어, 상기 제1 카메라가 전자 장치의 후면에 위치한 후면 카메라일 경우, 상기 결정된 수신 방향이 전자 장치의 전면 방향이면, 촬영자의 방향인 것으로 결정할 수 있다.
1040 동작에서 전자 장치(예: 프로세서(410))가 화자의 방향이 촬영자의 방향인 것으로 결정하면 전자 장치는 1050 동작을 실행하고, 그렇지 않으면 1070 동작을 실행할 수 있다.
1050 동작에서 전자 장치(예: 프로세서(410))는 화자 방향의 음성의 세기를 감소시킬 수 있다. 예를 들어, 전자 장치는, 수신된 음성의 세기를, 미리 지정된, 촬영자의 방향에 대응하는 세기로 감소시킬 수 있다.
1060 동작에서 전자 장치(예: 프로세서(410))는 음성 신호의 바이패스 동작을 할 수 있다. 예를 들어, 전자 장치는 수신된 음성의 세기 변경을 실행하지 않을 수 있다.
1070 동작에서 전자 장치(예: 프로세서(410))는 음성을 녹음할 수 있다. 예를 들어, 전자 장치가 화자 방향의 음성의 세기를 감소시키면, 전자 장치는 감소된 세기의 음성 녹음할 수 있다. 또한, 예를 들어, 전자 장치가 음성을 바이패스하면, 전자 장치는 수신된 음성을 세기 변경 없이 그대로 녹음할 수 있다.
도 11은 다양한 실시 예에 따른 캠코더 실행 시의 전자 장치(예: 전자 장치(401))의 음향 처리 동작의 일 예를 나타낸 흐름도이다. 전자 장치를 이용하여 영상을 촬영할 경우, 촬영자의 음향이 촬영 대상의 음향보다 크게 녹음되는 문제를 해결하기 위해, 도 11을 참조하면, 전면 카메라를 통해 획득된 촬영자의 얼굴에서 입 부분이 움직인 경우, 지정된 조건에 따라 수신된 음향의 세기를 감소시킬 수 있다. 이하에서는, 음향이 음성이며, 영상이 동영상인 경우를 예로 들어 설명한다.
1110 동작에서 전자 장치(예: 프로세서(410))는 사용자 조작에 따라, 동영상을 촬영하는 캠코더 모드를 실행할 수 있다. 예를 들어, 전자 장치의 후면 카메라를 이용하여 동영상을 촬영할 수 있다.
1120 동작에서 전자 장치(예: 프로세서(410))는 전면 카메라를 활성화할 수 있다. 예를 들어, 전면 카메라를 활성화하여, 촬영자 측 이미지(촬영자 이미지)를 획득할 수 있다.
1130 동작에서 전자 장치(예: 프로세서(410))는 얼굴 인식 솔루션을 활성화 할 수 있다. 상기 얼굴 인식 솔루션은 화자를 예측하기 위한 동작일 수 있다. 상기 얼굴 인식 솔루션은 예를 들어, 상기 전면 카메라를 통해 획득되는 이미지에서 사람의 얼굴 중 입 부분을 인식하는 동작과, 상기 인식된 입 부분의 움직임 여부를 결정하는 동작을 더 포함할 수 있다. 상기 입 부분이 움직이는 것으로 결정되면, 촬영자가 이야기를 하는 것으로 판단할 수 있다.
1140 동작에서 전자 장치(예: 프로세서(410))는 촬영자의 입 부분이 움직이는지를 결정할 수 있다. 1140 동작에서 전자 장치가 촬영자의 입 부분이 움직이는 것으로 결정되면 1150 동작을 실행할 수 있으며, 그렇지 않으면 1160 동작을 실행할 수 있다.
1150 동작에서 전자 장치(예: 프로세서(410))는 수신되는 촬영자의 음성의 세기를 감소시킬 수 있다. 예를 들어, 전자 장치는, 수신되는 음성의 세기를, 미리 지정된, 세기로 감소시킬 수 있다.
1160 동작에서 전자 장치(예: 프로세서(410))는 음성의 바이패스 동작을 할 수 있다. 예를 들어, 전자 장치는 수신되는 음성의 세기 변경을 실행하지 않을 수 있다.
1170 동작에서 전자 장치(예: 프로세서(410))는 음성을 녹음할 수 있다. 예를 들어, 전자 장치가 수신되는 음성의 세기를 감소시키면, 전자 장치는 감소된 세기의 음성 녹음할 수 있다. 또한, 예를 들어, 전자 장치가 음성을 바이패스하면, 전자 장치는 수신되는 음성을 세기 변경 없이 그대로 녹음할 수 있다.
일 실시 예에 따르면, 상기 전면 카메라 및 상기 후면 카메라의 동작은 서로 바뀔 수도 있다.
도 12는 다양한 실시 예에 따른 캠코더 실행 시의 전자 장치(예: 전자 장치(401))의 음향 처리 동작의 일 예를 나타낸 흐름도이다.
전자 장치를 이용하여 영상을 촬영할 경우, 촬영자의 음향이 촬영 대상의 음성보다 크게 녹음되는 문제를 해결하기 위해, 도 12를 참조하면, 화자의 방향이 촬영자 방향인 경우 및/또는 촬영자 측 전면 카메라를 통해 획득된 촬영자의 얼굴에서 입 부분이 움직인 경우, 지정된 조건에 따라 수신된 음향의 세기를 감소시킬 수 있다. 이에 따라, 화자의 방향이 촬영자 방향인 경우의 동작 또는 촬영자 측 전면 카메라를 통해 획득된 촬영자의 얼굴에서 입 부분이 움직이는 동작 중 어느 하나가 오류가 발생하거나 동작되지 않을 때에도, 음향 처리 동작을 실행할 수 있다. 또한, 보다 정확한 음향 처리 동작을 실행할 수 있다. 이하에서는, 음향이 음성이며, 영상이 동영상인 경우를 예로 들어 설명한다.
1210 동작에서 전자 장치(예: 프로세서(410))는 사용자 조작에 따라, 동영상을 촬영하는 캠코더 모드를 실행할 수 있다.
1220 동작에서 전자 장치(예: 프로세서(410))는 스피커 및 리시버의 마이크 기능을 활성화할 수 있다.
1230 동작에서 전자 장치(예: 프로세서(410))는 음성의 수신 방향을 결정하여, 화자를 예측하기 위해, 음성 수신을 통한 화자 예측 솔루션을 활성화 할 수 있다.
1240 동작에서 전자 장치(예: 프로세서(410))는 화자의 방향이 촬영자의 방향인지를 결정할 수 있다. 1240 동작에서 전자 장치가 화자의 방향이 촬영자의 방향인 것으로 결정하면 전자 장치는 1280 동작을 실행하고, 그렇지 않으면 1285 동작을 실행할 수 있다.
1250 동작에서 전자 장치(예: 프로세서(410))는 전면 카메라를 활성화할 수 있다.
1260 동작에서 전자 장치(예: 프로세서(410))는 얼굴 인식 솔루션을 활성화 할 수 있다.
1270 동작에서 전자 장치(예: 프로세서(410))는 촬영자의 입 부분이 움직이는지를 결정할 수 있다. 1270 동작에서 전자 장치가 촬영자의 입 부분이 움직이는 것으로 결정되면 1280 동작을 실행할 수 있으며, 그렇지 않으면 1285 동작을 실행할 수 있다.
1280 동작에서 전자 장치(예: 프로세서(410))는 화자 방향의 음성 음량을 감소시킬 수 있다.
1285 동작에서 전자 장치(예: 프로세서(410))는 음성 신호의 바이패스 동작을 할 수 있다.
1290 동작에서 전자 장치(예: 프로세서(410))는 음성을 녹음할 수 있다. 예를 들어, 전자 장치가 화자 방향의 음성의 세기를 감소시키면, 전자 장치는 감소된 세기의 음성 녹음할 수 있다. 또한, 예를 들어, 전자 장치가 음성을 바이패스하면, 전자 장치는 수신된 음성을 세기 변경 없이 그대로 녹음할 수 있다.
상술한 도 12를 참조하면, 촬영자 측 전면 카메라를 통해 획득된 촬영자의 얼굴에서 입 부분이 움직임 인식에 실패한 경우, 화자의 방향 검출을 통해, 화자의 방향이 촬영자의 방향인 경우, 지정된 조건에 따라 수신된 음성의 세기 감소시킬 수 있다. 또한, 화자 방향의 인식에 실패한 경우, 촬영자 측 전면 카메라를 통해 획득된 촬영자의 얼굴에서 입 부분이 움직임 인식을 통해, 촬영자의 얼굴에서 입 부분이 움직인 것으로 결정된 경우, 지정된 조건에 따라 수신된 음성의 세기를 감소시킬 수 있다.
한편, 상기 1220 동작, 1230 동작, 및 1240 동작은, 상기 1250 동작, 상기 1260 동작, 및 상기 1270 동작과 병렬적으로(동시에) 실행되거나, 직렬적으로(순차적으로) 실행될 수 있다.
한편, 상술한 실시 예들에서는, 화자의 방향(예: 제1 방향)이 촬영자의 방향인 경우를 예로 들어 설명하였으나, 화자의 방향이 촬영 대상의 방향일 수 있으며, 화자의 방향이 촬영 대상의 방향인 경우에는, 지정된 조건에 따라 수신된 음성의 세기를 증가시키는 동작을 수행할 수도 있다.
다양한 실시 예에 따르면, 전자 장치의 음향 처리 방법에 있어서, 상기 전자 장치와 기능적으로 연결된 카메라를 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하는 동작; 상기 영상이 촬영되는 적어도 일시 동안, 상기 전자 장치와 기능적으로 연결된 적어도 하나의 마이크를 이용하여 음향을 획득하는 동작; 상기 음향이 피사체와 관련되는 지를 결정하는 동작; 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 음향 처리 방법은 상기 음향과 관련하여 비쥬얼 정보를 저장하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 음향이 피사체와 관련되는 지를 결정하는 동작은, 상기 음향에 대응하는 방향을 판단하는 동작, 상기 음향이 상기 카메라의 배면 방향으로부터의 음향인 경우, 상기 음향이 상기 피사체와 관련이 없다라고 결정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 음향에 대응하는 방향을 판단하는 동작은, DOA(direction of arrival) 추정 기술을 이용하여, 상기 음향에 대응하는 방향을 결정하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 음향에 대응하는 방향이 제1 방향인 경우, 상기 음향을 멀티 사운드 채널의 제1 사운드 채널로 할당하는 동작, 상기 음향에 대응하는 방향이 제2 방향인 경우, 상기 음향을 상기 멀티 사운드 채널의 제2 사운드 채널로 할당하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 마이크는, 마이크로 호환 가능한 스피커 또는 마이크로 호환 가능한 리시버 중 적어도 하나를 포함하며, 상기 영상 촬영 실행 시, 상기 스피커 또는 상기 리시버 중 적어도 하나의 마이크 기능을 활성화하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 음향이 상기 피사체와 관련 있다 라고 결정된 경우, 상기 음향의 속성이 변경되지 않도록 할 수 있다.
다양한 실시 예에 따르면, 상기 음향이 상기 피사체와 관련되는 지를 결정하는 동작은, 상기 전자 장치와 상기 오브젝트와의 거리에 기반하여 실행되는 것을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치의 음향 처리 방법은 상기 카메라와는 다른 카메라를 통해 획득한 적어도 하나의 영상이 얼굴을 포함하는지 확인하는 동작, 상기 다른 카메라를 통해 획득한 적어도 하나의 영상이 상기 얼굴을 포함하는 경우, 상기 얼굴의 입 부분을 인식하는 동작을 더 포함할 수 있으며, 상기 음향이 상기 피사체와 관련되는 지를 결정하는 동작은, 상기 입 부분이 움직이는 지의 여부에 기반하여 실행되는 것을 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 음향 처리 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은, 상기 전자 장치와 기능적으로 연결된 카메라를 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하는 동작; 상기 영상이 촬영되는 적어도 일시 동안, 상기 전자 장치와 기능적으로 연결된 적어도 하나의 마이크를 이용하여 음향을 획득하는 동작; 상기 음향이 피사체와 관련되는 지를 결정하는 동작; 상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하는 동작을 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,"모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(130)가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 카메라 모듈; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 카메라 모듈을 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하고;
    상기 영상이 촬영되는 적어도 일시 동안, 상기 프로세서와 기능적으로 연결된 마이크를 이용하여 음향을 획득하고;
    상기 음향이 상기 피사체와 관련되는 지를 결정하고;
    상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하도록 설정된 전자 장치.
  2. 제 1항에 있어서, 상기 프로세서는,
    상기 음향과 관련하여 비쥬얼 정보를 더 저장하도록 설정된 전자 장치.
  3. 제 1항에 있어서, 상기 적어도 하나의 영상에 대응하는 정보, 상기 음향에 대응하는 정보, 또는 상기 음향과 관련된 비쥬얼 정보를 저장하기 위한 메모리를 더 포함하는 전자 장치.
  4. 제 1항에 있어서, 상기 프로세서는,
    상기 음향에 대응하는 방향을 판단하고, 및
    상기 음향이 상기 카메라 모듈의 배면 방향으로부터의 음향인 경우, 상기 음향이 상기 피사체와 관련이 없다라고 결정하도록 설정된 전자 장치.
  5. 제 4항에 있어서, 상기 프로세서는,
    DOA(direction of arrival) 추정 기술을 이용하여, 상기 음향에 대응하는 방향 결정하도록 설정된 전자 장치.
  6. 제 4항에 있어서, 상기 프로세서는,
    상기 음향에 대응하는 방향이 제 1방향인 경우, 상기 음향을 멀티 사운드 채널의 제1 사운드 채널로 할당하고; 및
    상기 음향에 대응하는 방향이 제 2방향인 경우, 상기 음향을 제2 사운드 채널로 할당하도록 설정된 전자 장치.
  7. 제 1항에 있어서, 상기 마이크는, 상기 전자 장치에 포함된 마이크를 포함하고,
    상기 전자 장치에 포함된 마이크는,
    마이크로 호환 가능한 스피커 또는 마이크로 호환 가능한 리시버를 포함하는 전자 장치.
  8. 제 1항에 있어서, 상기 프로세서는,
    상기 음향이 상기 피사체와 관련 있다 라고 결정된 경우, 상기 음향의 속성을 변경하지 않도록(refrain from change) 설정된 전자 장치.
  9. 제 1항에 있어서, 상기 전자 장치는,
    상기 음향에 대응되는 오브젝트와의 거리를 획득하기 위한 적어도 하나의 센서를 더 포함하고,
    상기 프로세서는,
    상기 전자 장치와 상기 오브젝트와의 거리에 더 기반하여 상기 피사체와 관련이 있는 지를 결정하도록 설정된 전자 장치.
  10. 제 1항에 있어서, 상기 전자 장치는,
    다른(another) 카메라 모듈을 더 포함하고,,
    상기 프로세서는,
    상기 다른 카메라 모듈을 통해 획득한 적어도 하나의 영상이 얼굴을 포함하는지 확인하고;
    상기 다른 카메라 모듈을 통해 획득한 적어도 하나의 영상이 상기 얼굴을 포함하는 경우, 상기 얼굴의 입 부분을 인식하고; 및
    상기 입 부분이 움직이는 지의 여부에 더 기반하여, 상기 음향이 피사체와 관련이 있는 지를 결정하도록 설정된 전자 장치.
  11. 전자 장치의 음향 처리 방법에 있어서,
    상기 전자 장치와 기능적으로 연결된 카메라를 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하는 동작;
    상기 영상이 촬영되는 적어도 일시 동안, 상기 전자 장치와 기능적으로 연결된 적어도 하나의 마이크를 이용하여 음향을 획득하는 동작;
    상기 음향이 피사체와 관련되는 지를 결정하는 동작;
    상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하는 동작을 포함하는 전자 장치의 음향 처리 방법.
  12. 제 11항에 있어서,
    상기 음향과 관련하여 비쥬얼 정보를 저장하는 동작을 더 포함하는 전자 장치의 음향 처리 방법.
  13. 제 11항에 있어서, 상기 음향이 피사체와 관련되는 지를 결정하는 동작은,
    상기 음향에 대응하는 방향을 판단하는 동작,
    상기 음향이 상기 카메라의 배면 방향으로부터의 음향인 경우, 상기 음향이 상기 피사체와 관련이 없다라고 결정하는 동작을 포함하는 전자 장치의 음향 처리 방법.
  14. 제 13항에 있어서, 상기 음향에 대응하는 방향을 판단하는 동작은,
    DOA(direction of arrival) 추정 기술을 이용하여, 상기 음향에 대응하는 방향을 결정하는 동작을 포함하는 전자 장치의 음향 처리 방법.
  15. 제 13항에 있어서,
    상기 음향에 대응하는 방향이 제1 방향인 경우, 상기 음향을 멀티 사운드 채널의 제1 사운드 채널로 할당하는 동작,
    상기 음향에 대응하는 방향이 제2 방향인 경우, 상기 음향을 상기 멀티 사운드 채널의 제2 사운드 채널로 할당하는 동작을 더 포함하는 전자 장치의 음향 처리 방법.
  16. 제 11항에 있어서, 상기 마이크는,
    마이크로 호환 가능한 스피커 또는 마이크로 호환 가능한 리시버 중 적어도 하나를 포함하며,
    상기 영상 촬영 실행 시, 상기 스피커 또는 상기 리시버 중 적어도 하나의 마이크 기능을 활성화하는 동작을 더 포함하는 전자 장치의 음향 처리 방법.
  17. 제 11항에 있어서,
    상기 음향이 상기 피사체와 관련 있다 라고 결정된 경우, 상기 음향의 속성이 변경되지 않는 전자 장치의 음향 처리 방법.
  18. 제 11항에 있어서, 상기 음향이 상기 피사체와 관련되는 지를 결정하는 동작은,
    상기 전자 장치와 상기 오브젝트와의 거리에 기반하여 실행되는 것을 포함하는 전자 장치의 음향 처리 방법.
  19. 제 11항에 있어서,
    상기 카메라와는 다른 카메라를 통해 획득한 적어도 하나의 영상이 얼굴을 포함하는지 확인하는 동작,
    상기 다른 카메라를 통해 획득한 적어도 하나의 영상이 상기 얼굴을 포함하는 경우, 상기 얼굴의 입 부분을 인식하는 동작을 더 포함하며,
    상기 음향이 상기 피사체와 관련되는 지를 결정하는 동작은,
    상기 입 부분이 움직이는 지의 여부에 기반하여 실행되는 것을 포함하는 전자 장치의 음향 처리 방법.
  20. 전자 장치의 음향 처리 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은,
    상기 전자 장치와 기능적으로 연결된 카메라를 이용하여 피사체에 대응하는 적어도 하나의 영상을 촬영하는 동작;
    상기 영상이 촬영되는 적어도 일시 동안, 상기 전자 장치와 기능적으로 연결된 적어도 하나의 마이크를 이용하여 음향을 획득하는 동작;
    상기 음향이 피사체와 관련되는 지를 결정하는 동작;
    상기 음향이 상기 피사체와 관련이 없다라고 결정된 경우, 상기 음향의 적어도 일부 속성을 변경하여 상기 적어도 하나의 영상과 연관하여 저장하는 동작을 포함하는 저장 매체.
KR1020150118088A 2015-08-21 2015-08-21 전자 장치의 음향 처리 방법 및 그 전자 장치 KR102339798B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020150118088A KR102339798B1 (ko) 2015-08-21 2015-08-21 전자 장치의 음향 처리 방법 및 그 전자 장치
US15/187,271 US9967658B2 (en) 2015-08-21 2016-06-20 Method for processing sound by electronic device and electronic device thereof
EP16181106.2A EP3142352B1 (en) 2015-08-21 2016-07-25 Method for processing sound by electronic device and electronic device thereof
PCT/KR2016/008294 WO2017034166A1 (en) 2015-08-21 2016-07-28 Method for processing sound by electronic device and electronic device thereof
CN201680040358.4A CN107852440B (zh) 2015-08-21 2016-07-28 用于由电子设备处理声音的方法及其电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150118088A KR102339798B1 (ko) 2015-08-21 2015-08-21 전자 장치의 음향 처리 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20170022727A true KR20170022727A (ko) 2017-03-02
KR102339798B1 KR102339798B1 (ko) 2021-12-15

Family

ID=56990205

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150118088A KR102339798B1 (ko) 2015-08-21 2015-08-21 전자 장치의 음향 처리 방법 및 그 전자 장치

Country Status (5)

Country Link
US (1) US9967658B2 (ko)
EP (1) EP3142352B1 (ko)
KR (1) KR102339798B1 (ko)
CN (1) CN107852440B (ko)
WO (1) WO2017034166A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132852A1 (ko) * 2019-12-26 2021-07-01 삼성전자 주식회사 오디오 데이터의 출력 방법 및 이를 지원하는 전자 장치
WO2023085872A1 (ko) * 2021-11-15 2023-05-19 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11558538B2 (en) * 2016-03-18 2023-01-17 Opkix, Inc. Portable camera system
JP7009165B2 (ja) * 2017-02-28 2022-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 収音装置、収音方法、プログラムおよび撮像装置
CN111050269B (zh) * 2018-10-15 2021-11-19 华为技术有限公司 音频处理方法和电子设备
WO2020102237A1 (en) 2018-11-13 2020-05-22 Opkix, Inc. Wearable mounts for portable camera
US10966017B2 (en) * 2019-01-04 2021-03-30 Gopro, Inc. Microphone pattern based on selected image of dual lens image capture device
CN110493690B (zh) * 2019-08-29 2021-08-13 北京搜狗科技发展有限公司 一种声音采集方法及装置
CN114374903B (zh) * 2020-10-16 2023-04-07 华为技术有限公司 拾音方法和拾音装置
CN113099031B (zh) * 2021-02-26 2022-05-17 华为技术有限公司 声音录制方法及相关设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281981A (ja) * 2006-04-10 2007-10-25 Sony Corp 撮像装置
US20080075298A1 (en) * 2006-09-27 2008-03-27 Canon Kabushiki Kaisha Image sensing apparatus, method of controlling same and storage medium

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960033032U (ko) 1996-03-14 1996-10-24 김만춘 보안기 e.m.i 표시 lamp
US9412142B2 (en) * 2002-08-23 2016-08-09 Federal Law Enforcement Development Services, Inc. Intelligent observation and identification database system
US20060120541A1 (en) 2003-06-05 2006-06-08 Bhandare Prakash T Combined microphone-loudspeaker
GB2413234B (en) 2004-04-15 2007-09-12 B & W Loudspeakers Diaphragms for loudspeaker drive units or microphones
JP4931907B2 (ja) * 2006-02-27 2012-05-16 パナソニック株式会社 ウェアラブル端末、および、携帯撮像収音装置、およびそれらを実現する装置、方法、プログラム
JP2008193196A (ja) 2007-02-01 2008-08-21 Casio Comput Co Ltd 撮像装置および指定音声出力方法
KR100877269B1 (ko) 2007-05-22 2009-01-09 주식회사 동부하이텍 스피커-리시버-마이크 일체형 장치 및 이를 이용한이동통신 단말기와 이동통신 단말기의 모드 절환 방법
KR20090022718A (ko) 2007-08-31 2009-03-04 삼성전자주식회사 음향처리장치 및 음향처리방법
US8401178B2 (en) * 2008-09-30 2013-03-19 Apple Inc. Multiple microphone switching and configuration
US8150063B2 (en) * 2008-11-25 2012-04-03 Apple Inc. Stabilizing directional audio input from a moving microphone array
KR101041039B1 (ko) 2009-02-27 2011-06-14 고려대학교 산학협력단 오디오 및 비디오 정보를 이용한 시공간 음성 구간 검출 방법 및 장치
US8300845B2 (en) 2010-06-23 2012-10-30 Motorola Mobility Llc Electronic apparatus having microphones with controllable front-side gain and rear-side gain
WO2012103649A1 (en) * 2011-01-31 2012-08-09 Cast Group Of Companies Inc. System and method for providing 3d sound
US9030520B2 (en) * 2011-06-20 2015-05-12 Polycom, Inc. Automatic camera selection for videoconferencing
JP2013106298A (ja) 2011-11-16 2013-05-30 Sony Corp 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置
US9246543B2 (en) * 2011-12-12 2016-01-26 Futurewei Technologies, Inc. Smart audio and video capture systems for data processing systems
KR102060712B1 (ko) * 2013-01-31 2020-02-11 엘지전자 주식회사 이동 단말기, 및 그 동작방법
KR102182398B1 (ko) * 2013-07-10 2020-11-24 엘지전자 주식회사 전자 기기 및 그 제어 방법
US20150022636A1 (en) 2013-07-19 2015-01-22 Nvidia Corporation Method and system for voice capture using face detection in noisy environments
KR102089638B1 (ko) 2013-08-26 2020-03-16 삼성전자주식회사 전자장치의 음성 녹음 방법 및 장치
CN104699445A (zh) 2013-12-06 2015-06-10 华为技术有限公司 一种音频信息处理方法及装置
US9635257B2 (en) * 2014-05-12 2017-04-25 Gopro, Inc. Dual-microphone camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281981A (ja) * 2006-04-10 2007-10-25 Sony Corp 撮像装置
US20080075298A1 (en) * 2006-09-27 2008-03-27 Canon Kabushiki Kaisha Image sensing apparatus, method of controlling same and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132852A1 (ko) * 2019-12-26 2021-07-01 삼성전자 주식회사 오디오 데이터의 출력 방법 및 이를 지원하는 전자 장치
WO2023085872A1 (ko) * 2021-11-15 2023-05-19 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법

Also Published As

Publication number Publication date
WO2017034166A1 (en) 2017-03-02
CN107852440B (zh) 2020-08-14
US20170055072A1 (en) 2017-02-23
EP3142352B1 (en) 2019-10-09
US9967658B2 (en) 2018-05-08
CN107852440A (zh) 2018-03-27
EP3142352A1 (en) 2017-03-15
KR102339798B1 (ko) 2021-12-15

Similar Documents

Publication Publication Date Title
CN111935380B (zh) 电子装置
KR102339798B1 (ko) 전자 장치의 음향 처리 방법 및 그 전자 장치
KR20180083587A (ko) 전자 장치 및 그의 동작 방법
KR102262853B1 (ko) 복수의 마이크를 포함하는 전자 장치 및 이의 운용 방법
KR20170055893A (ko) 외부 객체의 근접에 따른 동작을 수행하는 전자 장치 및 그 방법
KR102324074B1 (ko) 사운드 출력 제어 방법 및 전자 장치
KR20170086814A (ko) 음성 인식 기능을 제공하는 전자 장치 및 그 동작 방법
KR20170090851A (ko) 전자 장치 및 전자 장치에서 디스플레이의 변형에 따라 기능을 실행하기 위한 방법
KR20160105242A (ko) 스크린 미러링 서비스 제공장치 및 방법
KR102502601B1 (ko) 전자 장치 및 음성 신호 제어 방법
KR20170024315A (ko) 에코 제거 방법 및 그 전자 장치
KR102519902B1 (ko) 오디오 데이터를 처리하는 방법 및 이를 제공하는 전자 장치
KR20170004723A (ko) 전자 장치의 동적 프리뷰 디스플레이 방법 및 그 전자 장치
KR20170105262A (ko) 전자장치 및 그의 생체 정보 획득 방법
KR20170081903A (ko) 전자 장치 및 그 동작 방법
KR20170001406A (ko) 전자 장치 및 그의 오디오 변환 방법
KR20180009533A (ko) 음원 재생 시간을 동기화하는 전자 장치 및 시스템
CN107852546B (zh) 电子设备及其输入/输出方法
KR20160031217A (ko) 제어 방법 및 그 방법을 처리하는 전자장치
KR102477522B1 (ko) 전자 장치 및 그의 카메라 노출 조정 방법
KR20170079610A (ko) 전자 장치 및 그의 동작 방법
KR20180065203A (ko) 영상을 표시하는 전자 장치 및 방법
KR20180019278A (ko) 압전소자를 이용하여 디스플레이를 제어하는 장치 및 방법
KR102627012B1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법
KR20170028703A (ko) 영상 촬영 및 영상 출력을 제어하는 전자 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right