KR102252665B1 - 오디오 파일 재생 방법 및 장치 - Google Patents

오디오 파일 재생 방법 및 장치 Download PDF

Info

Publication number
KR102252665B1
KR102252665B1 KR1020140167782A KR20140167782A KR102252665B1 KR 102252665 B1 KR102252665 B1 KR 102252665B1 KR 1020140167782 A KR1020140167782 A KR 1020140167782A KR 20140167782 A KR20140167782 A KR 20140167782A KR 102252665 B1 KR102252665 B1 KR 102252665B1
Authority
KR
South Korea
Prior art keywords
playback
progress bar
audio file
electronic device
audio data
Prior art date
Application number
KR1020140167782A
Other languages
English (en)
Other versions
KR20160026605A (ko
Inventor
권시온
김혜원
신형우
이선영
이승룡
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/842,063 priority Critical patent/US10275207B2/en
Publication of KR20160026605A publication Critical patent/KR20160026605A/ko
Priority to US16/354,858 priority patent/US11301201B2/en
Application granted granted Critical
Publication of KR102252665B1 publication Critical patent/KR102252665B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10018Improvement or modification of read or write signals analog processing for digital recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시 예에 따른 전자 장치는, 복수의 재생 구간 및 각각의 재생 구간에 대한 오디오 데이터 및 방향 정보를 포함하는 오디오 파일을 재생하는 재생 모듈, 및 상기 방향 정보에 대응되는 적어도 하나의 선택 가능한 객체를 제공하는 하는 디스플레이를 포함할 수 있다. 또한 상기 제어 모듈은 상기 객체를 선택하는 입력에 따라 상기 방향 정보에 대응하는 오디오 데이터의 재생 여부를 결정할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

오디오 파일 재생 방법 및 장치{Method and Apparatus for Playing Audio Files}
본 발명의 다양한 실시 예들은 다수의 사용자가 참여한 미팅을 녹음하고, 사용자가 위치한 방향에 따라 녹음된 내용을 재생하는 기술과 관련된다.
기존의 스마트폰과 같은 전자 장치는 마이크를 탑재하고 있다. 사용자의 음성 인식의 정확성과 높은 통화 품질을 제공하기 위해 전자 장치는 2개 또는 그 이상의 마이크를 탑재할 수 있다.
사용자는 전자 장치에 탑재된 마이크를 이용한 음성 녹음 기능을 사용할 수 있다. 또한 사용자는 나중에 녹음된 음성(파일)을 재생하여, 녹음된 내용을 들어볼 수 있다.
기존의 전자 장치를 이용하여 다수의 사용자가 참여한 미팅 상황을 녹음한 경우, 나중에 그 녹음 파일을 다시 재생하더라도 어느 사용자가 어떤 이야기를 한 것인지 목소리만을 이용하여 구분하는 것은 쉽지 않다. 이러한 구분은 미팅에 참여한 사람의 수가 증가할수록 더욱 어려워질 수 있다.
본 발명의 다양한 실시 예들은, 소리가 발생한 방향을 인지하여 저장하고, 선택된 방향의 소리만 재생하는 방법 및 장치를 제공할 수 있다. 예를 들어, 다수의 사용자가 참여한 미팅에서 소리의 방향은 사용자가 위치한 방향에 따라 결정되므로, 소리의 방향과 사용자를 매칭시켜서 선택적으로 특정 사용자의 음성을 재생하는 방법을 제공할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 복수의 재생 구간 및 각각의 재생 구간에 대한 오디오 데이터 및 방향 정보를 포함하는 오디오 파일을 재생하는 재생 모듈, 및 상기 방향 정보에 대응되는 적어도 하나의 선택 가능한 객체를 제공하는 하는 디스플레이를 포함할 수 있다. 또한 상기 제어 모듈은 상기 객체를 선택하는 입력에 따라 상기 방향 정보에 대응하는 오디오 데이터의 재생 여부를 결정할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치에서 미팅 상황을 녹음한 오디오 파일을 재생할 때, 특정 방향에서 발생한 소리 혹은 특정 방향에 위치한 사용자의 소리만 선택적으로 재생할 수 있다. 이를 통해 필요한 사용자의 소리만 선택적으로 확인하거나, 일부 방향의 소리를 선택적으로 제거함으로써 오디오 파일에 기록된 내용을 효과적으로 확인할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 오디오 파일의 특징을 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 오디오 파일을 생성하는 프로세스를 나타낸다.
도 4는 본 발명의 일 실시 예에 따른 오디오 파일을 재생하기 위해 제공되는 UI를 나타낸다.
도 5는 본 발명의 일 실시 예에 따른 객체 선택에 따른 재생 구간의 변화를 나타난다.
도 6은 본 발명의 일 실시 예에 따른 마지막 활성화 객체를 선택했을 때 수행되는 다양한 동작의 예시를 나타낸다.
도 7은 본 발명의 일 실시 예에 따른 사용자 정보를 등록하는 방법을 나타낸다.
도 8은 본 발명의 일 실시 예에 따른 오디오 파일 재생 방법을 나타낸다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
다양한 실시 예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 전자 장치는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자북 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(head-mounted-device(HMD)), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치 (예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 오디오 파일의 특징을 나타낸다.
도 1을 참조하면, 본 발명의 여러 실시 예에서 참조되는 오디오 파일은 복수의 사용자가 참가한 미팅 환경에서 생성될 수 있다. 예를 들어, 사용자 A와 사용자 B가 참석한 미팅에서, 각각의 사용자들은 임의의 위치에서 이야기할 수 있다. 예를 들어, 사용자 A와 사용자 B는 서로 마주보거나, 대각선 방향에 앉아 있거나, 또는 다양한 위치에 착석하여 미팅에 참석할 수 있다.
전자 장치 100은 사용자들이 참여한 미팅 상황을 녹음할 수 있다. 전자 장치 100은 미팅에 참여한 사용자 중 어느 사용자가 이야기하고 있는지 판단하기 위해 복수의 마이크(예: 마이크 110, 마이크 120)를 포함할 수 있다. 예를 들어, 상기 복수의 마이크는 전자 장치 100의 상단 및 하단부에 위치하고, 전자 장치 100 주변의 소리를 인식할 수 있다.
전자 장치 100이 복수의 마이크를 이용하여 소리를 획득하는 것은 다양한 장점을 가질 수 있다. 예를 들어, 전자 장치 100은 복수의 마이크에서 발생하는 소리의 위상 차이를 이용하는 것과 같은 방향 인식 알고리즘을 이용하여 소리가 발생한 방향을 판단할 수 있다. 또한 전자 장치 100은 각각의 마이크에서 획득된 소리 데이터를 비교하여 잡음 제거(noise cancelling)를 수행할 수 있다.
전자 장치 100은 마이크 이외의 다른 소리 인식 모듈을 이용하여 소리를 획득할 수 있다. 전자 장치 100은 소리 및 그 소리가 발생한 방향을 획득할 수 있는 구성요소를 포함하는 것으로 충분하다. 따라서 전술한 마이크의 일부 또는 전부는 소리 인식 기능을 지원하는 다양한 센서로 대체될 수 있다.
도 1의 예시에서, 전자 장치 100은 일정 크기 이상의 데시벨(dB)을 만족하는 소리를 사용자의 발화(speech)로 판단하고, 이 기준을 만족하지 못하는 크기의 소리는 잡음으로 처리할 수 있다. 또한 전자 장치 100은 사용자의 음성에 해당하는 오디오 데이터와 함께, 해당 음성이 들리는 방향을 인식할 수 있다.
전자 장치 100은 임의의 방향을 기준으로 하여 소리의 방향을 복수 개의 그룹으로 나눌 수 있다. 임의의 방향은 전자 장치의 하단 마이크에서 상단 마이크를 향하는 방향, 또는 자기 센서에 의한 진북 또는 자북 방향, 또는 사용자에 의해 설정된 방향 등이 될 수 있다. 도 1의 예시에서, 전자 장치는 북쪽을 기준으로 하여 시계 방향으로 90도씩 할당된 그룹(예: 북동(NW), 남동(SE), 남서(SW), 북서(NW))으로 소리의 방향을 구분할 수 있다. 이와 같은 설정은 예시적인 것이며, 전자 장치 100의 성능 또는 전자 장치 100에 포함된 마이크의 개수나 성능에 따라 더욱 세분화될 수 있다. 예를 들어, 전자 장치 100은 임의의 방향을 기준으로 하여 시계 방향으로 각각 45도의 범위를 갖는 8개의 그룹 또는 각각 30도의 범위를 갖는 12개 그룹으로 소리의 방향을 구분할 수 있다. 또한 다양한 실시 예에서, 전자 장치 100은 소리의 방향을 서로 다른 범위를 갖는 그룹으로 구분할 수 있다. 예를 들어, 가로가 세로보다 긴 직사각형 테이블에서 여덟 명이 참여한 미팅을 하는 경우(예: 세로 변엔 각각 한 명, 가로 변엔 각각 세 명씩 착석한 경우), 전자 장치 100은 세로 변에 앉은 사용자의 음성을 획득하기 위한 60도 범위로 설정된 2개의 그룹 및 가로 변에 앉은 사용자의 음성을 획득하기 위한 40도 범위로 설정된 6개의 그룹으로 소리의 방향을 구분할 수 있다.
다시 도 1을 참조하면, 전자 장치 100은 북서 방향에서 들리는 소리는 사용자 A의 음성으로, 남동 방향에서 들리는 소리는 사용자 B의 음성으로 판단하고, 각각의 사용자에 대응되는 오디오 데이터 및 그 방향 정보를 오디오 파일 140에 저장할 수 있다. 전자 장치 100은 잡음 제거의 일환으로 아무 소리도 들리지 않은 방향 또는 지정된 기준의 데시벨을 충족하는 소리가 없었던 방향의 오디오 데이터를 모두 삭제(무음 처리)할 수 있다. 추가적으로 또는 대체적으로, 전자 장치 100은 지정된 기준의 데시벨을 충족하는 소리가 없었던 방향의 오디오 데이터를 이용하여 사용자 음성에 대한 잡음 제거(예: ANC(Active Noise Cancellation) 등)의 입력으로 활용할 수 있다. 또한 전자 장치 100은 여러 방향(서로 다른 그룹의 방향)에서 소리가 인식되는 경우, 데시벨이 더 높은 소리를 오디오 파일 140에 포함시킬 것으로 결정할 수 있다.
전술한 방법에 의해 생성된 오디오 파일 140은 다양한 구간을 가질 수 있다. 예를 들어, 도 1의 예시에서 오디오 파일 140은 사용자 A의 음성에 해당하는 구간, 사용자 B의 음성에 해당하는 구간, 및 누구의 음성도 포함되지 않은 무음 구간을 포함할 수 있다. 즉 오디오 파일 140은 복수의 재생 구간을 가지며, 각각의 재생 구간에 대응되는 방향 정보(즉, 이 방향 정보는 사용자 정보로 치환 가능)를 포함할 수 있다. 도 1의 오디오 파일 140은 설명의 편의를 위한 간단한 예시이며, 오디오 파일은 더욱 복잡한 구조를 가질 수도 있다. 예를 들어, 오디오 파일은 사용자 1~사용자 12에 해당하는 재생 구간 및 무음 구간을 가지고, 각각의 재생 구간은 30도의 범위를 갖는 12개의 방향 그룹에 각각 대응될 수 있다.
명시하지 않는 한, 본 명세서에서 설명되는 오디오 파일은 전술한 오디오 파일 140의 특징을 가질 수 있다. 이하에서 설명되는 다양한 실시 예에서, 전자 장치 100은 특정 사용자(또는 특정 방향)를 선택하여 해당 사용자의 음성(즉, 그 사용자에 대응되는 재생 구간)을 선택적으로 재생할 수 있다. 이하에서는 도 2를 참조하여 본 발명의 일 실시 예에 해당하는 전자 장치의 구조를 설명하고, 도 3 및 도 4 이하를 참조하여 오디오 파일 생성 방법 및 오디오 파일 재생과 관리에 관한 다양한 방법을 설명한다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타낸다.
도 2를 참조하면, 전자 장치 200은 제1 마이크 210, 제2 마이크 220, 제어 모듈 230, 디스플레이 240, 및 스피커 250을 포함할 수 있다. 제어 모듈 230은 녹음 모듈 231 및 재생 모듈 233을 포함할 수 있다. 전자 장치 200은 전술한 도 1의 전자 장치 100의 일 실시 예로 이해될 수 있다.
전자 장치 200의 구성은 예시적인 것이며, 대응하는 기능을 수행하는 센서 또는 모듈 등으로 대체될 수 있다. 또한 실시 형태에 따라 전자 장치의 일부 구성이 생략되거나 추가될 수 있다. 예를 들어 전자 장치 200이 오디오 파일(예: 오디오 파일 140)의 녹음 기능만 수행하는 경우에는 재생 모듈 233 및 스피커 240에 해당하는 구성은 생략될 수 있다. 마찬가지로, 전자 장치 200이 오디오 파일의 재생 기능만 수행하는 경우 마이크 210, 220, 및 녹음 모듈 231은 생략될 수 있다. 만약 전자 장치 200이 외부 장치 또는 서버 등으로부터 오디오 파일을 수신하거나, 외부 장치 등으로 오디오 파일을 제공하는 경우, 전자 장치 200은 통신 모듈(미도시)을 더 포함할 수 있다.
제1 마이크 210과 제2 마이크 220은 전자 장치 200 주변의 소리를 인지하고 소리에 대한 정보를 획득하여 제어 모듈 230으로 제공할 수 있다. 다른 실시 예에서, 전자 장치 200은 3개 이상의 마이크를 포함할 수 있다. 전자 장치 200은 각각의 마이크로부터 획득된 아날로그 신호를 디지털 신호로 변환하기 위한 D/A 컨버터(digital/analog converter)를 더 포함할 수 있다. 또한 전자 장치 200에 포함되는 복수의 마이크(예: 제1 마이크 210, 제2 마이크 220)는 서로 다른 위치에 배치될 수 있다. 예를 들어, 제1 마이크 210은 전자 장치 200의 상단에, 제2 마이크는 하단에 위치할 수 있다.
제어 모듈 230은 마이크로부터 획득된 소리 정보를 이용하여 오디오 파일을 생성할 수 있다. 예를 들어, 녹음 모듈 231은 마이크로부터 획득된 소리 정보로부터 오디오 데이터를 추출하고 소리가 발생한 방향을 판단하여 오디오 파일을 생성할 수 있다. 다양한 실시 예에 따른 오디오 파일의 생성 방법에 대하여 도 3을 참조하여 후술한다.
제어 모듈 230은 오디오 파일을 재생할 수 있다. 예를 들어, 재생 모듈 233은 전술한 구간별 오디오 데이터 및 방향 정보를 갖는 오디오 파일을 재생할 수 있다. 재생 모듈 233은 방향 정보를 갖지 않는 일반적인 오디오 파일(예: mp3 파일 등) 또한 재생할 수 있다. 제어 모듈 230은 사용자 선택에 따라 특정 방향에서 발생한 오디오 데이터(특정 사용자의 음성)가 재생되도록 재생 모듈 233을 제어할 수 있다.
다양한 실시 예에서, 제어 모듈 230은 프로세서(processor)로 이해될 수 있다. 예를 들어, 제어 모듈 230은 CPU(Central Processing Unit) 또는 AP(Application Processor)와 같은 연산 장치에 대응될 수 있다. 프로세서는 본 문서에 개시된 다양한 전자 장치의 제어를 수행할 수 있다.
디스플레이 240은 녹음 상태 또는 재생 상태를 출력할 수 있다. 예를 들어, 디스플레이 240은 현재 어느 방향에서 발생한 소리가 오디오 파일로 기록되고 있는지를 나타낼 수 있다. 디스플레이 240이 제공하는 다양한 사용자 인터페이스(user interface, UI)는 도 4 내지 도 7을 참조하여 후술한다.
전자 장치 200은 스피커 250을 포함할 수 있다. 스피커 250을 통해 재생 모듈 233에 의해 재생되는 오디오 데이터가 출력될 수 있다. 그러나 일부 실시 예에서, 오디오 파일은 전자 장치 200의 스피커 250이 아닌 다른 장치를 이용하여 재생될 수 있다. 예를 들어, 전자 장치 200은 Wi-Fi 또는 Bluetooth와 같은 네트워크 연결을 지원하는 통신 모듈을 포함하고, 전자 장치는 이 통신 모듈을 통해 스피커 기능을 지원하는 외부 장치(예: Bluetooth 스피커)와 연결될 수 있다. 전자 장치 200의 제어 모듈 230은 통신 모듈을 통해 재생될 오디오 데이터를 상기 외부 장치로 전달할 수 있고, 이러한 경우 오디오 파일은 외부 장치를 통해 재생될 수 있다. 위 예시는 Bluetooth와 같은 무선 네트워크 연결을 이용한 예시이지만, 전자 장치 200은 유선으로 스피커 장치와 연결될 수도 있다. 이상은 예시적인 구성이며, 동종의 전자 장치(예: 스마트폰 - 스마트폰) 또는 이종의 전자 장치(예: 스마트폰 - 스마트 워치, 스마트폰 - 태블릿, PC - 스마트폰 등) 사이의 유/무선 연결을 통해 오디오 파일을 재생하는 것이 가능하다.
부가적으로, 도시하지는 않았으나 전자 장치 200은 메모리를 추가적으로 포함할 수 있다. 상기 메모리에는 마이크 1 210 및 마이크 2 220에 의해 획득된 소리 데이터 및 그 편집 데이터 등이 저장될 수 있다. 이 외에도, 메모리에는 상기 데이터를 획득하거나 편집, 또는 재생하기 위한 어플리케이션이 저장 또는 설치되어 있을 수 있다. 메모리에 저장되어 있는 다양한 파일, 데이터, 명령어 등은 프로세서(예: 제어 모듈 230)에 의해 실행될 수 있다.
도 3은 본 발명의 일 실시 예에 따른 오디오 파일을 생성하는 프로세스를 나타낸다.
도 3을 참조하면, 동작 310에서 전자 장치 200은 녹음 기능을 실행할 수 있다. 예를 들어, 전자 장치 200이 지원하는 녹음 어플리케이션 또는 미팅 어플리케이션이 실행될 수 있다. 녹음 기능이 실행될 때, 전자 장치 200은 소리가 입력될 것으로 예상되는 방향을 사용자 입력 또는 지정된 설정 등에 기초하여 미리 결정할 수 있다. 예를 들어, 4명의 사용자가 참가하는 미팅인 경우, 90의 범위를 가지는 4개의 방향을 미리 구분할 수 있다. 일부 실시 예에서, 전자 장치 200은 모든 방향으로부터 소리를 획득하고, 전자 장치 200에서 지원 가능한 최대한의 개수로 소리의 방향을 구분할 수 있다. 예를 들어, 전자 장치 200이(또는 전자 장치 200에 탑재될 수 있는 복수 개의 마이크가) 소리의 방향에 대하여 30도의 범위에서 유의미한 정확성을 제공하는 경우, 전자 장치 200은 획득된 소리를 12개의 방향(12*30도 = 360도)으로 구분할 수 있다.
다양한 실시 예에서, 전자 장치 200은 일부 방향에서 발생하는 소리를 차단할 수 있다. 예를 들어, 미팅에 참석한 사람이 세 명이고 각각 동, 서, 남쪽 방향에서 이야기 하는 경우, 북쪽 방향에서 발생하는 소리는 미팅과 상관없는 소리일 수 있다. 따라서 전자 장치 200은, 예를 들어 사용자가 위치할 수 있는 방향을 입력 받고 사용자가 위치하지 않은 방향에서의 소리 입력을 오디오 파일에서 제외시킬 수 있다. 일부 실시 예에서, 전자 장치 200은 오디오 파일이 생성된 후에 사용자 입력을 통해 특정 방향의 소리 입력을 삭제할 수도 있다.
동작 320에서 전자 장치 200은 소리 정보를 획득할 수 있다. 소리 정보는 복수의 마이크를 통해 획득될 수 있다. 다양한 실시 예에서, 소리 정보는 다수의 마이크를 통해 획득될 수 있으며, 이 경우 상대적으로 높은 소리의 정확성이 담보될 수 있다.
동작 330에서 전자 장치 200은 동작 320에서 획득된 소리 정보에 기초하여 오디오 파일을 생성할 수 있다. 동작 330에서 생성된 오디오 파일은 복수의 재생 구간을 가질 수 있다. 각각의 재생 구간은 오디오 데이터 및 방향 정보를 포함할 수 있다. 그러나 복수의 재생 구간 중 일부의 재생 구간은 아무런 소리도 재생되지 않는 구간일 수 있다. 본 발명에서 이러한 재생 구간은 무음 구간으로 지칭될 수 있다.
이하에서는 동작 331, 333, 335를 참조하여 동작 330을 자세하게 설명한다. 동작 331에서 전자 장치 200은 동작 320에서 획득된 소리 정보로부터 구간별 오디오 데이터 및 방향 정보를 획득할 수 있다. 여기서 방향 정보는 가장 데시벨이 높은 소리에 대한 방향 정보일 수 있다. 예를 들어, 전자 장치 200은 소리 정보가 발생한 방향이 다른 방향으로 바뀌거나 소리의 크기(데시벨)이 기준 값 이하로 내려가는 지점(또는 기준 값 이하가 기준 시간(예: 2초) 이상 유지되는 경우에 상기 지점)을 기준으로 하나의 재생 구간을 정의할 수 있다. 예를 들어, 제1 방향에서 소리가 발생하다가 제2 방향에서 소리가 발생하는 경우, 사용자는 제1 방향에서 발생한 소리를 첫 번째 재생 구간에 할당하고, 제2 방향에서 발생한 소리를 두 번째 재생 구간에 할당할 수 있다. 만약 다시 제1 방향에서 소리가 발생하거나 제3 방향에서 소리가 발생하는 경우, 해당 방향에서 발생한 소리를 제3 구간에 할당할 수 있다. 또한 기준 값 이상의 데시벨을 갖는 소리가 발생하지 않는 경우, 해당 구간을 무음 구간으로 할당할 수 있다.
동작 333에서 전자 장치 200은 획득된 오디오 데이터에 대한 신호 처리를 수행할 수 있다. 신호 처리는 잡음 제거(noise cancelling) 기법을 포함할 수 있다. 또한 전자 장치 200은 임의의 재생 구간에서 획득된 오디오 데이터 중 해당 방향에서 발생하지 않은 오디오 데이터를 모두 제거할 수 있다. 예를 들어, 1~10초 동안 0~30도 사이의 방향의 사용자 음성이 주 데이터(가장 데시벨이 높은 소리)라고 판단되는 경우, 30도~360도(330도 범위)의 오디오 데이터는 1~10초의 재생 구간에서 제거할 수 있다.
동작 335에서 전자 장치 200은 전술한 오디오 데이터와 방향 정보를 포함하는 오디오 파일을 저장할 수 있다. 해당 오디오 파일은 각 방향에 대응하는 재생 구간에 대한 정보를 메타 정보로 가지고 있을 수 있다. 예를 들어, 10개의 구간을 가지는 오디오 파일에서, 제1 방향(즉, 제1 사용자)의 오디오 데이터는 2, 4, 7, 9 구간, 제2 방향(제2 사용자)의 오디오 데이터는 1, 3, 5, 10 구간, 아무 소리도 없는(어느 사용자도 이야기하지 않은) 무음 구간은 6, 8구간이라는 정보가 상기 오디오 파일에 포함될 수 있다.
도 4는 본 발명의 일 실시 예에 따른 오디오 파일을 재생하기 위해 제공되는 UI를 나타낸다.
도 4를 참조하면, 사용자가 오디오 파일의 재생 기능을 실행할 때 도 4에 도시된 것과 같은 UI가 제공될 수 있다. 도 4에 도시된 UI는 예시적인 것이며, 적절한 형태로 변형될 수 있다.
일 실시 예에서, 미팅 어플리케이션 또는 오디오 재생 어플리케이션(예: 뮤직 플레이어) 등이 실행될 때, 도 4의 좌측 UI 401이 제공될 수 있다. UI 401은 재생 가능한 컨텐츠의 목록을 나타내는 재생 목록 410 및 컨텐츠의 재생 및 편집 등와 관련된 기능을 제어하는 컨트롤 영역 420을 포함할 수 있다.
재생 목록 410은 도 3의 방법으로 생성된 오디오 파일 외에 일반적인 음악 파일 등을 포함할 수 있다. 예를 들어, 재생 목록 410은 본 발명의 일 실시 예에 따른 방향 정보를 갖는 오디오 항목 411, 412(예: meeting_140826, meeting_140727), 노래(pop songs) 항목 413, 414(예: Fearless - Taylor Swift, Lose Yourself - Eminem), 및 사용자의 음성 녹음 항목 415(예: Voice Recording) 등과 같이 다양한 타입의 오디오 파일을 포함할 수 있다. 그러나 일부 실시 예에서, 재생 목록 410은 본 발명의 일 실시 예에 따른 방향 정보를 갖는 오디오 파일만 포함할 수도 있다. 또한 재생 목록 410은 오디오 파일이 방향 정보를 갖는 오디오 파일인 경우, 해당 오디오 파일에 대한 표시(예: 아이콘 419)를 함께 제공할 수 있다.
재생 목록 410의 영역(예: 세로 길이)은 고정되어 있을 수 있다. 예를 들어, 다수의 컨텐츠가 재생 목록 410에 포함되어 있는 경우, 컨텐츠 목록을 스크롤 하더라도 디스플레이 240의 하단의 소정 영역에 표시되는 컨트롤 영역 420의 위치는 고정될 수 있다. 다시 말해서, 재생 목록 410은 컨트롤 영역 420을 제외한 나머지 영역에서 스크롤 될 수 있다.
재생 목록 410에 포함된 컨텐츠 중 임의의 컨텐츠가 선택되면, UI 401은 우측의 UI 402와 같이 변경될 수 있다. 예를 들어, 재생 목록 410이 확장형 목록(expandable list)인 경우, 사용자가 오디오 항목 411을 선택(예: 터치 입력 400)하면, 오디오 항목 411과 오디오 항목 412 사이의 영역이 확장되면서 오디오 항목 411에 대응되는 오디오 파일에 포함된 방향 정보(또는 각 방향에 대응되는 사용자 정보)에 대응되는 객체가 영역 430에 출력될 수 있다. 재생 목록 410 중 선택되지 않은 다른 컨텐츠 412, 413, 414, 415 등은 영역 420에 가려질 수 있다. 즉, UI 401에 도시된 영역 410은, 임의의 컨텐츠가 선택되면 선택된 컨텐츠의 목록(예: 오디오 파일 411) 및 선택된 컨텐츠와 관련된 항목(예: 영역 430에 표시되는 객체들)으로 대체될 수 있다. 만약 터치 입력 400이 일반적인 음악 항목 413(Fearless - Taylor Swift)에 대해서 이루어지면 항목 413과 항목 414 사이의 영역(경계)이 확장되면서 생성되는 영역 430에 해당 노래의 가사 또는 앨범 아트(album art) 등이 출력되고, 항목 411, 412는 UI 402의 상단으로, 항목 414, 415 등은 UI 402의 하단으로 이동하여 디스플레이 240에서 보이지 않게 될 수 있다. 만약 UI 402에서 사용자가 화면을 스크롤 하는 경우, 재생 목록의 확장에 의해 숨겨진 항목들이 표시될 수 있다.
다양한 실시 예에서, 사용자의 재생 목록 410에 대한 입력은 컨트롤 영역 420에 영향을 주지 않을 수 있다. 즉, 재생 목록 410이 확장되더라도 컨트롤 영역 420은 유지될 수 있다. 또한 컨트롤 영역 420에 대한 입력도 재생 목록 410에 대하여 영향을 주지 않을 수 있다. 예를 들어 컨트롤 영역 420의 재생 버튼 429가 선택되어 특정 컨텐츠(예: 항목 411)가 재생되더라도, 화면의 UI가 402로 변경되지 않을 수 있다.
다양한 실시 예에서, 재생 목록 410은 한 번에 하나의 항목에 대한 세부 정보 영역 430을 제공할 수 있다. 예를 들어, 전술한 항목 411이 선택된 예시에서, 사용자가 스크롤을 통해 항목 414를 선택하면, 항목 411과 항목 412 사이에 위치하던 세부 정보 영역 430은 닫혀서 사라지고 항목 414와 항목 415 사이에서 항목 414에 대한 정보(예: 앨범 아트, 가사 등)가 제공될 수 있다. 다시 말해서, 사용자가 스크롤을 통해 항목 414를 선택하면, 도 4의 영역 410에는 항목 414가 위치하고, 도 4의 영역 430에는 항목 414에 대한 정보가 제공되고, 항목 420에 의해 가려진 영역 430의 아래쪽으로 (스크롤을 통해 확인할 수 있는) 항목 415(및 다른 추가적인 항목들)가 위치할 수 있다.
UI 402를 참조하면, 복수의 재생 구간 및 각각의 재생 구간에 대한 오디오 데이터 및 방향 정보를 포함하는 오디오 파일이 재생되면, 전자 장치 200은 오디오 파일을 분석하여, 해당 오디오 파일이 포함하는 방향(방향 그룹)의 개수, 해당 오디오 파일이 생성될 때 설정된 방향의 개수, 각 방향에 해당하는 재생 구간 및 무음 구간 등에 대한 정보를 판단할 수 있다. 예를 들어, 도 4에 도시된 예시에서, 전자 장치 200은 오디오 파일 “meeting_140826”을 분석하여, 상기 오디오 파일의 재생 구간은 3개의 방향으로부터 획득된 오디오 데이터를 포함하고, 6개의 방향이 인식 가능한 상태에서 생성되었다는 정보를 획득할 수 있다.
전자 장치 200은 각각의 방향 정보에 대응되는 선택 가능한 객체를 디스플레이 할 수 있다. 예를 들어, 전자 장치 200은 전술한 6개의 방향에 대응하는 여섯 개의 객체를 디스플레이 240에 출력할 수 있고, 이 중 실제로 오디오 데이터가 입력된 3개의 방향에 대응되는 객체 431, 432, 434는 선택 가능할 수 있다. 선택 가능한 객체에 대한 사용자 입력에 따라 전자 장치 200(재생 모듈 233)은 오디오 파일을 다른 방식으로 재생할 수 있다. 이와 관련하여 도 5를 참조하여 후술한다.
상술한 예시에서, 선택 가능하지 않은 객체(예: 객체 433)는 점선 또는 흐릿하게 디스플레이 되거나, 혹은 디스플레이 되지 않을 수 있다. 또한, 선택 가능한 객체 중 현재 선택되어 있는 객체(예: 객체 431, 434)는 특정 색상으로 표시되고 선택되어 있지 않은 객체(예: 객체 432)는 흑백 또는 테두리 등으로 표시될 수 있다. 이와 같은 표시 방법은 예시적인 것이며, 설정에 따라 다양한 표시 방법이 이용될 수 있다. 한편, 선택 가능한 객체 중 현재 선택되어 있는 객체는 활성화 상태의 객체 또는 활성화 객체(active object)로, 선택되어 있지 않은 객체는 비활성화 상태의 객체 또는 비활성화 객체(in-active object)로 이해될 수 있다.
다양한 실시 예에서, 현재 전자 장치 200의 스피커 250을 통해 출력되고 있는 재생 구간이 특정 방향(예: 객체 434에 해당하는 방향)에 해당하는 경우, 디스플레이 240은 해당 객체 434에 별도의 효과를 표시할 수 있다. 예를 들어, 객체 434 주위로 소정의 표시가 나타나거나, 객체 434의 색상이 변경되거나, 객체 434가 깜박거릴 수 있다. 이상의 효과들은 예시적인 것이며, 다양한 효과가 적용될 수 있다.
컨트롤 영역 420은 컨텐츠의 재생 또는 편집에 대한 다양한 제어를 제공할 수 있다. 예를 들어, 아이콘 421은 컨텐츠의 일부를 잘라내어 컨텐츠의 길이를 편집할 수 있다. 예를 들어, 항목 411을 선택하고 아이콘 421을 선택하여 항목 411에 대응되는 오디오 파일의 일부 구간을 삭제할 수 있다. 일부 실시 예에서, 아이콘 421은 오디오 파일에 포함된 복수의 재생 구간 단위의 삭제를 지원할 수 있다. 예를 들어, 오디오 파일에 포함된 여러 구간 중, 사용자 A의 음성 데이터가 포함된 제1 구간 및 사용자 B의 음성 데이터가 포함된 제2 구간을 삭제할 수 있다. 또한 아이콘 421은 방향 단위(사용자 단위)의 삭제를 지원할 수 있다. 예를 들어 아이콘 421을 선택하여 객체 431 방향에 대응되는 모든 재생 구간을 삭제할 수 있다.
아이콘 422는 컨텐츠의 특정 구간에 대한 반복을 지원할 수 있다. 컨텐츠가 복수의 재생 구간을 갖는 오디오 파일인 경우, 아이콘 422는 재생 구간 단위의 반복 기능을 지원할 수 있다.
아이콘 423은 배속 재생 기능을 지원할 수 있다. 일부 실시 예에서 아이콘 423은 특정 방향에 대응되는 재생 구간에 대한 배속 기능을 지원할 수 있다. 예를 들어, 미팅에 참여한 사용자 중, 객체 433 방향에 대응되는 사용자가 불필요한 말을 많이 하거나 다른 사람에 비해 특별이 말을 느리게 하는 경우, 아이콘 423을 이용하여 객체 433에 대응되는 오디오 데이터를 빠르게(예: x1.2) 재생할 수 있다.
아이콘 424는 무음 구간에 대한 스킵 기능을 제공할 수 있다. 예를 들어, 아이콘 424가 비활성화(skip silence off)되어 있는 경우 무음 구간에 대한 재생이 유지될 수 있다. 만약 아이콘 424가 활성화(skip silence on)되어 있는 경우, 재생 모듈 233은 무음 구간을 건너뛸 수 있다. 이 기능은 미팅 중 어느 사용자도 발언하지 않은 구간을 건너 뛰어 미팅 내용을 보다 빠르게 확인할 수 있을 때 유용하다. 일부 실시 예에서, 아이콘 424는 기본적으로 비활성화 되어 있을 수 있다. (만약 재생 목록 410이 일반적인 음악 파일이나, 외국어 레슨 용 파일 등을 포함할 때 아이콘 424가 활성화되어 있다면 무음 구간이 스킵되어 해당 파일의 재생이 이상하게 들릴 수 있다.) 다른 일부 실시 예에서, 영역 430에 표시된 선택 가능한 객체 중 어느 하나의 객체가 비활성화 된 경우(해당 객체에 대응되는 재생 구간의 오디오 데이터가 재생되지 않아 결과적으로 무음 구간이 증가하게 되는 경우), 아이콘 424는 자동으로 활성화 될 수 있다. 이 경우 재생 모듈 233은 활성화된 객체에 대응하는 오디오 데이터만 출력하고, 선택되지 않은 객체에 대응하는 오디오 데이터 및 무음 구간은 건너뛸 수 있다. 물론, 다양한 실시 예에서, 아이콘 424는 사용자 선택에 의해 활성화/비활성화 될 수 있다.
아이콘 425는 북마크 기능을 제공할 수 있다. 북마크 기능은 전술한 다른 기능과 유사하게 오디오 파일 전체에도 적용될 수 있고, 오디오 파일 중 특정 재생 구간이나 특정 사용자(방향)에 대응하는 재생 구간에도 적용될 수 있다.
진행 바(progress bar) 426은 오디오 파일의 재생 상황을 나타낸다. 또한 일부 실시 예에서 진행 바 426은 재생 구간에 대한 정보를 포함할 수 있다. 이 외에 아이콘 427, 428, 426는 일반적인 되감기/이전 트랙, 빨리감기/다음트랙, 재생/일시정지와 같은 일반적인 재생 기능을 지원하는 아이콘으로, 자세한 설명은 생략한다.
도 4의 실시 예에서, 전자 장치 200은 UI 401에서 UI 402로의 변화를 제공할 수 있다. 그러나 일부 실시 예에서, 전자 장치 200은 UI 402를 바로 제공할 수 있다. 예를 들어, SMS나 채팅 메시지, 이메일, 웹사이트 등에서 소정의 오디오 파일(복수의 재생 구간 및 방향 정보를 포함하는 오디오 파일)을 선택하는 경우, UI 402가 바로 제공될 수 있다.
도 5는 본 발명의 일 실시 예에 따른 객체 선택에 따른 재생 구간의 변화를 나타난다.
도 5에 도시된 원형 객체 구조 510은, 도 4의 영역 430에 디스플레이 되는 복수의 객체의 다른 예시로 이해될 수 있다. 전자 장치 200은 디스플레이 240에 다양한 형태로 방향 정보에 대응되는 객체들을 표시할 수 있다. 일 실시 예에서는 도 4에 도시된 것과 같이 복수의 원형 아이콘에 각각의 방향 정보를 매칭시킨 복수의 객체들을 디스플레이 할 수 있고, 다른 실시 예에서는 방향 정보에 대응되도록 분할된 고리(ring) 구조로 객체 구조를 디스플레이 할 수 있다. 이하에서는 도 5에 도시된 예시를 기준으로 설명한다.
도 5에 도시된 객체 구조 510은 8개의 객체를 포함할 수 있다. 이 중에서, A 방향, B 방향, C 방향, 및 D 방향에 해당하는 4개의 객체들 511은 선택 가능한 객체일 수 있다. 객체 511은 각각의 방향에 대응되는 오디오 데이터 또는 재생 구간에 대응될 수 있다.
상기 4개의 방향에 해당하지 않는 다른 객체들 513은 선택 불가능할 수 있다. 일 실시 예에서, 상기 4개의 객체는 표시되지 않거나, 구분되지 않을 수 있다. 예를 들어, C 방향과 D 방향 사이의 2개의 방향에 대한 구분이 없을 수 있다. 이하에서는 A 방향, B 방향, C 방향, D 방향을 각각 사용자 A, 사용자 B, 사용자 C, 사용자 D에 대응시켜 설명한다.
도 5의 오디오 파일이 재생을 시작할 때, 모든 사용자의 음성이 재생될 수 있다. 이 경우, 진행 바 426은 균일하게(예를 들어, 단색으로, 또는 하나의 패턴으로) 디스플레이 될 수 있다. 그러나 일부 실시 예에서, 진행 바 426은 진행 바 520에 대응되는 구간 표시를 가질 수 있다. 예를 들어, 도 5의 오디오 파일이 4명의 사용자에 대응되는 12개의 구간을 가지는 경우, 전자 장치 200은 무음 구간(6구간, 8구간) 및 무음 구간이 아닌 구간 (예: 1~5구간(A-B-A-C-D), 7구간(A), 9~12구간(B-D-C-A))을 구분하여 진행 바 426을 표시할 수 있다. 예를 들어, 전자 장치 200은 상기 무음 구간은 흰색, 상기 무음 구간이 아닌 구간은 회색 등으로 구별되도록 표시할 수 있다.
도 5의 예시에서, 사용자 B 및 사용자 D에 대한 선택 입력이 이루어지면, 사용자 B와 사용자 D에 대응되는 객체가 비활성화 상태로 변경될 수 있다. 이 경우, 비활성화 상태인 객체에 대응되는 재생 구간의 오디오 데이터는 재생되지 않을 수 있다. 예를 들어, 사용자 B에 대응되는 2, 9구간과, 사용자 D에 대응되는 5, 10구간의 오디오 데이터는 재생되지 않을 수 있다. 전자 장치 200은 상기의 입력이 제공되면 진행 바 426의 구간 표시를 진행 바 530에 대응되는 형태로 변경할 수 있다. 예를 들어, 전자 장치 200은 진행 바 426을 진행 바 540과 같은 형태로 변경할 수 있다.
진행 바 540에서, 진행 지점 541은 현재 오디오 파일이 재생되고 있는 지점을 나타낸다. 일부 실시 예에서, 진행 지점 541은 4구간(사용자 C의 오디오 데이터 재생 구간)에 도달하면 비활성화된 재생 구간(사용자 D의 오디오 데이터 재생 구간인 5구간) 및 무음 구간(6구간)을 건너 뛰어 7구간으로 이동할 수 있다. 예를 들어, 전자 장치 200은 아이콘 424가 활성화되어 있거나, 혹은 다른 설정 등에 의해 무음 구간을 스킵하도록 되어 있는 경우, 무음 구간(실제 무음 구간 및 사용자(방향) 선택에 의해 무음 처리되는 구간을 포함)을 재생하지 않도록 결정할 수 있다.
일 실시 예에서, 모든 사용자가 활성화 상태이고 진행 지점이 9구간에 위치한 경우, 오디오 파일의 남은 재생 구간에는 사용자 B, D, C, A의 오디오 데이터가 포함될 수 있다. 이제 진행 지점 541이 10구간으로 이동하면, 오디오 파일의 남은 재생 구간에는 사용자 D, C, A만이 포함될 수 있다. 이 경우, 선택 가능한 객체 511 중 사용자 B에 해당하는 객체는 자동으로 비활성화 상태로 변경될 수 있다. 즉, 객체 구조 510은 남아있는 오디오 데이터의 사용자 정보(방향 정보)를 제공할 수 있다. 이 상황에서, 만약 진행 지점이 9구간 이전의 임의의 지점으로 이동되면, 사용자 B에 해당하는 객체는 다시 활성화 상태로 변경될 수 있다. 그러나 사용자의 선택에 의해 수동으로 비활성화 된 객체는, 진행 지점이 변경되더라도 사용자의 활성화 입력이 있기 전에는 비활성화 상태가 유지될 수 있다.
도 6은 본 발명의 일 실시 예에 따른 마지막 활성화 객체를 선택했을 때 수행되는 다양한 동작의 예시를 나타낸다.
도 6의 UI 601은, 예를 들어 도 4의 UI 401에서 Voice 1(객체 431) 및 Voice 2(객체 432)가 비활성화 되어 있고 유일하게 활성화 상태인 Voice 3(객체 434)만 재생 중인 상황에서, Voice 3을 비활성화 상태로 전환하기 위한 입력 600이 제공되는 화면을 나타낸다.
입력 600에 의해 모든 재생 가능한 객체가 비활성화 될 수 있는 경우, 전자 장치 200은 다양한 동작을 수행할 수 있다. 도 6에서는 3가지의 가능한 동작을 예시하고 있으나, 다양한 변형 예들이 가능하다.
우선, (예시 ①) 전자 장치 200은 UI 603을 제공할 수 있다. 마지막 활성화 객체를 비활성화 시키는 입력 600이 제공되면, 전자 장치 200은 적어도 하나의 객체가 활성화 상태로 유지되어야 한다는 메시지(예: “At least one voice must be selected”)를 디스플레이 240의 적절한 영역에 적절한 형태(예: 팝업, 오버레이 등)로 제공할 수 있다. 제공된 메시지는 사용자의 입력(예: 터치 입력), 또는 소정 시간의 경과로 인해 사라질 수 있다. 전술한 메시지는 진동 효과 등과 함께 제공될 수도 있다.
한편 전자 장치 200은 UI 605를 제공할 수 있다. (예시 ②) 예를 들어, 마지막 활성화 객체를 비활성화 시키는 입력 600이 제공되면, 전자 장치 200은 모든 객체를 비활성화 하고 오디오 파일의 재생 상태를 일시 중지 상태로 변경(예: 컨트롤 아이콘을 일시 중지 상태에서 재생 명령을 수행하도록 하는 아이콘 620으로 변경)할 수 있다.
이 상태에서 재생 명령이 입력되면(예: 아이콘 620이 선택되면), 전자 장치 200은 다양한 방법으로 오디오 파일을 재생할 수 있다. 예를 들어, 마지막으로 비활성화 된 객체를 활성화시키면서 그 객체에만 대응되는 재생 구간의 오디오 데이터를 재생할 수 있다. 다른 예시로서, 전자 장치 200은 일시 정지 시점 이후에 남아 있는 재생 구간에 대응되는 객체들을 모두 활성화 하고, 그 객체들에 대응되는 오디오 데이터를 재생할 수 있다. 예를 들어, 일시 정지 시점 이후에 Voice 3 및 Voice 1 사용자에 대응하는 재생 구간이 존재하는 경우(Voice 2 사용자에 대응하는 재생 구간은 일시 정지 시점 이전에 이미 모두 재생된 것으로 가정), 전자 장치 200은 Voice 3과 Voice 1에 대응되는 객체를 모두 활성화하고, Voice 3과 Voice 1에 대응되는 (일시 정지 시점 이후에 남아 있는) 재생 구간의 오디오 데이터를 모두 재생할 수 있다.
다른 예시에서, 이 상태에서 임의의 객체(선택 가능한 객체)가 선택되면, 전자 장치 200은 오디오 파일의 재생을 다시 시작할 수 있다. 이 경우, 전자 장치 200은 일시 정지된 지점부터 다시 재생하거나, 일시 정지된 시점 이후의 상기 임의의 객체에 대응되는 재생 구간부터 오디오 파일의 재생을 다시 시작할 수 있다.
한편 전자 장치 200은 UI 607을 제공할 수 있다. (예시③) 예를 들어, 사용자는 객체들을 선택하면서 오디오 파일의 재생을 제어할 수 있다. 이 경우 사용자가 모든 객체를 비활성화 하려고 하는 것은 해당 오디오 파일에서 필요한 내용을 모두 획득하였거나, 혹은 더 이상 그 오디오 파일을 재생하지 않을 의도로 이해될 수 있다. 이러한 경우, 전자 장치 200은 마지막 객체를 비활성화하는 입력 600이 제공되면, 해당 오디오 파일(예: meeting-140826)의 재생을 중단시키고, 재생 목록(예: 재생 목록 410)의 다음 파일(예: meeting-140727)을 재생할 수 있다. 이 경우, UI 607에는 4 방향에서 입력된 소리에 대한 방향 정보(또는 4명의 사용자가 참여한 미팅 파일)를 갖는 미팅 파일의 재생 화면 630이 제공될 수 있다. 모든 객체는 재생 초기에 활성화 상태일 수 있고, 진행 지점 631은 다음 파일(예: meeting-140727)의 시작 지점에 위치할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 사용자 정보를 등록하는 방법을 나타낸다.
전자 장치 200은 하나의 방향에서 획득된 오디오 데이터는 한 명의 사용자로부터 획득된 오디오 데이터로 결정할 수 있다. 전자 장치 200은 각각의 방향에 대하여, 화면 710에 도시된 것과 같이 각각의 방향에 대응되는 객체에 기본적으로 Voice 1, Voice 2, Voice 3와 같은 임의의 사용자 이름을 할당할 수 있다. 사용자는 소정의 입력을 통해 객체를 나타내는 이름을 변경할 수 있다. 예를 들어, 전자 장치 200은 Voice 2 객체에 대하여 롱 터치(long press) 입력이 제공되면, 해당 객체에 이름을 변경하는 화면(또는 팝업 메뉴) 720을 제공할 수 있다. 예를 들어, 사용자가 Voice 1에 대해서 “Mark”, Voice 2에 대해서 “Jane”, Voice 3에 대해서 “Rina”라는 이름을 각각 등록하면, 전자 장치 200은 각각의 객체에 대해 사용자 입력에 따라 네이밍된 화면 730을 제공할 수 있다.
다양한 실시 예에서, 실제로 하나의 방향(예: Voice 2에 해당하는 방향)에는 여러 명의 사용자가 밀집해서 앉아 있을 수도 있다. 이 경우 사용자는 해당 방향에 대응되는 객체에 사용자 정보를 입력할 수 있다. 예를 들어, 전술한 예시에서 사용자는 Voice 2에 대응되는 객체에 “Jane, Cindy, Jason”을 입력하여, 해당 방향에서 3명이 함께 미팅에 참여하였음을 나타낼 수 있다.
다양한 실시 예에서, 전자 장치 200은 서로 다른 방향으로 인식된 오디오 데이터를 통합할 수 있다. 예를 들어, 사용자 A와 사용자 B가 미팅에 참여하였으나, 사용자 A가 미팅 중간에 원래 자리(예: 도 7에서 Voice 1에 해당하는 방향)에서 다른 자리(예: 도 7에서 Voice 2에 해당하는 방향)로 이동한 경우에도 화면 710과 같은 오디오 파일이 생성/재생될 수 있다. 이 예시에서 Voice 1과 Voice 2는 같은 사람에 의해 녹음된 오디오 데이터이므로, 다양한 방법을 통해서 해당 방향에 대한 오디오 데이터의 통합이 수행될 수 있다.
예를 들어, 전자 장치 200은 Voice 1의 아이콘을 선택하여 Voice 2의 위치로 드래그 앤 드롭(drag & drop)하는 터치 입력에 대응하여, Voice 1과 Voice 2의 오디오 데이터를 통합할 수 있다. 이 경우, 통합된 오디오 데이터의 사용자 정보(예: 이름)는 처음 선택된 아이콘(예: Voice 1)의 사용자 정보를 기준으로 정의될 수 있다. 이후 사용자에 의해 Voice 1 또는 Voice 2의 아이콘 중 어느 하나가 활성화/비활성화 되더라도 Voice 1과 Voice 2의 아이콘이 동시에 활성화/비활성화 될 수 있다. 다시 말해서, 330~030도의 방향 정보를 가지는 Voice 1의 오디오 데이터와, 030~090도의 방향 정보를 가지는 Voice 2의 오디오 데이터가 통합되면, 통합된 데이터는 330~090도의 방향 정보를 갖는 오디오 데이터로 인식될 수 있다.
다른 예시에서, 전자 장치 200은 Voice 1의 아이콘과 Voice 2의 아이콘을 선택(예: 멀티 터치)하여 끌어당기는 터치 입력(예: 핀치-투-줌(pinch-to-zoom)과 같은 입력)에 대응하여, Voice 1과 Voice 2의 오디오 데이터를 통합할 수 있다. 전자 장치 200은 통합과 반대 방향의 핀치 입력을 이용하여 Voice 1과 Voice 2의 오디오 데이터를 다시 분리할 수 있다.
또 다른 예시에서, 전자 장치 200은 Voice 1의 아이콘과 Voice 2의 아이콘을 동시에 일정 시간 이상 터치하고 있을 수 있다. 이 터치 입력에 대응하여 Voice 1 및 Voice 2의 오디오 데이터가 통합되거나, 통합 여부를 확인하는 메시지가 출력될 수 있다. 만약 통합된 오디오 데이터에 대하여 일정 시간 이상 터치가 발생하면, 통합된 오디오 데이터를 원래 방향을 기준으로 하여 다시 분리하거나, 분리 여부를 확인하는 메시지가 출력될 수 있다. 이 예시에서, 만약 전자 장치 200이 3점 터치 또는 4점 터치와 같은 멀티 터치를 지원하는 경우, 전자 장치 200이 지원하는 동시적인 터치 입력의 개수에 따라 한번에 여러 방향의 오디오 데이터를 통합할 수 있다.
전술한 내용은 예시적인 것으로, 전자 장치 200은 도 4, 5, 6, 및 7 등에 예시된 임의의 UI에 대한 다양한 제스처 입력을 통해 오디오 데이터의 통합/분리를 지원할 수 있다. 이를 통하여 녹음 중인 회의 등에서 참석자가 자리를 이동하거나, 한 자리에서 발생한 소리 데이터가 두 가지 이상의 위치에서 감지되는 경우(예: 그 자리가 전자 장치 200이 소리의 방향을 인식할 수 있는 경계 지점 부근에 위치한 경우)에 적절하게 하나의 오디오 데이터로 통합하는 것이 가능하다.
도 8은 본 발명의 일 실시 예에 따른 오디오 파일 재생 방법을 나타낸다.
도 8을 참조하면, 동작 810에서 전자 장치 200은 전자 장치 200의 재생 기능을 실행할 수 있다. 예를 들어, 전자 장치 200은 특정 어플리케이션이 실행되거나, 전자 장치 200에 저장되어 있거나 전자 장치 200이 접속한 웹사이트에서 제공하는 컨텐츠에 접근하여 소정 명령이 제공되었을 때 재생 기능을 실행할 수 있다. 재생되는 오디오 파일은 복수의 재생 구간 및 각각의 재생 구간에 대한 오디오 데이터 및 방향 정보를 포함할 수 있다.
동작 820에서 전자 장치 200은 방향 정보에 대응되는 적어도 하나의 선택 가능한 객체를 디스플레이 할 수 있다. 예를 들어, 전자 장치 200이 60도의 범위를 갖는 6개의 서로 다른 방향에서 입력된 소리에 대한 구분을 지원하는 경우, 전자 장치 200은 6개의 방향에 대응되는 6개의 객체를 디스플레이 할 수 있다. 이 경우, 실제 오디오 파일에서는 3개의 방향에서 유효한(예: 기준 데시벨 이상의) 소리가 인식되는 경우, 전자 장치 200은 상기 3개의 방향에 대응되는 객체를 선택 가능한 상태로 디스플레이 할 수 있다. 또한, 전자 장치 200은 오디오 파일이 처음 재생될 때 선택 가능한 객체들을 모두 활성화 상태로 하고, 상기 오디오 파일에 포함된 재생 구간에 포함된 오디오 데이터를 재생할 수 있다.
동작 830에서 전자 장치 200은 객체에 대한 입력을 수신할 수 있다. 예를 들어, 전자 장치 200은 사용자의 터치 입력 또는 다양한 입력 수단(예: S-펜과 같은 스타일러스, 전자 펜 등)을 통한 터치/호버링 입력 등을 수신할 수 있다.
동작 840에서 전자 장치 200은 객체에 대하여 수신된 입력에 따라 객체의 활성화/비활성화 상태를 판단할 수 있다. 예를 들어, 객체가 비활성화 상태인 경우, 동작 850에서 전자 장치 200은 객체를 활성화 상태로 변경할 수 있다. 객체가 활성화 상태인 경우, 동작 870에서 객체를 비활성화 상태로 변경할 수 있다. 그러나 일부 실시 예에서, 전자 장치 200은 선택된 객체가 유일하게 활성화 상태인 객체인지 여부에 따라서(동작 860) 도 6에서 전술한 것과 같은 지정된 동작이 수행되도록 할 수 있다. (동작 890) 예를 들어, 전자 장치 200은 유일하게 활성화 상태인 객체의 활성화 상태를 유지하고 적어도 하나의 객체가 활성화 상태여야 한다는 것을 나타내는 메시지를 출력하거나, 객체를 비활성화 상태로 변경하고 오디오 파일의 재생 상태를 일시 중지 상태로 변경하거나, 다음 오디오 파일의 재생을 시작할 수 있다.
동작 880에서, 전자 장치 200은 객체의 활성화/비활성화 상태에 기반하여 객체에 대응되는 오디오 데이터의 재생 여부를 결정할 수 있다. 예를 들어, 전자 장치 200은 비활성화 상태인 객체에 대응하는 재생 구간의 오디오 데이터는 재생하지 않을 수 있다. 또한 전자 장치 200은 활성화 상태인 객체에 대응되는 재생 구간의 오디오 데이터는 재생할 수 있다. 예를 들어, 객체 A에 대응되는 재생 구간이 1, 3, 5 구간이고, 객체 B에 대응되는 재생 구간이 2, 6 구간(4 구간은 예를 들어, 무음 구간)인 경우, 객체 A가 비활성화 되는 경우 전자 장치 200은 2구간과 6구간만 재생할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 예를 들어, 상기 저장 매체는 복수의 재생 구간 및 각각의 재생 구간에 대한 오디오 데이터 및 방향 정보를 포함하는 오디오 파일을 포함하고, 상기 명령어는 전자 장치로 하여금, 상기 방향 정보에 대응되는 적어도 하나의 선택 가능한 객체를 디스플레이 하는 동작, 상기 객체를 선택하는 입력을 수신하는 동작, 상기 입력에 기초하여 상기 선택된 객체의 활성화 또는 비활성화 상태를 변경하는 동작, 및 상기 객체의 상태에 기반하여, 상기 객체에 대응되는 오디오 데이터의 재생 여부를 결정하는 동작을 수행하도록 할 수 있다. 이 외에, 상기 저장 매체는 전술한 다양한 방법들을 수행하도록 하는 명령어들을 더 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM, DVD, 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM, RAM, 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된 기술 내용의 설명 및 이해를 위해 제시된 것이며 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 발명의 범위는 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 전자 장치의 오디오 파일의 재생 방법에 있어서,
    진행 바(progress bar), 상기 진행 바 상의 재생 위치에 있는 커서(cursor), 및 선택 가능한 객체들을 포함하는 상기 오디오 파일을 재생하기 위한 스크린을 디스플레이 하고, 상기 오디오 파일은 제1 오디오 데이터 및 제1 방향 정보에 대응하는 제1 재생 구간 및 제2 오디오 데이터 및 제2 방향 정보에 대응하는 제2 재생 구간을 포함하고, 상기 선택 가능한 객체들은 상기 제1 재생 구간에 대응하는 제1 객체 및 상기 제2 재생 구간에 대응하는 제2 객체를 포함하고, 상기 진행 바는 제1 색상 또는 제1 패턴으로 디스플레이 되는 동작;
    상기 선택 가능한 객체들 중 제1 객체를 선택하는 입력을 수신하는 동작;
    상기 입력에 기초하여 상기 제1 객체를 비활성화 상태로 변경하는 동작;
    상기 제1 객체를 상기 비활성화 상태로 변경하는 것에 응답하여 상기 진행 바에서 상기 제1 객체와 대응하는 제1 부분이 상기 제1 색상 또는 상기 제1 패턴과 다른 제2 색상 또는 제2 패턴을 갖도록 상기 진행 바의 상기 제1 부분을 디스플레이 하는 동작; 및
    상기 비활성화 상태에 있는 상기 제1 객체와 대응하는 상기 제1 재생 구간의 상기 제1 오디오 데이터를 재생하지 않으면서 상기 제2 객체와 대응하는 상기 제2 재생 구간의 상기 제2 오디오 데이터를 활성화 상태로 재생하는 동작을 포함하고,
    상기 진행 바의 상기 제1 부분은 상기 비활성화 상태에 있는 상기 제1 객체와 대응하고,
    상기 오디오 파일에 포함된 무음 구간에 대응하는 상기 진행 바의 제3 부분은 상기 활성화 상태에 있는 상기 제2 객체와 대응하는 상기 진행 바의 제2 부분과 다르게 디스플레이 되는 오디오 파일 재생 방법.
  2. 청구항 1에 있어서,
    상기 오디오 파일의 재생을 시작할 때, 상기 선택 가능한 객체들은 모두 상기 활성화 상태로 디스플레이 되는 오디오 파일 재생 방법.
  3. 청구항 1에 있어서, 상기 제1 객체가 상기 활성화 상태인 동안 상기 입력이 수신된 경우 상기 제1 객체를 상기 비활성화 상태로 변경하고 상기 진행 바의 상기 제1 부분을 무음 처리하는 오디오 파일 재생 방법.
  4. 청구항 3에 있어서, 상기 진행 바의 상기 제1 부분을 무음 처리하는 동작은,
    상기 제1 객체에 대응하는 상기 제1 오디오 데이터를 묵음 상태로 유지하는 동작, 또는 상기 제1 재생 구간을 스킵하는 동작을 포함하는 오디오 파일 재생 방법.
  5. 청구항 1에 있어서, 상기 제1 객체가 비활성화 상태인 동안 상기 입력이 수신된 경우 상기 제1 객체를 활성화 상태로 변경하는 오디오 파일 재생 방법.
  6. 청구항 1에 있어서,
    상기 선택 가능한 객체들 각각의 상기 활성화 상태 또는 상기 비활성화 상태에 기초하여 상기 무음 구간의 스킵 여부를 결정하는 오디오 파일 재생 방법.
  7. 청구항 6에 있어서,
    상기 선택 가능한 객체들 중 적어도 하나 이상의 객체가 상기 비활성화 상태인 경우 상기 무음 구간을 스킵하고,
    상기 선택 가능한 객체들 모두 상기 활성화 상태인 경우 상기 무음 구간을 재생하는 오디오 파일 재생 방법.
  8. 청구항 1에 있어서,
    상기 입력에 응답하여 상기 제1 객체만이 상기 활성화 상태에 있는지 확인하는 동작; 및
    상기 제1 객체만이 상기 활성화 상태에 있는 경우 상기 제1 객체의 활성화 상태를 유지하고 상기 제1 객체가 활성화 상태여야 한다는 것을 나타내는 메시지를 디스플레이 하는 동작을 더 포함하는 오디오 파일 재생 방법.
  9. 청구항 1에 있어서, 상기 제1 객체만이 상기 활성화 상태에 있는 경우 상기 제1 객체를 비활성화 상태로 변경하고 상기 오디오 파일의 재생 상태를 일시 중지 상태로 변경하는 동작을 더 포함하는 오디오 파일 재생 방법.
  10. 청구항 1에 있어서,
    상기 입력이 상기 선택 가능한 객체들의 상기 제1 객체 및 상기 제2 객체에 대한 제스처 입력과 대응하는 경우, 상기 제1 오디오 데이터 및 상기 제2 오디오 데이터를 통합하는 동작을 더 포함하는 오디오 파일 재생 방법.
  11. 청구항 1에 있어서,
    상기 입력에 응답하여 상기 제1 객체만이 상기 활성화 상태에 있는지 확인하는 동작; 및
    상기 제1 객체만이 상기 활성화 상태에 있는 경우 다음 오디오 파일의 재생을 시작하는 동작을 더 포함하는 오디오 파일 재생 방법.
  12. 청구항 1에 있어서, 상기 선택 가능한 객체들을 디스플레이 하는 동작은,
    상기 제1 객체에 대응하는 제1 재생 구간이 재생 중인 경우, 상기 제1 객체에 대응하는 제1 재생 구간이 재생 중임을 나타내는 효과를 출력하는 동작을 포함하는 오디오 파일 재생 방법.
  13. 삭제
  14. 전자 장치에 있어서,
    스피커;
    디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    진행 바, 상기 진행 바 상의 재생 위치에 있는 커서, 및 선택 가능한 객체들을 포함하는 오디오 파일을 재생하기 위한 스크린을 디스플레이 하고, 상기 오디오 파일은 제1 오디오 데이터 및 제1 방향 정보에 대응하는 제1 재생 구간 및 제2 오디오 데이터 및 제2 방향 정보에 대응하는 제2 재생 구간을 포함하고, 상기 선택 가능한 객체들은 상기 제1 재생 구간에 대응하는 제1 객체 및 상기 제2 재생 구간에 대응하는 제2 객체를 포함하고, 상기 진행 바는 제1 색상 또는 제1 패턴으로 디스플레이 되고,
    상기 선택 가능한 객체들 중 제1 객체를 선택하는 입력을 수신하고,
    상기 입력에 기초하여 상기 제1 객체를 비활성화 상태로 변경하고,
    상기 제1 객체를 상기 비활성화 상태로 변경하는 것에 응답하여 상기 진행 바에서 상기 제1 객체와 대응하는 제1 부분이 상기 제1 색상 또는 상기 제1 패턴과 다른 제2 색상 또는 제2 패턴을 갖도록 상기 진행 바의 상기 제1 부분을 디스플레이 하고, 및
    상기 비활성화 상태에 있는 상기 제1 객체와 대응하는 상기 제1 재생 구간의 상기 제1 오디오 데이터를 재생하지 않으면서 상기 제2 객체와 대응하는 상기 제2 재생 구간의 상기 제2 오디오 데이터를 활성화 상태로 재생하도록 설정되고,
    상기 진행 바의 상기 제1 부분은 상기 비활성화 상태에 있는 상기 제1 객체와 대응하고,
    상기 오디오 파일에 포함된 무음 구간에 대응하는 상기 진행 바의 제3 부분은 상기 활성화 상태에 있는 상기 제2 객체와 대응하는 상기 진행 바의 제2 부분과 다르게 디스플레이 되는 전자 장치.
  15. 청구항 14에 있어서, 상기 프로세서는,
    상기 제1 객체가 상기 활성화 상태인 동안 상기 입력이 수신된 경우 상기 제1 객체를 상기 비활성화 상태로 변경하고 상기 진행 바의 상기 제1 부분의 재생을 스킵하도록 설정된 전자 장치.
  16. 청구항 14에 있어서, 상기 프로세서는,
    상기 제1 객체가 상기 비활성화 상태인 동안 상기 입력이 수신된 경우 상기 제1 객체를 상기 활성화 상태로 변경하고 상기 진행 바의 상기 제1 부분을 재생하도록 설정된 전자 장치.
  17. 청구항 14에 있어서,
    제1 위치에 배치되는 제1 마이크; 및
    제2 위치에 배치되는 제2 마이크를 더 포함하고,
    상기 프로세서는,
    상기 제1 마이크 및 상기 제2 마이크를 이용하여 상기 제1 방향 정보 및 상기 제2 방향 정보를 포함하는 방향 정보를 생성하고, 및
    상기 방향 정보를 이용하여 상기 오디오 파일을 생성하도록 설정된 전자 장치.
  18. 청구항 14에 있어서,
    외부 장치와 통신할 수 있는 통신 모듈을 더 포함하고,
    상기 통신 모듈은 상기 외부 장치로부터 상기 오디오 파일을 수신하도록 설정된 전자 장치.
  19. 청구항 14에 있어서,
    상기 프로세서는 외부 스피커와 연결되도록 설정되고,
    상기 오디오 파일은 상기 상기 외부 스피커를 통해 출력되는 전자 장치.
  20. 컴퓨터 판독 가능한 인스트럭션(instruction)들을 포함하는 저장 매체에 있어서, 상기 인스트럭션들은 전자 장치가,
    진행 바(progress bar), 상기 진행 바 상의 재생 위치에 있는 커서(cursor), 및 선택 가능한 객체들을 포함하는 오디오 파일을 재생하기 위한 스크린을 디스플레이 하고, 상기 오디오 파일은 제1 오디오 데이터 및 제1 방향 정보에 대응하는 제1 재생 구간 및 제2 오디오 데이터 및 제2 방향 정보에 대응하는 제2 재생 구간을 포함하고, 상기 선택 가능한 객체들은 상기 제1 재생 구간에 대응하는 제1 객체 및 상기 제2 재생 구간에 대응하는 제2 객체를 포함하고, 상기 진행 바는 제1 색상 또는 제1 패턴으로 디스플레이 되고;
    상기 선택 가능한 객체들 중 제1 객체를 선택하는 입력을 수신하고;
    상기 입력에 기초하여 상기 제1 객체를 비활성화 상태로 변경하고;
    상기 제1 객체를 상기 비활성화 상태로 변경하는 것에 응답하여 상기 진행 바에서 상기 제1 객체와 대응하는 제1 부분이 상기 제1 색상 또는 상기 제1 패턴과 다른 제2 색상 또는 제2 패턴을 갖도록 상기 진행 바의 상기 제1 부분을 디스플레이 하고; 및
    상기 비활성화 상태에 있는 상기 제1 객체와 대응하는 상기 제1 재생 구간의 상기 제1 오디오 데이터를 재생하지 않으면서 상기 제2 객체와 대응하는 상기 제2 재생 구간의 상기 제2 오디오 데이터를 활성화 상태로 재생하도록 하고,
    상기 진행 바의 상기 제1 부분은 상기 비활성화 상태에 있는 상기 제1 객체와 대응하고,
    상기 오디오 파일에 포함된 무음 구간에 대응하는 상기 진행 바의 제3 부분은 상기 활성화 상태에 있는 상기 제2 객체와 대응하는 상기 진행 바의 제2 부분과 다르게 디스플레이 되는 저장 매체.
KR1020140167782A 2014-09-01 2014-11-27 오디오 파일 재생 방법 및 장치 KR102252665B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/842,063 US10275207B2 (en) 2014-09-01 2015-09-01 Method and apparatus for playing audio files
US16/354,858 US11301201B2 (en) 2014-09-01 2019-03-15 Method and apparatus for playing audio files

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140115706 2014-09-01
KR1020140115706 2014-09-01

Publications (2)

Publication Number Publication Date
KR20160026605A KR20160026605A (ko) 2016-03-09
KR102252665B1 true KR102252665B1 (ko) 2021-05-17

Family

ID=55536948

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140167782A KR102252665B1 (ko) 2014-09-01 2014-11-27 오디오 파일 재생 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102252665B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101976986B1 (ko) * 2018-05-31 2019-05-10 연세대학교 원주산학협력단 소리데이터 자동분할 장치
KR20220065370A (ko) * 2020-11-13 2022-05-20 삼성전자주식회사 전자장치 및 그 제어방법
US11579838B2 (en) 2020-11-26 2023-02-14 Verses, Inc. Method for playing audio source using user interaction and a music application using the same
KR20220139819A (ko) * 2021-04-08 2022-10-17 주식회사 버시스 사용자 입력에 기반하여 사운드를 제공하는 전자 장치 및 그 동작 방법
WO2024072022A1 (ko) * 2022-09-28 2024-04-04 삼성전자 주식회사 콘텐츠를 제공하는 디스플레이 장치 및 디스플레이 장치의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130297308A1 (en) 2012-05-07 2013-11-07 Lg Electronics Inc. Method for displaying text associated with audio file and electronic device
US20140201637A1 (en) 2013-01-11 2014-07-17 Lg Electronics Inc. Electronic device and control method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843486B1 (en) * 2006-04-10 2010-11-30 Avaya Inc. Selective muting for conference call participants
KR101988897B1 (ko) * 2013-01-25 2019-06-13 엘지전자 주식회사 이동 단말기 및 그의 오디오 줌잉 공유방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130297308A1 (en) 2012-05-07 2013-11-07 Lg Electronics Inc. Method for displaying text associated with audio file and electronic device
US20140201637A1 (en) 2013-01-11 2014-07-17 Lg Electronics Inc. Electronic device and control method thereof

Also Published As

Publication number Publication date
KR20160026605A (ko) 2016-03-09

Similar Documents

Publication Publication Date Title
US11301201B2 (en) Method and apparatus for playing audio files
US12107985B2 (en) Methods and interfaces for home media control
US11201961B2 (en) Methods and interfaces for adjusting the volume of media
US11683408B2 (en) Methods and interfaces for home media control
US11431836B2 (en) Methods and interfaces for initiating media playback
US20200225817A1 (en) Methods and interfaces for home media control
CN111857643B (zh) 用于家庭媒体控制的方法和界面
EP4254989A2 (en) Methods and interfaces for home media control
KR102252665B1 (ko) 오디오 파일 재생 방법 및 장치
KR20100028312A (ko) 휴대 단말기의 파일 편집 방법 및 장치
US9711181B2 (en) Systems and methods for creating, editing and publishing recorded videos
US11275554B2 (en) Information processing apparatus, information processing method, and program
KR101562901B1 (ko) 대화 지원 서비스 제공 시스템 및 방법
KR20190101591A (ko) 모바일 장치, 이를 포함하는 오디오 북 제작 시스템 및 이를 이용하는 오디오 북 제작 방법
DK181308B1 (en) Methods and interfaces for home media control
JP2021067922A (ja) 映像コンテンツに対する合成音のリアルタイム生成を基盤としたコンテンツ編集支援方法およびシステム
DK201870060A1 (en) METHODS AND INTERFACES FOR HOME MEDIA CONTROL

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant