KR20150115385A - 레코딩 지원 전자장치 및 방법 - Google Patents

레코딩 지원 전자장치 및 방법 Download PDF

Info

Publication number
KR20150115385A
KR20150115385A KR1020140040342A KR20140040342A KR20150115385A KR 20150115385 A KR20150115385 A KR 20150115385A KR 1020140040342 A KR1020140040342 A KR 1020140040342A KR 20140040342 A KR20140040342 A KR 20140040342A KR 20150115385 A KR20150115385 A KR 20150115385A
Authority
KR
South Korea
Prior art keywords
data
unit
text data
text
time
Prior art date
Application number
KR1020140040342A
Other languages
English (en)
Other versions
KR102249086B1 (ko
Inventor
장성운
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140040342A priority Critical patent/KR102249086B1/ko
Priority to US14/678,882 priority patent/US9659561B2/en
Publication of KR20150115385A publication Critical patent/KR20150115385A/ko
Application granted granted Critical
Publication of KR102249086B1 publication Critical patent/KR102249086B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Abstract

본 발명은 음원데이터를 포함한 멀티미디어 데이터를 입력받고, 음원데이터에서 음성데이터를 검출하는 오디오처리부, 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩하고, 단위 음성데이터에 대응되는 적어도 하나의 텍스트데이터를 생성하는 제어부, 단위 음성데이터에 대응되는 텍스트데이터를 출력하는 표시부를 제공하고, 다른 실시예로도 적용이 가능하다.

Description

레코딩 지원 전자장치 및 방법{Electronic Apparatus and Method for Supporting of Recording}
본 발명의 다양한 실시 예는 음성데이터를 포함하는 멀티미디어 데이터를 레코딩하는 레코딩 지원 전자장치 및 방법에 관한 것이다.
일반적인 전자장치는 음성데이터를 포함하는 멀티미디어 데이터를 레코딩 할 때, 전자장치의 사용자로부터 레코딩 시작 이벤트가 발생된 시점부터 레코딩 종료 이벤트가 발생된 시점까지를 레코딩할 수 있다.
상기와 같이 전자장치에서 멀티미디어 데이터를 레코딩 할 때 레코딩 시작 시점부터 레코딩 종료 시점까지 하나의 데이터로 레코딩하므로 전자장치 사용자가 레코딩 파일에서 필요한 부분을 찾을 때, 불필요한 부분까지 확인하면서 필요한 부분을 검색해야 하는 문제점이 발생한다.
이러한 종래의 문제점을 해결하기 위한 본 발명의 다양한 실시 예들은 녹음, 녹화, 음성통화, 영상통화 시에 발생되는 음성데이터를 포함하는 멀티미디어 데이터 레코딩 시, 언어의 구성요소로 레코딩의 시작 시점과 종료 시점을 설정하여 레코딩을 수행하는 레코딩 지원 전자장치 및 방법을 제공하는 것이다.
또한, 본 발명의 다양한 실시 예들은 제1 언어에 대한 음성데이터를 포함하는 멀티미디어 데이터를 언어의 구성 단위로 레코딩하여 상기 음성데이터를 제1 텍스트데이터로 변환하는 레코딩 지원 전자장치 및 방법을 제공하는 것이다.
본 발명의 일 실시 예에 따른 레코딩 지원 전자장치는 음원데이터를 포함한 멀티미디어 데이터를 입력받고, 상기 음원데이터에서 음성데이터를 검출하는 오디오처리부, 상기 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩하고, 상기 단위 음성데이터에 대응되는 적어도 하나의 텍스트데이터를 생성하는 제어부, 상기 단위 음성데이터에 대응되는 텍스트데이터를 출력하는 표시부를 포함할 수 있다.
또한, 본 발명의 일 실시 예에 따른 레코딩 지원 방법은 음원데이터를 포함하는 멀티미디어 데이터를 획득하는 동작, 상기 음원데이터에서 음성데이터를 검출하는 동작, 상기 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩하는 동작, 상기 단위 음성데이터에 대응되는 적어도 하나의 텍스트데이터를 생성하는 동작, 상기 단위 음성데이터에 대응되는 텍스트데이터를 출력하는 동작을 포함할 수 있다.
상술한 바와 같이 본 발명의 다양한 실시 예들에 따른 레코딩 지원 전자장치 및 방법은 녹음, 녹화, 음성통화, 영상통화 시에 발생되는 음성데이터를 포함하는 멀티미디어 데이터 레코딩 시, 음성데이터에서 확인되는 언어의 구성요소를 기준으로 레코딩을 수행함으로써, 레코딩 파일에서 필요한 부분을 따로 검색하는 불편함을 해소할 수 있다.
또한, 본 발명의 다양한 실시 예들에 따른 레코딩 지원 전자장치 및 방법은 제1 언어에 대한 음성데이터를 포함하는 멀티미디어 데이터를 언어의 구성요소를 기준으로 레코딩하고, 상기 음성데이터를 제1 텍스트데이터로 변환하여 출력함으로써, 사용자에게 음성데이터를 텍스트데이터로 제공할 수 있다.
또한, 본 발명의 다양한 실시 예들에 따른 레코딩 지원 전자장치 및 방법은 제1 텍스트데이터를 제2 언어에 대한 제2 텍스트데이터로 번역하고 레코딩 시의 타임스탬프 정보를 이용하여 출력함으로써, 음성데이터와 텍스트데이터의 싱크를 용이하게 수행할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 레코딩 지원 전자장치의 주요 구성을 나타내는 블록도이다.
도 2는 본 발명의 다양한 실시 예에 따른 단위 음성데이터를 레코딩하는 방법을 설명하는 순서도이다.
도 3은 본 발명의 다양한 실시 예에 따른 단위 음성데이터를 번역하는 방법을 설명하는 순서도이다.
도 4는 본 발명의 다양한 실시 예 중 일 예에 따른 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 5는 본 발명의 다양한 실시 예 중 일 예에 따른 음성통화 시에 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 6은 본 발명의 다양한 실시 예 중 일 예에 따른 영상 통화 시에 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 7은 본 발명의 다양한 실시 예 중 일 예에 따른 동영상 녹화 시에 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 8은 다양한 일 실시 예들에 따른 전자장치를 도시한 블록도이다.
이하, 첨부된 도면을 참조하며 본 발명을 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명 가운데 사용될 수 있는 “포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명에서 “포함하다” 또는 “가지다” 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는 A를 포함할 수도, B를 포함할 수도, 또는 A와 B 모두를 포함할 수도 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명에 따른 전자장치는 통신기능이 포함된 장치일 수 있다. 예를 들면, 전자장치는 스마트 폰(smart phone), 태블릿 PC(tablet personal reader), 이동전화기(mobile phone), PDA(personal digital assistant), MP3 플레이어, 웨어러블 장치(wearable device, 예; 전자 안경과 같은 head-mounted-device(HMD)), 카메라(camera), 스마트 워치(smart watch) 등 무선 통신이 가능한 장치일 수 있다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자장치를 사용하는 사람 또는 전자장치를 사용하는 장치(예; 인공지능 전자장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 레코딩 지원 전자장치의 주요 구성을 나타내는 블록도이다.
도 1을 참조하면, 본 발명에 따른 전자장치(100)는 통신부(110), 입력부(120), 오디오처리부(130), 카메라부(140), 표시부(150), 저장부(160) 및 제어부(170)를 포함할 수 있다.
전자장치(100)는 음원데이터를 포함하는 멀티미디어 데이터를 획득하고, 음원데이터의 주파수 정보 등으로부터 제1 언어에 대한 음성데이터를 확인하여 레코딩할 수 있다. 전자장치(100)는 음원데이터와 동영상데이터를 포함하는 멀티미디어 데이터가 획득되면, 음성데이터와 동영상데이터를 레코딩할 수 있다. 전자장치(100)는 레코딩된 음성데이터를 분석하여 제1 언어에 대한 제1 텍스트데이터를 생성하여 출력할 수 있다. 전자장치(100)는 제1 텍스트데이터를 제2 언어에 대한 제2 텍스트데이터로 번역하여 출력할 수 있다.
전자장치(100)는 음원데이터와 동영상데이터를 포함하는 멀티미디어 데이터가 획득된 경우, 상기 텍스트데이터를 동영상데이터에 자막형태로 출력할 수 있다. 이때, 멀티미디어 데이터는 전자장치(100)와 타 전자장치(미도시)의 음성 및 영상 통화 시에 획득될 수 있다. 멀티미디어 데이터는 전자장치(100)의 외부환경에 대한 녹화 또는 녹음에 의해 획득될 수 있고, 전자장치(100)가 외부장치(타 전자장치 또는 서버장치(미도시))로부터 수신함으로써 획득될 수 있다. 음성데이터는 음원데이터에서 음성으로 분류되는 데이터이며, 언어의 구성요소를 기준으로 형성될 수 있다. 본 발명의 실시 예에서 음성데이터는 언어의 구성요소 인 문장을 기준으로 형성되는 것을 예로 설명하고 있으나, 반드시 이에 한정되는 것은 아니며, 음절, 형태소, 단어, 어절, 구절 등 언어의 다양한 구성요소 중 어느 하나를 기준으로 형성될 수 있다.
통신부(110)는 전자장치(100)와 외부장치(타 전자장치(미도시) 또는 서버장치(미도시))간의 통신을 연결할 수 있다. 예컨대, 통신부(110)는 무선 통신 또는 유선 통신을 통해서 외부 장치와 통신할 수 있다. 무선 통신은 예를 들어, Wifi(Wireless fidelity), BT(Bluetooth), NFC(Near Field Communication) 또는 cellular통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 포함할 수 있다. 상기 유선 통신은 예를 들어, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), RS-232(Recommended Standard 232) 또는 POTS(Plain Old Telephone Service)를 포함할 수 있다.
또한, 통신부(110)는 cellular통신을 이용하여 음성통화, 영상통화, 채팅 메시지, 문자메시지 서비스, 멀티미디어 메시지 서비스 또는 인터넷 서비스를 제공할 수 있다. 통신부(110)는 무선 통신 또는 유선 통신을 이용하여 외부장치로부터 멀티미디어 데이터를 수신할 수 있다. 통신부(110)는 획득된 멀티미디어 데이터에 포함된 음원데이터와 동영상데이터 중 적어도 하나의 데이터를 외부장치로 전송할 수 있다. 통신부(110)는 음원데이터에서 분류되는 음성데이터에 대한 제1 텍스트데이터 및 제2 텍스트데이터를 외부장치로 전송할 수 있다.
입력부(120)는 외부로부터의 입력에 따라 전자장치(100)를 동작시키기 위한 동작신호를 생성하여 제어부(170)로 제공할 수 있다. 입력부(120)는 외부로부터의 입력에 따라 레코딩 기능으로의 진입신호를 생성할 수 있다. 입력부(120)는 외부로부터의 입력에 따라 번역여부를 미리 설정하기 위한 설정신호, 번역하고자 하는 구간을 선택하기 위한 선택신호, 번역이 완료된 최종파일을 저장하기 위한 저장신호를 생성할 수 있다. 입력부(120)는 저장된 최종파일을 재생시키기 위한 재생신호를 생성할 수 있다. 입력부(120)는 키버튼, 키보드, 키패드, 터치패드, 터치스크린, 전자 펜을 포함하는 입력장치로 형성될 수 있다.
오디오처리부(130)는 아날로그 음원 신호 취득 기능과, 아날로그 음원 신호 출력 기능을 지원할 수 있다. 오디오처리부(130)는 마이크와 스피커 등을 포함할 수 있다. 오디오처리부(130)는 음원 신호를 획득하여 PCM(Pulse Code Modulation) 형태의 음원데이터로 변환할 수 있다. 오디오처리부(130)는 음성통화 또는 영상통화 중일 때의 음원 신호를 수집할 수 있고, 녹음 또는 녹화 중일 때의 음원 신호를 수집할 수 있다.
오디오처리부(130)는 음원데이터를 분석하여 음원데이터에서 음성데이터를 확인하여 검출할 수 있다. 오디오처리부(130)는 검출된 음성데이터를 제어부(170)로 제공할 수 있다. 오디오처리부(130)는 음원데이터를 분석하여 주파수의 특정 파형이 감지되는 부분을 음성데이터로 검출할 수 있다. 오디오처리부(130)는 음원데이터가 획득되는 시점부터 타임스탬프 정보를 생성할 수 있다.
오디오처리부(130)는 제어부(170)로부터 제공된 아날로그 음원 신호를 스피커를 통해 출력할 수 있다.
카메라부(140)는 제어부(170)의 제어에 의해 특정 피사체에 대한 예컨대, 카메라부(140)가 주시한 피사체에 대한 동영상데이터를 획득하여 제어부(170)로 제공할 수 있다. 카메라부(140)는 사용자가 상대방과 영상 통화 시에 사용자에 대한 동영상데이터를 획득할 수 있다. 상기 동영상데이터에는 영상통화의 레코딩 또는 녹화가 시작되는 시점부터 타임스탬프 정보가 생성될 수 있다. 카메라부(140)는 전자장치(100)의 전면과 후면에 구비될 수 있고, 하나 이상의 이미지 센서(전면 센서 또는 후면 센서), 렌즈(미도시), ISP(Image Signal Processor, 미도시) 또는 플래쉬(Flash)(예; LED 또는 xenonlamp)를 포함할 수 있다.
표시부(150)는 제어부(170)의 제어에 따라 동작되는 실행화면을 표시할 수 있다. 이를 위해, 표시부(150)는 LCD(Liquid Crystal Display), 터치스크린 등으로 형성될 수 있고, 터치스크린으로 형성된 경우, 표시부(150)는 입력부(120)의 역할을 동시에 실행할 수 있다. 표시부(150)가 터치스크린으로 형성된 경우, 표시부(150)는 레코딩 기능의 진입을 위한 아이콘, 번역여부를 미리 설정하기 위한 가상의 버튼 등을 표시할 수 있다. 표시부(150)는 번역하고자 하는 구간을 선택하기 위한 체크박스, 번역이 완료된 최종파일을 저장하기 위한 가상의 버튼 등을 표시할 수 있다. 표시부(150)는 제어부(170)의 제어에 의해 음성데이터에 대한 제1 텍스트데이터 및 제2 텍스트데이터를 표시할 수 있다.
저장부(160)는 전자장치(100)를 동작시키기 위한 프로그램 또는 어플리케이션 등을 저장할 수 있다. 또한, 저장부(160)는 번역 설정과 관련한 설정정보(161), 멀티미디어 데이터와 타임스탬프 정보를 실시간으로 임시 또는 반영구적으로 저장하기 위한 버퍼(162)를 포함할 수 있다. 버퍼(162)에는 단위 음성데이터가 저장될 수 있다. 단위 음성데이터는 언어의 구성요소를 기준으로 음성데이터에서 추출된 데이터일 수 있다. 예컨대, 음성데이터는 문장을 기준으로 형성될 수 있으며, 음절, 형태소, 단어, 어절, 구절 등 언어의 다양한 구성요소 중 어느 하나를 기준으로 형성될 수 있다. 단위 음성데이터는 음원데이터를 포함한 멀티미디어 데이터로부터 도출된 것이므로, 타임스탬프 정보를 포함할 수 있다.
저장부(160)는 적어도 하나의 단위 음성데이터를 분석하여 음성데이터의 제1 언어에 대한 제1 텍스트데이터를 생성하고, 제1 텍스트데이터를 제2 언어로 번역하여 제2 텍스트데이터를 생성하기 위한 번역정보(163)를 포함할 수 있다. 저장부(160)는 번역이 완료된 이후에 단위 음성데이터 및 단위 음성데이터와 싱크가 맞춰진 동영상데이터 중 적어도 어느 하나의 데이터와, 제1 텍스트데이터와 제2 텍스트데이터 중 적어도 어느 하나의 데이터로 생성된 최종파일을 저장하기 위한 최종파일(164)을 포함할 수 있다.
제어부(170)는 오디오처리부(130)에서 검출된 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩할 수 있다. 제어부(170)는 확인된 단위 음성데이터에 대응되는 적어도 하나의 텍스트데이터를 생성할 수 있다. 이를 위해, 제어부(170)는 설정관리부(171), 레코딩관리부(172), 번역관리부(173), 싱크관리부(174) 및 파일관리부(175)를 포함할 수 있다.
설정관리부(171)는 입력부(120)로부터 음성데이터에 대한 번역여부 설정과 관련한 설정신호를 수신할 수 있다. 설정관리부(171)는 설정신호에 따라 음성데이터에 대한 번역여부를 설정하고, 이를 설정정보(161)에 저장할 수 있다. 이때, 설정신호는 오디오처리부(130)를 통해 수신되는 음성데이터 전체를 실시간으로 번역할 것인지, 사용자로부터 선택되는 단위 음성데이터만을 번역할 것인지를 설정하기 위한 신호일 수 있다.
레코딩관리부(172)는 입력부(120)로부터 레코딩 기능으로의 진입신호를 수신할 수 있다. 레코딩관리부(172)는 상기 진입신호에 의거하여 음성 또는 영상 통화내역, 외부장치로부터 수신되는 멀티미디어 데이터, 전자장치(100)의 외부 환경에 대한 멀티미디어 데이터를 레코딩할 수 있다.
레코딩관리부(172)는 오디오처리부(130)에서 검출된 음성데이터 전체를 레코딩하거나, 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩할 수 있다. 단위 음성데이터는 언어의 구성요소를 기준으로 형성될 수 있다. 예컨대, 단위 음성데이터는 문장을 기준으로 형성될 수 있으며, 음절, 형태소, 단어, 어절, 구절 등 언어의 다양한 구성요소 중 어느 하나를 기준으로 형성될 수 있다. 레코딩관리부(172)는 검출된 음성데이터 중에서 음성데이터가 확인된 시점부터 음성데이터가 종료된 시점까지를 단위 음성데이터로 확인하여 레코딩할 수 있다. 이때, 레코딩관리부(172)는 음성데이터가 확인되는 시점보다 임계시간 이전의 시점부터 음성데이터의 확인이 종료되는 시점보다 임계시간 이후의 시점까지를 단위 음성데이터로 확인하여 레코딩할 수도 있다. 단위 음성데이터는 음원데이터에서 검출된 음성데이터로부터 확인되는 데이터이므로, 음원데이터에 포함된 타임스탬프 정보로부터 단위 음성데이터의 시작과 종료시점을 확인할 수 있다.
레코딩관리부(172)는 레코딩된 멀티미디어 데이터의 종류에 따라 단위 음성데이터, 동영상데이터를 실시간으로 버퍼(162)에 임시 또는 반영구적으로 저장할 수 있다. 레코딩관리부(172)는 단위 음성데이터를 번역관리부(173)로 제공할 수 있다.
번역관리부(173)는 번역정보(163)를 참조하여 버퍼(162)에 저장된 적어도 하나의 단위 음성데이터의 번역을 수행할 수 있다. 이때, 번역관리부(173)는 단위 음성데이터를 이용하여 제1 텍스트데이터를 생성할 수 있다. 번역관리부(173)는 생성된 제1 텍스트데이터를 타 언어에 대한 제2 텍스트데이터로 생성하여 단위 음성데이터의 번역을 수행할 수 있다. 이때, 번역관리부(173)는 단위 음성데이터에 해당하는 타임스탬프 정보를 제1 및 제2 텍스트데이터에 반영할 수 있다. 번역관리부(173)는 단위 음성데이터와 제1 텍스트데이터 및 제2 텍스트데이터를 싱크관리부(174)로 제공할 수 있다. 번역관리부(173)는 설정신호에 따라 레코딩관리부(172)에서 수신되는 단위 음성데이터 전부를 번역하거나, 선택된 단위 음성데이터를 번역할 수 있다. 번역관리부(173)는 단위 음성데이터 번역 시 문장 단위로 번역할 수 있고, 언어의 종류에 따라 음절, 형태소, 단어, 어절, 구절 중 어느 하나의 단위로 번역될 수 있다.
싱크관리부(174)는 번역관리부(173)에서 제공된 단위 음성데이터, 제1 및 제2 텍스트데이터의 타임스탬프 정보를 확인하여 각 데이터의 싱크를 맞출 수 있다. 상기 단위 음성데이터가 동영상데이터에 포함된 음성데이터이면 싱크관리부(174)는 동영상데이터와 단위 음성데이터의 타임스탬프를 확인하여 싱크를 맞춘 후에 제1 텍스트데이터 및 제2 텍스트데이터와의 싱크를 맞출 수 있다. 싱크관리부(174)는 싱크가 완료되면 상기 데이터들을 파일관리부(175)로 제공할 수 있다. 이때, 싱크를 맞추어야 하는 데이터가 영상통화 시에 획득된 동영상데이터 및 음성데이터이면, 싱크관리부(174)는 버퍼(162)에 저장된 동영상데이터를 확인할 수 있다. 버퍼(162)에 상대방 영상과 사용자 영상이 하나의 동영상데이터로 저장된 상태이면 싱크관리부(174)는 동영상데이터와 단위 음성데이터의 싱크를 맞춘 후에 제1 및 제2 텍스트데이터와의 싱크를 맞출 수 있다. 버퍼(162)에 상대방 영상과 사용자 영상이 각각의 동영상데이터로 저장된 상태이면 각각의 동영상데이터와 단위 음성데이터의 싱크를 맞춘 후에 제1 및 제2 텍스트데이터와의 싱크를 맞출 수 있다.
파일관리부(175)는 레코딩관리부(172)에서 녹음 또는 음성통화 시의 단위 음성데이터에 대한 레코딩이 수행되었으면, 단위 음성데이터와 제1 및 제2 텍스트데이터 중 적어도 하나의 텍스트데이터를 하나의 최종파일로 생성할 수 있다. 또한, 파일관리부(175)는 녹화 또는 영상통화 시에 동영상데이터가 레코딩되고, 단위 음성데이터가 레코딩 되었으면, 제1 및 제2 텍스트데이터 중 적어도 하나의 텍스트데이터와 싱크가 맞춰진 동영상데이터 및 단위 음성데이터를 하나의 최종파일로 생성할 수 있다. 파일관리부(175)는 생성된 최종파일을 최종파일(164)에 저장할 수 있다.
파일관리부(175)는 입력부(120)에서 최종파일을 재생시키기 위한 재생신호가 수신되면, 최종파일(164)에서 수신된 재생신호에 해당하는 파일을 추출하여 오디오처리부(130)의 스피커를 통해 출력할 수 있다. 재생신호에 해당하는 파일이 녹음 및 음성통화 레코딩을 통해 생성된 최종파일이면, 파일관리부(175)는 오디오처리부(130)의 스피커와 표시부(150)를 통해 각각 단위 음성데이터와 제1 및 제2 텍스트데이터 중 어느 하나의 텍스트데이터를 출력할 수 있다. 재생신호에 해당하는 파일이 녹화 및 영상통화 레코딩을 통해 생성된 최종파일이면, 파일관리부(175)는 오디오처리부(130)의 스피커와 표시부(150)를 통해 동영상파일을 출력할 수 있다.
도 2는 본 발명의 다양한 실시 예에 따른 단위 음성데이터를 레코딩하는 방법을 설명하는 순서도이다.
도 1 및 도 2를 참조하면, 11동작에서 제어부(170)는 입력부(120)로부터 레코딩 기능으로의 진입신호가 수신되면, 13동작을 수행할 수 있다. 레코딩 기능으로의 진입신호가 수신되지 않으면 제어부(170)는 17동작을 수행하여 대기상태를 유지하거나, 수행 중이던 기능을 지속적으로 수행할 수 있다.
13동작에서 제어부(170)는 오디오처리부(130)로부터 음성데이터를 수신할 수 있다. 오디오처리부(130)는 마이크에서 획득된 음원데이터를 분석하여 주파수의 특정 파형이 감지되는 부분을 음성데이터로 검출할 수 있다. 이때, 음원데이터는 녹음 또는 음성통화 시에 마이크에서 획득될 수 있고, 녹화 또는 영상통화 시에 마이크에서 획득될 수 있다. 녹화 또는 영상통화 시에 제어부(170)는 음성데이터를 수신할 수 있고, 카메라부(140)에서 획득된 동영상데이터를 수신할 수 있다.
15동작에서 제어부(170)는 수신된 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 실시간으로 레코딩할 수 있다. 이때, 레코딩은 제어부(170)가 단위 음성데이터 또는 동영상데이터를 저장부(160)에 임시 또는 반영구적으로 저장하는 것을 의미할 수 있다.
제어부(170)는 음성데이터에서 적어도 하나의 단위 음성데이터를 확인할 수 있다. 단위 음성데이터는 언어의 구성요소를 기준으로 형성될 수 있다. 예컨대, 단위 음성데이터는 문장을 기준으로 형성될 수 있으며, 음절, 형태소, 단어, 어절, 구절 등 언어의 다양한 구성요소 중 어느 하나를 기준으로 형성될 수 있다. 제어부(170)는 검출된 음성데이터 중에서 음성데이터가 확인된 시점부터 음성데이터가 종료된 시점까지를 단위 음성데이터로 확인하여 레코딩할 수 있다. 이때, 제어부(170)는 음성데이터가 확인되는 시점보다 임계시간 이전의 시점부터 음성데이터의 확인이 종료되는 시점보다 임계시간 이후의 시점까지를 단위 음성데이터로 확인하여 레코딩할 수도 있다. 단위 음성데이터는 음원데이터에서 검출된 음성데이터로부터 확인되는 데이터이므로, 음원데이터에 포함된 타임스탬프 정보로부터 단위 음성데이터의 시작과 종료시점을 확인할 수 있다. 아울러, 동영상데이터에는 영상통화의 레코딩 또는 녹화가 시작되는 시점부터 타임스탬프 정보가 생성될 수 있다.
도 3은 본 발명의 다양한 실시 예에 따른 단위 음성데이터를 번역하는 방법을 설명하는 순서도이다.
도 1 내지 도 3을 참조하면, 21동작에서 제어부(170)는 도 2의 15동작에서 저장부(160)에 실시간으로 저장되고 있는 단위 음성데이터를 번역하기 위한 번역모드를 수행할 수 있다. 23동작에서 제어부(170)는 단위 음성데이터의 번역 설정이 실시간 자동 설정인지 확인할 수 있다. 확인결과, 단위 음성데이터의 번역이 실시간 자동번역 설정이면 제어부(170)는 37동작을 수행하여 실시간으로 저장되고 있는 단위 음성데이터 번역을 수행할 수 있다.
37동작에서 제어부(170)는 제1 언어로 형성된 단위 음성데이터를 분석하여 제1 텍스트데이터를 생성할 수 있다. 제어부(170)는 변환된 제1 텍스트데이터로 제2 언어의 제2 텍스트데이터를 생성하여 단위 음성데이터를 번역할 수 있다. 제어부(170)는 39동작을 수행하여 제1 및 제2 텍스트데이터를 표시부(150)에 표시할 수 있다. 제어부(170)는 제1 텍스트데이터 또는 제2 텍스트데이터만을 표시부(150)에 표시할 수 있다. 제어부(170)는 표시부(150)에 텍스트데이터들을 표시하고 33동작을 수행할 수 있다.
또한, 39동작에서 제어부(170)는 도 2에서 획득되는 데이터가 단위 음성데이터를 포함하는 동영상데이터이면 제어부(170)는 동영상데이터를 표시부(150)에 표시하고, 단위 음성데이터를 번역하여 제1 텍스트데이터와 제2 텍스트데이터 중 적어도 하나의 텍스트데이터를 동영상데이터에 오버레이하여 표시할 수 있다. 제어부(170)는 표시부(150)에 텍스트데이터들을 표시하고 33동작을 수행할 수 있다.
단위 음성데이터의 실시간 자동 번역 설정이 아니면 제어부(170)는 25동작을 수행할 수 있다. 25동작에서 제어부(170)는 제1 언어로 형성된 단위 음성데이터를 분석하여 제1 텍스트데이터를 생성할 수 있다. 제어부(170)는 생성된 제1 텍스트데이터를 표시부(150)에 표시할 수 있다. 27동작에서 제어부(170)는 입력부(120)로부터 번역을 위한 번역 구간 선택신호가 수신되지 않으면 41동작을 수행할 수 있다. 41동작에서 제어부(170)는 입력부(120)로부터 번역모드를 종료하기 위한 종료신호가 수신되면 상기 번역모드를 종료할 수 있다. 41동작에서 제어부(170)는 입력부(120)로부터 종료신호가 수신되지 않으면 25동작으로 회귀하여 상기의 동작을 재수행할 수 있다.
27동작에서 제어부(170)는 입력부(120)로부터 번역을 위한 번역 구간 선택신호가 수신되면 29동작을 수행할 수 있다. 29동작에서 제어부(170)는 선택신호에 해당하는 단위 음성데이터를 번역할 수 있다. 제어부(170)는 25동작에서 표시부(150)에 표시되는 제1 텍스트 데이터로 제2 언어의 제2 텍스트데이터를 생성하여 단위 음성데이터의 번역을 수행할 수 있다.
또한, 제어부(170)는 획득되는 데이터가 음원데이터를 포함하는 동영상데이터이면 제어부(170)는 동영상데이터를 표시부(150)에 표시할 수 있다. 제어부(170)는 음원데이터에 포함된 단위 음성데이터로 제1 텍스트데이터를 생성하고, 제1 텍스트데이터로 제2 텍스트데이터를 생성할 수 있다. 제어부(170)는 동영상데이터와 단위 음성데이터의 싱크를 맞추어 표시부(150)에 표시할 수 있다. 제어부(170)는 제1 텍스트데이터 및 제2 텍스트데이터 중 적어도 하나의 텍스트데이터를 동영상데이터에 오버레이하여 표시하거나, 표시부(150)를 분할하여 동영상데이터가 표시된 영역과 별도의 영역에 표시할 수 있다. 이후, 제어부(170)는 33동작을 수행할 수 있다.
33동작에서 제어부(170)는 입력부(120)로부터 저장메뉴 선택신호가 수신되면 35동작을 수행할 수 있다. 35동작에서 제어부(170)는 선택신호에 해당하는 단위 음성데이터, 제1 텍스트데이터 및 제2 텍스트데이터의 싱크를 맞춰 최종파일을 생성하여 저장부(160)에 저장할 수 있다. 또한, 제어부(170)는 동영상데이터, 단위 음성데이터에 포함된 타임스탬프 정보를 확인할 수 있다. 제어부(170)는 동영상데이터, 단위 음성데이터, 제1 텍스트데이터 및 제2 텍스트데이터의 싱크를 맞춰 최종파일을 생성한 후 저장부(160)에 저장할 수 있다. 반대로, 33동작에서 제어부(170)는 입력부(120)로부터 저장메뉴에 대한 선택신호가 수신되지 않으면 41동작을 수행할 수 있다. 35과정에서 저장된 최종파일을 실행할 때에 제어부(170)는 저장된 최종파일의 종류에 따라 단위 음성데이터와 동영상데이터 중 적어도 하나의 데이터와 제1 텍스트데이터와 제2 텍스트데이터 중 적어도 하나의 텍스트데이터를 동시에 출력할 수 있다.
도 4는 본 발명의 다양한 실시 예 중 일 예에 따른 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 1 및 도 4를 참조하면, 도 4(a)에서와 같이 전자장치(100)의 사용자가 음성데이터 레코딩을 위한 아이콘(도면부호 411)를 선택하면, 마이크가 활성화되어 사용자의 음성에 대한 아날로그 음원 신호가 수집될 수 있다. 수집된 아날로그 음원 신호는 PCM 형태의 음원데이터로 변환되어 도 4(b)의 도면부호 412에서와 같이 표시부(150)에 표시될 수 있다. 도면부호 412는 음원데이터에서 분류된 음성데이터의 주파수 정보일 수 있다. 주파수 정보에서 도면부호 a, b, c, d에 해당하는 영역은 음성데이터가 확인되지 않는 구간이거나, 잡음만 존재하는 구간일 수 있다.
전자장치(100)는 주파수 정보가 특정 파형을 갖는 것으로 확인된 시점부터 주파수 정보가 특정 파형을 갖는 것으로 확인되지 않는 시점까지를 단위 음성데이터로 획득할 수 있다. 전자장치(100)는 음원데이터에서 음성데이터를 검출한 이후에 음성데이터에서 적어도 하나의 단위 음성데이터를 확인할 수 있다. 단위 음성데이터는 적어도 하나의 어절로 이루어진 문장(도면부호 A 또는 B)으로 형성될 수 있다. 문장(예컨대, 도면부호 A)과 문장(예컨대, 도면부호 B) 사이에서는 임계시간(예컨대, 도면부호 c) 동안 특정 파형이 확인되지 않을 수 있다. 이때, 도면부호 b는 <여러분>과 <안녕하세요> 사이의 구간, 도면부호 d는 <오늘은>과 <바흐에> 사이의 구간일 수 있다. 도면부호 b와 d는 어절과 어절 사이 또는 단어와 단어 사이 등 문장을 형성하는 구성요소 사이에 발화가 잠시 멈춰지는 구간을 나타낼 수 있다.
단위 음성데이터의 실시간 자동 번역이 설정된 상태가 아니면 전자장치(100)는 도 4(b)와 같이 단위 음성데이터(도면부호 A와 B)를 제1 텍스트데이터로 실시간 변환하여 순차적으로 표시부(150)에 표시할 수 있다. 이때, 제어부(170)는 도면부호 413a, 414a, 413b, 414b와 같은 체크박스를 표시할 수 있다. 이때, 413a, 413b는 제1 텍스트데이터를 제2 텍스트데이터로 번역하기 위한 선택신호를 생성하는 체크박스일 수 있고, 414a, 414b는 선택된 구간에 해당하는 최종파일을 저장하기 위한 체크박스일 수 있다.
표시부(150)에 <여러분, 안녕하세요>라는 제1 텍스트데이터가 표시되고 난 이후에 사용자가 413a을 선택하면 제어부(170)는 <여러분, 안녕하세요>에 해당하는 제1 텍스트데이터를 제2 언어의 제2 텍스트데이터로 생성하여 <Hello, Guys>와 같이 표시부(150)에 표시할 수 있다. 이때, 제어부(170)는 제2 텍스트데이터의 생성이 완료되어 표시부(150)에 표시되면 도면부호 415와 같이 제1 및 제2 텍스트데이터가 표시된 영역의 색상을 변경할 수 있다. 표시부(150)에 <오늘은 바흐에 대해서 얘기해볼게요>라고 제1 텍스트데이터가 표시되고 난 이후에, 사용자가 413b을 선택하면 제어부(170)는 제1 텍스트데이터를 제2 텍스트데이터로 생성할 수 있다. 제2 텍스트데이터의 생성이 완료되지 않으면 표시부(150)에는 도면부호 416에서와 같이 제2 텍스트데이터로 번역 중임을 알리는 말줄임표 등을 표시할 수 있다. 제어부(170)는 번역이 완료되면 제2 텍스트데이터를 <오늘은 바흐에 대해서 얘기해볼게요>의 하단에 표시할 수 있고, 도면부호 416의 색상을 변경할 수 있다. 사용자가 414b를 선택하면 제어부(170)는 <오늘은 바흐에 대해서 얘기해볼게요>에 해당하는 단위 음성데이터, 제1 텍스트데이터 및 제2 텍스트데이터를 최종파일로 생성하여 저장할 수 있다. 이때, 제어부(170)는 사용자의 선택에 따라 단위 음성데이터와 제1 텍스트데이터만을 최종파일로 생성할 수 있고, 단위 음성데이터와 제2 텍스트데이터만을 최종파일로 생성할 수도 있다.
최종파일의 생성이 완료된 이후에, 사용자가 최종파일을 확인하기 위한 메뉴선택 또는 아이콘 선택을 수행하면, 표시부(150)에는 도 4(c)와 같이 저장된 최종파일의 목록이 표시된다. 최종파일 목록은 제1 텍스트데이터의 형태로 표시될 수 있다. 저장된 최종파일들은 도 4(b)에서 도면부호 414a 또는 414b에 선택신호가 제공된 구간에 대한 최종파일들일 수 있다. 도 4(c)에서 사용자가 도면부호 417과 같이 최종파일 목록 중 어느 하나의 항목을 선택하면, 표시부(150)에는 도 4(d)와 같은 화면이 표시된다. 사용자가 선택한 제1 텍스트데이터에 해당하는 제2 텍스트데이터를 도면부호 418과 같이 표시하고, 제1 텍스트데이터에 해당하는 단위 음성데이터를 출력할 수 있다. 전자장치(100)는 도 4(d)에서 사용자로부터 도면부호 419가 선택되면 제2 텍스트데이터를 TTS(Text To Speech)로 변환하여 출력할 수 있다.
본 발명의 실시 예에서는 도 4(b)에서 번역을 위한 체크박스를 선택하였을 때, 제2 텍스트데이터로 번역하는 것으로 설명하고 있으나, 반드시 이에 한정되는 것은 아니다. 실시 예에 따르면, 도 4(c)에서와 같이 저장된 최종파일에서 어느 한 항목에 대한 제1 텍스트데이터가 선택되면, 제1 텍스트데이터가 선택되었을 때에 제2 텍스트데이터를 생성하여 도 4(d)에서와 같이 표시부(150)에 표시할 수도 있다.
도 5는 본 발명의 다양한 실시 예 중 일 예에 따른 음성통화 시에 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 1, 도 4 및 도 5를 참조하면, 사용자가 상대방과 음성통화 중에 도 5(a)에서와 같이 도면부호 511에 해당하는 레코딩 버튼을 선택하면, 전자장치(100)는 통화내용에 해당하는 음원데이터에서 검출된 음성데이터를 실시간으로 레코딩할 수 있다. 전자장치(100)는 통신부(110)를 통해 전송되는 음원데이터에서 검출된 음성데이터를 실시간으로 레코딩할 수 있다. 전자장치(100)는 음원데이터에서 음성데이터를 검출하고, 검출된 음성데이터에서 적어도 하나의 단위 음성데이터를 추출할 수 있다. 추출된 단위 음성데이터는 도 5(b)의 도면부호 512, 515와 같이 제1 텍스트데이터로 표시할 수 있다.
단위 음성데이터의 실시간 자동 번역이 설정된 상태가 아니면 전자장치(100)는 도 5(b)에서와 같이 단위 음성데이터를 제1 텍스트데이터로 실시간 변환하여 순차적으로 표시부(150)에 표시할 수 있다. 이때, 제어부(170)는 제1 텍스트데이터에 513a, 513b, 514a, 514b와 같은 체크박스를 표시할 수 있다. 이때, 513a, 513b는 제1 텍스트데이터를 제2 텍스트데이터로 번역하기 위한 선택신호를 생성하는 체크박스일 수 있고, 513b, 514b는 선택된 구간에 해당하는 최종파일을 저장하기 위한 체크박스일 수 있다.
표시부(150)에 <So, Do you want to go watch a movie?>라는 제1 텍스트데이터가 표시되고 난 이후에 사용자가 513a를 선택하면 제어부(170)는 <So, Do you want to go watch a movie?>에 해당하는 제1 텍스트데이터를 제2 텍스트데이터로 생성하여 <그래서 오늘 영화보러 갈거야?>와 같이 표시부(150)에 표시할 수 있다. 이때, 제어부(170)는 생성이 완료된 제2 텍스트데이터가 표시부(150)에 표시되면 도면부호 512와 같이 제1 및 제2 텍스트데이터가 표시된 영역의 색상을 변경할 수 있다. 이때, 사용자가 도면부호 514b를 선택하면 전자장치(100)는 <So, Do you want to go watch a movie?>에 해당하는 단위 음성데이터, 제1 텍스트데이터, 제2 텍스트데이터를 하나의 최종파일로 생성하여 저장할 수 있다. 전자장치(100)는 최종파일 생성 시에 단위 음성데이터의 타임스탬프를 확인하여 제1 텍스트데이터 및 제2 텍스트데이터와의 싱크를 맞출 수 있다. 이때, 전자장치(100)는 단위 음성데이터가 변환되어 제1 텍스트데이터가 생성될 때, 단위 음성데이터의 타임스탬프를 확인하여 제1 텍스트데이터에 타임스탬프를 생성할 수 있다. 제1 텍스트데이터를 제2 텍스트데이터로 변환할 때, 제1 텍스트데이터에 생성된 타임스탬프를 제2 텍스트데이터에 타임스탬프로 생성할 수 있다. 전자장치(100)는 단위 음성데이터, 제1 텍스트데이터 및 제2 텍스트데이터의 타임스탬프를 이용하여 싱크를 맞출 수 있다.
그 이후에, 표시부(150)에 <응>이라는 제1 텍스트데이터가 표시되고 난 이후에 사용자가 513a를 선택하지 않으면 전자장치(100)는 제2 텍스트데이터를 제외한 제1 텍스트데이터만을 표시부(150)에 표시할 수 있다. 저장된 최종파일을 선택하여 확인하는 방법은 도 4(c)와 도4(d)에서 설명하였으므로 상세한 설명은 생략한다. 이와 같이, 본 발명은 타 언어를 사용하는 상대방과의 통화 시에 상대방 발화의 번역을 수행하여 대화진행을 매끄럽게 수행할 수 있다. 또한, 본 발명은 문장 단위로 레코딩을 수행하고, 레코딩 파일에서 필요한 부분을 따로 번역하여 사용자의 편의성을 향상시킬 수 있다. 본 발명은 1:1 음성통화를 하는 기술에 대하여 설명하고 있으나, 반드시 이에 한정되는 것은 아니며 다양한 언어를 사용하는 사용자들이 음성회의 등을 하는 상황에도 적용될 수 있다.
도 6은 본 발명의 다양한 실시 예 중 일 예에 따른 영상 통화 시에 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 1, 도 4 및 도 6을 참조하면, 사용자가 상대방과 영상통화 중에 도 6(a)에서와 같이 도면부호 611에 해당하는 레코딩 버튼을 선택하면, 전자장치(100)는 통화내용에 해당하는 동영상데이터 및 음원데이터에서 검출된 음성데이터를 실시간으로 레코딩할 수 있다. 이때, 전자장치(100)는 통신부(110)를 통해 전송되는 동영상데이터 및 음원데이터에서 검출된 음성데이터를 실시간으로 레코딩할 수 있다. 전자장치(100)는 음원데이터에서 추출된 음성데이터에서 단위 음성데이터를 추출할 수 있다. 전자장치(100)는 도 6(a)에서와 같이 표시되는 사용자의 영상데이터와 상대방의 영상데이터를 하나의 동영상데이터로 레코딩할 수 있고, 각각의 동영상데이터로 레코딩할 수 있다. 추출된 단위 음성데이터는 도 6(b)의 도면부호 612, 615와 같이 표시되고, 도 6(b)에서와 같이 사용자 및 통화 상대방에 대한 동영상데이터를 표시부(150)에 지속적으로 출력할 수 있다.
단위 음성데이터의 실시간 자동 번역이 설정된 상태가 아니면 전자장치(100)는 도 6(b)에서와 같이 단위 음성데이터를 제1 텍스트데이터로 실시간 변환하여 순차적으로 표시부(150)에 표시할 수 있다. 이때, 제어부(170)는 제1 텍스트데이터에 613a, 613b, 614a, 614b와 같은 체크박스를 표시할 수 있다. 이때, 613a, 613b는 제1 텍스트데이터를 제2 텍스트데이터로 번역하기 위한 선택신호를 생성하는 체크박스일 수 있고, 613b, 14b는 선택된 구간에 해당하는 최종파일을 저장하기 위한 체크박스일 수 있다.
도면부호 612에 대한 설명은 도 5(b)에 기재한 512의 설명과 유사하므로 상세한 설명을 생략한다. <So, Do you want to go watch a movie?>라는 제1 텍스트데이터가 표시된 이후에 표시부(150)에 <응>이라는 제1 텍스트데이터가 표시될 수 있다. 이때, 사용자가 613a를 선택하면, 제어부(170)는 <응>에 해당하는 제1 텍스트데이터를 제2 텍스트데이터로 생성하여 <yes>와 같이 표시부(150)에 표시할 수 있다. 제어부(170)는 생성이 완료된 제2 텍스트데이터가 표시부(150)에 표시되면 도면부호 615와 같이 제1 및 제2 텍스트데이터가 표시된 영역의 색상을 변경할 수 있다. 이때, 사용자가 도면부호 614b를 선택하면 전자장치(100)는 <응>에 해당하는 단위 음성데이터, 동영상데이터, 제1 텍스트데이터, 제2 텍스트데이터를 하나의 최종파일로 생성하여 저장할 수 있다. 전자장치(100)는 최종파일 생성 시에 단위 음성데이터와 동영상데이터의 타임스탬프를 확인하여 제1 텍스트데이터 및 제2 텍스트데이터와의 싱크를 맞출 수 있다. 저장된 최종파일을 선택하여 확인하는 방법은 도 4(c)와 도4(d)에서 설명하였으므로 상세한 설명은 생략한다. 본 발명은 타 언어를 사용하는 상대방과의 통화 시에 상대방 발화의 번역을 수행하여 대화진행을 매끄럽게 수행할 수 있다. 또한, 본 발명은 문장 단위로 레코딩을 수행하고, 레코딩 파일에서 필요한 부분을 따로 번역하여 사용자의 편의성을 향상시킬 수 있다. 본 발명은 1:1 영상통화를 하는 기술에 대하여 설명하고 있으나, 반드시 이에 한정되는 것은 아니며 다양한 언어를 사용하는 사용자들이 화상회의 등을 하는 상황에도 적용될 수 있다.
도 7은 본 발명의 다양한 실시 예 중 일 예에 따른 동영상 녹화 시에 단위 음성데이터를 번역하는 방법을 설명하기 위한 화면예시도이다.
도 1, 도 4 및 도 7을 참조하면, 사용자가 도 7(a)에서와 같이 도면부호 711에 해당하는 레코딩 버튼을 선택하면, 전자장치(100)는 카메라부(140)와 마이크를 통해 각각 동영상데이터와 음원데이터에서 검출된 음성데이터를 실시간으로 레코딩할 수 있다. 이때, 동영상데이터와 음원데이터는 각각 카메라부(140)와 마이크를 통해 획득될 수 있지만, 통신부(110)를 통해 타 전자장치 또는 서버장치로부터 수신될 수 있다.
전자장치(100)는 음원데이터에서 음성데이터를 검출하고, 검출된 음성데이터에서 적어도 하나의 단위 음성데이터를 추출할 수 있다. 전자장치(100)는 단위 음성데이터를 분석하여 도 7(b)의 도면부호 712와 같이 제1 텍스트데이터를 표시할 수 있다. 전자장치(100)는 제1 텍스트데이터로 제2 언어에 대한 제2 텍스트데이터를 생성하여 표시할 수 있다.
단위 음성데이터의 실시간 자동 번역이 설정된 상태이면 전자장치(100)는 사용자로부터 번역을 위한 선택신호 없이 도 7(b)에서와 같이 제1 텍스트데이터와 제2 텍스트데이터를 표시할 수 있다. 예컨대, 레코딩의 대상인 화자(도면부호 714)가 <여러분, 안녕하세요.>, <오늘은 바흐에 대해서 얘기해볼게요.>라고 발화할 수 있다. 이때, 전자장치(100)는 발화로부터 획득된 단위 음성데이터를 분석하여 제1 텍스트데이터를 생성할 수 있다. 전자장치(100)는 생성된 제1 텍스트데이터를 번역하여 제2 텍스트데이터를 생성하고, 생성된 제2 텍스트데이터를 표시부(150)에 표시할 수 있다.
전자장치(100)는 사용자로부터 도면부호 713a, 713b가 선택되면 선택된 구간을 저장할 수 있다. 이때, 전자장치(100)는 <여러분, 안녕하세요.>와 <오늘은 바흐에 대해서 얘기해볼게요.>에 해당하는 단위 음성데이터, 동영상데이터, 제1 텍스트데이터, 제2 텍스트데이터를 하나의 최종파일로 생성하여 저장할 수 있다. 전자장치(100)는 최종파일 생성 시에 단위 음성데이터와 동영상데이터의 타임스탬프를 확인하여 제1 텍스트데이터 및 제2 텍스트데이터와의 싱크를 맞출 수 있다. 저장된 최종파일을 선택하여 확인하는 방법은 도 4(c)와 도4(d)에서 설명하였으므로 상세한 설명은 생략한다. 본 발명은 강의, 영화, 비디오 등 음성데이터가 포함된 동영상데이터에서 단위 음성데이터에 해당하는 텍스트데이터를 생성하고, 동영상데이터와 단위 음성데이터 및 텍스트데이터의 싱크를 맞춰 자막 생성을 용이하게 할 수 있다.
도 8은 다양한 일 실시 예들에 따른 전자장치를 도시한 블록도이다.
도 8을 참조하면, 본 개시에 따른 전자장치(800)는 예를 들면, 도 1에 도시된 전자장치(100)의 전체 또는 일부를 구성할 수 있다. 전자장치(800)는 하나 이상의 어플리케이션 프로세서(810, AP: application processor), 통신 모듈(820), SIM(subscriber identification module) 카드(824), 메모리(830), 센서 모듈(840), 입력 장치(850), 디스플레이(860), 인터페이스(870), 오디오 모듈(880), 카메라 모듈(891), 전력관리 모듈(895), 배터리(896), 인디케이터(897) 및 모터(898)를 포함할 수 있다.
AP(810)는 예를 들면, 도 1에 도시된 제어부(170)는 운영체제 또는 응용 프로그램을 구동하여 AP(810)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP(810)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, AP(810)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
통신 모듈(820)은 예를 들면, 도 1에 도시된 통신부(110)은 전자장치(800)(예: 전자장치 100)와 네트워크를 통해 연결된 다른 전자장치들 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈(820)은 셀룰러 모듈(821), Wifi 모듈(823), BT 모듈(825), GPS 모듈(827), NFC 모듈(828) 및 RF(radio frequency) 모듈(829)를 포함할 수 있다.
셀룰러 모듈(821)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 셀룰러 모듈(821)은, 예를 들면, 가입자 식별 모듈(예: SIM 카드(824))을 이용하여 통신 네트워크 내에서 전자장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(821)은 AP(810)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈(821)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시 예에 따르면, 셀룰러 모듈(821)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 셀룰러 모듈(821)은, 예를 들면, SoC로 구현될 수 있다. 도 8에서는 셀룰러 모듈(821)(예: 커뮤니케이션 프로세서), 메모리(830) 또는 전력관리 모듈(895) 등의 구성요소들이 AP(810)와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, AP(810)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈(821))를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, AP(810) 또는 셀룰러 모듈(821)(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP(810) 또는 셀룰러 모듈(821)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
Wifi 모듈(823), BT 모듈(825), GPS 모듈(827) 또는 NFC 모듈(828) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 8에서는 셀룰러 모듈(821), Wifi 모듈(823), BT 모듈(825), GPS 모듈(827) 또는 NFC 모듈(828)이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈(821), Wifi 모듈(823), BT 모듈(825), GPS 모듈(827) 또는 NFC 모듈(828) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(821), Wifi 모듈(823), BT 모듈(825), GPS 모듈(827) 또는 NFC 모듈(828) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈(821)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈(823)에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈(829)는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. RF 모듈(829)는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈(829)는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 8에서는 셀룰러 모듈(821), Wifi 모듈(823), BT 모듈(825), GPS 모듈(827) 및 NFC 모듈(828)이 하나의 RF 모듈(829)을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈(821), Wifi 모듈(823), BT 모듈(825), GPS 모듈(827) 또는 NFC 모듈(828) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드(824)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드(824)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(830)는 예를 들면, 도 1의 저장부(160)은 내장 메모리(832) 또는 외장 메모리(834)를 포함할 수 있다. 내장 메모리(832)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 내장 메모리(832)는 Solid State Drive (SSD)일 수 있다. 외장 메모리(834)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리(834)는 다양한 인터페이스를 통하여 전자장치(800)과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 전자장치(800)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈(840)은 물리량을 계측하거나 전자장치(800)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(840)은, 예를 들면, 제스처 센서(840A), 자이로 센서(840B), 기압 센서(840C), 마그네틱 센서(840D), 가속도 센서(840E), 그립 센서(840F), 근접 센서(840G), color 센서(840H(예: RGB(red, green, blue) 센서), 생체 센서(840I), 온/습도 센서(840J), 조도 센서(840K) 또는 UV(ultra violet) 센서(840M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(840)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈(840)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 장치(850)는 예를 들면, 도 1의 입력부(120)은 터치 패널(touch panel)(852), (디지털) 펜 센서(pen sensor)(854), 키(key)(856) 또는 초음파(ultrasonic) 입력 장치(858)를 포함할 수 있다. 터치 패널(852)(예: 표시부(150)는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널(852)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 터치 패널(852)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널(852)은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(854)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키(856)(예: 입력부(120)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치(858)는 초음파 신호를 발생하는 입력 도구를 통해, 전자장치(800)에서 마이크로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 전자장치(800)는 통신 모듈(820)를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이(860)는 예를 들면, 도 1의 표시부(150)는 패널(862), 홀로그램 장치(864) 또는 프로젝터(866)을 포함할 수 있다. 패널(862)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널(862)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(862)은 터치 패널(852)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(864)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(866)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자장치(800)의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이(860)은 패널(862), 홀로그램 장치(864), 또는 프로젝터(866)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(870)는, 예를 들면, HDMI(high-definition multimedia interface)(872), USB(universal serial bus)(874), 광 인터페이스(optical interface)(876) 또는 D-sub(D-subminiature)(878)를 포함할 수 있다. 추가적으로 또는 대체적으로, 인터페이스(870)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(880) 예를 들면, 도 1의 오디오처리부(130)는 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(880)은, 예를 들면, 스피커(882), 리시버(884), 이어폰(886) 또는 마이크(888) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(891) 예를 들면, 도 1의 카메라부(140)는 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈(895)은 전자장치(800)의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력 관리 모듈(895)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리(896)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리(896)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자장치(800)에 전원을 공급할 수 있다. 배터리(896)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(897)는 전자장치(800) 혹은 그 일부(예: AP(810))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(898)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자장치(800)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 개시에 따른 전자장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 전자장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 전자장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 개시에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 개시에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 본 개시에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 하나 이상의 프로세서에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리가 될 수 있다. 프로그래밍 모듈의 적어도 일부는, 예를 들면, 프로세서에 의해 구현(implement)(예: 실행)될 수 있다. 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 개시에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 개시에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 명세서와 도면에 개시된 본 개시의 실시 예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
100: 전자장치 110: 통신부
120: 입력부 130: 오디오처리부
140: 카메라부 150: 표시부
160: 저장부 161: 설정정보
162: 버퍼 163: 번역정보
164: 최종파일 170: 제어부
171: 설정관리부 172: 레코딩관리부
173: 번역관리부 174: 싱크관리부
175: 파일관리부

Claims (13)

  1. 음원데이터를 포함한 멀티미디어 데이터를 입력받고, 상기 음원데이터에서 음성데이터를 검출하는 오디오처리부;
    상기 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩하고, 상기 단위 음성데이터에 대응되는 적어도 하나의 텍스트데이터를 생성하는 제어부;
    상기 단위 음성데이터에 대응되는 텍스트데이터를 출력하는 표시부;
    를 포함하는 전자장치.
  2. 제1항에 있어서,
    상기 제어부는
    상기 음성데이터에서 주파수의 특정 파형이 시작된 시점부터 임계시간 이상 종료된 시점까지를 상기 단위 음성데이터로 확인하는 전자장치.
  3. 제2항에 있어서,
    상기 제어부는
    상기 주파수의 특정 파형이 시작된 시점과 임계시간 이상 종료된 시점에 대한 타임스탬프 정보를 확인하는 전자장치.
  4. 제3항에 있어서,
    상기 제어부는
    상기 단위 음성데이터에 해당하는 언어로 제1 텍스트데이터를 생성하고, 상기 제1 텍스트데이터를 번역하여 타 언어에 대한 제2 텍스트데이터를 생성하는 전자장치.
  5. 제3항에 있어서,
    상기 제어부는
    상기 확인된 타임스탬프 정보로 상기 단위 음성데이터와 상기 텍스트데이터의 싱크를 맞추는 전자장치.
  6. 제1항에 있어서,
    상기 제어부는
    선택신호에 따라 상기 단위 음성데이터와 상기 단위 음성데이터에 대응되는 텍스트데이터를 저장하는 저장부;
    를 더 포함하는 전자장치.
  7. 제3항에 있어서,
    상기 제어부는
    상기 멀티미디어 데이터에 동영상데이터가 포함된 경우, 상기 동영상데이터의 획득이 시작된 시점부터 획득이 종료된 시점까지의 타임스탬프 정보를 확인하고, 상기 단위 음성데이터의 타임스탬프 정보를 확인하여 상기 단위 음성데이터와 상기 동영상데이터의 싱크를 맞추는 전자장치.
  8. 음원데이터를 포함하는 멀티미디어 데이터를 획득하는 동작;
    상기 음원데이터에서 음성데이터를 검출하는 동작;
    상기 음성데이터에서 적어도 하나의 단위 음성데이터를 확인하여 레코딩하는 동작;
    상기 단위 음성데이터에 대응되는 적어도 하나의 텍스트데이터를 생성하는 동작;
    상기 단위 음성데이터에 대응되는 텍스트데이터를 출력하는 동작;
    을 포함하는 레코딩 지원 방법.
  9. 제8항에 있어서,
    상기 레코딩하는 동작 이후에
    상기 레코딩된 단위 음성데이터에 해당하는 언어로 제1 텍스트데이터로 생성하고, 상기 제1 텍스트데이터를 번역하여 타 언어에 대한 제2 텍스트데이터를 생성하는 동작;
    을 더 포함하는 레코딩 지원 방법.
  10. 제9항에 있어서,
    상기 텍스트데이터를 출력하는 동작은
    상기 단위 음성데이터의 타임스탬프 정보를 확인하고, 상기 확인된 타임스탬프 정보로 상기 단위 음성데이터와 상기 텍스트데이터의 싱크를 맞추어 출력하는 동작인 레코딩 지원 방법.
  11. 제8항에 있어서,
    상기 텍스트데이터를 출력하는 동작 이후에
    선택신호를 수신하는 동작;
    상기 선택신호에 따라 상기 단위 음성데이터와 상기 단위 음성데이터에 대응되는 텍스트데이터를 저장하는 동작;
    을 더 포함하는 레코딩 지원 방법.
  12. 제10항에 있어서,
    상기 멀티미디어 데이터를 획득하는 동작은
    동영상데이터가 포함된 멀티미디어 데이터를 획득하는 동작인 레코딩 지원 방법.
  13. 제12항에 있어서,
    상기 텍스트데이터를 출력하는 동작은
    상기 동영상데이터의 획득이 시작된 시점부터 획득이 종료된 시점까지의 타임스탬프 정보를 확인하고, 상기 단위 음성데이터의 타임스탬프 정보를 확인하여 상기 단위 음성데이터와 상기 동영상데이터의 싱크를 맞추는 동작;
    을 더 포함하고,
    상기 단위 음성데이터와 상기 동영상데이터에 상기 텍스트데이터의 싱크를 맞추어 출력하는 동작인 레코딩 지원 방법.
KR1020140040342A 2014-04-04 2014-04-04 레코딩 지원 전자장치 및 방법 KR102249086B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140040342A KR102249086B1 (ko) 2014-04-04 2014-04-04 레코딩 지원 전자장치 및 방법
US14/678,882 US9659561B2 (en) 2014-04-04 2015-04-03 Recording support electronic device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140040342A KR102249086B1 (ko) 2014-04-04 2014-04-04 레코딩 지원 전자장치 및 방법

Publications (2)

Publication Number Publication Date
KR20150115385A true KR20150115385A (ko) 2015-10-14
KR102249086B1 KR102249086B1 (ko) 2021-05-10

Family

ID=54210305

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140040342A KR102249086B1 (ko) 2014-04-04 2014-04-04 레코딩 지원 전자장치 및 방법

Country Status (2)

Country Link
US (1) US9659561B2 (ko)
KR (1) KR102249086B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170115004A (ko) * 2017-08-11 2017-10-16 네이버 주식회사 복수 번역자의 공동 번역 환경을 지원하는 서비스 방법, 이를 지원하는 공동 번역 지원 장치 및 공동 번역 지원 장치에 저장된 공동 번역 지원 컴퓨터 프로그램
KR20220003630A (ko) * 2019-06-01 2022-01-10 애플 인크. 오디오 노출을 관리하기 위한 사용자 인터페이스들
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
US11482328B2 (en) 2020-06-02 2022-10-25 Apple Inc. User interfaces for health applications
US11527316B2 (en) 2019-06-01 2022-12-13 Apple Inc. Health application user interfaces
US11698710B2 (en) 2020-08-31 2023-07-11 Apple Inc. User interfaces for logging user activities
US11950916B2 (en) 2018-03-12 2024-04-09 Apple Inc. User interfaces for health monitoring

Families Citing this family (147)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3008641A1 (en) 2013-06-09 2016-04-20 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
KR102249086B1 (ko) * 2014-04-04 2021-05-10 삼성전자주식회사 레코딩 지원 전자장치 및 방법
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
KR102340251B1 (ko) * 2014-06-27 2021-12-16 삼성전자주식회사 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US20180249056A1 (en) * 2015-08-18 2018-08-30 Lg Electronics Inc. Mobile terminal and method for controlling same
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10431216B1 (en) * 2016-12-29 2019-10-01 Amazon Technologies, Inc. Enhanced graphical user interface for voice communications
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US11582174B1 (en) 2017-02-24 2023-02-14 Amazon Technologies, Inc. Messaging content data storage
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
CN108449629B (zh) * 2018-03-31 2020-06-05 湖南广播电视台广播传媒中心 一种音频的语音与文字同步方法及剪辑方法和剪辑系统
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
CN115017920A (zh) * 2018-10-15 2022-09-06 华为技术有限公司 一种翻译方法及电子设备
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11810578B2 (en) 2020-05-11 2023-11-07 Apple Inc. Device arbitration for digital assistant-based intercom systems
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN114079695A (zh) * 2020-08-18 2022-02-22 北京有限元科技有限公司 记录语音通话内容的方法、装置以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101945A (ja) * 2005-10-05 2007-04-19 Fujifilm Corp 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
KR100929688B1 (ko) * 2007-02-12 2009-12-03 주식회사 이지씨앤씨 음성 데이터를 이용하여 멀티미디어 데이터 파일의 인덱싱정보를 생성하는 시스템 및 방법과 멀티미디어 데이터파일의 인덱싱 정보를 검색하는 시스템 및 방법
WO2011033834A1 (ja) * 2009-09-18 2011-03-24 日本電気株式会社 音声翻訳システム、音声翻訳方法および記録媒体
KR20110111603A (ko) * 2010-04-05 2011-10-12 (주)인피니티텔레콤 실시간 단어 검출을 통한 단어 인덱스 기능이 구비된 단말장치 및 인덱스 처리방법
JP2014022758A (ja) * 2012-07-12 2014-02-03 Sony Corp 情報処理装置、情報処理方法、表示制御装置および表示制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1554721B1 (en) * 2002-10-17 2017-12-13 Nuance Communications, Inc. Arrangement and method for reproducing audio data as well as computer program product for this
KR100990175B1 (ko) 2003-05-27 2010-10-29 에스케이 텔레콤주식회사 이동통신 단말기의 통화내용 저장 시스템 및 방법
JP4231755B2 (ja) 2003-08-29 2009-03-04 京セラ株式会社 翻訳通信システム及び通信端末装置
KR101145273B1 (ko) 2005-03-14 2012-05-24 엘지전자 주식회사 이동통신 단말기의 음성 녹음 재생시 메모 방법
US7778632B2 (en) * 2005-10-28 2010-08-17 Microsoft Corporation Multi-modal device capable of automated actions
JP4823687B2 (ja) * 2005-12-28 2011-11-24 オリンパスメディカルシステムズ株式会社 手術システム制御装置
US20080095331A1 (en) * 2006-10-18 2008-04-24 Prokom Investments S.A. Systems and methods for interactively accessing networked services using voice communications
KR20100093800A (ko) 2009-02-17 2010-08-26 주식회사 케이티테크 휴대용 단말기의 통화중 녹음 감지 방법 및 이를 수행하는 휴대용 단말기
KR20120126649A (ko) 2011-05-12 2012-11-21 주식회사 유피아이케이 통화 내용 제공 방법, 그 제공 시스템 및 그 제공 방법을 기록한 기록매체
US8886169B2 (en) * 2011-10-25 2014-11-11 At&T Intellectual Property I, Lp Apparatus and method for providing enhanced telephonic communications
KR102065045B1 (ko) * 2013-03-15 2020-01-10 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR102045281B1 (ko) * 2013-06-04 2019-11-15 삼성전자주식회사 데이터 처리 방법 및 그 전자 장치
KR102249086B1 (ko) * 2014-04-04 2021-05-10 삼성전자주식회사 레코딩 지원 전자장치 및 방법
US20150334065A1 (en) * 2014-05-19 2015-11-19 David Yan Method and System for Automated Social Communication Between Individual People

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101945A (ja) * 2005-10-05 2007-04-19 Fujifilm Corp 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム
KR100929688B1 (ko) * 2007-02-12 2009-12-03 주식회사 이지씨앤씨 음성 데이터를 이용하여 멀티미디어 데이터 파일의 인덱싱정보를 생성하는 시스템 및 방법과 멀티미디어 데이터파일의 인덱싱 정보를 검색하는 시스템 및 방법
WO2011033834A1 (ja) * 2009-09-18 2011-03-24 日本電気株式会社 音声翻訳システム、音声翻訳方法および記録媒体
KR20110111603A (ko) * 2010-04-05 2011-10-12 (주)인피니티텔레콤 실시간 단어 검출을 통한 단어 인덱스 기능이 구비된 단말장치 및 인덱스 처리방법
JP2014022758A (ja) * 2012-07-12 2014-02-03 Sony Corp 情報処理装置、情報処理方法、表示制御装置および表示制御方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170115004A (ko) * 2017-08-11 2017-10-16 네이버 주식회사 복수 번역자의 공동 번역 환경을 지원하는 서비스 방법, 이를 지원하는 공동 번역 지원 장치 및 공동 번역 지원 장치에 저장된 공동 번역 지원 컴퓨터 프로그램
US11950916B2 (en) 2018-03-12 2024-04-09 Apple Inc. User interfaces for health monitoring
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
US11712179B2 (en) 2018-05-07 2023-08-01 Apple Inc. Displaying user interfaces associated with physical activities
KR20220003630A (ko) * 2019-06-01 2022-01-10 애플 인크. 오디오 노출을 관리하기 위한 사용자 인터페이스들
US11527316B2 (en) 2019-06-01 2022-12-13 Apple Inc. Health application user interfaces
US11842806B2 (en) 2019-06-01 2023-12-12 Apple Inc. Health application user interfaces
US11482328B2 (en) 2020-06-02 2022-10-25 Apple Inc. User interfaces for health applications
US11594330B2 (en) 2020-06-02 2023-02-28 Apple Inc. User interfaces for health applications
US11710563B2 (en) 2020-06-02 2023-07-25 Apple Inc. User interfaces for health applications
US11698710B2 (en) 2020-08-31 2023-07-11 Apple Inc. User interfaces for logging user activities

Also Published As

Publication number Publication date
KR102249086B1 (ko) 2021-05-10
US9659561B2 (en) 2017-05-23
US20150287409A1 (en) 2015-10-08

Similar Documents

Publication Publication Date Title
KR102249086B1 (ko) 레코딩 지원 전자장치 및 방법
US11664027B2 (en) Method of providing voice command and electronic device supporting the same
US10452349B2 (en) Electronic device and operation control method therefor
US11570299B2 (en) Translation method and electronic device
KR102183413B1 (ko) 콘텐트 표현 방법 및 시스템
KR102031874B1 (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
US11893359B2 (en) Speech translation method and terminal when translated speech of two users are obtained at the same time
US9843667B2 (en) Electronic device and call service providing method thereof
KR102326275B1 (ko) 이미지 표시 방법 및 장치
US20160133257A1 (en) Method for displaying text and electronic device thereof
US10708650B2 (en) Method and device for generating video content
KR20150090966A (ko) 전자 장치 및 전자 장치의 검색 결과 제공 방법
CN115050358A (zh) 一种语音控制命令生成方法及终端
KR102187227B1 (ko) 컨텐츠 생성 방법 및 그 전자 장치
CN106471493B (zh) 用于管理数据的方法和装置
KR102131626B1 (ko) 미디어 데이터 싱크 방법 및 장치
CN115730091A (zh) 批注展示方法、装置、终端设备及可读存储介质
CN113867851A (zh) 电子设备操作引导信息录制方法、获取方法和终端设备
KR20160021644A (ko) 대체 서비스 제공 방법 및 그 전자 장치
KR102292877B1 (ko) 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
KR102263670B1 (ko) 메시지 운용 방법 및 이를 지원하는 전자 장치
KR102165150B1 (ko) 메시지 운용 방법 및 이를 지원하는 전자 장치
WO2023097446A1 (zh) 视频处理方法、智能终端及存储介质
KR20150098546A (ko) 음성 데이터 송신 및 수신 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right