KR20200017296A - 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법 - Google Patents

개인화된 장치 연결을 지원하는 전자 장치 및 그 방법 Download PDF

Info

Publication number
KR20200017296A
KR20200017296A KR1020180092704A KR20180092704A KR20200017296A KR 20200017296 A KR20200017296 A KR 20200017296A KR 1020180092704 A KR1020180092704 A KR 1020180092704A KR 20180092704 A KR20180092704 A KR 20180092704A KR 20200017296 A KR20200017296 A KR 20200017296A
Authority
KR
South Korea
Prior art keywords
electronic device
external electronic
information
server
speaker
Prior art date
Application number
KR1020180092704A
Other languages
English (en)
Other versions
KR102574903B1 (ko
Inventor
연지현
원성준
서호철
조산
강두석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180092704A priority Critical patent/KR102574903B1/ko
Priority to EP19846856.3A priority patent/EP3777115A4/en
Priority to US16/521,713 priority patent/US20200051558A1/en
Priority to PCT/KR2019/009260 priority patent/WO2020032443A1/en
Priority to CN201980042626.XA priority patent/CN112334978A/zh
Publication of KR20200017296A publication Critical patent/KR20200017296A/ko
Application granted granted Critical
Publication of KR102574903B1 publication Critical patent/KR102574903B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

다양한 실시예에서, 적어도 하나의 통신 회로, 소리 입력 회로, 상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서, 및 상기 프로세서에 작동적으로 연결된 메모리를 포함하는 전자 장치가 개시된다. 전자 장치는, 상기 소리 입력 회로를 이용하여 발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하고, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하고, 상기 적어도 하나의 통신 회로를 이용하여, 상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치에 통신 연결을 할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시예가 가능하다.

Description

개인화된 장치 연결을 지원하는 전자 장치 및 그 방법{ELECTRONIC DEVICE SUPPORTING PERSONALIZED DEVICE CONNECTION AND METHOD THEREOF}
본 문서에서 개시된 다양한 실시예들은, 개인화된 장치 연결(personalized device connection)을 지원하는 전자 장치 및 그 방법에 관한 것이다.
음성 인식에 기반한 전자 장치의 제어가 널리 이용되고 있다. 예를 들어, 전자 장치는 음성 인식에 기반하여 AI 비서(artificial intelligence voice-assistant)로서 동작할 수 있다. 전자 장치는 다양한 음성 인식 기술(예: TTS(text to speech) 및 자연어 인식(natural language recognition))을 이용하여 사용자의 음성 명령에 대응하는 동작을 수행하도록 설정될 수 있다. 예를 들어, 전자 장치는 사용자의 음성 명령에 기반하여 사용자의 음성 명령에 동작을 수행하도록 다른 전자 장치를 제어할 수 있다.
예를 들어, 전자 장치는 AI 비서(voice assistant) 기능을 지원할 수 있는 AI 스피커일 수 있다. 전자 장치는 다양한 규격의 무선 연결(예: WiFi, 블루투스(Bluetooth), 저전력 블루투스(Bluetooth low energy, BLE), 장치간 연결(device-to-device connection), 및/또는 셀룰러 통신)을 지원할 수 있다. 전자 장치는 단순한 음악 재생 및 인터넷 검색 외에도, 다른 전자 장치들과의 연결을 이용하여 다른 전자 장치들을 제어할 수 있는 허브(hub)로서 동작할 수 있다.
전자 장치는 사용자의 음성 명령에 기반하여 다른 전자 장치를 이용하여 음성 호(voice call)를 수행할 수 있다. 예를 들어, 전자 장치는 전자 장치에 연결된 외부 전자 장치(예: 모바일 폰)를 이용하여 사용자에 의하여 지시된 상대방에게 발신 호를 수행할 수 있다. 예를 들어, 전자 장치는 외부 전자 장치와 근거리 통신 네트워크를 통하여 연결될 수 있다.
전자 장치의 외부 전자 장치를 이용한 발신 호 및/또는 수신 호의 수행을 위하여, 사용자는 전자 장치와 외부 전자 장치를 블루투스 통신을 이용하여 연결할 수 있다. 이 경우, 사용자는 전자 장치와 외부 전자 장치의 블루투스 기능을 활성화한 뒤, 장치 탐색(device scan)을 통하여 검색된 다른 장치를 선택함으로써 연결을 수행하여야 한다. 또한, 다른 외부 전자 장치가 전자 장치와 연결되어 있는 경우, 사용자는 다른 외부 전자 장치의 연결을 먼저 해제하여야 할 수 있다. 또한, 전자 장치가 복수의 외부 전자 장치들과 연관된 경우, 전자 장치는 복수의 외부 전자 장치들 중 음성 명령에 대응하는 동작(action)을 수행할 외부 전자 장치를 선택하기 어려울 수 있다. 또한, 예를 들어, AI 스피커가 가정 내의 복수의 사용자들(예: 가족 구성원)에 의하여 이용되는 경우, 사생활 침해의 우려가 있을 수 있다. AI 스피커가 제2 사용자의 지시에 기반하여 제1 전자 장치를 이용하여 전화를 수행하는 경우, 제1 전자 장치의 제1 사용자에 대한 사생활 침해가 발생될 수 있다.
본 문서의 다양한 실시예들에서, 개인화된 연결을 지원하는 전자 장치가 개시된다.
본 문서의 일 실시예에 따른 전자 장치는, 적어도 하나의 통신 회로, 소리 입력 회로, 상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서, 및 상기 프로세서에 작동적으로 연결된 메모리를 포함하고, 상기 메모리는 실행되었을 때 상기 프로세서로 하여금, 상기 소리 입력 회로를 이용하여 발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하고, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하고, 상기 적어도 하나의 통신 회로를 이용하여, 상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치에 통신 하도록 하는 인스트럭션들을 저장할 수 있다.
또한, 본 문서의 일 실시예에 따른 전자 장치의 통신 연결 방법은, 발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하는 동작, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하는 동작, 및 상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치에 통신을 연결하는 동작을 포함할 수 있다.
또한, 본 문서의 일 실시예에 전자 장치는, 적어도 하나의 통신 회로, 소리 입력 회로, 상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서, 및 상기 프로세서에 작동적으로 연결되고 적어도 하나의 외부 전자 장치에 연관된 계정 정보 및 주소 정보를 저장하는 메모리를 포함하고, 상기 메모리는 실행되었을 때 상기 프로세서로 하여금, 상기 소리 입력 회로를 이용하여 음성 데이터를 수신하고, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터에 연관된 화자(speaker)의 계정 정보를 식별하고, 상기 계정 정보에 연관된 외부 전자 장치의 주소 정보를 상기 메모리로부터 획득하고, 상기 적어도 하나의 통신 회로를 이용하여, 상기 외부 전자 장치의 주소 정보로 통신 연결을 하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.
본 문서에 개시되는 다양한 실시예들에 따르면, 화자 인식에 기반하여 외부 전자 장치를 선택함으로써 개인화된 연결을 지원할 수 있다.
분 문서에 개시되는 다양한 실시예들에 따르면, 화자 인식에 기반하여 개인화된 연결을 이용하여 사생활 침해를 방지할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 다양한 실시예들에 따른 네트워크에서 전자 장치의 블록도를 도시한다.
도 2는 다양한 실시예들에 따른 네트워크 환경에서의 전자 장치들간 연결을 도시한다.
도 3은 다양한 실시예들에 따른 네트워크에서 전자 장치간 통신을 도시한다.
도 4는 다양한 실시예들에 따른 외부 전자 장치의 등록 방법의 신호 흐름도를 도시한다.
도 5는 다양한 실시예들에 따른 음성 명령 실행 방법의 흐름도를 도시한다.
도 6은 다양한 실시예들에 따른 동작 정보에 기반한 통신 연결 확립 방법의 신호 흐름도를 도시한다.
도 7은 다양한 실시예들에 따른 음성 인식 및 통신 연결의 병렬 수행에 기반한 음성 호 수행 방법의 신호 흐름도를 도시한다.
도 8은 다양한 실시예들에 따른 로컬(local) 음성 인식에 기반한 음성 호 수행 방법의 신호 흐름도를 도시한다.
도 9는 다양한 실시예들에 따른 호 발신 방법의 흐름도를 도시한다.
도 10은 다양한 실시예들에 따른 호 수신 방법의 흐름도를 도시한다.
도 11은 다양한 실시예들에 따른 외부 전자 장치 연결 방법의 흐름도를 도시한다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예:스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예들에 따른 네트워크 환경(200)에서의 전자 장치들간 연결을 도시한다.
도 2를 참조하여, 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및 제3 외부 전자 장치(204)와의 통신을 지원할 수 있다. 예를 들어, 제1 외부 전자 장치(202)는 제1 사용자(212)에 연관된 전자 장치이고, 제2 외부 전자 장치(203)는 제2 사용자(213)에 연관된 전자 장치이고, 제3 외부 전자 장치(204)는 제3 사용자(214)에 연관된 전자 장치일 수 있다. 예를 들어, 전자 장치(201)는 AI 스피커일 수 있다. 예를 들어, 전자 장치(201), 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및 제3 외부 전자 장치(204) 각각은 도 1의 전자 장치(101)와 유사한 구성을 포함하는 전자 장치일 수 있다. 일 실시예에 따르면, 전자 장치(201)는 AI 스피커이고, 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및 제3 외부 전자 장치(204)는 전자 장치(201)로부터 지정된 거리 내에 위치된 개인용 전자 장치(예: 휴대폰)일 수 있다. 일 실시예에 따르면, 전자 장치(201)는 자동차의 음향 시스템(예: 카킷(car-kit))이고, 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및 제3 외부 전자 장치(204)는 차량 내에 위치된 휴대폰일 수 있다. 예를 들어, 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및 제3 외부 전자 장치(204)는 전자 장치(201)(예: 카킷)로부터 지정된 거리 이내에 위치된 전자 장치일 수 있다. 일 실시예에 따르면, 전자 장치(201)는 AI 비서 기능을 갖는 가전(예: 냉장고, TV, PC, 또는 프린터)이고, 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및 제3 외부 전자 장치(204)는 가정 내에 위치된 휴대폰일 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 프로세서(220)(예: 도 1의 프로세서(120)), 메모리(230)(예: 도 1의 메모리(130)), 소리 입력 장치(250)(예: 도 1의 입력 장치(150)), 소리 출력 장치(255)(예: 도 1의 음향 출력 장치(155)), 및/또는 통신 회로(290)(예: 도 1의 통신 모듈(190))를 포함할 수 있다. 도 2에 도시된 전자 장치(201)의 구성은 예시적인 것으로서, 전자 장치(201)는 도 2에 미도시된 구성을 더 포함하거나, 도 2에 도시된 구성들 중 적어도 일부를 포함하지 않을 수 있다.
일 실시예에 따르면, 프로세서(220)는 전자 장치(201)의 다른 구성들(예: 메모리(230), 소리 입력 장치(250), 소리 출력 장치(255), 및/또는 통신 회로(290))과 작동적으로(operatively) 연결될 수 있다. 프로세서(220)는 전자 장치(201)의 동작들을 수행하도록 설정될 수 있다. 예를 들어, 프로세서(220)는 메모리(230)에 저장된 인스트럭션들에 기반하여 후술하는 동작들을 수행할 수 있다.
일 실시예에 따르면, 메모리(230)는 프로세서(220)의 동작을 제어하는 인스트럭션들 및 데이터를 저장할 수 있다. 예를 들어, 메모리(230)는 특정 사용자와 연관된 전자 장치의 매핑 관계에 대한 정보를 저장할 수 있다.
일 실시예에 따르면, 소리 입력 장치(250)는 아날로그 소리 신호를 감지하고, 감지된 신호를 디지털 신호로 변환할 수 있다. 예를 들어, 소리 입력 장치(250)는 음파를 물리적으로 감지하고, 물리적 특성을 전기적으로 변환하여 아날로그 소리 신호를 감지할 수 있다. 예를 들어, 소리 입력 장치(250)는 적어도 하나의 마이크를 포함할 수 있다.
일 실시예에 따르면, 소리 출력 장치(255)는 소리 신호를 출력할 수 있다. 예를 들어, 소리 출력 장치(255)는 적어도 하나의 스피커를 포함할 수 있다. 예를 들어, 소리 출력 장치(255)는 지향성, 무지향성, 또는 전방향성 스피커를 포함할 수 있다.
일 실시예에 따르면, 통신 회로(290)는 다양한 통신 네트워크를 통하여 외부 전자 장치와 통신할 수 있다. 예를 들어, 통신 회로(290)는 근거리 무선 네트워크(예: 도 1의 제1 네트워크(198))(예: 블루투스, BLE, NAN(neighbor awareness network), zigbee, NFC, WiFi, 및/또는 WLAN)를 통하여 통신을 수행할 수 있다. 예를 들어, 통신 회로(290)는 원거리 무선 네트워크(예: 도 1의 제2 네트워크(199))(예: 셀룰러 네트워크)를 통하여 통신을 수행할 수 있다. 예를 들어, 통신 회로(290)는 유선 연결에 기반하여 다른 외부 전자 장치와 통신을 수행할 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 음성 명령에 기반하여 동작을 수행할 수 있다. 예를 들어, 전자 장치(201)는 소리 입력 장치(250)를 이용하여 수신된 음성 명령을 이용하여 지정된 동작을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 발화(utterance)를 감지하고, 발화에 대응하는 음성 명령을 수신할 수 있다. 예를 들어, 전자 장치(201)는 소리 입력 장치(250)를 이용하여 발화를 감지하고, 음성 명령을 수신할 수 있다. 다른 예를 들어, 전자 장치(201)는 전자 장치(201)에 연결된 다른 전자 장치(미도시)를 이용하여 발화를 감지하고, 음성 명령을 수신할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 음성 명령으로부터 적어도 하나의 텍스트(예: 키워드)를 인식하고, 인식된 텍스트에 연관된 동작(action)(예: 키워드의 인터넷 검색)을 수행할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)의 음성 인식 기능을 이용하여 음성 명령으로부터 적어도 하나의 텍스트(예: 키워드)를 인식할 수 있다. 다른 예를 들어, 전자 장치(201)는 수신된 음성 명령을 외부의 서버로 송신하고, 서버에 의하여 인식된 적어도 하나의 텍스트에 연관된 패스 룰(path rule)을 수신할 수 있다. 예를 들어, 패스 룰(예: 사용자에 의해 요청된 태스크를 수행하기 위한 전자 장치(201)의 상태들의 시퀀스 정보)은 어플리케이션의 기능을 수행하기 위한 동작(action)(또는, 오퍼레이션(operation))에 대한 정보(예: 동작 (action) 정보) 및/또는 동작을 실행하기 위한 파라미터(예: 키워드의 적어도 일부)에 대한 정보를 포함할 수 있다. 예를 들어, 패스 룰은 어플리케이션의 동작의 순서에 대한 정보를 포함할 수 있다. 전자 장치(201)는 외부 서버로부터 패스 룰을 수신하고, 패스 룰에 따라 어플리케이션을 선택하고, 선택된 어플리케이션에서 패스 룰에 포함된 동작을 실행할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 지정된 음성 명령이 수신된 경우에만 음성 인식을 수행할 수 있다. 예를 들어, 전자 장치(201)는 웨이크업(wake up) 명령에 대응하는 음성 명령이 수신된 경우에만 발화에 대응하는 음성 명령에 대한 음성 인식을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 웨이크업 명령에 대응하는 음성은 전자 장치(201)의 음성 인식 기능을 이용하여 인식하고, 음성 명령에 대한 음성 인식은 외부 전자 장치(예: 서버)를 이용하여 수행할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 음성 명령에 연관된 패스 룰의 파라미터(예: 키워드) 및/또는 동작(action) 정보를 이용하여 지정된 동작을 수행할 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 연결된 외부 전자 장치를 이용하여 지정된 동작(action)을 수행할 수 있다. 예를 들어, 도 2의 실시예에서, 지정된 동작(action)은 호 발신일 수 있다. 일 실시예에 따르면, 전자 장치(201)는 제1 사용자(212)로부터 호 발신을 위한 음성 명령(예: “call Teresa”)을 수신할 수 있다. 예를 들어, 호 발신을 위한 음성 명령은 지정된 음성 명령(예: 웨이크업 명령) 후에 수신된 것일 수 있다. 일 실시예에 따르면, 전자 장치(201)는 연결된 외부 전자 장치를 이용하여 호 발신을 위한 음성 명령에 대응하는 동작을 수행할 수 있다. 예를 들어, 전자 장치(201)는 연결된 외부 전자 장치의 연락처(contacts) 정보를 이용하여 호 발신을 위한 음성 명령에 대응하는 연락처(예: Teresa에 대응하는 연락처)로의 호 발신을 외부 전자 장치에 지시할 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 멀티 페어링을 지원할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및/또는 제3 외부 전자 장치(204)와 페어링될 수 있다. 예를 들어, 전자 장치(201)는 페어링된 외부 전자 장치의 정보를 메모리(230)에 저장할 수 있다. 외부 전자 장치의 정보는 외부 전자 장치의 식별자를 포함할 수 있다. 예를 들어, 전자 장치(201)는 페어링된 외부 전자 장치의 정보를 외부 서버에 송신할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 외부 서버에 연관된 전자 장치(201)의 계정에 기반하여 페어링된 외부 전자 장치의 정보를 관리할 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 멀티 포인트 연결을 지원할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202), 제2 외부 전자 장치(203), 및/또는 제2 외부 전자 장치(204)와 연결될 수 있다. 다양한 실시예들에 따르면, 전자 장치(201)가 복수의 외부 전자 장치들과 연관된 경우(예: 멀티 페어링 및/또는 멀티 포인트 연결을 지원하는 경우), 전자 장치(201)는 음성 명령에 기반하여 외부 전자 장치를 선택하여 음성 명령에 대응하는 동작을 수행할 수 있다. 예를 들어, 제1 사용자(212)의 음성 명령(call Teresa)이 감지되고, 전자 장치(201)가 복수의 외부 전자 장치(202, 203, 및 204)들과 연관된 경우, 전자 장치(201)는 제1 사용자(212) 정보(예: 계정 정보 및/또는 계정 정보에 매핑된 화자 정보)에 기반하여 제1 외부 전자 장치(202)를 선택함으로써 개인화된 장치 연결을 지원할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 음성 명령에 대응하는 외부 전자 장치를 선택하고, 선택된 외부 전자 장치에 연결할 수 있다. 예를 들어, 전자 장치(201)는 수신된 음성 명령에 기반하여 기연결된 외부 전자 장치와의 연결을 해제하고 선택된 외부 전자 장치와 연결할 수 있다. 다른 예를 들어, 전자 장치(201)는 수신된 음성 명령에 기반하여 기연결된 외부 전자 장치와의 연결을 유지하고 선택된 외부 전자 장치와 연결할 수 있다. 전자 장치(201)는 선택된 외부 전자 장치와의 연결 후에 지정된 동작(action)을 수행할 수 있다. 전자 장치(201)는 별도의 사용자 입력에 기반한 연결 절차 없이 선택된 외부 전자 장치와 연결할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 외부 전자 장치와 장치간 연결을 이용하여 연결될 수 있다. 일 실시예에 따르면, 전자 장치(201)는 외부 서버를 통하여 외부 전자 장치와 연결될 수 있다.
일 실시예에 따르면, 전자 장치(201)는 화자 인식에 적어도 기반하여 외부 전자 장치를 선택할 수 있다. 예를 들어, 전자 장치(201)는 음성 명령에 대응하는 화자(예: 제1 사용자(212))를 인식하고, 화자에 연관된 외부 전자 장치(예: 제1 외부 전자 장치(202))를 이용하여 지정된 동작(예: Teresa에 송신 호)을 수행할 수 있다. 예를 들어, 전자 장치(201)는 메모리(230)에 저장된 적어도 하나의 외부 전자 장치와 적어도 하나의 사용자 사이의 매핑 정보를 이용하여 인식된 화자에 연관된 외부 전자 장치의 정보를 획득할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 화자 인식 및 키워드(예: 패스룰의 파라미터)에 적어도 기반하여 외부 전자 장치를 선택할 수 있다. 예를 들어, 전자 장치(201)는 도 2의 음성 명령 “call Teresa”에 대한 음성 인식(예: 전자 장치(201) 또는 외부 서버에 의한 음성 인식)에 기반하여 적어도 하나의 키워드(예: “call” 및/또는 “Teresa)를 식별할 수 있다. 예를 들어, 키워드는 음성 명령으로부터 인식된 단어, 음성 명령의 적어도 일부로부터 인식된 연속된 음절들, 인식된 음절들에 기반하여 확률적으로 인식된 단어 및/또는 음성 명령으로부터 인식된 음절들의 조합을 포함할 수 있다. 예를 들어, 전자 장치(201)는 음성 명령에 대응하는 화자(예: 제1 사용자(212))를 인식하고, 인식된 키워드들 중 적어도 하나의 키워드(예: Teresa)를 이용하여 화자에 외부 전자 장치를 선택할 수 있다. 일 실시예에 따르면, 인식된 화자에 연관된 복수의 외부 전자 장치들이 존재하는 경우, 전자 장치(201)는 키워드를 이용하여 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 선택할 수 있다. 예를 들어, 전자 장치(201)는 인식된 제1 사용자(212)에 연관된 전자 장치들(예: 휴대폰, 태블릿 및/또는 웨어러블 기기)중 키워드 “Teresa”에 대응하는 연락처 정보를 포함하는 외부 전자 장치를 이용하여 지정된 동작(예: Teresa에 송신 호)을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 인식된 화자에 연관된 복수의 외부 전자 장치들이 존재하는 경우, 지정된 조건에 기반하여 외부 전자 장치를 선택할 수 있다. 예를 들어, 지정된 조건은 연결 빈도, 근접도, 연결 시점, 우선순위, 또는 사용자 지정을 포함할 수 있다. 예를 들어, 전자 장치(201)는 인식된 화자에 연관된 복수의 외부 전자 장치들 중 전자 장치(201)와 가장 자주 연결된 외부 전자 장치를 선택할 수 있다. 다른 예를 들어, 전자 장치(201)는 인식된 화자에 연관된 복수의 외부 전자 장치들 중 전자 장치(201)와 가장 인접한 외부 전자 장치를 선택할 수 있다. 다른 예를 들어, 전자 장치(201)는 인식된 화자에 연관된 복수의 외부 전자 장치들 중 가장 최근에 연결된 외부 전자 장치를 선택할 수 있다. 다른 예를 들어, 전자 장치(201)는 인식된 화자에 연관된 복수의 외부 전자 장치들 중 가장 우선 순위가 높은 외부 전자 장치를 선택할 수 있다. 다른 예를 들어, 전자 장치(201)는 인식된 화자에 연관된 복수의 외부 전자 장치들 중 사용자(예: 인식된 화자)가 지정한 외부 전자 장치를 선택할 수 있다.
이하에서, 도 3 내지 도 11을 참조하여 다양한 실시예들에 설명된다. 도 3 내지 도 11에서는 도 2의 예시의 제1 사용자(212)의 발화에 따라서 제1 외부 전자 장치(202)를 이용하는 실시예들이 설명되나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 제1 외부 전자 장치(202)와 관련하여 후술되는 내용들은 제2 외부 전자 장치(203) 및/또는 제3 외부 전자 장치(204)에도 동일하게 적용될 수 있다.
도 3은 다양한 실시예들에 따른 네트워크(300)에서 전자 장치간 통신을 도시한다.
도 3을 참조하여, 전자 장치(201) 및 제1 외부 전자 장치(202)는 제2 네트워크(199)를 통하여 제1 서버(301) 및/또는 제2 서버(302)와 통신할 수 있다. 예를 들어, 제2 네트워크(199)는 인터넷을 포함할 수 있다.
다양한 실시예들에 따르면, 제1 서버(301)는 외부 전자 장치(예: 전자 장치(201) 및/또는 제1 외부 전자 장치(202))로부터 음성 명령을 포함하는 데이터를 수신하고, 수신된 데이터에 대한 음성 인식을 수행할 수 있다. 예를 들어, 제1 서버(301)는 음성 인식에 기반하여 화자 및/또는 키워드를 식별하고, 식별된 화자, 파라미터(예: 키워드), 및/또는 동작(action) 정보를 외부 전자 장치에 송신할 수 있다. 예를 들어, 제1 서버(301)는 빅스비(BixbyTM) 서버일 수 있다. 일 실시예에 따르면, 제1 서버(301)는 음성 명령을 포함하는 데이터 및 외부 전자 장치의 식별자를 포함하는 데이터를 외부 전자 장치로부터 수신할 수 있다. 예를 들어, 제1 서버(301)는 외부 전자 장치의 식별자를 이용하여 외부 전자 장치를 식별할 수 있다. 제1 서버(301)는 제2 서버(302)로부터 외부 전자 장치의 식별자에 대응하는 외부 전자 장치의 정보를 획득할 수 있다
일 실시예에 따르면, 제1 서버(301)는 다양한 사용자의 음성 정보에 기반하여 음성 명령에 연관된 화자를 식별할 수 있다. 예를 들어, 제1 서버(301)는 사용자의 음성을 지정된 방법에 따라서 학습함으로써 사용자의 음성 모델을 형성할 수 있다. 예를 들어, 음성 모델은 화자의 음성에 대응하는 특징점을 포함하고, 화자 식별에 이용될 수 있다. 예를 들어, 제1 서버(301)는 다양한 전자 장치들(예: 전자 장치(201))로부터 적어도 하나의 사용자 음성들을 수신하고, 수신된 사용자 음성들을 DNN(deep neural network)를 이용하여 학습함으로써 사용자 음성에 대응하는 화자의 음성 모델을 생성할 수 있다. 예를 들어, 전자 장치(201)는 지정된 문장을 사용자에게 제시하고, 지정된 문자에 대응하는 사용자 음성을 수신하여 제1 서버(301)에 전송할 수 있다. 다른 예를 들어, 제1 서버(301)는 전자 장치(201)에 의하여 학습된 음성 모델을 전자 장치(201)로부터 수신할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 음성 모델과 전자 장치(201)의 계정 정보를 함께 저장할 수 있다. 예를 들어, 사용자 계정에 로그인된 전자 장치(201)로부터 사용자 음성 및/또는 음성 모델이 수신되면, 제1 서버(301)는 음성 모델과 전자 장치(201)의 계정 정보(예: 사용자 계정)를 매핑하여 저장할 수 있다. 예를 들어, 제1 서버(301)는 전자 장치(201)의 사용자 계정 정보를 제2 서버(302) 및/또는 전자 장치(201)를 이용하여 획득할 수 있다. 다른 예를 들어, 제1 서버(301)는 전자 장치(201) 또는 제2 서버(302)로부터 사용자 계정에 연관된 정보(예: 이름, 또는 사용자 식별자)를 수신하고, 사용자 계정에 연관된 정보를 음성 모델과 함께 저장할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 전자 장치(201)로부터 음성 명령이 수신되면, 음성 명령에 대응하는 음성 모델을 이용하여 화자(예: 음성 모델에 연관된 계정)를 식별할 수 있다. 예를 들어, 제1 서버(301)는 음성 명령을 송신한 전자 장치(예: 전자 장치(201))의 계정에 연관된 음성 모델과 수신된 음성 명령의 비교에 적어도 기반하여 화자를 식별할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 음성 명령으로부터 적어도 하나의 키워드를 식별할 수 있다. 예를 들어, 제1 서버(301)는 전자 장치(201)로부터 “call Teresa”에 대응하는 음성 명령을 수신하고, 음성 명령으로부터 “call”과 “Teresa”라는 키워드를 식별할 수 있다. 예를 들어, 제1 서버(301)는 음성 명령으로부터 인식된 단어, 음성 명령의 적어도 일부로부터 인식된 연속된 음절들, 인식된 음절들에 기반하여 확률적으로 인식된 단어 및/또는 음성 명령으로부터 인식된 음절들의 조합으로부터 키워드를 식별할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 음성 명령으로부터 패스 룰의 동작(action) 정보를 생성할 수 있다. 예를 들어, 제1 서버(301)는 음성 명령으로부터 식별된 키워드에 기반하여 동작(action) 정보를 생성할 수 있다. 예를 들어, 제1 서버(301)는 “call”이라는 키워드로부터 호 발신에 연관된 동작(action)을 식별하고, 식별된 동작(action)에 대응하는 동작(action) 식별자(예: 동작에 대응하는 상태들의 시퀀스에 대한 정보)를 포함하는 동작(action) 정보를 생성할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 적어도 하나의 파라미터(예: 식별된 화자 및/또는 키워드) 및 동작(action) 정보를 포함하는 패스 룰을 전자 장치(201)에 송신할 수 있다. 예를 들어, 제1 서버(301)는 전자 장치(201)로부터 수신된 음성 명령에 기반하여, 식별된 제1 사용자(212)의 식별 정보(예: 사용자 이름, 사용자 식별자, 및/또는 사용자 계정 정보), 식별된 키워드(예: 동작에 연관된 파라미터) “Teresa” 및/또는 호 발신에 연관된 동작(action) 정보를 전자 장치(201)에 송신할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 전자 장치(201)로부터 수신된 음성 명령 및 전자 장치의 기능 정보에 기반하여 패스 룰을 제1 외부 전자 장치(202)에 송신할 수 있다. 예를 들어, 제1 서버(301)는 전자 장치(201)로부터 음성 명령이 수신되면 제2 서버(302)로부터 전자 장치(201)의 기능 정보를 획득할 수 있다. 기능 정보에 기반하여 전자 장치(201)가 음성 명령에 대응하는 동작(예: 호 발신)을 지원하지 않는 경우, 제1 서버(301)는 음성 명령에 기반하여 식별된 제1 사용자(212)에 연관된 외부 전자 장치(예: 제1 외부 전자 장치(202))에 전자 장치(201)를 통하여 패스 룰을 송신할 수 있다. 예를 들어, 제1 서버(301)는 패스 룰 및 패스 룰의 제1 외부 전자 장치(202)로의 송신을 지시하는 지시를 전자 장치(201)에 송신할 수 있다.
일 실시예에 따르면, 제1 서버(301)는 전자 장치(201)로부터 수신된 음성 명령에 기반하여, 식별된 제1 사용자(212)의 계정에 연관된 제1 외부 전자 장치(201)로 식별된 키워드(예: 파라미터) “Teresa” 및/또는 호 발신에 연관된 동작(action) 정보(예: 패스 룰)를 제1 외부 전자 장치(202)에 송신할 수 있다. 예를 들어, 제1 서버(301)는 제2 서버(302)를 통하여 식별된 키워드 및/또는 동작 정보를 제1 외부 전자 장치(302)에 송신할 수 있다.
다양한 실시예들에 따르면, 제2 서버(302)는 사용자 계정 및 사용자 계정에 연관된 전자 장치의 정보를 관리할 수 있다. 예를 들어, 제2 서버(302)는 제1 사용자(212)의 사용자 계정 및 사용자 계정에 연관(예: 등록)된 전자 장치(예: 제1 외부 전자 장치(202) 및/또는 전자 장치(201))의 정보를 관리할 수 있다. 예를 들어, 제2 서버(302)는 사용자 계정에 연관된 전자 장치의 기능에 대한 정보(예: 호 수행 기능, 음성 출력 기능, 연결 기능, 및/또는 음성 입력 기능)를 저장할 수 있다.
일 실시예에 따르면, 제2 서버(302)는 제1 외부 전자 장치(202)로부터 제1 사용자(212) 및/또는 제1 외부 전자 장치(202)에 연관된 식별 정보(예: 계정 정보, 전화 번호, 이메일, 및/또는 UID(unique identifier)) 및 주소 정보(예: 제1 외부 전자 장치(202)의 주소(예: 블루투스 주소))를 수신할 수 있다. 일 실시예에 따르면, 제1 외부 전자 장치(202)는 전자 장치(201)의 식별 정보(예: 전자 장치(201)의 식별자 및/또는 전자 장치(201)의 계정 정보), 제1 외부 전자 장치(202)에 연관된 식별정보, 및 제1 외부 전자 장치(202)에 연관된 주소 정보를 제2 서버(302)에 송신할 수 있다. 예를 들어, 제1 외부 전자 장치(202)의 제1 사용자(212)는 제1 외부 전자 장치(202)를 이용하여 제1 외부 전자 장치(202)의 계정에 전자 장치(201)를 등록할 수 있다. 제1 외부 전자 장치(202)는 다른 전자 장치의 등록을 위한 사용자 인터페이스를 제공하고, 사용자 인터페이스에 대한 입력에 기반하여 전자 장치(201)의 식별 정보를 제2 서버(302)에 송신할 수 있다. 다른 예를 들어, 제1 외부 전자 장치(202)는 전자 장치(201)와 페어링 또는 연결되면 전자 장치(201)의 식별 정보를 제2 서버(302)에 송신할 수 있다.
일 실시예에 따르면, 제2 서버(302)는 제1 외부 전자 장치(202) 또는 제1 서버(301)로부터의 요청에 기반하여 제1 외부 전자 장치(202)에 연관된 식별 정보 및 주소 정보를 전자 장치(201)에 송신할 수 있다. 예를 들어, 제2 서버(302)는 제1 외부 전자 장치(202)로부터 수신된 전자 장치(201)의 식별 정보에 기반하여 전자 장치(201)를 식별하고, 식별된 전자 장치(201)에 제1 외부 전자 장치(202)에 연관된 식별 정보 및 주소 정보를 송신할 수 있다.
일 실시예에 따르면, 제1 외부 전자 장치(202)와 전자 장치(201)는 제2 서버(302)에 로그인된 상태일 수 있다. 예를 들어, 제1 외부 전자 장치(202)와 전자 장치(201)는 동일한 계정을 이용하여 제2 서버(302)에 로그인된 상태일 수 있다. 다른 예를 들어, 제1 외부 전자 장치(202)와 전자 장치(201)는 동일한 그룹 계정에 속한 계정들을 이용하여 제2 서버(302)에 로그인된 상태일 수 있다. 또 다른 예를 들어, 제1 외부 전자 장치(202)는 제2 계정을 이용하여 제2 서버(302)에 로그인되고, 전자 장치(201)는 제2 계정과 상이한 제1 계정을 이용하여 제2 서버(302)에 로그인될 수 있다.
일 실시예에 따르면, 전자 장치(201)는 제1 서버(301)와의 통신을 제어하는 제1 서버 클라이언트를 포함할 수 있다. 예를 들어, 제1 서버 클라이언트는 메모리(230)에 저장된 어플리케이션 및/또는 서비스를 포함할 수 있다. 예를 들어, 제1 서버 클라이언트는 음성 인식을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 연락처 정보를 관리하는 연락처 어플리케이션을 포함할 수 있다. 예를 들어, 연락처 어플리케이션은 전자 장치(201)에 등록, 페어링, 또는 연결된 외부 전자 장치의 연락처 정보를 관리할 수 있다. 연락처 어플리케이션은 제1 서버 클라이언트의 요청에 기반하여 연락처 정보를 검색할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 계정 관리자를 포함할 수 있다. 예를 들어, 계정 관리자는 전자 장치(201)의 제2 서버(302)에 연관된 계정 정보 및 외부 전자 장치(예: 제1 외부 전자 장치(202))의 계정 정보를 관리할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 콜 어플리케이션을 포함할 수 있다. 예를 들어, 콜 어플리케이션은 외부 전자 장치를 이용하여 음성 호의 수행을 위한 기능을 제어할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 통신 프레임워크를 포함할 수 있다. 예를 들어, 통신 프레임워크는 지정된 프로토콜에 따라 외부 전자 장치와의 통신을 제어할 수 있다. 예를 들어, 통신 프레임워크는 블루투스 프레임워크를 포함할 수 있다.
다양한 실시예들에 따르면, 제1 외부 전자 장치(202)는 전자 장치(201)에 등록된 전자 장치일 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 저장할 수 있다.
도 4는 다양한 실시예들에 따른 외부 전자 장치의 등록 방법의 신호 흐름도(400)를 도시한다.
도 4를 참조하여, 도 4에서, 제1 외부 전자 장치(202)와 전자 장치(201)는 제2 서버(302)에 로그인된 상태로 가정된다. 예를 들어, 제1 외부 전자 장치(202)와 전자 장치(201)는 동일한 계정, 동일한 그룹 계정에 속한 계정들 또는 상이한 계정을 이용하여 제2 서버(302)에 로그인될 수 있다. 다양한 실시예들에 따르면, 동작 405에서, 제1 외부 전자 장치(202)는 제1 UI를 제1 외부 전자 장치(202)의 디스플레이에 표시할 수 있다. 예를 들어, 제1 외부 전자 장치(202)는 사용자 입력에 기반하여 제1 UI를 디스플레이에 표시할 수 있다. 일 실시예에 따르면, 제1 UI는 콜 어플리케이션(call application)에 대응하는 UI일 수 있다. 예를 들어, 제1 UI는 전자 장치(201)와의 연결을 위한 아이콘(예: 블루투스 아이콘)을 포함할 수 있다. 콜 어플리케이션은 예시로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 제1 UI는 전자 장치(201)와의 연결 기능을 지원하는 임의의 어플리케이션(예: 스마트 싱스 또는 빅스비)의 UI로서, 제1 UI는 전자 장치(201)와의 연결을 위한 UI를 포함할 수 있다.
다양한 실시예들에 따르면, 동작 410에서, 제1 외부 전자 장치(202)는 제1 UI에 대한 지정된 입력을 수신할 수 있다. 예를 들어, 지정된 입력은 전자 장치(201)와의 연결을 지시하는 입력일 수 있다.
다양한 실시예들에 따르면, 동작 415에서, 제1 외부 전자 장치(202)는 제2 서버(302)로 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 송신할 수 있다. 일 실시예에 따르면, 제1 외부 전자 장치(202)는 지정된 입력에 따라서 전자 장치(201)와 연결하고, 연결에 관련된 제1 외부 전자 장치(202)의 주소 정보를 획득할 수 있다. 일 실시예에 따르면, 제1 외부 전자 장치(202)는 전자 장치(201)와의 연결 후에 제1 외부 전자 장치(202)에 연관된 식별 정보, 제1 외부 전자 장치(202)에 연관된 주소 정보, 및/또는 전자 장치(201)의 식별 정보를 제2 서버(302)에 송신할 수 있다. 예를 들어, 제1 외부 전자 장치(202)는 제1 외부 전자 장치(202)에 연관된 식별 정보(예: 계정 정보, 전화 번호, 이메일, 및/또는 UID(unique identifier)), 제1 외부 전자 장치(202)에 연관된 주소 정보(예: 제1 외부 전자 장치(202)의 주소(예: 블루투스 주소)) 및/또는 전자 장치(201)의 식별 정보(예: 전자 장치(201)의 식별자 및/또는 전자 장치(201)의 계정 정보)를 제2 서버(302)로 송신할 수 있다.
다양한 실시예들에 따르면, 동작 417에서, 제2 서버(302)는 전자 장치(201)로 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 송신할 수 있다. 예를 들어, 제2 서버(302)는 제1 외부 전자 장치(202)로부터 수신된 전자 장치(201)의 식별 정보에 적어도 기반하여 전자 장치(201)에 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 송신할 수 있다. 다른 예를 들어, 제1 외부 전자 장치(202)와 전자 장치(201)가 제2 서버(302) 상에서 동일하거나 연관된 계정에 속할 수 있다. 이 경우, 제2 서버(302)는 제1 외부 전자 장치(202)로부터 수신된 신호를 제1 외부 전자 장치(202)의 계정과 동일하거나 연관된 계정의 전자 장치들(예: 전자 장치(201))에 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 송신할 수 있다.
일 실시예에 따르면, 제1 외부 전자 장치(202)는 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 전자 장치(201)에 송신할 수 있다. 예를 들어, 제1 외부 전자 장치(202)는 전자 장치(201)와의 연결을 통하여 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 전자 장치(201)에 송신할 수 있다. 이 경우, 동작 417은 생략될 수 있다.
다양한 실시예들에 따르면, 동작 420에서, 전자 장치(201)는 제1 외부 전자 장치에 연관된 주소가 전자 장치(201)의 메모리(230)에 존재하는지 결정할 수 있다. 예를 들어, 전자 장치(201)의 메모리(230)에는 전자 장치(201)에 등록된 외부 전자 장치의 식별 정보 및 주소 정보의 매핑을 포함하는 데이터 베이스가 저장될 수 있다.
다양한 실시예들에 따르면, 제1 외부 전자 장치(202)에 대한 주소 정보가 존재하는 경우, 동작 425에서 전자 장치(201)는 기 저장된 주소를 삭제하고, 동작 430에서 전자 장치(201)는 식별 정보 및 주소 정보를 메모리(230)에 저장할 수 있다. 따라서, 전자 장치(201)는 저장된 제1 외부 전자 장치(202)의 주소 정보를 갱신할 수 있다.
다양한 실시예들에 따르면, 제1 외부 전자 장치(202)에 대한 정보가 존재하지 않는 경우, 동작 430에서 전자 장치(201)는 수신된 제1 외부 전자 장치(202)의 식별 정보 및 주소 정보를 메모리(230)에 저장할 수 있다.
이하의 설명에 있어서, 다르게 설명되지 않으면, 전자 장치(201)에 제1 외부 전자 장치(202)가 등록된 것으로 가정될 수 있다.
도 5는 다양한 실시예들에 따른 음성 명령 실행 방법의 흐름도(500)를 도시한다.
도 5를 참조하여, 전자 장치(201)의 제1 외부 전자 장치(202)로의 연결을 통한 음성 명령 실행 방법이 설명된다. 도 5의 실시예에 있어서, 제1 외부 전자 장치(202)는 전자 장치(201)와 페어링된 상태이나, 연결되지 않은 상태일 수 있다. 예를 들어, 제1 외부 전자 장치(202)는 전자 장치(201)와 연결된 이력이 있고 전자 장치(201)의 메모리(예: 도 2의 메모리(230))에는 제1 외부 전자 장치(202)의 정보(예: 식별 정보 또는 주소 정보)가 저장된 상태일 수 있다.
다양한 실시예들에 따르면, 동작 505에서, 전자 장치(201)는 사용자(예: 도 2의 제1 사용자(212))의 발화를 감지할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)의 소리 입력 장치(예: 도 2의 소리 입력 장치(250)) 또는 전자 장치(201)에 기능적으로 연결된 외부 전자 장치를 이용하여 사용자의 발화를 감지할 수 있다.
다양한 실시예들에 따르면, 동작 510에서, 전자 장치(201)는 제1 상태로부터 제2 상태로 천이할 수 있다. 예를 들어, 전자 장치(201)는 발화 감지에 대응하여 제1 상태(예: 유휴(idle) 상태 또는 대기(standby) 상태)로부터 제2 상태(예: 웨이크업(wake up) 상태 또는 활성화(active) 상태)로 천이할 수 있다. 예를 들어, 제2 상태는 제1 상태에 비하여 소비 전력이 높은 상태일 수 있다. 일 실시예에 따르면, 동작 510은 생략될 수 있다. 예를 들어, 전자 장치(201)는 발화의 감지(동작 505) 이전에 제2 상태일 수도 있다.
다양한 실시예들에 따르면, 동작 515에서, 전자 장치(201)는 발화에 대응하는 음성 데이터를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 음성 입력 장치 또는 외부 전자 장치를 이용하여 음성 신호(예: 사용자의 발화)를 수신함으로써 음성 데이터를 획득할 수 있다. 예를 들어, 발화에 대응하는 음성 데이터는 지정된 음성 명령(예: 웨이크업 명령) 및 음성 명령을 포함할 수 있다. 다른 예를 들어, 발화에 대응하는 음성 데이터는 지정된 음성 명령(예: 웨이크업 명령) 이후에 수신된 음성 명령을 포함할 수 있다. 다른 예를 들어, 발화에 대응하는 음성 데이터는 지정된 음성 명령(예: 웨이크업 명령)을 포함할 수 있다.
다양한 실시예들에 따르면, 동작 520에서, 전자 장치(201)는 음성 데이터에 연관된 동작 정보 및 화자 정보를 획득할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 음성 데이터의 음성 인식에 적어도 기반하여 화자 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)에 내장된 음성 인식 기능을 이용하여 음성 데이터에 대응하는 화자(예: 제1 사용자(212))를 인식할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)에 저장된 음성 모델 및 음성 모델에 매핑된 계정 정보를 이용하여 수신된 음성 명령에 대응하는 계정을 식별할 수 있다. 전자 장치(201)는 음성 명령에 대응하는 화자를 식별하고, 화자에 연관된 계정을 식별함으로써 음성 데이터에 대응하는 계정을 식별할 수 있다. 전자 장치(201)는 식별된 계정에 연관된 전자 장치를 결정할 수 있다. 다른 예를 들어, 전자 장치(201)는 음성 데이터를 통신 회로(예: 도 2의 통신 회로(290))를 이용하여 외부 전자 장치(예: 도 3의 제1 서버(301))로 송신하고, 외부 전자 장치로부터 음성 인식에 기반하여 획득된 화자 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 외부 전자 장치로부터 음성 데이터에 대응하는 계정의 정보를 수신할 수 있다.
일 실시예에 따르면, 화자 정보는 화자 또는 화자에 연관된 전자 장치(예: 도 2의 제1 외부 전자 장치(202))의 식별 정보를 포함할 수 있다. 예를 들어, 화자 정보는 화자 또는 화자에 연관된 전자 장치의 계정 정보(예: 도 3의 제2 서버(302)에 대한 계정 정보, 전화번호, 및/또는 이메일)를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 음성 데이터의 음성 인식에 적어도 기반하여 동작 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)에 내장된 음성 인식 기능을 이용하여 음성 데이터에 대응하는 키워드를 인식하고, 키워드에 대응하는 동작 정보를 획득할 수 있다. 다른 예를 들어, 전자 장치(201)는 외부 전자 장치로 음성 데이터를 송신하고, 외부 전자 장치로부터 음성 인식에 기반하여 생성된 패스 룰(예: 파라미터 및 동작 정보)를 수신할 수 있다. 예를 들어, 도 2의 실시예에서, “call Teresa”는 “call”과 “Teresa”라는 키워드를 포함하고, 동작 정보는 “call”에 대응하는 호 발신에 대응하는 동작을 지시할 수 있다. 패스 룰은 키워드 “Teresa”에 대응하는 파라미터 및 키워드 “call”에 대응하는 동작 정보를 포함할 수 있다. 예를 들어, 패스 룰은 파라미터 “Teresa”에 연관된 호 발신에 대응하는 동작(예: 동작 정보)을 지시하는 정보일 수 있다. 일 실시예에 따르면, 전자 장치(201)는 패스 룰(예: 동작 정보와 파라미터)을 획득할 수 있다. 예를 들어, “Call Teresa”라는 음성 명령으로부터, 전자 장치(201)는 호 발신에 대응하는 동작 정보 및 “Teresa”라는 키워드에 대응하는 파라미터를 획득할 수 있다.
다양한 실시예들에 따르면, 동작 525에서, 전자 장치(201)는 화자에 연관된 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된(예: 식별된 화자의 계정에 매핑된) 외부 전자 장치 정보를 메모리(230)에서 획득할 수 있다. 예를 들어, 전자 장치(201)는 메모리(230)에 저장된 계정 정보와 외부 전자 장치의 주소 정보의 매핑을 이용하여 식별된 화자에 연관된 외부 전자 장치의 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 화자에 연관된 외부 전자 장치의 주소(예: 블루투스 주소) 및/또는 외부 전자 장치의 식별 정보를 메모리(230)에서 획득할 수 있다. 예를 들어, 전자 장치(201)는 제1 사용자(212)에 연관된 제1 외부 전자 장치(202)의 정보를 획득할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들이 존재하는 경우, 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 전자 장치(201)는 동작 정보, 동작 정보에 포함된 키워드, 및/또는 키워드를 이용하여 식별된 화자에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 제1 사용자(212)에 연관된 복수의 외부 전자 장치들이 존재하는 경우, 전자 장치(201)는 식별된 키워드 “Teresa”에 대응하는 연락처를 포함하는 외부 전자 장치를 연결할 외부 전자 장치로 결정할 수 있다. 예를 들어, 전자 장치(201)는 메모리(230)에 저장된 복수의 외부 전자 장치들의 연락처 정보 및/또는 외부 서버(예: 도 3의 제2 서버(302))에 저장된 복수의 외부 전자 장치들의 연락처 정보를 이용하여 식별된 키워드에 대응하는 연락처를 포함하는 외부 전자 장치를 식별할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들의 인접도 및/또는 연결 빈도에 기반하여 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 제1 사용자(212)에 연관된 복수의 외부 전자 장치들이 존재하는 경우, 전자 장치(201)는 발화 수신 시점에 전자 장치(201)와 가장 인접하게 위치된 외부 전자 장치 또는 전자 장치(201)와 가장 자주 연결된 외부 전자 장치를 선택할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 외부 전자 장치의 상태에 기반하여 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 제1 사용자(212)에 연관된 복수의 전자 장치들이 존재하고, 전자 장치(201)는 외부 서버(예: IoT 서버)를 이용하여 외부 전자 장치의 상태 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치들 중 제1 외부 전자 장치는 게임을 실행 중이고, 제2 외부 전자 장치는 대기 중인 경우, 전자 장치(201)는 제2 외부 전자 장치를 이용하여 지정된 동작(예: 호 발신)을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들 중 가장 최근에 연결된 외부 전자 장치를 선택할 수 있다.
다양한 실시예들에 따르면, 동작 530에서, 전자 장치(201)는 결정된 외부 전자 장치와의 통신을 연결할 수 있다. 예를 들어, 전자 장치(201)는 결정된 외부 전자 장치의 주소 및/또는 외부 전자 장치의 식별 정보를 이용하여 결정된 외부 전자 장치와의 통신을 연결할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)의 블루투스 프레임워크에 획득된 외부 전자 장치의 주소 정보를 이용한 연결을 요청함으로써 결정된 외부 전자 장치와의 통신을 연결할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202)와 통신을 연결할 수 있다.
상술된 예시에 있어서, 하나의 화자에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치의 선택이 설명되었으나, 하나의 외부 전자 장치에 대하여 복수의 화자들(예: 사용자들)이 등록될 수 있다. 예를 들어, 자식이 부모의 전자 장치들 각각에 등록될 수 있다. 이 경우, 아버지의 전자 장치에는 아버지와 자식이 등록되고, 어머니의 전자 장치에는 어머니와 자식이 등록될 수 있다. 전자 장치(201)는 음성 명령이 자식으로부터 수신되면, 복수의 화자를 인식하여 외부 전자 장치를 선택할 수 있다. 예를 들어, 음성 인식에 기반하여 자식과 어머니가 같이 있다고 판단되면, 전자 장치(201)는 어머니의 전자 장치를 이용하여 지정된 동작(예: 호 발신)을 수행할 수 있다. 다른 예를 들어, 음성 인식에 기반하여 자식과 아버지가 같이 있다고 판단되면, 전자 장치(201)는 아버지의 전자 장치를 이용하여 지정된 동작을 수행할 수 있다.
다양한 실시예들에 따르면, 동작 535에서, 전자 장치(201)는 동작 정보에 대응하는 동작을 연결된 외부 전자 장치를 이용하여 수행할 수 있다. 예를 들어, 전자 장치(201)는 통신 회로(290)를 이용하여 외부 전자 장치에 동작 정보에 대응하는 동작을 수행할 것을 지시하는 신호를 연결된 외부 전자 장치에 송신할 수 있다. 예를 들어, 전자 장치(201)는 연결된 제1 외부 전자 장치(202)에 동작 정보에 대응하는 동작을 수행할 것을 지시하는 신호를 송신할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202)에 식별된 키워드 “Teresa”에 대응하는 번호로 발신 호를 수행할 것을 지시할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 제1 외부 전자 장치(202)에서 수행된 발신 호에 연관된 동작들을 수행할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202)로부터 수신된 음성을 출력하고, 전자 장치(201)에서 수신된 음성을 제1 외부 전자 장치(202)로 송신할 수 있다.
도 5의 동작들은 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되지 않는다. 예를 들어, 전자 장치(201)는 동작 정보에 대응하는 동작을 외부 전자 장치를 이용하여 수행(예: 동작 535)함에 있어서, 외부 서버(예: 도 3의 제2 서버(302))를 통하여 외부 전자 장치에 동작 정보에 대응하는 동작을 수행할 것을 지시하는 신호를 송신할 수 있다. 이 경우, 동작 530은 생략될 수 있다.
이하에서, 도 6 내지 도 8을 참조하여, 도 5의 음성 명령 수행 방법에 대응하는 다양한 신호 흐름들이 설명된다. 도 6 내지 도 8에 있어서, 설명의 편의를 위하여 음성 명령은 호 발신에 연관된 것으로 가정될 수 있다.
도 6은 다양한 실시예들에 따른 동작 정보에 기반한 통신 연결 확립 방법의 신호 흐름도(600)를 도시한다.
일 실시예에 따르면, 전자 장치(201)는 제1 서버(301)와의 통신을 제어하는 제1 서버 클라이언트, 연락처 정보를 관리하는 연락처 어플리케이션, 전자 장치(201)의 제2 서버(302)에 연관된 계정 정보 및 외부 전자 장치(예: 제1 외부 전자 장치(202))의 계정 정보를 관리하는 계정 관리자, 음성 호의 수행을 위한 기능을 제어하는 콜 어플리케이션, 및 지정된 프로토콜에 따라 외부 전자 장치와의 통신을 제어하는 통신 프레임워크(예: 블루투스 프레임워크)를 포함할 수 있다.
다양한 실시예들에 따르면, 동작 605에서, 전자 장치(201)는 음성 데이터를 수신할 수 있다. 동작 605에 대한 설명은 도 5의 동작 515에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 610에서, 전자 장치(201)는 음성 데이터를 제1 서버(301)로 송신할 수 있다. 예를 들어, 전자 장치(201)는 통신 회로(예: 도 2의 통신 회로(290))를 이용하여 제2 네트워크(예: 도 2의 제2 네트워크(199))를 통하여 제1 서버(301)에 음성 데이터를 송신할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 제1 서버(301)와의 통신을 제어하는 제1 서버 클라이언트를 포함할 수 있다. 예를 들어, 전자 장치(201)는 제1 서버 클라이언트의 제어 하에 음성 데이터를 제1 서버(301)로 송신할 수 있다.
다양한 실시예들에 따르면, 동작 615에서, 제1 서버(301)는 수신된 음성 데이터에 대한 음성 인식에 기반하여 화자 및 키워드를 인식할 수 있다. 일 실시예에 따르면, 제1 서버(301)는 수신된 음성 데이터에 대한 음성 인식을 수행함으로써 화자를 인식할 수 있다. 예를 들어, 제1 서버(301)는 저장된 화자의 음성 모델에 기반하여 음성 데이터로부터 화자를 인식할 수 있다. 예를 들어, 제1 서버(301)는 전자 장치(201)로부터 또는 도 3의 제2 서버(302)로부터 전자 장치(201)에 등록된 외부 전자 장치의 정보(예: 외부 전자 장치의 계정 정보)를 저장할 수 있다. 제1 서버(301)는 수신된 음성 데이터로부터 제1 사용자(예: 도 2의 제1 사용자(212))를 식별할 수 있다. 일 실시예에 따르면, 제1 서버(301)는 전자 장치(201)에 등록된 외부 전자 장치에 연관된 음성 모델(예: 외부 전자 장치의 계정에 매핑된 음성 모델)을 이용하여 음성 데이터에 대한 음성 인식을 수행할 수 있다. 일 실시예에 따르면, 제1 서버(301)는 수신된 음성 데이터에 대한 음성 인식을 수행함으로써 키워드를 인식할 수 있다. 예를 들어, 제1 서버(301)는 수신된 음성 데이터에 기반하여 키워드(예: Teresa)를 인식할 수 있다.
다양한 실시예들에 따르면, 동작 620에서, 제1 서버(301)는 전자 장치(201)에 화자 및 키워드 정보(예: 파라미터)를 송신할 수 있다. 예를 들어, 화자 정보는 식별된 화자에 연관된 계정 정보, 이메일, 및/또는 전화번호를 포함할 수 있다. 예를 들어, 키워드 정보는 인식된 키워드(예: Teresa)를 포함할 수 있다. 일 실시예에 따르면, 동작 620에서, 제1 서버(302)의 화자 및 키워드 정보 송신은 화자 및 키워드 정보를 파라미터로서 포함하고, 화자 및 키워드 정보에 대한 검색을 지시하는 동작 정보를 포함하는 제1 패스 룰의 송신으로 참조될 수 있다. 예를 들어, 화자 및 키워드 정보는 전자 장치(201)의 제1 서버 클라이언트에 의하여 수신될 수 있다.
다양한 실시예들에 따르면, 동작 625에서, 전자 장치(201)는 화자 및 키워드 정보에 연관된 연락처 정보를 제1 서버(301)에 송신할 수 있다. 예를 들어, 전자 장치(201)는 수신된 화자 및 키워드 정보를 이용하여 전자 장치(201)의 메모리(예: 도 2의 메모리(290))에 저장된 사용자와 외부 전자 장치의 매핑 정보 및 외부 전자 장치에 연관된 연락처 정보를 검색할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 화자 정보를 이용하여 화자에 대응하는 사용자와 연관된 적어도 하나의 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 결정된 적어도 하나의 외부 전자 장치의 연락처에 대하여 키워드(예: Teresa)에 대응하는 연락처를 검색할 수 있다. 예를 들어, 전자 장치(201)는 적어도 하나의 외부 전자 장치 중 키워드에 대응하는 연락처를 통신 연결을 수행할 외부 전자 장치(예: 제1 외부 전자 장치(202))로 결정할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 제1 서버 에이전트를 이용하여 화자 및 키워드 정보를 수신하고, 수신된 화자 및 키워드 정보를 연락처(contacts) 어플리케이션을 이용하여 검색할 수 있다. 제1 서버 에이전트는 연락처 어플리케이션으로부터 연락처 정보(예: 연락처 전화 번호)를 수신하고, 수신된 연락처 정보를 통신 회로를 통하여 제1 서버(301)에 송신할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들의 인접도 및/또는 연결 빈도에 기반하여 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 제1 사용자(212)에 연관된 복수의 외부 전자 장치들이 존재하는 경우, 전자 장치(201)는 발화 수신 시점에 전자 장치(201)와 가장 인접하게 위치된 외부 전자 장치 또는 전자 장치(201)와 가장 자주 연결된 외부 전자 장치를 선택할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들 중 가장 최근에 연결된 외부 전자 장치를 선택할 수 있다.
다양한 실시예들에 따르면, 동작 630에서, 제1 서버(301)는 연락처 정보에 기반한 동작 정보를 전자 장치(201)로 송신할 수 있다. 예를 들어, 동작 정보는 연락처 정보 및 제1 외부 전자 장치(202)에 대응하는 계정 정보를 포함할 수 있다. 일 실시예에 따르면, 동작 630에서, 제1 서버(302)의 연락처 정보에 기반한 동작 정보는 전자 장치(201)와 제1 외부 전자 장치(202) 통신 연결을 지시하는 동작 정보를 포함하는 제2 패스 룰의 송신으로 참조될 수 있다. 예를 들어, 동작 정보는 전자 장치(201)의 제1 서버 클라이언트에 의하여 수신될 수 있다.
예를 들어, 상술된 동작 610, 615, 620, 625, 및 630은 도 5의 동작 520 및 525에 대응할 수 있다.
다양한 실시예들에 따르면, 동작 635에서, 전자 장치(201)는 제1 서버(301)로부터 수신된 동작 정보에 적어도 기반하여 제1 외부 전자 장치(202)와 통신 연결을 확립할 수 있다. 예를 들어, 전자 장치(201)의 제1 서버 클라이언트는 동작 정보에 포함된 연락처 정보 및 계정 정보를 콜 어플리케이션에 전달할 수 있다. 콜 어플리케이션은 계정 관리자로부터 계정 정보에 대응하는 주소 정보를 획득할 수 있다. 콜 어플리케이션은 획득된 주소 정보를 이용하여 제1 외부 전자 장치(202)에 통신 연결을 확립할 것을 블루투스 프레임워크에 요청할 수 있다. 예를 들어, 동작 635는 도 5의 동작 530에 대응할 수 있다.
다양한 실시예들에 따르면, 동작 640에서, 전자 장치(201)는 통신 연결을 통하여 제1 외부 전자 장치(202)를 이용하여 호 발신을 수행할 수 있다. 예를 들어, 콜 어플리케이션은 블루투스 프레임워크로부터 통신 연결의 확립을 지시하는 정보가 수신되면, 제1 외부 전자 장치(202)와의 연결을 통하여 발신 호를 행할 수 있다. 예를 들어, 동작 640에 대한 설명은 도 5의 동작 535에 대응할 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 화자 및 키워드 정보(예: call 및 Teresa)가 제1 서버(301)로부터 수신되면(예: 동작 620), 화자 및 키워드 정보를 이용하여 제1 외부 전자 장치(202)와 통신 연결을 확립(예: 동작 635)하고, 통신 연결을 통하여 호를 수행(예: 동작 640)할 수 있다. 이 경우, 동작 625 및 동작 630은 생략될 수 있다. 일 실시예에 따르면, 전자 장치(201)는 화자 및 키워드 정보에 연관된 연락처 정보를 이용하여 전자 장치(201)의 메모리(예: 도 2의 메모리(290))에 저장된 사용자와 외부 전자 장치의 매핑 정보 및 외부 전자 장치에 연관된 연락처 정보를 검색할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 화자 정보를 이용하여 화자에 대응하는 사용자와 연관된 적어도 하나의 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 결정된 적어도 하나의 외부 전자 장치의 연락처에 대하여 키워드(예: Teresa)에 대응하는 연락처를 검색할 수 있다. 예를 들어, 전자 장치(201)는 적어도 하나의 외부 전자 장치 중 키워드에 대응하는 연락처를 통신 연결을 수행할 외부 전자 장치(예: 제1 외부 전자 장치(202))로 결정할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 결정된 외부 전자 장치와 키워드 call에 대응하는 동작(예: 동작 635 및 동작 640)을 수행할 수 있다.
도 7은 다양한 실시예들에 따른 음성 인식 및 통신 연결의 병렬 수행에 기반한 음성 호 수행 방법의 신호 흐름도(700)를 도시한다
일 실시예에 따르면, 전자 장치(201)는 제1 서버(301)와의 통신을 제어하는 제1 서버 클라이언트, 연락처 정보를 관리하는 연락처 어플리케이션, 전자 장치(201)의 제2 서버(302)에 연관된 계정 정보 및 외부 전자 장치(예: 제1 외부 전자 장치(202))의 계정 정보를 관리하는 계정 관리자, 음성 호의 수행을 위한 기능을 제어하는 콜 어플리케이션, 및 지정된 프로토콜에 따라 외부 전자 장치와의 통신을 제어하는 통신 프레임워크(예: 블루투스 프레임워크)를 포함할 수 있다.
다양한 실시예들에 따르면, 동작 705에서, 전자 장치(201)는 음성 데이터를 수신할 수 있다. 동작 705에 대한 설명은 도 6의 동작 605에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 710에서, 전자 장치(201)는 음성 데이터를 제1 서버(301)에 송신할 수 있다. 동작 710에 대한 설명은 도 6의 동작 610에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 715에서, 제1 서버(301)는 화자 및 키워드 인식을 수행할 수 있다. 동작 715에 대한 설명은 도 6의 동작 615에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 720에서, 전자 장치(201)는 화자 및 키워드 정보를 수신할 수 있다. 제1 서버(301)는 전자 장치(201)에 파라미터(예: 화자 및 키워드 정보)를 송신할 수 있다. 예를 들어, 화자 정보는 식별된 화자에 연관된 계정 정보, 이메일, 및/또는 전화번호를 포함할 수 있다. 예를 들어, 키워드 정보는 인식된 키워드(예: Teresa 및 Call)를 포함할 수 있다. 일 실시예에 따르면, 동작 720에서, 제1 서버(302)의 화자 및 키워드 정보 송신은 화자 및 키워드 정보(예: Teresa)에 대한 검색을 지시하는 및 키워드(예: Call)에 대응한 동작(예: 통신 연결 확립)을 지시하는 제1 동작 정보를 포함하는 제1 패스 룰의 송신으로 참조될 수 있다. 예를 들어, 화자 및 키워드 정보는 전자 장치(201)의 제1 서버 클라이언트에 의하여 수신될 수 있다.
동작 720에 대한 설명은 도 6의 동작 620에 대한 설명에 의하여 참조될 수 있다.
일 실시예에 따르면, 전자 장치(201)는 수신된 화자 및 키워드 정보를 이용하여 전자 장치(201)의 메모리(예: 도 2의 메모리(290))에 저장된 사용자와 외부 전자 장치의 매핑 정보 및 외부 전자 장치에 연관된 연락처 정보를 검색할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 화자 정보를 이용하여 화자에 대응하는 사용자와 연관된 적어도 하나의 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 결정된 적어도 하나의 외부 전자 장치의 연락처에 대하여 키워드(예: Teresa)에 대응하는 연락처를 검색할 수 있다. 예를 들어, 전자 장치(201)는 적어도 하나의 외부 전자 장치 중 키워드에 대응하는 연락처를 통신 연결을 수행할 외부 전자 장치(예: 제1 외부 전자 장치(202))로 결정할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 전자 장치(201)에 설치된 연락처(contacts) 어플리케이션을 이용하여 연락처 정보를 검색할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 제1 서버 에이전트를 이용하여 화자 및 키워드 정보를 수신하고, 수신된 화자 및 키워드 정보를 연락처(contacts) 어플리케이션을 이용하여 검색할 수 있다.
다양한 실시예들에 따르면, 동작 725에서, 전자 장치(201)는 제1 외부 전자 장치(202)와의 통신 연결을 확립할 수 있다. 예를 들어, 전자 장치(201)의 연락처 어플리케이션은 연결을 요청하는 메시지를 전자 장치(201)의 콜 어플리케이션에 전달할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 화자 및 키워드 정보에 의하여 수신된 화자 및/또는 키워드(예: Teresa)를 이용하여 제1 외부 전자 장치(202)와의 연결을 결정할 수 있다. 일 실시예에 따르면 전자 장치(201)는 제1 서버(301)로부터 수신된 화자 및 키워드 정보에 적어도 기반하여 결정된 제1 외부 전자 장치(202)와 통신 연결을 확립할 수 있다. 예를 들어, 전자 장치(201)의 제1 서버 클라이언트는 제1 동작 정보에 포함된 키워드(예: call)에 기반하여 통신 연결 확립을 수행할 수 있다. 전자 장치(201)의 제1 서버 클라이언트는 연락처 정보 및 계정 정보를 콜 어플리케이션에 전달할 수 있다. 콜 어플리케이션은 계정 관리자로부터 계정 정보에 대응하는 주소 정보를 획득할 수 있다. 콜 어플리케이션은 획득된 주소 정보를 이용하여 제1 외부 전자 장치(202)에 통신 연결을 확립할 것을 블루투스 프레임워크에 요청할 수 있다.
다양한 실시예들에 따르면, 동작 730에서, 전자 장치(201)는 제1 서버(301)에 화자 및 키워드 정보에 연관된 연락처 정보를 송신할 수 있다. 예를 들어, 동작 730에 대한 설명은 도 6의 동작 625에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 735에서, 전자 장치(201)는 제1 서버(301)로부터 연락처 정보에 기반한 동작 정보를 수신할 수 있다. 예를 들어, 동작 735에 대한 설명은 도 6의 동작 630에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 740에서, 전자 장치(201)는 통신 연결을 통하여 호를 수행할 수 있다. 동작 740에 대한 설명은 도 6의 동작 640에 대한 설명에 의하여 참조될 수 있다.
도 7의 실시예에 있어서, 전자 장치(201)는 통신 연결 확립(예: 동작 725)과 연락처 정보 송신(예: 동작 730)을 병렬적으로 수행할 수 있다. 예를 들어, 통신 연결 확립과 연락처 정보 송신은 실질적으로 동시에 수행될 수 있다. 전자 장치(201)는 통신 연결 확립과 연락처 정보 송신을 병렬적으로 수행함으로써 음성 호 발신에 요구되는 시간을 감소시킬 수 있다.
도 8은 다양한 실시예들에 따른 로컬(local) 음성 인식에 기반한 음성 호 수행 방법의 신호 흐름도(800)를 도시한다.
일 실시예에 따르면, 전자 장치(201)는 제1 서버(301)와의 통신을 제어하는 제1 서버 클라이언트, 연락처 정보를 관리하는 연락처 어플리케이션, 전자 장치(201)의 제2 서버(302)에 연관된 계정 정보 및 외부 전자 장치(예: 제1 외부 전자 장치(202))의 계정 정보를 관리하는 계정 관리자, 음성 호의 수행을 위한 기능을 제어하는 콜 어플리케이션, 및 지정된 프로토콜에 따라 외부 전자 장치와의 통신을 제어하는 통신 프레임워크(예: 블루투스 프레임워크)를 포함할 수 있다.
다양한 실시예들에 따르면, 동작 805에서, 전자 장치(201)는 음성 데이터를 수신할 수 있다. 동작 805에 대한 설명은 도 6의 동작 605에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 810에서, 전자 장치(201)는 전자 장치(201)의 음성 인식 기능을 이용하여 음성 데이터로부터 동작 키워드(예: call)를 인식할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 제1 서버 클라이언트를 이용하여 음성 데이터로부터 동작 키워드를 인식할 수 있다. 예를 들어, 전자 장치(201)는 음성 데이터로부터 “call”에 대응하는 동작 키워드를 인식할 수 있다.
다양한 실시예들에 따르면, 동작 815에서, 전자 장치(201)는 연결 준비를 수행할 수 있다. 예를 들어, 전자 장치(201)의 제1 서버 클라이언트는 콜 어플리케이션에 블루투스 연결을 요청하는 메시지를 송신할 수 있다. 예를 들어, 블루투스 연결 요청 메시지가 수신되면, 콜 어플리케이션은, 동작 820에서, 블루투스 프레임워크에 블루투스 연결을 요청할 수 있다.
다양한 실시예들에 따르면, 동작 820에서, 전자 장치(201)는 음성 데이터를 제1 서버(301)에 송신할 수 있다. 동작 820에 대한 설명은 도 6의 동작 610에 대한 설명에 의하여 참조될 수 있다.
예를 들어, 전자 장치(201)는 동작 815 및 동작 820를 병렬적으로 수행할 수 있다.
다양한 실시예들에 따르면, 동작 825에서, 제1 서버(301)는 화자 및 키워드 인식을 수행할 수 있다. 동작 825에 대한 설명은 도 6의 동작 615에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 830에서, 전자 장치(201)는 화자 및 키워드 정보를 수신할 수 있다. 예를 들어, 화자 정보는 식별된 화자에 연관된 계정 정보, 이메일, 및/또는 전화번호를 포함할 수 있다. 예를 들어, 키워드 정보는 인식된 키워드(예: Teresa)를 포함할 수 있다. 일 실시예에 따르면, 동작 830에서, 제1 서버(302)의 화자 및 키워드 정보 송신은 화자 및 키워드 정보에 대한 검색을 지시하는 제1 동작 정보 송신으로 참조될 수 있다. 예를 들어, 화자 및 키워드 정보는 전자 장치(201)의 제1 서버 클라이언트에 의하여 수신될 수 있다. 일 실시예에 따르면, 제1 서버 클라이언트는 수신된 화자 및 키워드 정보를 전자 장치(201)의 연락처 어플리케이션을 통하여 또는 직접 전자 장치(201)의 콜 어플리케이션에 전달할 수 있다.
다양한 실시예들에 따르면, 동작 835에서, 전자 장치(201)는 제1 외부 전자 장치(202)와의 통신 연결을 확립할 수 있다. 동작 835에 대한 설명은 도 6의 동작 635에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 840에서, 전자 장치(201)는 제1 서버(301)에 화자 및 키워드 정보에 연관된 연락처 정보를 송신할 수 있다. 예를 들어, 동작 840에 대한 설명은 도 6의 동작 625에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 845에서, 전자 장치(201)는 제1 서버(301)로부터 연락처 정보에 기반한 동작 정보를 수신할 수 있다. 동작 845에 대한 설명은 도 6의 동작 630에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 850에서, 전자 장치(201)는 통신 연결을 통하여 호를 수행할 수 있다. 동작 850에 대한 설명은 도 6의 동작 640에 대한 설명에 의하여 참조될 수 있다.
도 8의 실시예에 있어서, 전자 장치(201)는 내부적 동작 키워드 인식(예: 동작 810)에 기반하여 통신 연결 확립의 준비 동작(예: 동작 815)을 수행하기 때문에, 음성 호 발신에 요구되는 시간을 감소시킬 수 있다.
도 9는 다양한 실시예들에 따른 호 발신 방법의 흐름도(900)를 도시한다.
일 실시예에 따르면, 전자 장치(201)는 제1 서버(301)와의 통신을 제어하는 제1 서버 클라이언트, 연락처 정보를 관리하는 연락처 어플리케이션, 전자 장치(201)의 제2 서버(302)에 연관된 계정 정보 및 외부 전자 장치(예: 제1 외부 전자 장치(202))의 계정 정보를 관리하는 계정 관리자, 음성 호의 수행을 위한 기능을 제어하는 콜 어플리케이션, 및 지정된 프로토콜에 따라 외부 전자 장치와의 통신을 제어하는 통신 프레임워크(예: 블루투스 프레임워크)를 포함할 수 있다.
다양한 실시예들에 따르면, 동작 905에서, 전자 장치(201)는 음성 데이터를 수신할 수 있다. 예를 들어, 음성 데이터는 호 발신에 대응하는 음성 명령을 포함할 수 있다. 동작 905에 대한 설명은 도 5의 동작 515 또는 도 6의 동작 605에 대한 설명에 의하여 참조될 수 있다.
다양한 실시예들에 따르면, 동작 910에서, 전자 장치(201)는 화자 정보 및 키워드를 수신할 수 있다. 예를 들어, 전자 장치(201)는 도 3의 제1 서버(301)에 음성 데이터를 송신하고, 동작 정보 및 파라미터(예: 화자 정보 및 키워드)를 포함하는 패스 룰을 제1 서버(301)로부터 수신할 수 있다. 예를 들어, 동작 910에 대한 설명은 도 5의 동작 520에 대한 설명에 의하여 참조될 수 있다. 예를 들어, 동작 정보는 전자 장치(201)로 하여금 외부 전자 장치를 이용하여 지정된 동작(예: 통신 연결 확립)을 수행하도록 하는 동작(action) 정보일 수 있다. 예를 들어, 패스 룰은 파라미터를 이용하여 동작 정보에 대응하는 동작을 수행할 것을 지시하는 정보일 수 있다.
다양한 실시예들에 따르면, 동작 915에서, 전자 장치(201)는 화자가 전자 장치(201)에 등록된 화자인지 결정할 수 있다. 예를 들어, 키워드에 대응하는 지정된 동작의 수행에 앞서, 전자 장치(201)는 전자 장치(201)의 계정 관리자를 이용하여 화자가 전자 장치(201)에 등록된 화자인지 결정할 수 있다. 화자가 전자 장치(201)에 등록되지 않은 경우, 전자 장치(201)는 동작 920에서 미등록 화자 안내를 제공할 수 있다. 예를 들어, 전자 장치(201)는 미등록 화자의 접근 거부를 지시하는 청각적 및/또는 시각적 안내를 제공할 수 있다. 다른 예를 들어, 전자 장치(201)는 미등록 화자의 발화를 무시할 수 있다.
다양한 실시예들에 따르면, 화자가 등록된 화자인 경우, 동작 925에서, 전자 장치(201)는 화자에 연관된 외부 전자 장치가 존재하는지 결정할 수 있다. 예를 들어, 전자 장치(201)는 화자에 매핑 또는 등록된 외부 전자 장치가 존재하는지 결정할 수 있다. 전자 장치(201)는 계정 관리자를 이용하여 화자에 연관된 외부 전자 장치가 존재하는지 결정할 수 있다.
예를 들어, 화자에 연관된 외부 전자 장치가 존재하지 않는 경우, 전자 장치(201)는 패스 룰에 대응하는 지정된 동작을 수행할 지 못할 수 있다. 일 실시예에 따르면, 동작 930에서, 전자 장치(201)는 외부 전자 장치의 등록을 위한 안내를 제공할 수 있다. 예를 들어, 전자 장치(201)는 외부 전자 장치의 등록을 위한 절차를 안내하는 청각적 및/또는 시각적 안내를 제공할 수 있다. 다른 예를 들어, 전자 장치(201)는 화자의 발화를 무시할 수 있다.
다양한 실시예들에 따르면, 화자에 연관된 외부 전자 장치가 존재하는 경우, 동작 935에서, 전자 장치(201)는 키워드(예: 파라미터)가 전화 번호를 포함하는지 결정할 수 있다. 일 실시예에 따르면, 키워드가 전화 번호를 포함하는 경우, 전자 장치(201)는 화자에 연관된 외부 전자 장치를 이용하여 키워드의 전화 번호로 호를 발신할 수 있다. 예를 들어, 전자 장치(201)는 연관된 외부 전자 장치와의 연결 후에 호 발신을 수행할 수 있다.
다양한 실시예들에 따르면, 키워드(예: 파라미터)가 전화 번호를 포함하지 않는 경우, 동작 945에서, 전자 장치(201)는 키워드에 대응하는 연락처 정보가 존재하는지 결정할 수 있다. 일 실시예에 따르면, 키워드에 대응하는 연락처 정보가 존재하지 않는 경우, 동작 950에서, 전자 장치(201)는 수신인 정보 불명 안내를 제공할 수 있다. 예를 들어, 전자 장치(201)는 연락처 정보가 존재하지 않음을 지시하는 안내, 인터넷 검색을 추천하는 안내, 및/또는 재명령을 요청하는 안내를 제공할 수 있다.
다양한 실시예들에 따르면, 동작 955에서, 전자 장치(201)는 화자와 연관된 외부 전자 장치를 이용하여 연락처 정보에 대응하는 전화번호로 호 발신을 수행할 수 있다. 동작 955에 대한 설명은 도 5의 동작 535에 대한 설명에 의하여 참조될 수 있다.
도 10은 다양한 실시예들에 따른 호 수신 방법의 흐름도(1000)를 도시한다.
다양한 실시예들에 따르면, 동작 1005에서, 제1 외부 전자 장치(202)에 호가 수신될 수 있다. 예를 들어, 동작 1005에서, 제1 외부 전자 장치(202)는 수신 호에 대응하여 지정된 링톤(ring-tone)을 재생할 수 있다.
다양한 실시예들에 따르면, 동작 1007에서, 제1 외부 전자 장치(202)는 전자 장치(201)에 호 수신 알림을 제2 서버(302)에 전달할 수 있다. 제1 외부 전자 장치(202)는 호 수신에 응답하여 호 수신 알림을 제2 서버(302)에 전달할 수 있다. 일 실시예에 따르면, 제1 외부 전자 장치(202)는 전자 장치(201)를 발견한 경우에 호 수신 알림을 제2 서버(302)에 전달할 수 있다. 예를 들어, 제1 외부 전자 장치(202)는 전자 장치(201)로의 호 수신 알림의 전달을 제2 서버(302)에 요청할 수 있다. 일 실시예에 따르면, 제1 외부 전자 장치(202)는 제1 외부 전자 장치(202)의 계정과 연관된 전자 장치들 중 적어도 일부(예: 호 수신에 연관된 기능성을 갖는 전자 장치)에 호 수신 알림의 전달을 요청할 수 있다.
다양한 실시예들에 따르면, 동작 1010에서, 제2 서버(302)는 호 수신 알림을 전자 장치(201)에 전달할 수 있다. 예를 들어, 호 수신 알림은 제1 외부 전자 장치(202)의 식별 정보(예: 제1 외부 전자 장치(202)에 연관된 계정 정보(예: 도 2의 제1 사용자(212)에 연관된 제2 서버(302)에 대한 계정 정보), 이메일, 및/또는 전화번호) 및 주소 정보(예: 제1 외부 전자 장치(202)의 블루투스 주소)를 포함할 수 있다. 제2 서버(302)는 제1 외부 전자 장치(202)로부터의 호 수신 알림의 수신에 기반하여 전자 장치(201)에 호 수신 알림을 송신할 수 있다.
다양한 실시예들에 따르면, 동작 1015에서, 전자 장치(201)는 호 수신 알림에 대응하여, 호 수신 알림 링톤을 재생할 수 있다. 예를 들어, 전자 장치(201)는 호 수신 알림에 포함된 제1 외부 전자 장치(202)의 식별 정보가 전자 장치(201)에 등록된 식별 정보인 경우에 호 수신 알림 링톤을 재생할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202)의 링톤 및 호 수신 알림이 수신된 경우에 호 수신 알림 링톤을 재생할 수 있다.
다양한 실시예들에 따르면, 동작 1020에서, 전자 장치(201)는 호 수신 음성 명령을 수신할 수 있다. 예를 들어, 호 수신 음성 명령은 제1 외부 전자 장치(202)의 사용자(예: 도 2의 제1 사용자(212))에 의하여 수행될 수 있다.
다양한 실시예들에 따르면, 동작 1025에서, 전자 장치(201)는 화자 인식을 수행할 수 있다. 예를 들어, 전자 장치(201)는 호 수신 음성 명령에 기반하여 화자 인식을 수행할 수 있다. 예를 들어, 전자 장치(201)는 도 3의 제1 서버(301)에 음성 명령에 대응하는 음성 데이터를 송신하고, 제1 서버(301)로부터 화자 정보를 수신함으로써 화자 인식을 수행할 수 있다. 다른 예를 들어, 전자 장치(201)는 전자 장치(201)는 음성 데이터 및 전자 장치(201)에 저장된 음성 모델을 이용하여 화자 인식을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 인식된 화자가 호 수신 알림에 연관된 제1 외부 전자 장치(202)의 사용자인지 결정할 수 있다. 예를 들어, 전자 장치(201)는 제1 외부 전자 장치(202)의 계정 정보를 제2 서버로부터의 호 수신 알림으로부터 획득할 수 있다. 전자 장치(201)는 인식된 화자에 연관된 계정이 제1 외부 전자 장치(202)의 계정과 동일한 계정인지 결정할 수 있다. 전자 장치(201)는 인식된 화자가 제1 외부 전자 장치(202)의 사용자로 결정되면, 제1 외부 전자 장치(202)에 대한 통신 연결을 수행할 수 있다.
다양한 실시예들에 따르면, 동작 1030에서, 전자 장치(201)는 제1 외부 전자 장치(202)와 통신 연결을 수행할 수 있다. 예를 들어, 전자 장치(201)는 제2 서버(302)로부터의 호 수신 알림을 통하여 수신된 제1 외부 전자 장치(202)의 주소 정보를 이용하여 제1 외부 전자 장치(202)와 통신 연결을 수행할 수 있다.
다양한 실시예들에 따르면, 동작 1035에서, 전자 장치(201)는 제1 외부 전자 장치(202)를 이용하여 수신 호에 대응하는 호 연결 또는 호 관련 동작을 수행할 수 있다.
도 11은 다양한 실시예들에 따른 외부 전자 장치 연결 방법의 흐름도(1100)를 도시한다.
다양한 실시예들에 따르면, 동작 1105에서, 전자 장치(201)는 사용자(예: 도 2의 제1 사용자(212))의 발화를 감지할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)의 소리 입력 장치(250) 및/또는 전자 장치(201)와 기능적으로 연결된 외부 전자 장치를 이용하여 발화를 감지할 수 있다. 발화의 감지에 대응하여, 전자 장치(201)는 제1 상태로부터 제2 상태로 천이할 수 있다. 예를 들어, 전자 장치(201)는 발화 감지에 대응하여 제1 상태(예: 유휴(idle) 상태 또는 대기(standby) 상태)로부터 제2 상태(예: 웨이크업(wake up) 상태 또는 활성화(active) 상태)로 천이할 수 있다. 다른 예를 들어, 전자 장치(201)는 발화의 감지 이전에 제2 상태일 수도 있다.
다양한 실시예들에 따르면, 동작 1110에서, 전자 장치(201)는 감지된 발화에 대응하는 음성 데이터에 적어도 일부 기반하여 화자 정보를 식별할 수 있다. 예를 들어, 발화에 대응하는 음성 데이터는 지정된 음성 명령(예: 웨이크업 명령) 및 음성 명령을 포함할 수 있다. 다른 예를 들어, 발화에 대응하는 음성 데이터는 지정된 음성 명령 이후에 수신된 음성 명령을 포함할 수 있다. 다른 예를 들어, 발화에 대응하는 음성 데이터는 지정된 음성 명령(예: 웨이크업 명령)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 음성 데이터의 음성 인식에 적어도 기반하여 화자 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)에 내장된 음성 인식 기능을 이용하여 음성 데이터에 대응하는 화자(예: 제1 사용자(212))를 인식할 수 있다. 다른 예를 들어, 전자 장치(201)는 음성 데이터를 통신 회로(예: 도 2의 통신 회로(290))를 이용하여 외부 전자 장치(예: 도 3의 제1 서버(301))로 송신하고, 외부 전자 장치로부터 음성 인식에 기반하여 획득된 화자 정보를 획득할 수 있다. 일 실시예에 따르면, 화자 정보는 화자 또는 화자에 연관된 전자 장치(예: 도 2의 제1 외부 전자 장치(202))의 식별 정보를 포함할 수 있다. 예를 들어, 화자 정보는 화자 또는 화자에 연관된 전자 장치의 계정 정보(예: 도 3의 제2 서버(302)에 대한 계정 정보), 전화번호, 및/또는 이메일)를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 음성 데이터의 음성 인식에 적어도 기반하여 동작 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)에 내장된 음성 인식 기능을 이용하여 음성 데이터에 대응하는 키워드를 인식하고, 키워드에 대응하는 동작 정보를 획득할 수 있다. 다른 예를 들어, 전자 장치(201)는 외부 전자 장치(예: 도 3의 제1 서버(301))로 음성 데이터를 송신하고, 외부 전자 장치로부터 음성 인식에 기반하여 생성된 동작 정보를 수신할 수 있다.
다양한 실시예들에 따르면, 동작 1115에서, 전자 장치(201)는 화자 정보에 연관된 외부 전자 장치 정보가 검색되는지 결정할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)의 메모리(예: 도 2의 메모리(230))에 저장된 계정 및 계정에 연관된 외부 전자 장치 목록 정보에 기반하여 화자에 연관된 외부 전자 장치 정보를 검색할 수 있다.
다양한 실시예들에 따르면, 동작 1120에서, 전자 장치(201)는 화자에 연관된 외부 전자 장치 정보가 검색되는 경우, 검색된 외부 전자 장치(예: 도 2의 제1 외부 전자 장치(202))에 통신 회로(예: 도 2의 통신 회로(290))를 통하여 연결할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 화자에 연관된 외부 전자 장치의 주소(예: 블루투스 주소) 및/또는 외부 전자 장치의 식별 정보를 획득할 수 있다. 예를 들어, 전자 장치(201)는 제1 사용자(212)에 연관된 제1 외부 전자 장치(202)의 정보를 전자 장치(201)의 메모리(230)로부터 획득할 수 있다. 일 실시예에 따르면, 외부 전자 장치의 주소는 계정 관리 서버(예: 도 3의 제2 서버(302))로부터 수신할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 외부 전자 장치와의 통신을 연결할 수 있다. 예를 들어, 전자 장치(201)는 외부 전자 장치의 주소 및/또는 외부 전자 장치의 식별 정보를 이용하여 외부 전자 장치와의 통신을 연결할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치(201)의 블루투스 프레임워크에 획득된 외부 전자 장치의 주소 정보를 이용한 연결을 요청함으로써 외부 전자 장치와의 통신을 연결할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 음성 데이터의 음성 인식에 적어도 기반하여 동작 정보를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 전자 장치(201)는 음성 데이터로부터 인식된 동작 정보, 동작 정보에 포함된 키워드, 및/또는 키워드를 이용하여 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들의 인접도 및/또는 연결 빈도에 기반하여 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 결정할 수 있다. 예를 들어, 전자 장치(201)는 식별된 화자에 연관된 복수의 외부 전자 장치들 중 가장 최근에 연결된 외부 전자 장치를 선택할 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)는 외부 전자 장치와의 통신 연결 후 동작 정보 및/또는 키워드에 대응하는 동작을 외부 전자 장치를 이용하여 수행할 수 있다. 예를 들어, 전자 장치(201)는 연결된 외부 전자 장치를 이용하여, 수신 호, 송신 호, 음악 재생, 데이터 수신, 및/또는 데이터 송신을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(201)는 동작 정보 및/또는 키워드에 기반하여 외부 전자 장치와의 통신 연결 프로파일(profile)을 다르게 설정할 수 있다.
다양한 실시예들에 따르면, 동작 1125에서, 화자 정보에 연관된 외부 전자 장치가 검색되지 않는 경우, 전자 장치(201)는 전자 장치 등록에 대한 안내를 제공할 수 있다. 예를 들어, 전자 장치(201)는 전자 장치 등록에 대한 시각적 및/또는 음향적 안내를 제공할 수 있다.
다양한 실시예들에 따르면, 전자 장치(예: 도 2의 전자 장치(201))는 적어도 하나의 통신 회로(예: 도 2의 통신 회로(290)), 소리 입력 회로(예: 도 2의 소리 입력 장치(250)), 상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서(예: 도 2의 프로세서(220)), 및 상기 프로세서에 작동적으로 연결된 메모리(예: 도 2의 메모리(230))를 포함할 수 있다. 일 실시예에 따르면, 상기 메모리는 실행되었을 때 상기 프로세서로 하여금 후술하는 전자 장치의 동작들을 수행하게 하는 인스트럭션들을 저장할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 소리 입력 회로를 이용하여 발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하고, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하고, 상기 적어도 하나의 통신 회로를 이용하여, 상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치(예: 도 1의 제1 외부 전자 장치(202))의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치(202)에 통신 연결할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 적어도 하나의 통신 회로를 이용하여, 상기 수신된 음성 데이터를 제1 서버(예: 도 3의 제1 서버(301))로 송신하고, 상기 제1 서버로(301)부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 화자 정보를 수신할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 제1 서버(301)로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 적어도 하나의 키워드를 수신할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 식별된 화자 정보 및 상기 적어도 하나의 키워드를 이용하여 상기 식별된 화자 정보 및 상기 키워드에 대응하는 연락처 정보를 검색하고, 상기 검색된 연락처 정보를 상기 제1 서버(301)에 송신할 수 있다.
일 실시예에 따르면, 전자 장치(301)는 상기 식별된 키워드에 적어도 기반하여 상기 식별된 화자 정보에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 선택할 수 있다. 예를 들어, 상기 제1 외부 전자 장치(201)는 상기 복수의 외부 전자 장치들 중 상기 연락처 정보에 연관된 외부 전자 장치일 수 있다.
일 실시예에 따르면, 전자 장치는 제1 서버(301)로부터 상기 연락처에 기반한 동작 정보를 수신할 수 있다.
일 실시예에 따르면, 상기 동작 정보는 호 발신에 연관된 동작을 포함할 수 있다. 전자 장치는 상기 통신 연결된 제1 외부 전자 장치(202)를 이용하여 호 발신을 수행할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 식별된 화자 정보에 연관된 복수의 외부 전자 장치들의 인접도 또는 연결 빈도 중 적어도 하나에 기반하여 상기 복수의 외부 전자 장치들 중 상기 제1 외부 전자 장치(202)를 선택할 수 있다.
일 실시예에 따르면, 상기 통신 연결은 블루투스 통신 규격에 따라 생성될 수 있다.
일 실시예에 따르면, 상기 화자 정보는 상기 화자에 연관된 계정 정보, 이메일 주소, 또는 전화 번호 중 적어도 하나를 포함하고, 상기 화자 정보 및 상기 화자 정보에 연관된 상기 제1 외부 전자 장치의 주소 정보는 제2 서버(예: 도 3의 제2 서버(302))로부터 수신될 수 있다.
다양한 실시예들에 따르면, 전자 장치(201)의 통신 연결 방법은, 발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하는 동작, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하는 동작, 및 상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치(202)의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치(202)에 통신을 연결하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 화자 정보를 식별하는 동작은, 상기 수신된 음성 데이터를 제1 서버(301)로 송신하는 동작, 및 상기 제1 서버(301)로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 화자 정보를 수신하는 동작을 포함할 수 있다.
일 실시예에 따르면, 통신 연결 방법은 상기 제1 서버(301)로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 적어도 하나의 키워드를 수신하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 통신 연결 방법은 상기 식별된 화자 정보 및 상기 적어도 하나의 키워드를 이용하여 상기 식별된 화자 정보 및 상기 키워드에 대응하는 연락처 정보를 검색하는 동작, 및 상기 검색된 연락처 정보를 상기 제1 서버(301)에 송신하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 통신 연결 방법은 상기 식별된 키워드에 적어도 기반하여 상기 식별된 화자 정보에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 선택하는 동작을 더 포함하고, 상기 제1 외부 전자 장치(202)는 상기 복수의 외부 전자 장치들 중 상기 연락처 정보에 연관된 외부 전자 장치일 수 있다.
다양한 실시예들에 따르면, 전자 장치(예: 도 2의 전자 장치(201))는 적어도 하나의 통신 회로(예: 도 2의 통신 회로(290)), 소리 입력 회로(예: 도 2의 소리 입력 장치(250)), 상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서(예: 도 2의 프로세서(220)), 및 상기 프로세서에 작동적으로 연결된 메모리(예: 도 2의 메모리(230))를 포함할 수 있다. 일 실시예에 따르면, 상기 메모리는 적어도 하나의 외부 전자 장치(예: 도 2의 제1 외부 전자 장치(202))에 연관된 계정 정보 및 주소 정보를 저장하고, 실행되었을 때 상기 프로세서로 하여금 후술하는 전자 장치의 동작들을 수행하게 하는 인스트럭션들을 저장할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 소리 입력 회로를 이용하여 음성 데이터를 수신하고, 상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터에 연관된 화자(speaker)의 계정 정보를 식별하고, 상기 계정 정보에 연관된 외부 전자 장치(202)의 주소 정보를 상기 메모리로부터 획득하고, 상기 적어도 하나의 통신 회로를 이용하여, 상기 외부 전자 장치의 주소 정보로 통신 연결을 할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 적어도 하나의 통신 회로를 이용하여, 상기 수신된 음성 데이터를 제1 서버(301)로 송신하고, 상기 제1 서버로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 화자 정보를 수신함으로써 상기 화자 정보를 식별할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 음성 데이터에 대한 상기 음성 인식에 적어도 기반하여 상기 음성 데이터에 연관된 적어도 하나의 키워드를 식별할 수 있다. 예를 들어, 상기 적어도 하나의 키워드는 상기 외부 전자 장치를 이용한 동작에 대응할 수 있다.
일 실시예에 따르면, 전자 장치(201)는 상기 적어도 하나의 통신 회로를 이용하여, 상기 수신된 음성 데이터를 제1 서버로 송신하고, 상기 제1 서버로부터 상기 적어도 하나의 키워드를 수신할 수 있다.
일 실시예에 따르면, 상기 외부 전자 장치의 주소 정보는, 상기 외부 전자 장치(202)와 상기 전자 장치(201) 사이의 최근 연결에 연관된 상기 외부 전자 장치(202)의 주소일 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", “A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    적어도 하나의 통신 회로;
    소리 입력 회로;
    상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서; 및
    상기 프로세서에 작동적으로 연결된 메모리를 포함하고, 상기 메모리는 실행되었을 때 상기 프로세서로 하여금:
    상기 소리 입력 회로를 이용하여 발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하고,
    상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하고,
    상기 적어도 하나의 통신 회로를 이용하여, 상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치에 통신 연결을 하도록 하는, 인스트럭션들(instructions)을 저장한, 전자 장치.
  2. 제 1 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금,
    상기 적어도 하나의 통신 회로를 이용하여, 상기 수신된 음성 데이터를 제1 서버로 송신하고,
    상기 제1 서버로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 화자 정보를 수신하도록 하는, 전자 장치.
  3. 제 2 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금,
    상기 제1 서버로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 적어도 하나의 키워드를 수신하도록 하는, 전자 장치.
  4. 제 3 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금.
    상기 식별된 화자 정보 및 상기 적어도 하나의 키워드를 이용하여 상기 식별된 화자 정보 및 상기 키워드에 대응하는 연락처 정보를 검색하고,
    상기 검색된 연락처 정보를 상기 제1 서버에 송신하게 하는, 전자 장치.
  5. 제 4 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금, 상기 식별된 키워드에 적어도 기반하여 상기 식별된 화자 정보에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 선택하도록 하고,
    상기 제1 외부 전자 장치는 상기 복수의 외부 전자 장치들 중 상기 연락처 정보에 연관된 외부 전자 장치인, 전자 장치.
  6. 제 4 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금, 상기 제1 서버로부터 상기 연락처에 기반한 동작 정보를 수신하도록 하는, 전자 장치.
  7. 제 6 항에 있어서,
    상기 동작 정보는 호 발신에 연관된 동작을 포함하고,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금, 상기 통신 연결된 제1 외부 전자 장치를 이용하여 호 발신을 수행하도록 하는, 전자 장치.
  8. 제 1 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금, 상기 식별된 화자 정보에 연관된 복수의 외부 전자 장치들의 인접도 또는 연결 빈도 중 적어도 하나에 기반하여 상기 복수의 외부 전자 장치들 중 상기 제1 외부 전자 장치를 선택하도록 하는, 전자 장치.
  9. 제 1 항에 있어서,
    상기 통신 연결은 블루투스 통신 규격에 따라 생성된, 전자 장치.
  10. 제 1 항에 있어서,
    상기 화자 정보는 상기 화자에 연관된 계정 정보, 이메일 주소, 또는 전화 번호 중 적어도 하나를 포함하고,
    상기 화자 정보 및 상기 화자 정보에 연관된 상기 제1 외부 전자 장치의 주소 정보는 제2 서버로부터 수신된, 전자 장치.
  11. 전자 장치의 통신 연결 방법에 있어서,
    발화(utterance)가 감지되면, 상기 감지된 발화에 대응하는 음성 데이터를 수신하는 동작;
    상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터의 화자(speaker) 정보를 식별하는 동작; 및
    상기 음성 데이터에 대응하는 동작을 수행하기 위하여 상기 화자 정보에 연관된 제1 외부 전자 장치의 주소 정보를 이용하여 상기 연관된 제1 외부 전자 장치에 통신을 연결하는 동작을 포함하는, 통신 연결 방법.
  12. 제 11 항에 있어서,
    상기 화자 정보를 식별하는 동작은,
    상기 수신된 음성 데이터를 제1 서버로 송신하는 동작; 및
    상기 제1 서버로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 화자 정보를 수신하는 동작을 포함하는, 통신 연결 방법.
  13. 제 12 항에 있어서,
    상기 제1 서버로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 적어도 하나의 키워드를 수신하는 동작을 더 포함하는, 통신 연결 방법.
  14. 제 13 항에 있어서,
    상기 식별된 화자 정보 및 상기 적어도 하나의 키워드를 이용하여 상기 식별된 화자 정보 및 상기 키워드에 대응하는 연락처 정보를 검색하는 동작; 및
    상기 검색된 연락처 정보를 상기 제1 서버에 송신하는 동작을 더 포함하는, 통신 연결 방법.
  15. 제 14 항에 있어서,
    상기 식별된 키워드에 적어도 기반하여 상기 식별된 화자 정보에 연관된 복수의 외부 전자 장치들 중 하나의 외부 전자 장치를 선택하는 동작을 더 포함하고,
    상기 제1 외부 전자 장치는 상기 복수의 외부 전자 장치들 중 상기 연락처 정보에 연관된 외부 전자 장치인, 통신 연결 방법.
  16. 전자 장치에 있어서,
    적어도 하나의 통신 회로;
    소리 입력 회로;
    상기 적어도 하나의 통신 회로 및 상기 소리 입력 회로와 작동적으로(operatively) 연결된 프로세서; 및
    상기 프로세서에 작동적으로 연결되고 적어도 하나의 외부 전자 장치에 연관된 계정 정보 및 주소 정보를 저장하는 메모리를 포함하고, 상기 메모리는 실행되었을 때 상기 프로세서로 하여금:
    상기 소리 입력 회로를 이용하여 음성 데이터를 수신하고,
    상기 음성 데이터에 대한 음성 인식에 적어도 기반하여 상기 음성 데이터에 연관된 화자(speaker)의 계정 정보를 식별하고,
    상기 계정 정보에 연관된 외부 전자 장치의 주소 정보를 상기 메모리로부터 획득하고,
    상기 적어도 하나의 통신 회로를 이용하여, 상기 외부 전자 장치의 주소 정보로 통신 연결을 하도록 하는, 인스트럭션들(instructions)을 저장한, 전자 장치.
  17. 제 16 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금,
    상기 적어도 하나의 통신 회로를 이용하여, 상기 수신된 음성 데이터를 제1 서버로 송신하고,
    상기 제1 서버로부터 상기 음성 데이터에 대한 음성 인식에 기반하여 식별된 화자 정보를 수신함으로써 상기 화자 정보를 식별하도록 하는, 전자 장치.
  18. 제 16 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금, 상기 음성 데이터에 대한 상기 음성 인식에 적어도 기반하여 상기 음성 데이터에 연관된 적어도 하나의 키워드를 식별하도록 하고,
    상기 적어도 하나의 키워드는 상기 외부 전자 장치를 이용한 동작에 대응하는, 전자 장치.
  19. 제 18 항에 있어서,
    상기 인스트럭션들은 실행되었을 때 상기 프로세서로 하여금,
    상기 적어도 하나의 통신 회로를 이용하여, 상기 수신된 음성 데이터를 제1 서버로 송신하고,
    상기 제1 서버로부터 상기 적어도 하나의 키워드를 수신하도록 하는, 전자 장치.
  20. 제 16 항에 있어서,
    상기 외부 전자 장치의 주소 정보는, 상기 외부 전자 장치와 상기 전자 장치 사이의 최근 연결에 연관된 상기 외부 전자 장치의 주소인, 전자 장치.
KR1020180092704A 2018-08-08 2018-08-08 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법 KR102574903B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020180092704A KR102574903B1 (ko) 2018-08-08 2018-08-08 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법
EP19846856.3A EP3777115A4 (en) 2018-08-08 2019-07-25 ELECTRONIC DEVICE SUPPORTING A CONNECTION OF THE PERSONALIZED DEVICE AND CORRESPONDING METHOD
US16/521,713 US20200051558A1 (en) 2018-08-08 2019-07-25 Electronic device supporting personalized device connection and method thereof
PCT/KR2019/009260 WO2020032443A1 (en) 2018-08-08 2019-07-25 Electronic device supporting personalized device connection and method thereof
CN201980042626.XA CN112334978A (zh) 2018-08-08 2019-07-25 支持个性化装置连接的电子装置及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180092704A KR102574903B1 (ko) 2018-08-08 2018-08-08 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20200017296A true KR20200017296A (ko) 2020-02-18
KR102574903B1 KR102574903B1 (ko) 2023-09-05

Family

ID=69406352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180092704A KR102574903B1 (ko) 2018-08-08 2018-08-08 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법

Country Status (5)

Country Link
US (1) US20200051558A1 (ko)
EP (1) EP3777115A4 (ko)
KR (1) KR102574903B1 (ko)
CN (1) CN112334978A (ko)
WO (1) WO2020032443A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003419B2 (en) 2019-03-19 2021-05-11 Spotify Ab Refinement of voice query interpretation
US11862175B2 (en) * 2021-01-28 2024-01-02 Verizon Patent And Licensing Inc. User identification and authentication
US11715487B2 (en) * 2021-03-31 2023-08-01 Accenture Global Solutions Limited Utilizing machine learning models to provide cognitive speaker fractionalization with empathy recognition
US11914537B2 (en) 2021-04-15 2024-02-27 Apple Inc. Techniques for load balancing with a hub device and multiple endpoints
WO2022221360A1 (en) * 2021-04-15 2022-10-20 Apple Inc. Techniques for communication between hub device and multiple endpoints
GB2619894A (en) * 2021-04-15 2023-12-20 Apple Inc Techniques for communication between hub device and multiple endpoints
DE102021204310A1 (de) 2021-04-29 2022-11-03 Psa Automobiles Sa Auswahl aus mehreren mit einem Fahrzeug verbundenen Mobilgeräten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009189A (ko) * 2010-07-23 2012-02-01 현대모비스 주식회사 차량 상태 표시 시스템 및 그의 이동 단말기 상태 표시 방법
KR20170036198A (ko) * 2015-09-24 2017-04-03 삼성전자주식회사 통신 수행 방법 및 이를 지원하는 전자장치
US20170358317A1 (en) * 2016-06-10 2017-12-14 Google Inc. Securely Executing Voice Actions Using Contextual Signals

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931104B1 (en) * 1996-09-03 2005-08-16 Koninklijke Philips Electronics N.V. Intelligent call processing platform for home telephone system
JP3911162B2 (ja) * 2002-01-18 2007-05-09 アルパイン株式会社 携帯電話のハンズフリー装置
KR20090032053A (ko) * 2009-02-11 2009-03-31 이문섭 음성인식을 이용한 개인전화번호부 데이터베이스 구축방법과, 그를 이용한 자동 전화연결 서비스 방법 및 시스템
US8489398B1 (en) 2011-01-14 2013-07-16 Google Inc. Disambiguation of spoken proper names
KR20130133629A (ko) * 2012-05-29 2013-12-09 삼성전자주식회사 전자장치에서 음성명령을 실행시키기 위한 장치 및 방법
KR20140078328A (ko) * 2012-12-17 2014-06-25 주식회사 케이티 무선 자원 제어 비활성화 타이머 설정 시스템 및 방법
US9111214B1 (en) * 2014-01-30 2015-08-18 Vishal Sharma Virtual assistant system to remotely control external services and selectively share control
US9812126B2 (en) * 2014-11-28 2017-11-07 Microsoft Technology Licensing, Llc Device arbitration for listening devices
US10453449B2 (en) * 2016-09-01 2019-10-22 Amazon Technologies, Inc. Indicator for voice-based communications
US10332523B2 (en) 2016-11-18 2019-06-25 Google Llc Virtual assistant identification of nearby computing devices
US11546400B2 (en) * 2016-12-31 2023-01-03 Turner Broadcasting System, Inc. Generating a live media segment asset
KR101883301B1 (ko) * 2017-01-11 2018-07-30 (주)파워보이스 인공 지능 자동 화자 식별 방법을 이용하는 개인 맞춤형 음성 인식 서비스 제공 방법 및 이에 사용되는 서비스 제공 서버
WO2018169380A1 (ko) * 2017-03-17 2018-09-20 엘지전자(주) 블루투스 기술을 이용하여 오디오 신호를 처리하기 위한 방법 및 장치
US10102855B1 (en) * 2017-03-30 2018-10-16 Amazon Technologies, Inc. Embedded instructions for voice user interface
CN110392913B (zh) * 2017-05-16 2023-09-29 谷歌有限责任公司 在共用的启用语音的装置上处理呼叫
US11100922B1 (en) * 2017-09-26 2021-08-24 Amazon Technologies, Inc. System and methods for triggering sequences of operations based on voice commands
KR102455199B1 (ko) * 2017-10-27 2022-10-18 엘지전자 주식회사 인공지능 디바이스
KR102576388B1 (ko) * 2018-02-21 2023-09-08 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009189A (ko) * 2010-07-23 2012-02-01 현대모비스 주식회사 차량 상태 표시 시스템 및 그의 이동 단말기 상태 표시 방법
KR20170036198A (ko) * 2015-09-24 2017-04-03 삼성전자주식회사 통신 수행 방법 및 이를 지원하는 전자장치
US20170358317A1 (en) * 2016-06-10 2017-12-14 Google Inc. Securely Executing Voice Actions Using Contextual Signals

Also Published As

Publication number Publication date
KR102574903B1 (ko) 2023-09-05
US20200051558A1 (en) 2020-02-13
WO2020032443A1 (en) 2020-02-13
CN112334978A (zh) 2021-02-05
EP3777115A4 (en) 2021-06-02
EP3777115A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
KR102574903B1 (ko) 개인화된 장치 연결을 지원하는 전자 장치 및 그 방법
US11443744B2 (en) Electronic device and voice recognition control method of electronic device
US11355110B2 (en) Electronic device and method of performing functions of electronic devices by voice therebetween
KR20200109954A (ko) IoT 기기의 위치 추론 방법, 이를 지원하는 서버 및 전자 장치
US20200264839A1 (en) Method of providing speech recognition service and electronic device for same
KR102512614B1 (ko) 오디오 개선을 지원하는 전자 장치 및 이를 위한 방법
KR20200027753A (ko) 전자 장치 및 단축 명령어에 대응하는 태스크 수행 방법
US20210383806A1 (en) User input processing method and electronic device supporting same
KR20210036527A (ko) 사용자 발화를 처리하는 전자 장치 및 그 작동 방법
US11425081B2 (en) Message reception notification method and electronic device supporting same
KR102606041B1 (ko) 상태 정보에 기반하여 식별 정보를 변경하는 전자 장치 및 상기 식별 정보를 확인할 수 있는 다른 전자 장치
US20230032366A1 (en) Method and apparatus for wireless connection between electronic devices
KR20210045280A (ko) IoT 기기를 제어하는 방법 및 이를 위한 전자 장치
KR102453161B1 (ko) 자동 응답 시스템으로 개인 정보를 전송하기 위한 장치 및 방법
KR20200119531A (ko) 자연어 응답을 생성하는 전자 장치 및 자연어 응답 생성 방법
KR20200057426A (ko) 음성 인식 기반 이미지를 표시하는 전자 장치
KR102489729B1 (ko) 연결 정보에 기반하여 외부 장치들과 연결하는 전자 장치 및 그 동작 방법
KR20220126544A (ko) 사용자 명령을 처리하는 장치 및 그 동작 방법
KR20220108919A (ko) 전자 장치 및 전자 장치의 단축 명령어 수행 방법
KR20210062279A (ko) 전자 장치 및 이를 이용한 근거리 통신 장치의 사용자 식별 정보 획득 방법
US20230095294A1 (en) Server and electronic device for processing user utterance and operating method thereof
KR20200121549A (ko) 액세서리를 인식하는 전자 장치
US20230214397A1 (en) Server and electronic device for processing user utterance and operating method thereof
KR20190108364A (ko) 전자 장치 및 그의 동작 방법
US20230027222A1 (en) Electronic device for managing inappropriate answer and operating method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant