KR102355903B1 - Apparatus and method for providing contents - Google Patents

Apparatus and method for providing contents Download PDF

Info

Publication number
KR102355903B1
KR102355903B1 KR1020200011677A KR20200011677A KR102355903B1 KR 102355903 B1 KR102355903 B1 KR 102355903B1 KR 1020200011677 A KR1020200011677 A KR 1020200011677A KR 20200011677 A KR20200011677 A KR 20200011677A KR 102355903 B1 KR102355903 B1 KR 102355903B1
Authority
KR
South Korea
Prior art keywords
user
electronic device
content
information
voice
Prior art date
Application number
KR1020200011677A
Other languages
Korean (ko)
Other versions
KR20210098006A (en
Inventor
앤드류 셀프 제임스
박영우
정두영
김차중
박용준
김지수
강혜민
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020200011677A priority Critical patent/KR102355903B1/en
Publication of KR20210098006A publication Critical patent/KR20210098006A/en
Application granted granted Critical
Publication of KR102355903B1 publication Critical patent/KR102355903B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/433Query formulation using audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 전자 장치가 컨텐츠를 제공하는 방법 및 상기 컨텐츠를 제공하는 전자 장치에 관한 것이다. 전자 장치가 컨텐츠를 제공하는 방법은 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계; 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계; 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및 상기 검색된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함할 수 있다.The present disclosure relates to a method for providing content by an electronic device and an electronic device for providing the content. A method for providing content by an electronic device includes: acquiring an audio signal including a voice input of the user from a user of the electronic device; extracting an audio feature vector from the obtained audio signal; recognizing a user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model; obtaining at least one candidate content based on the recognized user's voice; and outputting the searched at least one candidate content. may include

Figure R1020200011677
Figure R1020200011677

Description

컨텐츠를 제공하는 전자 장치 및 방법 {APPARATUS AND METHOD FOR PROVIDING CONTENTS}ELECTRONIC DEVICES AND METHOD FOR PROVIDING CONTENT {APPARATUS AND METHOD FOR PROVIDING CONTENTS}

본 개시는 컨텐츠를 제공하는 전자 장치 및 방법에 관한 것이다. 보다 상세하게는, 전자 장치 또는 전자 장치에 연결된 외부 디바이스를 통하여 컨텐츠를 제공하기 위한 전자 장치 및 방법에 관한 것이다.The present disclosure relates to an electronic device and method for providing content. More particularly, it relates to an electronic device and a method for providing content through an electronic device or an external device connected to the electronic device.

우리나라는 현재 빠른 속도로 고령화 사회에 진입하고 있고, 고령화 사회에 진입하는 속도만큼 빠르게 치매 환자들이 매년 증가하고 있다. 치매 환자들의 증가는 치매 환자들의 가족들에게 경제적, 정신적으로 많은 문제들을 야기할 수 있기 때문에, 노령 인구의 치매 질환은 개인 차원의 문제가 아닌 사회적 차원에서 해결할 필요가 있다. 특히, 치매의 경우 치매라고 판정되기 치매 질환으로 발전하는 경우가 대부분이고, 치매가 발생할 경우 치매 환자들을 치료하기 위하여 쓰여지는 사회 경제적 비용은 10조원에 달하는 것으로 추정되고 있다. Korea is currently entering an aging society at a fast pace, and the number of dementia patients is increasing every year as fast as it is entering an aging society. Since the increase in the number of dementia patients can cause many economic and psychological problems for the families of the dementia patients, the dementia disease of the elderly population needs to be addressed at the social level, not the individual level. In particular, most cases of dementia develop into a dementia disease that is judged to be dementia, and when dementia occurs, it is estimated that the socio-economic cost of treating dementia patients reaches 10 trillion won.

현재 노인들의 치매 치료를 위한 기술들은 노인들의 근력을 향상시키는 제품이거나, 헬스케어 제품들로써 치매의 치료 보다는 노인들의 건강 증진을 위한 부분에 많은 비중을 두고 개발되고 있었으며, 정서적 또는 정신적으로 노인들의 치매를 치료하기 위한 기술 개발이 요구되고 있다.Currently, the technologies for the treatment of dementia in the elderly are products that improve muscle strength of the elderly, or as health care products, they have been developed with a lot of emphasis on improving the health of the elderly rather than the treatment of dementia. The development of technology for treatment is required.

또한, 노인들의 치매 치료 비용으로 개인이 부담해야 하는 비용이 크게 증가하고 있어, 개인들이 자신 또는 친족의 치매 치료에 대한 접근성이 낮은 문제점이 있다. 따라서, 저 비용으로도 치매 환자들을 효과적으로 치료할 수 있는 기술 개발이 요구되고 있다.In addition, as the cost to be borne by the individual due to the dementia treatment cost of the elderly is greatly increased, there is a problem in that individuals have low access to the dementia treatment of themselves or their relatives. Therefore, there is a demand for the development of a technology capable of effectively treating dementia patients even at low cost.

특허문헌1: 특허등록공보 제10-1303344호Patent Document 1: Patent Registration Publication No. 10-1303344

일 실시 예에 따르면, 컨텐츠를 제공하는 전자 장치 및 방법이 제공될 수 있다.According to an embodiment, an electronic device and method for providing content may be provided.

또한, 일 실시 예에 의하면, 전자 장치와 연결된 외부 디바이스를 통하여 컨텐츠를 출력할 수 있는 전자 장치 및 방법이 제공될 수 있다.Also, according to an embodiment, an electronic device and method capable of outputting content through an external device connected to the electronic device may be provided.

상술한 기술적 과제를 달성하기 위한 본 개시의 일 실시 예에 따라, 전자 장치가 컨텐츠를 제공하는 방법은, 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계; 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계; 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및 상기 검색된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함할 수 있다.According to an embodiment of the present disclosure for achieving the above-described technical problem, a method for an electronic device to provide content includes: acquiring an audio signal including a user's voice input from a user of the electronic device; extracting an audio feature vector from the obtained audio signal; recognizing a user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model; obtaining at least one candidate content based on the recognized user's voice; and outputting the searched at least one candidate content. may include

일 실시 예에 의하면, 상기 전자 장치가 컨텐츠를 제공하는 방법은 검색된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송하는 단계; 를 더 포함할 수 있다.According to an embodiment, the method for providing content by the electronic device includes transmitting information on at least one searched candidate content to an external device connected to the electronic device by wire or wirelessly; may further include.

또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 컨텐츠를 제공하는 전자 장치는, 상기 전자 장치의 주변 음향을 획득하는 마이크; 상기 컨텐츠와 관련된 오디오 신호를 출력하는 스피커; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 컨텐츠를 제공하는 하나 이상의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하고, 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하고, 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하고, 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하고, 상기 검색된 적어도 하나의 후보 컨텐츠를 출력할 수 있다.In addition, according to another embodiment of the present disclosure for solving the above technical problem, an electronic device for providing content includes: a microphone for acquiring ambient sound of the electronic device; a speaker outputting an audio signal related to the content; a memory storing one or more instructions; and one or more processors that provide the content by executing the one or more instructions. including, wherein the at least one processor obtains an audio signal including the user's voice input from the user of the electronic device by executing the one or more instructions, and extracts an audio feature vector from the obtained audio signal; , by inputting the extracted audio feature vector into a speech recognition model, recognizes a user's voice in the audio signal, obtains at least one candidate content based on the recognized user's voice, and finds at least one candidate Content can be output.

일 실시 예에 의하면, 상기 적어도 하나의 프로세서는 검색된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송할 수 있다.According to an embodiment, the at least one processor may transmit information on the found at least one candidate content to an external device connected to the electronic device by wire or wirelessly.

또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계; 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계; 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및 상기 검색된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.Further, according to another embodiment of the present disclosure for solving the technical problem, the method may further include: acquiring an audio signal including a user's voice input from a user of an electronic device; extracting an audio feature vector from the obtained audio signal; recognizing a user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model; obtaining at least one candidate content based on the recognized user's voice; and outputting the searched at least one candidate content. A computer-readable recording medium recording a program for executing the method on a computer, including a computer-readable recording medium, may be provided.

도 1은 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 개략적으로 나타내는 도면이다.
도 2는 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 방법의 흐름도이다.
도 3은 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 방법을 나타내는 흐름도이다.
도 4는 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 구체적인 방법을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 전자 장치가 음성 인식 모델을 활성화 하는 구체적인 방법을 나타내는 흐름도이다.
도 6은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.
도 7은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 전자 장치가 적어도 하나의 후보 컨텐츠를 획득하는 구체적인 방법을 나타내는 흐름도이다.
도 9는 일 실시 예에 따른 전자 장치가 외부 디바이스의 동작 상태에 기초하여 컨텐츠 재생 모드를 결정하고, 결정된 컨텐츠 재생 모드 및 적어도 하나의 후보 컨텐츠를 함께 전송하는 방법을 나타내는 흐름도이다.
도 10은 일 실시 예에 따른 전자 장치가 외부 디바이스에서 컨텐츠가 재생되는 동안, 외부 디바이스로부터 획득된 센싱 정보에 기초하여 재생 모드를 변경하는 구체적인 방법을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 컨텐츠를 제공하는 전자 장치의 블록도이다.
도 12는 일 실시 예에 따른 전자 장치와 연결되는 서버의 블록도이다.
도 13은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 블록도이다.
도 14는 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 구조를 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 전자 장치 및 외부 디바이스가 서로 연동하여 동작하는 과정을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 전자 장치, 서버 및 외부 디바이스가 서로 연동하여 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 동작 과정을 설명하기 위한 도면이다.
1 is a diagram schematically illustrating a process in which an electronic device provides content according to an exemplary embodiment.
2 is a flowchart of a method for providing content by an electronic device according to an exemplary embodiment.
3 is a flowchart illustrating a method for an electronic device to authenticate a user of an electronic device according to an embodiment.
4 is a diagram for describing a specific method for an electronic device to authenticate a user of the electronic device according to an exemplary embodiment.
5 is a flowchart illustrating a specific method of activating a voice recognition model by an electronic device according to an exemplary embodiment.
6 is a diagram for explaining a process of providing content by an electronic device according to another exemplary embodiment.
7 is a diagram for describing a process in which an electronic device provides content according to another exemplary embodiment.
8 is a flowchart illustrating a specific method for an electronic device to acquire at least one candidate content, according to an embodiment.
9 is a flowchart illustrating a method in which an electronic device determines a content playback mode based on an operating state of an external device and transmits the determined content playback mode and at least one candidate content together, according to an embodiment.
10 is a diagram for describing a specific method of changing a playback mode based on sensing information obtained from an external device while an electronic device is playing content in an external device, according to an embodiment.
11 is a block diagram of an electronic device that provides content according to an embodiment.
12 is a block diagram of a server connected to an electronic device according to an exemplary embodiment.
13 is a block diagram of an external device connected to an electronic device according to an exemplary embodiment.
14 is a diagram for describing a structure of an external device connected to an electronic device according to an exemplary embodiment.
15 is a diagram for describing a process in which an electronic device and an external device operate in conjunction with each other according to an exemplary embodiment.
16 is a diagram for describing a process in which an electronic device, a server, and an external device interwork with each other to provide content, according to an exemplary embodiment.
17 is a diagram for describing an operation process of an external device connected to an electronic device according to an exemplary embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.

본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 개략적으로 나타내는 도면이다.1 is a diagram schematically illustrating a process in which an electronic device provides content according to an exemplary embodiment.

일 실시 예에 의하면, 전자 장치(1000)는 프로세서(120), 네트워크 인터페이스(130), 메모리(140)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다. 예를 들어, 전자 장치(1000)는 사용자의 음성을 획득하기 위한 마이크(미도시) 또는 오디오 신호를 출력하기 위한 스피커(미도시)를 더 포함할 수 있다.According to an embodiment, the electronic device 1000 may include a processor 120 , a network interface 130 , and a memory 140 . However, not all illustrated components are essential components, and the electronic device 1000 may be implemented with more components than the illustrated components, and the electronic device 1000 may be implemented with fewer components. may be For example, the electronic device 1000 may further include a microphone (not shown) for acquiring a user's voice or a speaker (not shown) for outputting an audio signal.

일 실시 예에 의하면, 메모리(140)는 인공 지능을 기반으로 컨텐츠를 제공하기 위한 컨텐츠 제공 서비스 모델(154)을 포함할 수 있다. 컨텐츠 제공 서비스 모델(154)은 음성 인식 서비스 모델According to an embodiment, the memory 140 may include a content providing service model 154 for providing content based on artificial intelligence. The content providing service model 154 is a voice recognition service model

어시스턴트 서비스 모델(152) 사용자 인증 모델(142), 음성 인식 활성화 모델(144), 음성 인식 모델(146) 및 컨텐츠 추천 모델(148)을 포함할 수 있다. 예를 들어, 전자 장치(1000)의 프로세서(120)는 메모리(140)에 저장된 사용자 인증 모델(142), 음성 인식 활성화 모델(144), 음성 인식 모델(146) 또는 컨텐츠 추천 모델(148) 중 적어도 하나를 실행함으로써, 컨텐츠를 제공할 수 있다. 사용자 인증 모델(142), 음성 인식 활성화 모델(144), 음성 인식 모델(146) 및 컨텐츠 추천 모델(148)은 프로세서(120)에 의해 실행될 수 있는 하나 이상의 인스트럭션들을 포함한다.The assistant service model 152 may include a user authentication model 142 , a voice recognition activation model 144 , a voice recognition model 146 , and a content recommendation model 148 . For example, the processor 120 of the electronic device 1000 may include one of the user authentication model 142 , the voice recognition activation model 144 , the voice recognition model 146 , or the content recommendation model 148 stored in the memory 140 . By executing at least one, the content may be provided. The user authentication model 142 , the voice recognition activation model 144 , the voice recognition model 146 , and the content recommendation model 148 include one or more instructions that may be executed by the processor 120 .

예를 들어, 전자 장치(1000)는 메모리 내 사용자 인증 모델(142)을 실행함으로써, 현재 전자 장치의 사용자가 등록된 사용자가 맞는지 여부를 확인하는 사용자 인증 동작을 수행할 수 있다. 또한, 전자 장치(1000)는 음성 인식 활성화 모델(144)을 실행함으로써 음성 인식 서비스를 제공하기 위한 음성 인식 모델을 활성화 할지 여부를 결정할 수 있다. 또한, 전자 장치(1000)는 음성 인식 모델을 실행함으로써, 오디오 신호 내 사용자의 음성을 인식하고, 인식된 사용자 음성에 기초하여 컨텐츠를 제공할 수 있다. 또한, 전자 장치(1000)는 컨텐츠 추천 모델(148)을 이용함으로써, 인식된 사용자 음성 및 사용자의 정보에 기초하여, 사용자에게 적합한 컨텐츠를 제공할 수 있다.For example, by executing the in-memory user authentication model 142 , the electronic device 1000 may perform a user authentication operation of confirming whether the current user of the electronic device is a registered user. Also, the electronic device 1000 may determine whether to activate the voice recognition model for providing the voice recognition service by executing the voice recognition activation model 144 . Also, the electronic device 1000 may recognize the user's voice in the audio signal by executing the voice recognition model, and provide content based on the recognized user's voice. Also, by using the content recommendation model 148 , the electronic device 1000 may provide content suitable to the user based on the recognized user voice and user information.

일 실시 예에 의하면, 전자 장치(1000)는 컨텐츠를 요청하는 전자 장치의 사용자의 입력에 기초하여 컨텐츠를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 외부 디바이스(4000)로부터 컨텐츠 전송 요청 및 외부 디바이스의 동작 상태에 관한 동작 정보(104)를 획득하고, 컨텐츠 전송 요청에 응답하여, 컨텐츠에 대한 정보(102)를 외부 디바이스(4000)로 전송할 수 있다.According to an embodiment, the electronic device 1000 may provide content based on a user input of the electronic device requesting the content. For example, the electronic device 1000 obtains a content transmission request from the external device 4000 and operation information 104 regarding an operation state of the external device, and responds to the content transmission request to receive the content information 102 may be transmitted to the external device 4000 .

일 실시 예에 의하면, 전자 장치(1000)는 사용자의 음성 입력을 포함하는 오디오 신호 또는 사용자의 키워드 입력을 획득하고, 획득된 오디오 신호 내 사용자의 음성을 인식함으로써 결정된 문자열 또는 키워드 입력에 기초하여 적어도 하나의 컨텐츠를 검색할 수 있다. According to an embodiment, the electronic device 1000 obtains an audio signal including a user's voice input or a user's keyword input, and at least based on a character string or keyword input determined by recognizing the user's voice in the obtained audio signal. You can search for one content.

본 개시에 따른 컨텐츠는 전자 장치 또는 외부 디바이스의 출력부를 통하여 출력될 수 있는 미디어 컨텐츠일 수 있다. 예를 들어, 전자 장치가 제공하는 컨텐츠는 청각적으로 인지될 수 있는 오디오 컨텐츠로써, 스피커를 통하여 출력될 수 있는 오디오 데이터를 포함할 수 있다. 또한, 전자 장치가 제공하는 컨텐츠는 시각적으로 인식될 수 있는 비디오 컨텐츠로써 비디오 데이터를 포함할 수도 있다. 또 다른 실시 예에 의하면, 전자 장치가 제공하는 컨텐츠는 오디오 데이터 및 비디오 데이터를 모두 포함하는 멀티미디어 컨텐츠일 수 있다. The content according to the present disclosure may be media content that can be output through an output unit of an electronic device or an external device. For example, the content provided by the electronic device is audio content that can be perceived aurally, and may include audio data that can be output through a speaker. Also, the content provided by the electronic device may include video data as video content that can be visually recognized. According to another embodiment, the content provided by the electronic device may be multimedia content including both audio data and video data.

일 실시 예에 의하면, 전자 장치(1000)는 AI 프로그램이 탑재되고 음성 인식 기능을 포함하는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, GPS(global positioning system) 장치, 디지털 카메라, 스피커 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 일 실시 예에 의하면, 전자 장치(1000)는 네트워크(3000)를 통하여 서버(2000)와 연결될 수 있다. 전자 장치(1000)는 네트워크(3000)를 통하여 연결된 서버(2000)와 연동함으로써 적어도 하나의 컨텐츠들을 제공할 수 있다.According to an embodiment, the electronic device 1000 includes a smart phone, a tablet PC, a PC, a smart TV, a mobile phone, a personal digital assistant (PDA), a laptop, a media player, a GPS ( global positioning system) device, digital camera, speaker, or other mobile or non-mobile computing device. According to an embodiment, the electronic device 1000 may be connected to the server 2000 through the network 3000 . The electronic device 1000 may provide at least one content by interworking with the server 2000 connected through the network 3000 .

일 실시 예에 의하면, 네트워크(3000)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함할 수 있고, 전자 장치(1000)와 서버(2000)의 연결을 위한 기타 데이터 통신망을 포함할 수 있다. 또한, 전자 장치(1000)와 네트워크를 통하여 연결되는 서버(2000)는 전자 장치와 연동됨으로써, 컨텐츠를 제공할 수 있는 기타 컴퓨팅 장치 또는 컴퓨팅 서비스 제공 장치를 포함할 수 있다.According to an embodiment, the network 3000 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, It may include a satellite communication network and a combination thereof, and may include other data communication networks for connecting the electronic device 1000 and the server 2000 . In addition, the server 2000 connected to the electronic device 1000 through a network may include other computing devices or computing service providing devices capable of providing content by interworking with the electronic device.

일 실시 예에 의하면, 외부 디바이스(4000)는 프로세서(160), 네트워크 인터페이스(170), 메모리(180) 및 출력부(190)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 외부 디바이스(4000)가 가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 외부 디바이스(4000)는 구현될 수도 있다. 예를 들어, 외부 디바이스는 압력 또는 사용자의 위치를 감지할 수 있는 적어도 하나의 센서 또는 외부 디바이스를 통하여 향기를 배출하기 위한 모듈을 더 포함할 수도 있다.According to an embodiment, the external device 4000 may include a processor 160 , a network interface 170 , a memory 180 , and an output unit 190 . However, not all illustrated components are essential components, and the external device 4000 may be implemented by more components than the illustrated components, and the external device 4000 is implemented by fewer components than that. it might be For example, the external device may further include a module for discharging a fragrance through at least one sensor or an external device capable of detecting pressure or a user's position.

예를 들어, 외부 디바이스(4000)는 전자 장치(1000)로부터 컨텐츠에 대한 정보를 획득하고, 획득된 컨텐츠에 대한 정보를 출력부(190)를 통하여 출력할 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 컨텐츠를 출력하기 위한 출력부가 내장된 장치로써, 베개 타입의 하우징을 더 포함할 수 있다. 외부 디바이스(4000)는 네트워크(6000)를 통하여 다른 외부 디바이스(5000)와 통신 연결될 수 있고, 전자 장치를 경유하거나, 직접 서버(2000)에 액세스 하여 통신을 수행할 수도 있다.For example, the external device 4000 may obtain information on the content from the electronic device 1000 and output the obtained information on the content through the output unit 190 . According to an embodiment, the external device 4000 is a device in which an output unit for outputting content is built-in, and may further include a pillow-type housing. The external device 4000 may be communicatively connected to another external device 5000 through the network 6000 , and may communicate via an electronic device or directly access the server 2000 .

일 실시 예에 의하면, 네트워크(3000)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함할 수 있고, 외부 디바이스(4000)와 다른 외부 디바이스(5000)의 연결을 위한 기타 데이터 통신망을 더 포함할 수도 있다. 네트워크(6000)는 전자 장치(1000)가 이용하는 네트워크(3000)와 동일한 네트워크일 수도 있지만, 네트워크(3000)와 독립적인 별도의 네트워크일 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 전자 장치(1000)로부터 획득된 컨텐츠를 출력함으로써 외부 디바이스 사용자인 치매 환자들, 또는 노인들의 정신적, 정서적 치료 기능을 수행할 수 있다.According to an embodiment, the network 3000 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, It may include a satellite communication network and a combination thereof, and may further include other data communication networks for connecting the external device 4000 and other external devices 5000 . The network 6000 may be the same network as the network 3000 used by the electronic device 1000 , but may be a separate network independent of the network 3000 . According to an embodiment, the external device 4000 may perform a mental and emotional treatment function for dementia patients or the elderly who are external device users by outputting the content obtained from the electronic device 1000 .

도 2는 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 방법의 흐름도이다.2 is a flowchart of a method for providing content by an electronic device according to an exemplary embodiment.

S210에서, 전자 장치(1000)는 사용자의 음성 입력을 포함하는 오디오 신호를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치에 포함된 적어도 하나의 마이크를 통하여 사용자의 음성을 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 사용자 입력 인터페이스를 통하여, 사용자로부터 음성 입력, 키(Key) 입력, 터치 입력 또는 모션 입력 중 적어도 하나를 획득할 수 있다. In S210 , the electronic device 1000 may obtain an audio signal including a user's voice input. For example, the electronic device 1000 may acquire the user's voice through at least one microphone included in the electronic device. According to another embodiment, the electronic device 1000 may obtain at least one of a voice input, a key input, a touch input, and a motion input from the user through the user input interface.

S220에서, 전자 장치(1000)는 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. 예를 들어, 전자 장치(1000)는 미리 학습된 인공 신경망(Artificial Network)을 이용하여 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. 일 실시 예에 의하면, 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.In S220, the electronic device 1000 may extract an audio feature vector from the audio signal. For example, the electronic device 1000 may extract an audio feature vector from an audio signal using a pre-trained artificial neural network. According to an embodiment, the artificial neural network may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), or an RBM. (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network), or deep Q-Networks, etc., but is not limited to the above-described example.

또한, 일 실시 예에 의하면, 오디오 특징 벡터는 선형예측계수(Linear Predictive Coefficient), 켑스트럼(Cepstrum), 멜 프리퀀시 켑스트럼(Mel Frequency Cepstral Coefficient, MFCC) 또는 주파수 대역별 에너지(Filter Bank Energy) 값 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.In addition, according to an embodiment, the audio feature vector includes a linear predictive coefficient, a cepstrum, a mel frequency cepstral coefficient (MFCC), or a filter bank energy for each frequency band. ) may include at least one of the values, but is not limited thereto.

S230에서, 전자 장치(1000)는 오디오 특징 모델을 음성 인식 모델에 입력함으로써 오디오 신호 내 사용자의 음성을 인식할 수 있다. 예를 들어, 음성 인식 모델은 사용자의 음성을 인식하기 위해 자동 음성 인식 모델(automatic speech recognition, ASR), 자연어 이해 모델, 자연어 생성 모델을 포함할 수 있다. 음성 인식 모델은 입력된 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터에 대응되는 문자열을 출력할 수 있다.In S230 , the electronic device 1000 may recognize the user's voice in the audio signal by inputting the audio feature model to the voice recognition model. For example, the speech recognition model may include an automatic speech recognition (ASR) model, a natural language understanding model, and a natural language generation model in order to recognize a user's speech. The speech recognition model may extract an audio feature vector from an input audio signal and output a character string corresponding to the extracted audio feature vector.

예를 들어, 자동 음성 인식 모델은 사용자 음성을 입력 받고, 입력된 사용자 음성을 텍스트로 변환할 수 있고, 자연어 이해 모델은 사용자 음성이 변환된 텍스트를 에 대한 문법적 분석에 기초하여 사용자 음성에 포함된 의도 정보를 출력할 수 있으며, 자연어 생성 모델(Natural Language Generator, NLG)은 등록된 문자열 정보 및 자연어 이해 모델에 의해 결정된 의도 정보에 기초하여 소정의 문장 규칙을 따르는 새로운 문자열을 출력할 수 있다. For example, the automatic speech recognition model may receive a user's voice and convert the inputted user's voice into text, and the natural language understanding model uses the converted text of the user's voice based on a grammatical analysis of the Intention information may be output, and a natural language generator (NLG) may output a new character string conforming to a predetermined sentence rule based on registered character string information and intention information determined by the natural language understanding model.

일 실시 예에 의하면, 음성 인식 모델은 오디오 학습 신호 내 오디오 특징 벡터들을 추출하고, 추출된 특징 벡터에 대한 음성 인식 모델이 출력 값과 정답 값을 비교하여 결정되는 LOSS를 최소화하도록 미리 학습되는 신경망 기반의 모델일 수 있다.According to an embodiment, the speech recognition model extracts audio feature vectors in the audio learning signal, and the speech recognition model for the extracted feature vector is based on a neural network that is pre-trained to minimize the LOSS determined by comparing the output value and the correct answer value. can be a model of

또 다른 실시 예에 의하면, 전자 장치(1000)는 음성 인식 모델을 이용하여 오디오 신호 내 사용자의 음성을 인식하기 전, 음성 인식 활성화 모델을 이용하여 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터에 기초하여 음성 인식 모델을 활성화 할지 여부를 결정할 수 있다. 전자 장치가 음성 인식 모델을 활성화 할지 여부를 결정하는 구체적인 방법은 도 5를 참조하여 구체적으로 설명하기로 한다.According to another embodiment, before recognizing the user's voice in the audio signal using the voice recognition model, the electronic device 1000 extracts an audio feature vector from the audio signal using the voice recognition activation model, and the extracted audio It is possible to determine whether to activate the speech recognition model based on the feature vector. A specific method for the electronic device to determine whether to activate the voice recognition model will be described in detail with reference to FIG. 5 .

S240에서, 전자 장치(1000)는 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 음성 인식 모델의 출력 값으로부터 획득된 문자열을 키워드로 결정하고, 결정된 키워드에 기초하여, 네트워크를 통하여 연결되는 인터넷으로부터 적어도 하나의 후보 컨텐츠를 검색할 수 있다. In S240 , the electronic device 1000 may acquire at least one candidate content based on the recognized user's voice. For example, the electronic device 1000 may determine a character string obtained from an output value of the voice recognition model as a keyword, and search for at least one candidate content from the Internet connected through a network based on the determined keyword.

일 실시 예에 의하면, 전자 장치(1000)는 전자 장치의 사용자가 인증되면, 인증된 사용자의 사용자 정보를 획득할 수 있다. 전자 장치(1000)는 인식된 사용자의 음성 및 사용자 정보에 기초하여 후보 컨텐츠를 검색함으로써, 사용자 맞춤형 컨텐츠를 획득할 수 있다. 전자 장치(1000)가 적어도 하나의 후보 컨텐츠를 획득하는 구체적인 방법은 도 8 내지 9를 참조하여 구체적으로 설명하기로 한다.According to an embodiment, when a user of the electronic device is authenticated, the electronic device 1000 may acquire user information of the authenticated user. The electronic device 1000 may acquire user-customized content by searching for candidate content based on the recognized user's voice and user information. A specific method for the electronic device 1000 to acquire at least one candidate content will be described in detail with reference to FIGS. 8 to 9 .

S250에서, 전자 장치(1000)는 검색된 적어도 하나의 후보 컨텐츠를 출력할 수 있다. 예를 들어, 전자 장치(1000)는 검색된 적어도 하나의 후보 컨텐츠를 전자 장치의 출력부를 통하여 직접 제공할 수도 있지만, 전자 장치와 연결된 외부 디바이스에 검색된 후보 컨텐츠에 대한 정보를 전송함으로써, 외부 디바이스를 통하여 검색된 후보 컨텐츠를 출력할 수도 있다.In S250, the electronic device 1000 may output at least one searched candidate content. For example, the electronic apparatus 1000 may directly provide the at least one searched candidate content through the output unit of the electronic apparatus, but transmit information on the searched candidate content to an external device connected to the electronic apparatus through the external device. The searched candidate content may be output.

또 다른 실시 예에 의하면, 도 2에는 도시되지 않았지만, 전자 장치(1000)는 상기 상기 컨텐츠 제공 서비스를 제공하기 위한 애플리케이션을 실행하고, 애플리케이션에 의해 제공되는 사용자 인터페이스를 통하여 상기 컨텐츠에 관한 사용자 터치 입력을 더 획득할 수도 있다. 전자 장치(1000)는 사용자의 음성이 아닌 상기 사용자 터치 입력에 기초하여 획득된 키워드를 이용하여, 상기 적어도 하나의 후보 컨텐츠를 획득할 수도 있다. According to another embodiment, although not shown in FIG. 2 , the electronic device 1000 executes an application for providing the content providing service, and receives a user touch input on the content through a user interface provided by the application. may obtain more. The electronic device 1000 may acquire the at least one candidate content by using a keyword obtained based on the user touch input instead of the user's voice.

도 3은 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method for an electronic device to authenticate a user of an electronic device according to an embodiment.

S320에서, 전자 장치(1000)는 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 사용자를 인증할 수 있다. 예를 들어, 전자 장치(1000)는 사용자의 음성 등록 과정을 통하여, 사용자의 음성 특성이 반영된 등록 사용자 특징 벡터를 포함하는 사용자 모델을 미리 저장할 수 있다. 사용자의 음성 특성은, 사용자의 음성의 주파수 특성, 진폭 특성, 떨림 특성, 빠르기 특성 중 적어도 하나를 포함할 수 있다. In S320 , the electronic device 1000 may authenticate the user based on the audio feature vector for each frame of the audio signal. For example, the electronic device 1000 may pre-store a user model including a registered user feature vector in which the user's voice characteristic is reflected through the user's voice registration process. The user's voice characteristic may include at least one of a frequency characteristic, an amplitude characteristic, a tremor characteristic, and a speed characteristic of the user's voice.

전자 장치(1000)는 사용자 음성 등록 과정이 완료된 후, 사용자로부터 새로 획득된 오디오 신호에서 사용자 특징 벡터를 추출하고, 추출된 사용자 특징 벡터를 사용자 모델 내 등록 사용자 특징 벡터와 비교함으로써, 사용자를 인증할 수 있다. 전자 장치(1000)는 사용자 인증이 완료되면, 사용자 각각을 식별할 수 있는 사용자 식별 정보를 이용하여 전자 장치의 복수의 사용자 각각을 구별할 수 있다. 전자 장치(1000)가 사용자 모델을 이용하여 사용자를 인증하는 방법은 도 4를 참조하여 구체적으로 설명하기로 한다.After the user voice registration process is completed, the electronic device 1000 extracts a user feature vector from an audio signal newly acquired from the user and compares the extracted user feature vector with a registered user feature vector in the user model to authenticate the user. can When user authentication is completed, the electronic device 1000 may distinguish each of the plurality of users of the electronic device by using user identification information capable of identifying each user. A method in which the electronic device 1000 authenticates a user using a user model will be described in detail with reference to FIG. 4 .

S340에서, 전자 장치(1000)는 사용자가 인증되는 경우, 사용자의 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 사용자 모델을 이용하여 현재 사용자가 전자 장치의 사용자로 인증이 되는 경우, 인증된 사용자의 식별 정보를 이용하여 사용자에 대한 정보를 획득할 수 있다. In S340 , when the user is authenticated, the electronic device 1000 may obtain user information. For example, when a current user is authenticated as a user of the electronic device using the user model, the electronic device 1000 may acquire information about the user using the authenticated user identification information.

일 실시 예에 의하면, 사용자 정보는, 사용자의 생체 정보, 상기 사용자의 취미 정보, 상기 컨텐츠에 대한 사용자의 관심 정보, 상기 사용자의 위치 정보, 상기 사용자의 건강 정보, 상기 전자 장치와 연결된 의료 데이터 베이스로부터 획득될 수 있는 상기 사용자의 의료 기록에 대한 정보 또는 상기 전자 장치를 통하여 사용자가 요청한 컨텐츠 이력에 대한 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the user information includes the user's biometric information, the user's hobby information, the user's interest information for the content, the user's location information, the user's health information, and a medical database connected to the electronic device. It may include at least one of information about the user's medical record that can be obtained from , or information about a content history requested by the user through the electronic device, but is not limited thereto.

도 4는 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 구체적인 방법을 설명하기 위한 도면이다.4 is a diagram for describing a specific method for an electronic device to authenticate a user of the electronic device according to an exemplary embodiment.

도 4를 참조하여, 전자 장치(1000)의 사용자 인증 과정을 사용자 등록 과정(402)과 등록 후, 전자 장치가 음성 인식 서비스를 제공하는 과정(404)으로 나누어 설명하기로 한다. Referring to FIG. 4 , the user authentication process of the electronic device 1000 will be divided into a user registration process 402 and a process 404 in which the electronic device provides a voice recognition service after registration.

예를 들어, S412에서, 전자 장치(1000)는 사용자 A(1002)로부터, 사용자 등록 발화에 대한 제1 오디오 신호를 획득할 수 있다. S414에서, 전자 장치(1000)는 제1 오디오 신호로부터 제1 사용자 등록 특징 벡터를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 도 2의 S220단계에서와 유사하게 미리 학습된 인공 신경망 기반의 모델을 이용하여 제1 오디오 신호로부터 제1 오디오 특징 벡터를 추출하고, 추출된 제1 오디오 특징 벡터를 이용하여 제1 사용자 등록 특징 벡터를 결정할 수 있다. 일 실시 예에 의하면 제1 사용자 등록 특징 벡터는 제1 오디오 특징 벡터에 대응될 수 있고, 인공 신경망 내 하나의 레이어로부터 출력되는 레이어의 출력 값일 수 있다.For example, in S412 , the electronic device 1000 may obtain a first audio signal for a user registered utterance from the user A 1002 . In S414 , the electronic device 1000 may determine a first user registered feature vector from the first audio signal. For example, the electronic device 1000 extracts a first audio feature vector from the first audio signal using a pre-trained artificial neural network-based model similarly to step S220 of FIG. 2 , and the extracted first audio feature The vector may be used to determine the first user registered feature vector. According to an embodiment, the first user registered feature vector may correspond to the first audio feature vector, and may be an output value of a layer output from one layer in the artificial neural network.

S416에서, 전자 장치(1000)는 사용자 A(1002)로부터, 사용자 등록 발화에 대한 제2 오디오 신호를 획득할 수 있다. S418에서, 전자 장치(1000)는 제2 오디오 신호로부터 제2 사용자 등록 특징 벡터를 결정할 수 있다. 전술한 바와 같이, 전자 장치(1000)는 사용자 A(1002)로부터 복수의 발화를 획득하고, 획득된 발화에 대응되는 오디오 신호로부터 복수의 사용자 등록 특징 벡터를 결정할 수 있다. 전자 장치(1000)는 복수 횟수로 획득된 사용자 등록 특징 벡터들을 이용하여 A사용자 모델(419)을 생성하고, 생성된 A사용자 모델을 메모리에 저장할 수 있다.In S416 , the electronic device 1000 may obtain a second audio signal for the user registered utterance from the user A 1002 . In S418 , the electronic device 1000 may determine a second user registration feature vector from the second audio signal. As described above, the electronic device 1000 may obtain a plurality of utterances from the user A 1002 and determine a plurality of user registered feature vectors from an audio signal corresponding to the obtained utterances. The electronic device 1000 may generate the user A model 419 by using the user registration feature vectors acquired a plurality of times, and store the generated user model A in a memory.

일 실시 예에 의하면, 전자 장치(1000)는 복수 횟수로 획득된 사용자 등록 특징 벡터들에 가중치를 설정하고, 설정된 가중치에 따라 복수의 사용자 등록 특징 벡터들을 가중합함으로써 생성되는 하나의 사용자 등록 특징 벡터를 사용자의 고유 식별 정보와 매칭함으로써 등록 사용자 특징 벡터를 생성하고, 생성된 등록 사용자 특징 벡터를 이용하여 A사용자 모델을 생성할 수 있다.According to an embodiment, the electronic device 1000 sets a weight to user registered feature vectors acquired a plurality of times, and a single user registered feature vector is generated by weighting and summing the plurality of user registered feature vectors according to the set weight. A registered user characteristic vector may be generated by matching with the user's unique identification information, and a user A model may be generated using the generated registered user characteristic vector.

S422에서, 전자 장치(1000)는 사용자 등록 과정을 완료 한 후, 사용자 A(1002)로부터 오디오 신호를 획득할 수 있다. S424에서, 전자 장치(1000)는 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터를 이용하여 사용자 특징 벡터를 결정할 수 있다.In S422 , the electronic device 1000 may obtain an audio signal from the user A 1002 after completing the user registration process. In S424 , the electronic device 1000 may extract an audio feature vector from the obtained audio signal and determine a user feature vector using the extracted audio feature vector.

S426에서, 전자 장치(1000)는 미리 저장된 A사용자 모델(419)로부터 등록 사용자 특징 벡터를 획득할 수 있다. S428에서, 전자 장치(1000)는 A 사용자 모델로부터 획득된 등록 사용자 특징벡터와 사용자 특징 벡터를 비교함으로써 유사도를 결정할 수 있다. 일 실시 예에 의하면, 유사도는 벡터간의 유사도 정도를 나타내는 유사도 스코어일 수 있다.In S426 , the electronic device 1000 may obtain a registered user feature vector from the pre-stored user A model 419 . In S428 , the electronic device 1000 may determine the similarity by comparing the registered user feature vector obtained from the user model A with the user feature vector. According to an embodiment, the similarity may be a similarity score indicating a degree of similarity between vectors.

S432에서, 전자 장치(1000)는 등록 사용자 특징 벡터와 사용자 특징 벡터를 비교함으로써 결정된 유사도가 임계치 이상인지 여부를 결정할 수 있다. 일 실시 에에 의하면, 전자 장치(1000)는 벡터 간 내적(dot product), 벡터 간 로그 우도(log likelihood), 또는 벡터 사이의 유클리드 거리(Euclidean distance)거리에 기초하여 등록 사용자 특징 벡터와 사용자 특징 벡터 사이의 유사도를 스코어로 결정할 수 있다.In S432 , the electronic device 1000 may determine whether the similarity determined by comparing the registered user feature vector with the user feature vector is equal to or greater than a threshold. According to an embodiment, the electronic device 1000 sets a registered user feature vector and a user feature vector based on a dot product between vectors, a log likelihood between vectors, or a Euclidean distance between vectors. The degree of similarity between them can be determined as a score.

S436에서, 전자 장치(1000)는 결정된 유사도가 기 설정된 임계치 이상인 경우, 현재 오디오 신호의 발화자가 전자 장치의 사용자 A인 것으로 인증할 수 있다. S434에서, 전자 장치(1000)는 유사도가 기 설정된 임계치 보다 작은 경우, 사용자의 인증을 거부할 수 있다. 전자 장치(1000)는 사용자의 인증이 거부되는 경우, 다시 사용자로부터 새로운 오디오 신호를 획득할 수 있다.In S436 , when the determined similarity is equal to or greater than a preset threshold, the electronic device 1000 may authenticate that the speaker of the current audio signal is user A of the electronic device. In S434 , when the similarity is less than a preset threshold, the electronic device 1000 may reject the user's authentication. When the user's authentication is rejected, the electronic device 1000 may acquire a new audio signal from the user again.

도 5는 일 실시 예에 따른 전자 장치가 음성 인식 모델을 활성화 하는 구체적인 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a specific method of activating a voice recognition model by an electronic device according to an exemplary embodiment.

S520에서, 전자 장치(1000)는 상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 항상 음성 인식 모델을 활성화 상태로 두지 않고, 음성 인식 활성화 모델을 이용하여, 사용자가 인증이 되는 경우에만 음성 인식 모델을 활성화 함으로써 음성 인식 모델 활성화에 따른 불필요한 전력 소모를 줄일 수 있다.In S520, the electronic device 1000 may determine whether to activate the voice recognition model based on the audio feature vector for each frame of the obtained audio signal. For example, the electronic device 1000 does not always leave the voice recognition model in an activated state, but uses the voice recognition activation model to activate the voice recognition model only when the user is authenticated, thereby unnecessary power according to the voice recognition model activation. consumption can be reduced.

예를 들어, 전자 장치(1000)는 인공 신경망 기반의 모델을 이용하여 사용자 음성을 포함하는 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터를 음성 인식 활성화 모델에 입력함으로써 음성 인식 모델을 활성화 할지 여부를 결정한다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 사용자 인증 과정에서 사용된 사용자 특징 벡터를 획득하고, 획득된 사용자 특징 벡터를 음성 인식 활성화 모델에 입력함으로써 음성 인식 모델을 활성화 할지 여부를 결정할 수도 있다.For example, the electronic device 1000 extracts an audio feature vector from an audio signal including the user's voice using an artificial neural network-based model, and inputs the extracted audio feature vector to the voice recognition activation model to generate a voice recognition model. Decide whether to activate it or not. According to another embodiment, the electronic device 1000 may determine whether to activate the voice recognition model by acquiring the user feature vector used in the user authentication process and inputting the acquired user feature vector into the voice recognition activation model. .

보다 상세하게는, 전자 장치(1000)는 음성 인식 모델을 활성화 하기 위한 활성화 키워드를 미리 메모리에 저장할 수 있다. 전자 장치(1000)는 현재 획득된 사용자의 오디오 신호의 특징 벡터를 인공 신경망 기반의 모델에 입력함으로써 오디오 특징 벡터를 획득하고, 획득된 오디오 특징 벡터를 음성 인식 활성화 모델에 입력함으로써, 오디오 특징 벡터에 대응되는 문자열이 메모리에 저장된 활성화 키워드와 일치하는지 여부를 결정할 수 있다. 전자 장치(1000)는 음성 인식 활성화 모델을 이용하여 오디오 신호로부터 인식된 문자열과 메모리에 미리 저장된 활성화 키워드의 유사도를 결정하고, 결정된 유사도가 기 설정된 임계치 이상인 경우, 음성 인식 모델을 활성화 하는 것으로 결정하고, 결정된 유사도가 임계치 보다 작은 경우, 음성 인식 모델을 활성화 하지 않는 것으로 결정할 수 있다. S540에서, 전자 장치(1000)는 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식할 수 있다. More specifically, the electronic device 1000 may store an activation keyword for activating the voice recognition model in advance in the memory. The electronic device 1000 obtains the audio feature vector by inputting the currently acquired feature vector of the user's audio signal to the artificial neural network-based model, and inputs the acquired audio feature vector to the voice recognition activation model to obtain the audio feature vector. It can be determined whether the corresponding string matches the activation keyword stored in memory. The electronic device 1000 determines the similarity between the string recognized from the audio signal and the activated keyword stored in advance in the memory by using the voice recognition activation model, and determines to activate the voice recognition model when the determined similarity is greater than or equal to a preset threshold, , when the determined similarity is less than the threshold, it may be determined not to activate the speech recognition model. In S540 , as the voice recognition model is activated, the electronic device 1000 may recognize the user's voice in the audio signal by inputting the audio feature vector into the voice recognition model.

도 6은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a process of providing content by an electronic device according to another exemplary embodiment.

S602에서, 전자 장치(1000)는 컨텐츠 출력을 위한 안내 메시지를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 사용자 음성 입력 또는 사용자로부터 키워드 입력이 획득되기 전이라도, 컨텐츠 입력과 관련된 안내 메시지(612)를 디스플레이 상에 제공함으로써 사용자 입력을 유도할 수 있다. 전자 장치(1000)가 제공하는 안내 메시지는 디스플레이 상에 시각적으로 제공될 수도 있지만, 전자 장치의 스피커를 통하여 청각적으로 제공될 수도 잇다. 또한, 전자 장치(1000)는 사용자의 키워드 입력을 유도하기 위한 사용자 인터페이스(614) 또는 사용자의 음성 입력을 유도하기 위한 사용자 인터페이스(614) 중 적어도 하나를 안내 메시지와 함께 제공할 수도 있다.In S602, the electronic device 1000 may provide a guide message for content output. For example, the electronic device 1000 may induce a user input by providing a guide message 612 related to content input on the display even before a user voice input or a keyword input is obtained from the user. The guide message provided by the electronic device 1000 may be visually provided on the display, or may be provided audibly through a speaker of the electronic device. Also, the electronic device 1000 may provide at least one of a user interface 614 for inducing a user's keyword input or a user interface 614 for inducing a user's voice input together with a guide message.

또한, 일 실시 예에 의하면, 전자 장치는 컨텐츠를 제공하기 위한 애플리케이션을 메모리에 미리 저장할 수 있다. 전자 장치(1000)는 메모리에 저장된 애플리케이션을 실행함으로써 제공되는 애플리케이션 서비스를 통하여 안내 메시지를 출력할 수 있다.Also, according to an embodiment, the electronic device may store an application for providing content in advance in the memory. The electronic device 1000 may output a guide message through an application service provided by executing an application stored in the memory.

S604에서, 전자 장치(1000)는 사용자의 음성을 포함하는 오디오 신호를 획득할 수 있다. 예를 들어, 전자 장치의 사용자가 "Play me something from Luis Armstrong"에 대응되는 음성 신호를 획득하면, 전자 장치(1000)는 획득된 음성 신호를 포함하는 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 사용자 음성을 인식할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 사용자 음성을 인식하는 동안, "listening" 또는 현재 음성 인식 과정이 진행 중이라는 점을 나타내기 위한 시각적 컨텐츠를 표시할 수도 있다.In S604 , the electronic device 1000 may obtain an audio signal including the user's voice. For example, when the user of the electronic device acquires a voice signal corresponding to “Play me something from Luis Armstrong”, the electronic device 1000 extracts an audio feature vector from the audio signal including the acquired voice signal, and extracts The user's voice can be recognized by inputting the obtained audio feature vector to the voice recognition model. According to an embodiment, while recognizing a user's voice, the electronic device 1000 may display "listening" or visual content to indicate that a voice recognition process is currently in progress.

S606에서, 전자 장치(1000)는 인식된 사용자의 음성에 따라 적어도 하나의 후보 컨텐츠를 검색하고, 검색된 후보 컨텐츠를 전자 장치의 화면에 출력할 수 있다. 도 6을 참조하면, 전자 장치(1000)는 오디오 신호에 포함된 사용자의 음성 중 Luis Armstrong을 인식하고, 인식된 Luis Armstrong의 앨범을 후보 컨텐츠로써 출력할 수 있다. 전자 장치(1000)가 후보 컨텐츠를 획득하는 구체적인 방법은 도 8을 참조하여 구체적으로 설명하기로 한다. In S606 , the electronic device 1000 may search for at least one candidate content according to the recognized user's voice, and output the searched candidate content on the screen of the electronic device. Referring to FIG. 6 , the electronic device 1000 may recognize Luis Armstrong among the user's voice included in the audio signal, and output the recognized Luis Armstrong album as candidate content. A detailed method for the electronic device 1000 to acquire candidate content will be described in detail with reference to FIG. 8 .

도 7은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.7 is a diagram for describing a process in which an electronic device provides content according to another exemplary embodiment.

S702에서, 전자 장치(1000)는 사용자의 정보를 획득한다. 예를 들어, 전자 장치(1000)는 S320단계의 사용자 인증 과정을 완료함으로써, 인증이 완료된 사용자의 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 사용자의 정보로써, 사용자의 취미에 관련된 사용자 관심 정보를 획득할 수 있다. In S702, the electronic device 1000 acquires user information. For example, the electronic device 1000 may acquire information of a user whose authentication has been completed by completing the user authentication process of step S320 . For example, the electronic device 1000 may acquire user interest information related to the user's hobby as the user's information.

일 실시 예에 의하면, 전자 장치(1000)는 "Hobby?" "취미를 선택하세요"와 같은 안내 메시지 및 취미의 예시로써 각 취미를 상징하는 아이콘과 "Dancing" "Walking" "Singing" "Swimming"과 같은 예시들을 함께 출력할 수 있다. 전자 장치(1000)는 출력된 아이콘들 중 하나를 선택하는 사용자의 입력에 기초하여, 사용자의 관심 정보를 획득할 수 있다.According to an embodiment, the electronic device 1000 displays “Hobby?” As examples of hobbies and guide messages such as “Choose a hobby”, icons symbolizing each hobby and examples such as “Dancing” “Walking” “Singing” and “Swimming” can be output together. The electronic device 1000 may acquire the user's interest information based on a user's input for selecting one of the output icons.

S704에서, 전자 장치(1000)는 사용자의 정보에 기초하여 적어도 하나의 후보 컨텐츠를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 음성 인식 모델을 통하여 인식된 사용자의 음성 및 사용자의 정보에 기초하여 적어도 하나의 후보 컨텐츠를 제공할 수 있다. 그러나, 또 다른 실시 예에 의하면, 전자 장치(1000)는 사용자의 취미에 관련된 관심 정보가 입력되면, 사용자의 관심 정보에 기초하여서도 후보 컨텐츠를 제공할 수 있다. 예를 들어, 도 7을 참조하면, 사용자가 'swimming' 아이콘을 선택하는 경우, 전자 장치(1000)는 수영과 관련된 'ocean wave'와 같은 컨텐츠를 후보 컨텐츠로써 출력할 수 있다.In S704 , the electronic device 1000 may determine at least one candidate content based on user information. For example, the electronic device 1000 may provide at least one candidate content based on the user's voice recognized through the voice recognition model and the user's information. However, according to another embodiment, when interest information related to a user's hobby is input, the electronic device 1000 may provide candidate content based on the user's interest information. For example, referring to FIG. 7 , when the user selects the 'swimming' icon, the electronic device 1000 may output content such as 'ocean wave' related to swimming as candidate content.

일 실시 예에 따른 전자 장치(1000)는 사용자의 정보에 기초하여 재생된 후보 컨텐츠를 재생함으로써 전자 장치의 사용자가 치매환자인 경우 치매 환자의 기억을 회복하는데 도움을 줄 수 있다. 예를 들어, 전자 장치(1000)는 사용자의 취미가 'swimming'임을 나타내는 관심 정보를 획득하고, 획득된 관심 정보에 따라 파도 소리에 관한 컨텐츠를 검색하고, 검색된 파도 소리에 관한 컨텐츠를 제공할 수 있다. 따라서, 전자 장치(1000)의 사용자는 전자 장치에서 재생되는 파도 소리에 관한 컨텐츠를 청취함으로써 과거 기억을 회상할 수 있다. 따라서, 본 개시에 따른 전자 장치(1000)는 사용자로부터 획득된 관심 정보에 기초하여 후보 컨텐츠를 재생함으로서 사용자의 치매 환자에 도움을 줄 수 있다.When the user of the electronic device is a dementia patient, the electronic device 1000 according to an embodiment reproduces the reproduced candidate content based on the user's information, thereby helping to recover the memory of the dementia patient. For example, the electronic device 1000 may obtain interest information indicating that the user's hobby is 'swimming', search for content related to the sound of waves according to the obtained interest information, and provide the found content about the sound of waves. have. Accordingly, the user of the electronic device 1000 may recall past memories by listening to content related to sound waves reproduced in the electronic device. Accordingly, the electronic device 1000 according to the present disclosure may help a user with dementia by playing candidate content based on interest information obtained from the user.

도 8은 일 실시 예에 따른 전자 장치가 적어도 하나의 후보 컨텐츠를 획득하는 구체적인 방법을 나타내는 흐름도이다.8 is a flowchart illustrating a specific method for an electronic device to acquire at least one candidate content, according to an embodiment.

S820에서, 전자 장치(1000)는 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 오디오 신호를 음성 인식 모델에 입력함으로써 획득되는 문자열을 획득한다. 전자 장치(1000)는 네트워크를 통하여 인터넷에 접속하고, 접속된 인터넷으로부터 획득된 문자열을 검색 키워드로 하는 후보 컨텐츠들에 대한 컨텐츠 리스트를 획득할 수 있다.In S820 , the electronic device 1000 may obtain a content list from a network connected to the electronic device by using a string corresponding to the recognized user's voice as a search keyword. For example, the electronic device 1000 obtains a character string obtained by inputting an audio signal to a voice recognition model. The electronic device 1000 may access the Internet through a network and obtain a content list for candidate contents using a string obtained from the connected Internet as a search keyword.

S840에서, 전자 장치(1000)는 사용자의 정보에 기초하여, 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 오디오 신호 내 포함된 사용자 음성이 '여름' 또는 'summer'으로 인식되는 경우, '여'' 또는 'summer'와 관련된 '여름 이야기', '바다의 왕자' '한여름밤의 꿈' '해변으로 가요' 'swimming in the pool"과 같은 곡을 포함하는 컨텐츠 리스트를 획득할 수 있다.In S840, the electronic device 1000 may determine the priority of contents in the contents list based on user information. For example, when the user's voice included in the audio signal is recognized as 'summer' or 'summer', the electronic device 1000 may determine 'summer story' or 'prince of the sea' related to 'female' or 'summer'. You can obtain a content list including songs such as 'A Midsummer Night's Dream', 'Let's Go to the Beach' and 'Swimming in the Pool'.

또한, 전자 장치(1000)는 전자 장치에 미리 저장된 사용자의 정보에 액세스하고, 사용자의 정보 중, 사용자의 취미 정보가 '수영' 인 것을 식별 한 후, 현재 후보 컨텐츠들의 우선 순위를 'swimming in the pool' '해변으로 가요' '바다의 왕자'' '한여름밤의 꿈' 과 같은 순서로 결정할 수 있다.In addition, the electronic device 1000 accesses user information stored in advance in the electronic device, identifies that the user's hobby information is 'swimming' among the user information, and prioritizes current candidate contents by 'swimming in the pool', 'Let's go to the beach', 'Prince of the sea', and 'A Midsummer Night's Dream' can be decided in the same order.

S860에서, 전자 장치(1000)는 결정된 우선 순위에 따라 컨텐츠 리스트 내 일부 컨텐츠들을 적어도 하나의 후보 컨텐츠로써 획득할 수 있다. 예를 들어, 전자 장치(1000)는 현재 디스플레이 표시 가능한 컨텐츠의 수가 2개인 경우, 4개의 컨텐츠를 포함하는 컨텐츠 리스트 내 상위 우선 순위를 가지는 'swimming in the pool' 및 '해변으로 가요'를 후보 컨텐츠로써 획득할 수 있다. 전자 장치(1000)는 획득된 후보 컨텐츠들을 전자 장치 또는 전자 장치와 연결된 외부 디바이스를 통하여 출력할 수 있다.In S860 , the electronic device 1000 may acquire some contents in the contents list as at least one candidate contents according to the determined priority. For example, when the number of currently displayable content is two, the electronic device 1000 selects 'swimming in the pool' and 'Let's go to the beach', which have a higher priority in a content list including four content, as candidate content can be obtained by The electronic apparatus 1000 may output the obtained candidate contents through the electronic apparatus or an external device connected to the electronic apparatus.

또 다른 실시 예에 의하면, 도 8에는 도시되지 않았지만, 전자 장치(1000)는 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득할 수 있다. 또한, 전자 장치(1000)는 획득된 제1 동작 정보 또는 제2 동작 정보 중 적어도 하나에 기초하여 S840단계에서 결정된 우선 순위를 변경하고, 변경된 우선 순위에 따라 컨텐츠 리스트 내 일부 컨텐츠들을 적어도 하나의 후보 컨텐츠로써 획득할 수도 있다. According to another embodiment, although not shown in FIG. 8 , the electronic device 1000 may obtain first operation information regarding an operation state of the electronic device or second operation information regarding an operation state of an external device connected to the electronic device. can Also, the electronic device 1000 changes the priority determined in step S840 based on at least one of the obtained first operation information and the second operation information, and selects some contents in the content list according to the changed priority as at least one candidate. It can also be obtained as content.

일 실시 예에 의하면, 제1 동작 정보는, 상기 전자 장치의 동작 이력에 대한 정보, 상기 전자 장치와 상기 외부 디바이스의 연결 상태에 관한 정보 중 적어도 하나를 포함할 수 있고, 제2 동작 정보는 상기 외부 디바이스의 전원 공급 상태에 대한 정보, 상기 외부 디바이스의 위치 정보 또는 상기 외부 디바이스 내 압력 센서의 출력 값 중 적어도 하나를 포함할 수 있다.According to an embodiment, the first operation information may include at least one of information on an operation history of the electronic device and information on a connection state between the electronic device and the external device, and the second operation information includes the It may include at least one of information on a power supply state of an external device, location information of the external device, or an output value of a pressure sensor in the external device.

따라서, 전자 장치(1000)는 사용자의 정보에 적합한 사용자 맞춤형 컨텐츠를 제공할 수 있을 뿐만 아니라, 전자 장치 또는 현재 외부 디바이스의 동작 상태에 기초하여, 컨텐츠가 출력되는 장치의 상태에 더 부합하는 컨텐츠를 출력할 수 있다.Accordingly, the electronic device 1000 can provide not only user-customized content suitable for user information, but also provide content that more closely matches the state of the device from which the content is output based on the operating state of the electronic device or the current external device. can be printed out.

도 9는 일 실시 예에 따른 전자 장치가 외부 디바이스의 동작 상태에 기초하여 컨텐츠 재생 모드를 결정하고, 결정된 컨텐츠 재생 모드 및 적어도 하나의 후보 컨텐츠를 함께 전송하는 방법을 나타내는 흐름도이다.9 is a flowchart illustrating a method in which an electronic device determines a content playback mode based on an operating state of an external device and transmits the determined content playback mode and at least one candidate content together, according to an embodiment.

이하에서는, 외부 디바이스가 압력 센서, 네트워크 인터페이스 및 스피커를 포함하는 베개 타입의 컨텐츠 출력 장치이고, 전자 장치(1000)는 외부 디바이스를 통하여 검색된 후보 컨텐츠들을 출력하는 경우를 가정하여 설명하기로 한다. Hereinafter, it is assumed that the external device is a pillow-type content output apparatus including a pressure sensor, a network interface, and a speaker, and the electronic apparatus 1000 outputs searched candidate content through the external device.

S920에서, 전자 장치(1000)는 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정할 수 있다. S940에서, 전자 장치(1000)는 결정된 컨텐츠 재생 모드에 대한 정보를 후보 컨텐츠와 함께 출력할 수 있다.In S920 , the electronic device 1000 may determine at least one content reproduction mode required to reproduce the at least one candidate content based on the user information and the second operation information. In S940 , the electronic device 1000 may output information on the determined content reproduction mode together with the candidate content.

예를 들어, 재생 모드는, 컨텐츠를 재생하기 컨텐츠 재생에 필요한 장치의 동작 상태를 나타낼 수 있다. 일 실시 예에 의하면, 재생 모드는 컨텐츠 재생을 위한 음량 파라미터, 컨텐츠 재생 속도를 결정하기 재생 속도 파라미터, 화면 밝기를 결정하기 위한 화면 밝기 파라미터 등을 포함할 수 있다. For example, the reproduction mode may indicate an operating state of a device required to reproduce content in order to reproduce content. According to an embodiment, the playback mode may include a volume parameter for content playback, a playback speed parameter for determining a content playback speed, a screen brightness parameter for determining screen brightness, and the like.

예를 들어, 전자 장치(1000)는 외부 디바이스로부터 제2 동작 정보로써, 압력 센서의 출력 값을 수신하고, 수신된 압력 센서의 출력 값이 기 설정된 임계치 이상인 경우, 컨텐츠 재생을 위한 모드를 제1 재생 모드로 결정하고, 제1 재생 모드에 대한 정보 및 후보 컨텐츠를 함께 외부 디바이스로 전송할 수 있다. 여기에서, 제1 재생 모드는, 낮은 음량 크기 파라미터를 포함할 수 있다. 외부 디바이스(4000)는 전자 장치로부터 수신된 후보 컨텐츠에 대한 정보 및 제1 재생 모드에 대한 정보에 기초하여, 제1 재생 모드(예컨대 낮은 음량 크기 및 느린 재생 속도)에서 후보 컨텐츠를 재생할 수 있다.For example, the electronic device 1000 receives the output value of the pressure sensor as second operation information from the external device, and when the received output value of the pressure sensor is equal to or greater than a preset threshold, sets the content reproduction mode to the first The playback mode may be determined, and information on the first playback mode and candidate content may be transmitted together to an external device. Here, the first playback mode may include a low volume level parameter. The external device 4000 may reproduce the candidate content in the first playback mode (eg, low volume level and slow playback speed) based on the information on the candidate content and the information on the first playback mode received from the electronic device.

또 다른 실시 예에 의하면, 전자 장치(1000)는 외부 디바이스로부터 제2 동작 정보로써, 압력 센서의 출력 값을 수신하고, 수신된 압력 센서의 출력 값이 기 설정된 임계치 보다 작은 경우, 컨텐츠 재생을 위한 모드를 제2 재생 모드로 결정하고, 제2 재생 모드에 대한 정보 및 후보 컨텐츠를 함께 외부 디바이스로 전송할 수 있다. 일 실시 예에 의하면, 제2 재생 모드는, 높은 음량 크기 파라미터 를 포함할 수 있다. 외부 디바이스(4000)는 전자 장치로부터 수신된 후보 컨텐츠에 대한 정보 및 제2 재생 모드에 대한 정보를 이용하여, 제2 재생 모드에서 후보 컨텐츠를 재생할 수 있다.According to another embodiment, the electronic device 1000 receives the output value of the pressure sensor as second operation information from the external device, and when the received output value of the pressure sensor is smaller than a preset threshold, The mode may be determined as the second playback mode, and information on the second playback mode and candidate content may be transmitted together to an external device. According to an embodiment, the second playback mode may include a high volume level parameter. The external device 4000 may reproduce the candidate content in the second playback mode by using the information on the candidate content received from the electronic device and the information on the second playback mode.

도 10은 일 실시 예에 따른 전자 장치가 외부 디바이스에서 컨텐츠가 재생되는 동안, 외부 디바이스로부터 획득된 센싱 정보에 기초하여 재생 모드를 변경하는 구체적인 방법을 설명하기 위한 도면이다.10 is a diagram for describing a specific method of changing a playback mode based on sensing information obtained from an external device while an electronic device is playing content in an external device, according to an embodiment.

S1002에서, 전자 장치(1000)는 적어도 하나의 후보 컨텐츠를 획득할 수 있다. S1002는 도 2에서 S250과정에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1004에서, 전자 장치(1000)는 적어도 하나의 후보 컨텐츠에 대한 정보를 외부 디바이스(4000)로 전송할 수 있다. 예를 들어, 전자 장치(1000)는 후보 컨텐츠에 대한 정보로써, 컨텐츠를 재생하기 위한 오디오 데이터 또는 청각적 데이터 중 적어도 하나를 외부 디바이스(4000)로 전송할 수 있다. 또한, 전자 장치(1000)는 적어도 하나의 후보 컨텐츠에 대한 정보를 스트리밍 방식으로 외부 디바이스(4000)로 전송할 수 있다.In S1002, the electronic device 1000 may acquire at least one candidate content. Since S1002 may correspond to process S250 in FIG. 2 , a detailed description thereof will be omitted. In S1004 , the electronic device 1000 may transmit information on at least one candidate content to the external device 4000 . For example, the electronic apparatus 1000 may transmit, to the external device 4000 , at least one of audio data or auditory data for reproducing the content as information on the candidate content. Also, the electronic device 1000 may transmit information on at least one candidate content to the external device 4000 in a streaming manner.

S1006에서, 외부 디바이스(4000)는 전자 장치로부터 수신된 컨텐츠에 대한 정보를 이용하여 제1 컨텐츠를 재생할 수 있다. S1008에서, 외부 디바이스(4000)는 외부 디바이스 내 적어도 하나의 센서를 이용하여 제1 센싱 정보를 획득할 수 있다. 일 실시 예에 의하면, 제1 센싱 정보는 외부 디바이스의 사용자의 위치를 센싱하기 위한 근접 센서의 출력 값 또는 외부 디바이스 내 하우징에 대한 사용자 터치의 압력 강도를 센싱하기 위한 압력 센서의 출력 값에 대한 정보를 포함할 수 있다.In S1006 , the external device 4000 may reproduce the first content using information about the content received from the electronic device. In S1008 , the external device 4000 may acquire first sensing information using at least one sensor in the external device. According to an embodiment, the first sensing information is information on an output value of a proximity sensor for sensing a location of a user of an external device or an output value of a pressure sensor for sensing a pressure intensity of a user's touch on a housing within the external device may include

S1010에서, 외부 디바이스(4000)는 제1 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 및 현재 재생 중인 컨텐츠의 위치에 대한 정보를 전자 장치(1000)로 전송할 수 있다. 예를 들어, 현재 재생 중인 컨텐츠의 식별 정보는 컨텐츠에 대한 메타 데이터를 포함할 수 있고, 현재 재생 중인 컨텐츠의 위치에 대한 정보는 현재 컨텐츠 재생에 관련된 동기 데이터를 포함할 수 있다.In S1010 , the external device 4000 may transmit the first sensing information, identification information of the currently playing content, and information on the location of the currently playing content to the electronic device 1000 . For example, the identification information of the currently playing content may include metadata about the content, and the information on the location of the currently playing content may include synchronization data related to the currently playing content.

S1012에서, 전자 장치(1000)는 외부 디바이스로부터 수신된 제1 센싱 정보에 기초하여 제1 재생 모드를 결정할 수 있다. S1014에서, 전자 장치(1000)는 컨텐츠의 위치에 대한 정보에 기초하여 제1 컨텐츠 내 일부 컨텐츠인 제1 부분 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 외부 디바이스로부터 수신된 컨텐츠의 식별 정보에 기초하여, 현재 외부 디바이스에서 재생 중인 컨텐츠가 무엇인지 식별하고, 외부 디바이스로부터 수신된 컨텐츠의 위치에 대한 정보를 이용하여 식별된 컨텐츠 내 어떤 부분 컨텐츠가 현재 외부 디바이스에서 재생 중인지 여부를 식별할 수 있다. 즉, 전자 장치(1000)는 외부 디바이스(4000)로부터 수신된 현재 재생 중인 컨텐츠의 위치에 대한 정보에 기초하여 제1 컨텐츠 내 제1 부분 컨텐츠를 식별할 수 있다. In S1012 , the electronic apparatus 1000 may determine the first reproduction mode based on the first sensing information received from the external device. In S1014 , the electronic device 1000 may acquire the first partial content, which is a partial content in the first content, based on the information on the location of the content. For example, the electronic apparatus 1000 identifies what content is currently being played in the external device based on identification information of the content received from the external device, and uses the information about the location of the content received from the external device. It may be identified whether any partial content in the identified content is currently being played in the external device. That is, the electronic device 1000 may identify the first partial content in the first content based on the information on the location of the currently playing content received from the external device 4000 .

S1016에서, 전자 장치(1000)는 제1 부분 컨텐츠 및 제1 재생 모드에 대한 정보를 함께 외부 디바이스(4000)로 전송할 수 있다. S1018에서, 외부 디바이스(4000)는 제1 재생 모드에 기초하여 제1 부분 컨텐츠를 재생할 수 있다. 전자 장치가 재생 모드를 결정하는 방법은 S920에 대응될 수 있으므로, 구체적인 설명은 생략하기로 한다.In S1016 , the electronic device 1000 may transmit the first partial content and information on the first playback mode together to the external device 4000 . In S1018 , the external device 4000 may reproduce the first partial content based on the first reproduction mode. Since the method for the electronic device to determine the reproduction mode may correspond to S920, a detailed description thereof will be omitted.

S1020에서, 외부 디바이스(4000)는 제1 컨텐츠의 재생이 완료되면, 제2 컨텐츠를 재생한다. S1022에서, 외부 디바이스(4000)는 제2 컨텐츠를 재생하는 동안, 외부 디바이스의 적어도 하나의 센서를 이용하여 제2 센싱 정보를 획득할 수 있다. S1024에서, 외부 디바이스(4000)는 제2 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 및 현재 재생 중인 컨텐츠의 위치에 대한 정보를 전자 장치로 전송한다.In S1020, when the reproduction of the first content is completed, the external device 4000 reproduces the second content. In S1022 , the external device 4000 may acquire second sensing information using at least one sensor of the external device while playing the second content. In S1024 , the external device 4000 transmits the second sensing information, identification information of the currently playing content, and information on the location of the currently playing content to the electronic device.

S1026에서, 전자 장치(1000)는 제2 센싱 정보에 기초하여 제2 재생 모드를 결정할 수 있다. 전자 장치(1000)가 제2 센싱 정보에 기초하여 제2 재생 모드를 결정하는 방법은 S920에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1028에서, 전자 장치(1000)는 외부 디바이스로부터 수신된 컨텐츠의 위치에 대한 정보에 기초하여 제2 컨텐츠의 부분 컨텐츠인 제2 부분 컨텐츠를 획득할 수 있다.In S1026, the electronic device 1000 may determine the second reproduction mode based on the second sensing information. A method for the electronic device 1000 to determine the second reproduction mode based on the second sensing information may correspond to S920, and thus a detailed description thereof will be omitted. In S1028 , the electronic device 1000 may acquire the second partial content, which is the partial content of the second content, based on the information on the location of the content received from the external device.

S1030에서, 전자 장치(1000)는 제2 부분 컨텐츠 및 제2 재생 모드에 대한 정보를 외부 디바이스(4000)로 전송한다. S1032에서, 외부 디바이스(4000)는 전자 장치로부터 수신된 제2 부분 컨텐츠 및 제2 재생 모드에 대한 정보에 기초하여, 제2 재생 모드에 따라 제2 부분 컨텐츠를 재생한다.In S1030 , the electronic device 1000 transmits the second partial content and information on the second playback mode to the external device 4000 . In S1032 , the external device 4000 reproduces the second partial content according to the second reproduction mode based on the information about the second partial content and the second reproduction mode received from the electronic device.

전술한 바와 같이, 본 개시에 따른 전자 장치(1000)는 외부 디바이스(4000)서 컨텐츠가 재생되는 동안, 외부 디바이스로부터 수신된 센싱 정보에 기초하여 재생 모드를 결정하고, 결정된 재생 모드에 따라 현재 외부 디바이스에서 사용중인 재생 모드를 변경할 수 있다. 또한, 본 개시에 따른 전자 장치(1000)는 외부 디바이스(4000)에서 컨텐츠가 재생 되는 위치를 식별함으로써, 외부 디바이스에서 컨텐츠가 출력되는 순서에 동기화됨으로써 컨텐츠를 실시간으로 스트리밍할 수 있다.As described above, the electronic device 1000 according to the present disclosure determines a playback mode based on sensing information received from the external device while content is being played in the external device 4000 , and according to the determined playback mode, the current external device 1000 . You can change the playback mode being used on the device. In addition, the electronic apparatus 1000 according to the present disclosure identifies a location where the content is reproduced in the external device 4000, so that the content can be streamed in real time by being synchronized with the order in which the content is output from the external device.

또한, 도 10에는 도시되지 않았지만, 본 개시에 따른 전자 장치(1000)는 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하고, 외부 디바이스의 컨텐츠 전송 요청에 응답하여 적어도 하나의 후보 컨텐츠를 출력할 수 도 있다.Also, although not shown in FIG. 10 , the electronic device 1000 according to the present disclosure obtains a content transmission request from an external device connected to the electronic device, and outputs at least one candidate content in response to the content transmission request of the external device. can also

또한, 일 실시 예에 의하면, 전자 장치(1000)는 외부 디바이스(4000)로부터 컨텐츠 전송 요청이 수신되기 전, 전자 장치로부터 이전에 출력된 컨텐츠의 재생 상태에 관한 상태 정보를 저장할 수 있다. 전자 장치(1000)는 외부 디바이스(4000)로부터 컨텐츠의 재생 요청이 수신되면, 컨텐츠의 재생 상태에 관한 상태 정보에 기초하여, 컨텐츠의 재생 요청이 수신되기 전 가장 최근까지 출력된 컨텐츠가 무엇인지 여부를 식별함으로써, 컨텐츠가 끊기지 않고 연속적으로 출력되게 할 수도 있다.Also, according to an embodiment, before a content transmission request is received from the external device 4000 , the electronic apparatus 1000 may store state information regarding the reproduction state of content previously output from the electronic apparatus. When a content reproduction request is received from the external device 4000 , the electronic device 1000 determines whether the most recently output content before the content reproduction request is received, based on the state information on the content reproduction state By identifying , content may be continuously output without interruption.

도 11은 일 실시 예에 따른 컨텐츠를 제공하는 전자 장치의 블록도이다.11 is a block diagram of an electronic device that provides content according to an embodiment.

일 실시 예에 의하면, 전자 장치(1000)는 프로세서(1400) 및 메모리(1402)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다. 예를 들어, 전자 장치(1000)는 사용자 입력 인터페이스(미도시), 출력부(미도시), 또는 서버 또는 외부 디바이스와 통신하기 위한 네트워크 인터페이스(미도시)를 더 포함할 수도 있다.According to an embodiment, the electronic device 1000 may include a processor 1400 and a memory 1402 . However, not all illustrated components are essential components, and the electronic device 1000 may be implemented with more components than the illustrated components, and the electronic device 1000 may be implemented with fewer components. may be For example, the electronic device 1000 may further include a user input interface (not shown), an output unit (not shown), or a network interface (not shown) for communicating with a server or an external device.

예를 들어, 사용자 입력 인터페이스(미도시)는, 사용자가 전자 장치(1000)를 제어하기 위한 사용자 입력을 획득할 수 있다. 예를 들어, 사용자 입력 인터페이스는 마이크를 포함하고, 전자 장치의 사용자의 음성을 포함하는 오디오 신호를 획득할 수 있다. 또한, 사용자 입력 인터페이스(미도시) 는 키 패드(key pad), 터치 패드, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.For example, the user input interface (not shown) may obtain a user input for the user to control the electronic device 1000 . For example, the user input interface may include a microphone and acquire an audio signal including a voice of a user of the electronic device. Also, the user input interface (not shown) may include, but is not limited to, a key pad, a touch pad, a jog switch, and the like.

사용자 입력 인터페이스는, 전자 장치(1000)가 디스플레이 상에 출력한 안내 메시지에 따라, 입력되는 입력 시퀀스를 사용자로부터 수신할 수 있다. 또한, 사용자 입력 인터페이스(1100)는 도 1 내지 도 10에 도시된 사용자의 음성을 획득하거나, 사용자로부터 키 입력, 터치 입력 또는 모션 입력 중 적어도 하나를 획득할 수 있다.The user input interface may receive an input sequence from the user according to a guide message output by the electronic device 1000 on the display. Also, the user input interface 1100 may acquire the user's voice shown in FIGS. 1 to 10 , or acquire at least one of a key input, a touch input, and a motion input from the user.

출력부(미도시)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(미도시)는 디스플레이부, 음향 출력부를 포함할 수 있다. 디스플레이부(미도시)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함한다. 또한, 화면은 안내 메시지, 에러 메시지 등 사용자의 음성에 대한 응답 동작을 문자 이미지, 또는 영상 이미지로 디스플레이할 수 있다. The output unit (not shown) may output an audio signal, a video signal, or a vibration signal, and the output unit (not shown) may include a display unit and a sound output unit. The display unit (not shown) includes a screen for displaying and outputting information processed by the electronic device 1000 . Also, the screen may display a response operation to a user's voice, such as a guide message and an error message, as a text image or a video image.

음향 출력부는 네트워크 인터페이스로부터 수신되거나, 메모리(1402)에 미리 저장된 오디오 데이터를 출력한다. 예를 들어, 음향 출력부는 하나 이상의 오디오 데이터를 출력하기 위한 스피커를 포함할 수 있다. 또한, 음향 출력부는 전자 장치(1000)에서 수행되는 기능(예컨대, 도 6에서 도시된 안내 메시지)과 관련된 오디오 신호를 출력한다. 진동 모터는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터는 전자 장치(1000)에서 수행되는 기능들(예를 들어, 도 6에서 도시된 안내 메시지)의 출력과 함께 진동 신호를 출력할 수 있다.The sound output unit outputs audio data received from the network interface or stored in advance in the memory 1402 . For example, the sound output unit may include a speaker for outputting one or more audio data. Also, the sound output unit outputs an audio signal related to a function (eg, a guide message shown in FIG. 6 ) performed by the electronic device 1000 . The vibration motor may output a vibration signal. For example, the vibration motor may output a vibration signal together with outputs of functions performed by the electronic device 1000 (eg, a guide message illustrated in FIG. 6 ).

네트워크 인터페이스는 전자 장치(1000)가 외부 디바이스(미도시) 및 서버(2000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 외부 디바이스(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치 또는 오디오 데이터를 출력할 수 있는 스피커 장치일 수 있으나, 이에 제한되지 않는다. 예를 들어, 네트워크 인터페이스는 근거리 통신부, 이동 통신부, 방송 수신부를 포함할 수 있다.The network interface may include one or more components that allow the electronic device 1000 to communicate with an external device (not shown) and the server 2000 . The external device (not shown) may be a computing device such as the electronic device 1000 , a sensing device, or a speaker device capable of outputting audio data, but is not limited thereto. For example, the network interface may include a short-range communication unit, a mobile communication unit, and a broadcast receiving unit.

프로세서(1400)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. The processor 1400 generally controls the overall operation of the electronic device 1000 .

일 실시 예에 의하면, 본 개시에 따른 프로세서(1400)는 메모리(1402)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 10에 기재된 전자 장치(1000)의 기능을 수행할 수 있다. 또한, 프로세서(1400)는 하나 또는 복수의 프로세서로 구성될 수 있고, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU와 같은 그래픽 전용 프로세서 또는 인공지능(AI) 전용 프로세서일 수 있다. According to an embodiment, the processor 1400 according to the present disclosure executes programs stored in the memory 1402 to perform the functions of the electronic device 1000 described in FIGS. 1 to 10 . In addition, the processor 1400 may be composed of one or a plurality of processors, and the one or the plurality of processors is a general-purpose processor such as a CPU, AP, DSP (Digital Signal Processor), etc., a graphics-only processor such as a GPU, or artificial intelligence (AI). ) may be a dedicated processor.

일 실시 예에 의하면, 프로세서(1400)가 복수의 프로세서 또는 그래픽 전용 프로세서 또는 인공 지능 전용 프로세서로 구현될 때, 복수의 프로세서 또는 그래픽 전용 프로세서 또는 인공 지능 전용 프로세서 중 적어도 일부는 전자 장치(1000) 및 전자 장치(1000)와 연결된 다른 전자 장치 또는 서버에 탑재될 수도 있다. According to an embodiment, when the processor 1400 is implemented as a plurality of processors or graphics-only processors or artificial intelligence-only processors, at least some of the plurality of processors or graphics-only processors or artificial intelligence-only processors include the electronic device 1000 and It may be mounted on another electronic device connected to the electronic device 1000 or a server.

예를 들어, 프로세서(1400)는, 메모리(1402)에 저장된 프로그램들을 실행함으로써, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하고, 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하며, 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하고, 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하고, 상기 검색된 적어도 하나의 후보 컨텐츠를 출력할 수 있다.For example, the processor 1400 executes programs stored in the memory 1402 , whereby the at least one processor executes the one or more instructions, so that the audio including the user's voice input from the user of the electronic device Obtaining a signal, extracting an audio feature vector from the obtained audio signal, and inputting the extracted audio feature vector into a speech recognition model, to recognize a user's voice in the audio signal, and At least one candidate content may be acquired based on the at least one candidate content, and the searched at least one candidate content may be output.

또한, 프로세서(1400)는 메모리(1402)에 저장된 프로그램들을 실행함으로써, 상기 검색된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송할 수 있다.Also, the processor 1400 may transmit information on the at least one searched candidate content to an external device connected to the electronic device by wire or wirelessly by executing programs stored in the memory 1402 .

또한, 프로세서(1400)는 상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 사용자를 인증하고, 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득할 수 있다.In addition, the processor 1400 may authenticate the user based on the audio feature vector for each frame of the obtained audio signal, and when the user is authenticated, obtain user information of the authenticated user.

또한, 프로세서(1400)는 상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정하고, 상기 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식할 수 있다.Also, the processor 1400 determines whether to activate the speech recognition model based on the audio feature vector for each frame of the obtained audio signal, and as the speech recognition model is activated, converts the audio feature vector into a speech recognition model. By inputting into the , it is possible to recognize the user's voice in the audio signal.

또한, 프로세서(1400)는 상기 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하고, 상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하고, 상기 결정된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득할 수 있다.In addition, the processor 1400 obtains a content list from a network connected to the electronic device by using a string corresponding to the recognized user's voice as a search keyword, and the obtained content list based on the obtained user information Priority of my contents may be determined, and some contents in the contents list may be acquired as the at least one candidate contents according to the determined priority.

또한, 프로세서(1400)는 상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하고, 상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하고, 상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득할 수 있다.In addition, the processor 1400 obtains first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device, and obtains the first operation information or the second operation information. The determined priority may be changed based on at least one piece of information, and some contents in the contents list may be acquired as the at least one candidate contents according to the changed priority.

또한, 프로세서(1400)는 상기 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정하고, 상기 결정된 컨텐츠 재생 모드에 대한 정보를 상기 적어도 하나의 후보 컨텐츠와 함께 출력할 수 있다.In addition, the processor 1400 determines at least one content reproduction mode required to reproduce the at least one candidate content based on the user information and the second operation information, and provides information on the determined content reproduction mode. It may be output together with the at least one candidate content.

또한, 프로세서(1400)는 상기 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하고, 상기 외부 디바이스로부터 컨텐츠 전송 요청에 응답하여 상기 적어도 하나의 후보 컨텐츠를 출력할 수 있다.Also, the processor 1400 may obtain a content transmission request from an external device connected to the electronic device, and may output the at least one candidate content in response to the content transmission request from the external device.

메모리(1402)는, 프로세서(1400)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1402)는 전자 장치의 사용자를 인증하기 위한 사용자 인증 모델, 음성 인식 모델을 활성화 할지 여부를 결정하기 위한 음성 인식 활성화 모델, 사용자의 음성에 따라 음성 인식 서비스를 제공하기 위한 음성 인식 모델 또는 인식된 사용자의 음성 및 사용자의 정보에 기초하여 컨텐츠를 추천하기 위한 컨텐츠 추천 모델을 포함할 수 있다.The memory 1402 may store a program for processing and control of the processor 1400 , and may also store data input to or output from the electronic device 1000 . In addition, the memory 1402 includes a user authentication model for authenticating the user of the electronic device, a voice recognition activation model for determining whether to activate the voice recognition model, and a voice recognition model for providing a voice recognition service according to the user's voice. Alternatively, it may include a content recommendation model for recommending content based on the recognized user's voice and user information.

또한, 메모리(1402)는 인공 신경망을 구성하는 레이어들, 레이어들에 포함된 노드들 및 레이어들의 연결 강도에 관한 가중치들에 대한 정보와 인공 신경망 내 가중치들이 수정 및 갱신될 경우, 수정 및 갱신된 가중치에 관한 정보를 더 저장할 수 있다. 메모리(1402)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. In addition, the memory 1402 stores information on weights related to the layers constituting the artificial neural network, nodes included in the layers, and the connection strength of the layers, and, when the weights in the artificial neural network are modified or updated, the modified and updated information It is possible to further store information about the weight. The memory 1402 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks.

도 12는 일 실시 예에 따른 전자 장치와 연결되는 서버의 블록도이다.12 is a block diagram of a server connected to an electronic device according to an exemplary embodiment.

일 실시 예에 따르면, 서버(2000)는 네트워크 인터페이스(2100), 데이터 베이스(Data Base, 2200) 및 프로세서(2300)를 포함할 수 있다.According to an embodiment, the server 2000 may include a network interface 2100 , a database 2200 , and a processor 2300 .

네트워크 인터페이스(2100)는 상술한 전자 장치(1000)의 네트워크 인터페이스(미도시)에 대응될 수 있다. 예를 들어, 네트워크 인터페이스(2100)는 전자 장치(1000)로부터 컨텐츠에 대한 정보를 획득할 수 있다. 또한, 네트워크 인터페이스(2100)는 외부 디바이스와 다른 외부 디바이스로부터 컨텐츠에 대한 정보를 수신하거나, 현재 외부 디바이스에서 재생 중인 컨텐츠에 대한 정보를 다른 외부 디바이스로 전송할 수도 있다.The network interface 2100 may correspond to the above-described network interface (not shown) of the electronic device 1000 . For example, the network interface 2100 may obtain information about content from the electronic device 1000 . Also, the network interface 2100 may receive information about content from an external device different from the external device, or transmit information about content currently being played in the external device to another external device.

데이터 베이스(2200)는 도 11에 도시된 전자 장치의 메모리(1402)에 대응될 수 있다. 예를 들어, 데이터 베이스(2200)는 프로세서(2300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.The database 2200 may correspond to the memory 1402 of the electronic device shown in FIG. 11 . For example, the database 2200 may store a program for processing and controlling the processor 2300 , and may also store data input to or output from the electronic device 1000 .

프로세서(2300)는 통상적으로 서버(2000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2300)는, 서버(2000)의 DB(2200)에 저장된 프로그램들을 실행함으로써, DB(2200) 및 네트워크 인터페이스(2100) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(2300)는 DB(2100)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도11에서의 전자 장치(1000)의 동작의 일부를 수행할 수 있다.The processor 2300 typically controls the overall operation of the server 2000 . For example, the processor 2300 may control the DB 2200 and the network interface 2100 in general by executing programs stored in the DB 2200 of the server 2000 . Also, the processor 2300 may perform some of the operations of the electronic device 1000 in FIGS. 1 to 11 by executing programs stored in the DB 2100 .

도 13은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 블록도이다.13 is a block diagram of an external device connected to an electronic device according to an exemplary embodiment.

외부 디바이스(4000)는 네트워크 인터페이스(4100), 메모리(4200), 프로세서(4300), 출력부(4400), 전원 공급부(4500), 하우징(4600), 스트랩 체결부(4700), 향기 배출부(4800) 및 센서부(4900)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 외부 디바이스(4000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 외부 디바이스(4000)는 구현될 수도 있다.The external device 4000 is a network interface 4100, a memory 4200, a processor 4300, an output unit 4400, a power supply unit 4500, a housing 4600, a strap fastening unit 4700, a fragrance discharge unit ( 4800 ) and a sensor unit 4900 . However, not all illustrated components are essential components, and the external device 4000 may be implemented by more components than the illustrated components, and the external device 4000 may be implemented with fewer components. may be

일 실시 예에 의하면 네트워크 인터페이스(4100)는 다른 외부 디바이스 또는 전자 장치와 연결됨으로써 컨텐츠에 대한 정보, 현재 외부 디바이스의 센서부에서 획득되는 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 또는 현재 재생 중인 컨텐츠의 위치에 대한 정보를 공유할 수 있다. 네트워크 인터페이스(4100)는 전자 장치의 네트워크 인터페이스에 대응될 수 있다.According to an embodiment, the network interface 4100 is connected to another external device or electronic device to provide information about content, sensing information currently acquired from a sensor unit of an external device, identification information of content currently being played, or information about content being played. You can share information about your location. The network interface 4100 may correspond to a network interface of the electronic device.

메모리(4200)는 프로세서(4300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 외부 디바이스(4000)로 입력되거나, 외부 디바이스로부터 출력되는 데이터를 저장할 수 있다. 또한, 메모리(1402)는 현재 외부 디바이스의 센서부에서 획득되는 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 또는 현재 재생 중인 컨텐츠의 위치에 대한 정보를 더 저장할 수도 있다. 본 개시에 따른 외부 디바이스의 메모리(4200)는 전자 장치의 메모리(1402)에 대응될 수 있다.The memory 4200 may store a program for processing and controlling the processor 4300 , and may store data input to or output from the external device 4000 . In addition, the memory 1402 may further store sensing information obtained from the sensor unit of the external device, identification information of the currently playing content, or information on the location of the currently playing content. The memory 4200 of the external device according to the present disclosure may correspond to the memory 1402 of the electronic device.

프로세서(4300)는 메모리(4200)에 저장된 프로그램들을 실행함으로써, 외부 디바이스 내 네트워크 인터페이스(4100), 메모리(4200), 출력부(4400), 전원 공급부(4500), 하우징(4600), 스트랩 체결부(4700), 향기 배출부(4800) 및 센서부(4900)의 동작을 전반적으로 제어할 수 있다.The processor 4300 executes the programs stored in the memory 4200, so that the network interface 4100, the memory 4200, the output unit 4400, the power supply unit 4500, the housing 4600, and the strap fastening unit within the external device. (4700), it is possible to control the overall operation of the fragrance discharge unit (4800) and the sensor unit (4900).

예를 들어, 프로세서(4300)는 전자 장치(1000)로 컨텐츠 요청 신호, 현재 재생 중인 컨텐츠의 식별 정보, 현재 재생 중인 컨텐츠의 위치에 대한 정보를 전송하도록 네트워크 인터페이스를 제어할 수 있다. 또한, 프로세서(4300)는 전자 장치(1000)로부터 수신된 재생 모드에 대한 정보에 기초하여, 외부 디바이스가 컨텐츠를 출력하는데 필요한 음량 크기, 재생 속도 등을 결정할 수 있다.For example, the processor 4300 may control the network interface to transmit a content request signal, identification information of the currently playing content, and information on the location of the currently playing content to the electronic device 1000 . Also, the processor 4300 may determine a volume level, a reproduction speed, etc. required for the external device to output content, based on the information on the reproduction mode received from the electronic device 1000 .

출력부(4400)는 오디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(미도시)는 적어도 하나의 스피커를 포함하는 음향 출력부 또는 진동판을 포함할 수 있다. 음향 출력부는 네트워크 인터페이스로부터 수신되거나, 메모리(1402)에 미리 저장된 오디오 데이터를 출력한다. The output unit 4400 may output an audio signal or a vibration signal, and the output unit (not shown) may include a sound output unit including at least one speaker or a diaphragm. The sound output unit outputs audio data received from the network interface or stored in advance in the memory 1402 .

전원 공급부(4500)는 외부 디바이스 내 네트워크 인터페이스(4100), 메모리(4200), 프로세서(4300), 출력부(4400), 향기 배출부(4800) 및 센서부(4900)의 동작을 위해 전원을 공급할 수 있다. 예를 들어, 전원 공급부(4500)는 외부 디바이스 내부에 포함되어 외부 디바이스의 동작을 위한 전원을 공급할 수 있다.The power supply unit 4500 is an external device within the network interface 4100, the memory 4200, the processor 4300, the output unit 4400, the fragrance discharge unit 4800 and the sensor unit 4900 to supply power for the operation. can For example, the power supply 4500 may be included in the external device to supply power for the operation of the external device.

또한, 일 실시 예에 의하면, 전원 공급부(4500)는 외부 디바이스의 동작을 위한 전원을 외부로부터 무선으로 공급받을 수 있다. 예를 들어, 전원 공급부(4500)는 자기 유도 방식 또는 공진 유도 방식 중 하나를 이용하여 외부 디바이스 외부의 무선 충전 모듈로부터 전원을 공급 받을 수 있다.Also, according to an embodiment, the power supply 4500 may wirelessly receive power for the operation of an external device from the outside. For example, the power supply unit 4500 may receive power from a wireless charging module external to an external device using either a magnetic induction method or a resonance induction method.

하우징(4600)은 네트워크 인터페이스(4100), 메모리(4200), 프로세서(4300), 출력부(4400), 전원 공급부(4500) 및 센서부(4900)의 외각에 위치하여, 외부 디바이스 내 구성을 고정시킬 수 있다. 일 실시 예에 의하면, 외부 디바이스의 하우징(4600)은 제1 부분 하우징, 제2 부분 하우징 및 제3 부분 하우징으로 구분될 수 있고, 제2 부분 하우징은 전술한 출력부의 스피커 외각에 위치할 수 있다. The housing 4600 is located outside the network interface 4100 , the memory 4200 , the processor 4300 , the output unit 4400 , the power supply unit 4500 , and the sensor unit 4900 , and fixes the internal configuration of the external device. can do it According to an embodiment, the housing 4600 of the external device may be divided into a first partial housing, a second partial housing, and a third partial housing, and the second partial housing may be located outside the speaker of the above-described output unit. .

또한, 제2 부분 하우징은 내부 소재 및 상기 내부 소재 외부에 부착되는 패브릭 소재를 포함할 수 있다. 일 실시 예에 의하면, 제2 부분 하우징의 외부에 위치하는 패브릭은 소재는 겉면에 기 설정된 간격으로 형성되는 위선 및 상기 위선과 미리 설정된 각도로 배치되는 경선을 포함하는 격자를 포함할 수 있다. 또한, 하우징(4600)는 하우징의 적어도 일부에 향기를 배출하기 위한 배출홀이 더 형성될 수 있다. In addition, the second partial housing may include an inner material and a fabric material attached to the outside of the inner material. According to an embodiment, the fabric positioned on the outside of the second partial housing may include a grid including a hypothetical line formed at a preset interval on the outer surface and a meridian disposed at a preset angle with the hypothetical line. In addition, the housing 4600 may be further formed with a discharge hole for discharging the fragrance in at least a portion of the housing.

스트랩 체결부(4700)는 제1 부분 하우징의 적어도 일부에 형성되고, 외부 디바이스의 전원을 제어하기 위한 스트랩이 삽입될 수 있다. 일 실시 예에 의하면, 스트랩 체결부는 하우징의 적어도 일부에 형성된 스트랩 채널 내부면에 위치하여 하우징과 연결될 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 하우징 내 스트랩 채널을 통하여 스트랩이 삽입되는 경우, 전원 공급부가 전원을 공급하도록 제어할 수 있지만, 하우징 내 스트랩 채널을 통하여 스트랩이 삽입되지 않는 경우에는 전원 공급부로부터의 전원 공급을 차단할 수 있다.The strap fastening part 4700 is formed in at least a portion of the first partial housing, and a strap for controlling power of an external device may be inserted. According to an embodiment, the strap fastening part may be located on the inner surface of the strap channel formed in at least a part of the housing to be connected to the housing. According to an embodiment, the external device 4000 may control the power supply to supply power when the strap is inserted through the strap channel in the housing, but power supply when the strap is not inserted through the strap channel in the housing. The power supply from the supply can be cut off.

향기 배출부(4800)는 하우징의 적어도 일부에 형성된 배출홀을 통하여 향기가 배출되도록 외부 디바이스의 내부의 방향체를 제어할 수 있다. 일 실시 예에 의하면, 배출홀은 스트랩 체결부와 기 설정된 간격으로 이격되어 위치되어, 향기를 배출할 수 있다. 예를 들어, 외부 디바이스는 전자 장치로부터 획득된 컨텐츠를 출력함과 함께, 획득된 컨텐츠와 관련된 향기가 배출홀을 통하여 배출되도록 향기 배출부를 제어할 수 있다. 따라서, 외부 디바이스를 사용하는 치매 환자들의 치매 치료 효과를 극대화 할 수 있다.The fragrance discharge unit 4800 may control the aroma body inside the external device so that the fragrance is discharged through the discharge hole formed in at least a portion of the housing. According to an embodiment, the discharge hole is spaced apart from the strap fastening part at a preset interval, and may discharge the fragrance. For example, the external device may output the content obtained from the electronic device and control the fragrance discharge unit so that the fragrance related to the obtained content is discharged through the discharge hole. Therefore, it is possible to maximize the dementia treatment effect of dementia patients using the external device.

센서부(4900)는 센서부(4900)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 센서부(1400)는 외부 디바이스(4000)의 주변 환경 정보, 외부 디바이스의 상태 정보, 외부 디바이스 사용자의 모션 입력 및 외부 디바이스를 터치하는 사용자 터치 입력의 세기 등을 측정하는데 이용될 수 있다.The sensor unit 4900 may detect a state of the electronic device 1000 or a state around the electronic device 1000 , and transmit the sensed information to the processor 1300 . The sensor unit 1400 may be used to measure surrounding environment information of the external device 4000 , state information of the external device, a motion input of a user of the external device, and intensity of a user touch input touching the external device.

외부 디바이스 센서부(4900)는, 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, 또는 압력 센서 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 센싱부는 외부 디바이스의 하우징 내 일부에 위치하여, 외부 디바이스를 터치하는 사용자 터치의 세기를 측정하고, 측정된 압력 센서의 출력 값을 프로세서(4300)의 제어에 의해 네트워크 인터페이스(4100)로 전달할 수 있다.The external device sensor unit 4900 includes at least one of an acceleration sensor, a temperature/humidity sensor, an infrared sensor, a gyroscope sensor, a location sensor (eg, GPS), a barometric pressure sensor, a proximity sensor, or a pressure sensor. can, but is not limited thereto. For example, the sensing unit is located in a part of the housing of the external device, measures the intensity of the user's touch touching the external device, and controls the output value of the measured pressure sensor through the control of the processor 4300 to the network interface 4100 can be transmitted as

도 14는 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 구조를 설명하기 위한 도면이다.14 is a diagram for describing a structure of an external device connected to an electronic device according to an exemplary embodiment.

도 14를 참조하면, 외부 디바이스(4000)는 제1 부분 하우징(1422), 제2 부분 하우징(1424) 및 제3 부분 하우징(1426)을 포함할 수 있다. 또한, 외부 디바이스(4000)는 제1 부분 하우징(1422)의 적어도 일부에 형성된 스트랩 체결부(1428) 및 스트랩 체결부(1428)와 기 설정된 간격으로 이격된 향기 배출홀(1434)를 더 포함할 수 있다. 또한, 스트랩 체결부(1428)는 제1 부분 하우징(1422)을 통과하면서, 스트랩 채널과 결합되고, 스트랩 채널을 통하여 스트랩(1432)이 이동될 수 있다. 일 실시 예에 의하면, 스트랩(1432)는 가죽 소재의 고리 타입으로 형성될 수 있다.Referring to FIG. 14 , the external device 4000 may include a first partial housing 1422 , a second partial housing 1424 , and a third partial housing 1426 . In addition, the external device 4000 may further include a fragrance discharge hole 1434 spaced apart from the strap fastening part 1428 and the strap fastening part 1428 formed in at least a part of the first partial housing 1422 at a preset interval. can In addition, the strap fastening portion 1428 passes through the first partial housing 1422 , is coupled to the strap channel, and the strap 1432 may be moved through the strap channel. According to an embodiment, the strap 1432 may be formed of a leather ring type.

도 14의 1440을 참조하면, 외부 디바이스(4000)의 스트랩 체결부 측에서 바라본 모양이 도시된다. 예를 들어, 외부 디바이스(4000)의 제1 부분 하우징 측면에서 외부 디바이스를 보면, 스트랩(1432) 및 스트랩 체결부(4700)에 인접하게 위치하는 향기 배출홀(1434)를 관측할 수 있다.Referring to 1440 of FIG. 14 , a view from the side of the strap fastening part of the external device 4000 is shown. For example, looking at the external device from the side of the housing of the first part of the external device 4000, the strap 1432 and the fragrance discharge hole 1434 located adjacent to the strap fastening portion 4700 can be observed.

도 14의 1460을 참조하면, 무선 충전 모듈(1462)에 장착된 외부 디바이스(4000)가 도시된다. 외부 디바이스(4000)는 외부 디바이스의 외부에 위치한 무선 충전 모듈로부터 무선으로 전원을 공급받을 수 있다. 도 14의 1480을 참조하면, 무선 충전 모듈(1462)와 분리된 외부 디바이스의 모양이 도시된다. 무선 충전 모듈(1462)은 무선 충전 모듈과 분리된 별도의 전원 채널(1482)를 통하여, 외부의 전원으로부터 에너지를 획득할 수 있다.Referring to 1460 of FIG. 14 , an external device 4000 mounted on the wireless charging module 1462 is shown. The external device 4000 may receive power wirelessly from a wireless charging module located outside the external device. Referring to 1480 of FIG. 14 , the shape of the external device separated from the wireless charging module 1462 is shown. The wireless charging module 1462 may acquire energy from an external power source through a separate power channel 1482 separated from the wireless charging module.

도 15는 일 실시 예에 따른 전자 장치 및 외부 디바이스가 서로 연동하여 동작하는 과정을 설명하기 위한 도면이다.15 is a diagram for describing a process in which an electronic device and an external device operate in conjunction with each other according to an exemplary embodiment.

S1502에서, 전자 장치(1000)는 사용자의 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치의 디스플레이 패널에 형성된 지문 센서를 통하여, 디스플레이 패널을 터치하는 사용자 손가락의 지문 정보를 획득할 수 있다. 전자 장치(1000)는 지문 정보를 이용하여 전자 장치의 사용자를 인증할 수 있다. S1506에서, 전자 장치(1000)는 획득된 사용자의 정보에 기초하여 컨텐츠를 출력할 수 있다. 전자 장치(1000)가 사용자의 정보에 기초하여 컨텐츠를 출력하는 방법은 도 7에서 S702 내지 S704에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. In S1502, the electronic device 1000 may obtain user information. For example, the electronic device 1000 may acquire fingerprint information of a user's finger touching the display panel through a fingerprint sensor formed on the display panel of the electronic device. The electronic device 1000 may authenticate the user of the electronic device using fingerprint information. In S1506, the electronic device 1000 may output content based on the obtained user information. A method for the electronic device 1000 to output content based on user information may correspond to steps S702 to S704 in FIG. 7 , and thus a detailed description thereof will be omitted.

S1508에서, 외부 디바이스(4000)의 스트랩 채널 내 스트랩은, 사용자의 물리적 입력에 기초하여 이동될 수 있다. 예를 들어, 외부 디바이스는 스트랩 채널 내 스트립이 밖으로 이동하는 경우, 전자 장치(1000)로 컨텐츠 전송 요청에 대한 정보를 전송하고, 전자 장치(1000)로부터 컨텐츠에 대한 정보가 수신되는 경우, 컨텐츠를 바로 재생하기 위해, 외부 디바이스 내 각 구성들에 전원을 공급할 수 있다.In S1508, the strap in the strap channel of the external device 4000 may be moved based on the user's physical input. For example, the external device transmits information on a content transmission request to the electronic device 1000 when a strip in the strap channel moves out, and when information on content is received from the electronic device 1000 , the external device transmits the content For immediate playback, power can be supplied to each component in an external device.

S1510에서, 외부 디바이스(4000)는 외부 디바이스 내 센서부를 통하여 센싱 정보를 획득할 수 있다. 예를 들어, 외부 디바이스(4000)는 압력 센서를 이용하여 외부 디바이스의 사용자가 외부 디바이스를 터치 시 터치 강도를 압력 센서 값으로 측정할 수 있다.In S1510 , the external device 4000 may acquire sensing information through a sensor unit in the external device. For example, the external device 4000 may measure a touch intensity as a pressure sensor value when a user of the external device touches the external device using a pressure sensor.

S1512에서, 외부 디바이스(4000)는 스트랩 채널 내 스트랩은 다시 삽입 될 수 있다. 예를 들어, 외부 디바이스(4000)는 스트랩 채널 내 스트랩이 다시 삽입되는 경우, 컨텐츠 전송 중단 요청에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S1514에서, 외부 디바이스(4000)는 외부의 무선 충전 모듈에 결합되어 외부의 무선 충전 모듈로부터 전원을 공급 받을 수 있다. In S1512, the external device 4000 may insert the strap back into the strap channel. For example, when the strap in the strap channel is reinserted, the external device 4000 may transmit information about the content transmission stop request to the electronic device 1000 . In S1514, the external device 4000 may be coupled to an external wireless charging module to receive power from the external wireless charging module.

도 16은 일 실시 예에 따른 전자 장치, 서버 및 외부 디바이스가 서로 연동하여 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.16 is a diagram for describing a process in which an electronic device, a server, and an external device interwork with each other to provide content, according to an exemplary embodiment.

S1602에서, 전자 장치(1000)는 제1 오디오 신호를 획득한다. S1604에서, 전자 장치(1000)는 획득한 제1 오디오 신호를 서버(2000)로 전송할 수 있다. S1606에서, 서버(2000)는 서버에 저장된 음성 인식 모델을 이용하여 제1 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. S1608에서, 서버(2000)는 오디오 특징 벡터에 기초하여, 음성 인식 모델을 학습시킬 수 있다.In S1602, the electronic device 1000 acquires a first audio signal. In S1604 , the electronic device 1000 may transmit the acquired first audio signal to the server 2000 . In S1606 , the server 2000 may extract an audio feature vector from the first audio signal using the voice recognition model stored in the server. In S1608 , the server 2000 may train a speech recognition model based on the audio feature vector.

S1610에서, 전자 장치(1000)는 사용자 음성을 포함하는 제2 오디오 신호를 획득할 수 있다. S1612에서, 전자 장치(1000)는 획득된 제2 오디오 신호를 서버(2000)로 전송할 수 있다. S1614에서, 서버(2000)는 음성 인식 모델을 이용하여 제2 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. S1616에서, 서버(2000)는 추출된 오디오 특징 벡터를 미리 학습된 음성 인식 모델에 입력함으로써, 사용자 음성을 인식할 수 있다.In S1610, the electronic device 1000 may obtain a second audio signal including a user voice. In S1612 , the electronic device 1000 may transmit the acquired second audio signal to the server 2000 . In S1614 , the server 2000 may extract an audio feature vector from the second audio signal using the speech recognition model. In S1616, the server 2000 may recognize the user's voice by inputting the extracted audio feature vector into a pre-trained voice recognition model.

S1618에서, 서버(2000)는 음성 인식 모델의 출력 값을 이용하여 획득된 음성 인식 결과에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S1620에서, 전자 장치(1000)는 음성 인식 결과에 대한 정보를 획득하고, 획득된 음성 인식 결과에 대한 정보에 기초하여 컨텐츠 검색 요청을 서버(2000)로 전송할 수 있다.In S1618 , the server 2000 may transmit information on the voice recognition result obtained by using the output value of the voice recognition model to the electronic device 1000 . In S1620 , the electronic device 1000 may obtain information on the voice recognition result, and transmit a content search request to the server 2000 based on the obtained information on the voice recognition result.

S1622에서, 서버(2000)는 음성 인식 결과에 기초하여 컨텐츠를 획득한다. 예를 들어 서버(2000)는 네트워크를 통하여 인터넷에 액세스하고, 전자 장치로부터 획득된 음성 인식 결과에 대응되는 문자열을 키워드로 하여 후보 컨텐츠를 획득할 수 있다. S1624에서, 서버(2000)는 검색된 후보 컨텐츠를 전자 장치로 전송할 수 있다. S1628에서, 서버(2000)는 검색된 후보 컨텐츠를 전자 장치로 전송함과 함께 외부 디바이스(4000)로 전송할 수 있다. S1630에서, 전자 장치(1000)는 서버(2000)로부터 수신된 컨텐츠를 다시 외부 디바이스(4000)로 전송할 수 있다.In S1622, the server 2000 acquires content based on the voice recognition result. For example, the server 2000 may access the Internet through a network and obtain candidate content using a character string corresponding to a voice recognition result obtained from the electronic device as a keyword. In S1624, the server 2000 may transmit the searched candidate content to the electronic device. In S1628 , the server 2000 may transmit the searched candidate content to the electronic device while transmitting the searched candidate content to the external device 4000 . In S1630 , the electronic device 1000 may transmit the content received from the server 2000 back to the external device 4000 .

따라서, 본 개시에 따른 외부 디바이스(4000)는 검색된 후보 컨텐츠에 대한 정보를 서버로부터 직접 수신할 수도 있지만, 전자 장치(1000)를 경유하여 후보 컨텐츠에 대한 정보를 획득할 수도 있기 때문에 안정적으로 컨텐츠를 출력할 수 있다.Therefore, the external device 4000 according to the present disclosure may directly receive information on the searched candidate content from the server, but it may also obtain information on the candidate content via the electronic device 1000, so that the content can be stably provided. can be printed

도 17은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 동작 과정을 설명하기 위한 도면이다.17 is a diagram for describing an operation process of an external device connected to an electronic device according to an exemplary embodiment.

외부 디바이스(4000)는 도 15에서 전술한 바와 같이, 제1 부분 하우징의 적어도 일부에 형성된 스트랩 채널 내에서 스트랩(1702)의 이동을 감지할 수 있다. 예를 들어, 외부 디바이스(4000)는 스트랩 채널 내 스트랩이 제1 부분 하우징의 외부 방향으로 이동하는 경우, 스트랩의 이동을 감지한 것에 응답하여 전자 장치(1000)로 컨텐츠 전송 요청을 송신하고, 전자 장치(1000)가 컨텐츠 전송 요청에 응답하여 전송한 컨텐츠를 재생할 수 있다. As described above with reference to FIG. 15 , the external device 4000 may detect movement of the strap 1702 within a strap channel formed in at least a portion of the first partial housing. For example, when the strap in the strap channel moves toward the outside of the first partial housing, the external device 4000 transmits a content transmission request to the electronic device 1000 in response to detecting the movement of the strap, and The device 1000 may play the transmitted content in response to the content transmission request.

또 다른 실시 예에 의하면, 외부 디바이스(4000)는 스트랩 채널 내 스트랩(1702)이 제1 부분 하우징의 내부 방향으로 이동하는 경우, 스트랩의 이동을 감지한 것에 응답하여, 현재 재생 중인 컨텐츠의 재생을 중단할 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 스트랩 채널 내 스트랩이 제1 부분 하우징의 내부 방향으로 이동하는 것을 감지하는 것에 응답하여, 전자 장치(1000)로 커튼츠 전송 중단 요청을 전송할 수도 있다.According to another embodiment, when the strap 1702 in the strap channel moves in the inner direction of the first partial housing, the external device 4000 performs playback of the currently playing content in response to detecting the movement of the strap. can stop According to an embodiment, the external device 4000 may transmit a request to stop transmission of curtains to the electronic device 1000 in response to detecting that the strap in the strap channel moves in the inner direction of the first partial housing.

일 실시 예에 의하면, 외부 디바이스(4000)는 적어도 하나의 구동 태엽을 포함하는 구동부(1706)를 더 포함할 수도 있다. 일 실시 예에 의하면, 구동부(1706)는 외부 디바이스 내 제1 부분 하우징 내에 위치할 수 있다. 구동부(1706)는 소정의 기어비를 가지는 복수의 기어들(1709) 및 상기 복수의 기어와 연결된 용수철을 포함하는 구동 태엽 모듈(1708)을 포함할 수 있다.According to an embodiment, the external device 4000 may further include a driving unit 1706 including at least one driving spring. According to an embodiment, the driving unit 1706 may be located in the first partial housing in the external device. The driving unit 1706 may include a driving mainspring module 1708 including a plurality of gears 1709 having a predetermined gear ratio and a spring connected to the plurality of gears.

예를 들어, 외부 디바이스(4000)는 구동부 내 구동 태엽 모듈의 회전에 기초하여 전자 장치로부터 획득된 컨텐츠를 재생할 수도 있다. 예를 들어, 외부 디바이스(4000)의 하우징의 스트랩 채널 내에서 이동하는 스트랩(1702)은 스트랩 연결부(1704)를 통하여 스트랩 라인(1705)과 연결될 수 있다. 스트랩 라인(1705)은 제1 부분 하우징 내 구동부(1706)와 연결될 수 있다. 스트랩 라인(1705)은 제1 부분 하우징의 외부 방향으로 이동하는 스트랩 연결부의 이동에 따라 구동부(1706) 내 구동 태엽 모듈(1708)이 제1 방향으로 회전하도록 함으로써, 구동 태엽 모듈이 구동력을 저장하도록 할 수 있다.For example, the external device 4000 may reproduce content obtained from the electronic device based on the rotation of the driving mainspring module in the driving unit. For example, a strap 1702 that moves within a strap channel of a housing of the external device 4000 may be connected to a strap line 1705 via a strap connection 1704 . The strap line 1705 may be connected to the drive unit 1706 in the first partial housing. The strap line 1705 causes the drive mainspring module 1708 in the drive unit 1706 to rotate in the first direction according to the movement of the strap connection part moving in the outward direction of the first partial housing, so that the drive mainspring module stores the driving force. can do.

또 다른 실시 예에 의하면, 외부 디바이스(4000)의 구동 태엽 모듈이 저장한 구동력이 소정의 임계치 이상인 경우, 구동 태엽 모듈의 구동력에 기초하여 전자 장치로부터 획득된 컨텐츠를 재생할 수 있다. 일 실시 예에 의하면, 구동 태엽 모듈이 구동력에 기초하여 회전하는 경우, 스트랩 연결부의 이동은, 제1 부분 하우징의 내부 방향으로 이동할 수도 있다. According to another embodiment, when the driving force stored by the driving power supply module of the external device 4000 is equal to or greater than a predetermined threshold, content acquired from the electronic device may be reproduced based on the driving force of the driving mainspring module. According to an embodiment, when the driving mainspring module rotates based on the driving force, the movement of the strap connection part may also move in the inner direction of the first partial housing.

즉, 본 개시에 따른 전자 장치(1000)와 연결되는 외부 디바이스(400)는, 외부 디바이스의 사용자가 외부 디바이스의 외부에 위치한 스트랩(1702)을 당기는 경우, 전자 장치로부터 수신되거나 외부 디바이스 자체에 저장된 컨텐츠를 재생할 수 있고, 외부 디바이스의 사용자가 스트랩(1702)을 다시 제1 부분 하우징 내로 삽입하거나, 외부 디바이스의 구동부 내 구동 태엽 모듈의 구동력에 의해 스트랩(1702)이 제1 부분 하우징 내로 다시 삽입되는 경우, 컨텐츠의 재생을 중단할 수 있다.That is, when the user of the external device pulls the strap 1702 located outside the external device, the external device 400 connected to the electronic device 1000 according to the present disclosure is received from the electronic device or stored in the external device itself. Content can be played, and the user of the external device inserts the strap 1702 back into the first partial housing, or the strap 1702 is reinserted into the first partial housing by the driving force of the mainspring module in the driving unit of the external device. In this case, playback of the content may be stopped.

일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present disclosure, or may be known and available to those skilled in the art of computer software.

또한, 상기 일 실시 예에 다른 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. In addition, according to the embodiment, a computer program apparatus including a recording medium storing a program for performing another method may be provided. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상에서 본 개시의 실시예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiment of the present disclosure has been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improved forms of the present disclosure are also provided by those skilled in the art using the basic concept of the present disclosure as defined in the following claims. belong to the scope of the right.

Claims (20)

전자 장치가 컨텐츠 서비스를 제공하는 방법에 있어서,
상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계;
상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계;
상기 추출된 오디오 특징 벡터에 기초하여 상기 사용자를 인증하는 단계;
상기 사용자의 인증 결과에 기초하여 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득하는 단계;
상기 사용자의 인증 결과에 기초하여 활성화되는 음성 인식 모델에, 상기 추출된 오디오 특징 벡터를 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계;
상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및
상기 획득된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하고,
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계는
상기 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하는 단계;
상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하는 단계;
상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하는 단계;
상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하는 단계;
상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득하는 단계; 를 포함하는, 방법.
A method for providing a content service by an electronic device, the method comprising:
obtaining an audio signal including the user's voice input from the user of the electronic device;
extracting an audio feature vector from the obtained audio signal;
authenticating the user based on the extracted audio feature vector;
obtaining user information of the authenticated user when the user is authenticated based on the authentication result of the user;
recognizing the user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model activated based on the user's authentication result;
obtaining at least one candidate content based on the recognized user's voice; and
outputting the obtained at least one candidate content; including,
The step of obtaining the at least one candidate content includes:
obtaining a content list from a network connected to the electronic device by using a string corresponding to the recognized user's voice as a search keyword;
determining the priority of contents in the obtained contents list based on the obtained user information;
acquiring first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device;
changing the determined priority based on at least one of the first operation information and the second operation information;
acquiring some contents in the contents list as the at least one candidate contents according to the changed priority; A method comprising
제1항에 있어서, 상기 방법은
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계 이전에, 상기 컨텐츠 서비스를 제공하기 위한 애플리케이션을 실행하는 단계;
상기 애플리케이션에 의해 제공되는 사용자 인터페이스를 통하여 상기 컨텐츠에 관한 사용자 터치 입력을 획득하는 단계; 및
상기 사용자 터치 입력이 획득되면, 상기 인식된 사용자 음성이 아닌 상기 사용자 터치 입력에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 획득하는 단계; 를 더 포함하는, 방법.
The method of claim 1, wherein the method
Before acquiring the at least one candidate content, executing an application for providing the content service;
obtaining a user touch input regarding the content through a user interface provided by the application; and
when the user touch input is obtained, obtaining the at least one candidate content based on the user touch input instead of the recognized user voice; A method further comprising:
제1항에 있어서, 상기 방법은
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계 이후에, 상기 획득된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송하는 단계; 를 더 포함하는, 방법.
The method of claim 1, wherein the method
transmitting, after acquiring the at least one candidate content, information on the acquired at least one candidate content to an external device connected to the electronic device by wire or wirelessly; A method further comprising:
삭제delete 제1항에 있어서, 상기 사용자의 음성을 인식하는 단계는
상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정하는 단계; 및
상기 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 를 포함하는, 방법.
The method of claim 1, wherein recognizing the user's voice comprises:
determining whether to activate the speech recognition model based on the audio feature vector for each frame of the obtained audio signal; and
recognizing a user's voice in the audio signal by inputting the audio feature vector into the voice recognition model as the voice recognition model is activated; A method comprising
삭제delete 삭제delete 제1항에 있어서, 상기 적어도 하나의 후보 컨텐츠를 출력하는 단계는
상기 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정하는 단계; 및
상기 결정된 컨텐츠 재생 모드에 대한 정보를 상기 적어도 하나의 후보 컨텐츠와 함께 출력하는 단계; 를 포함하는, 방법.
The method of claim 1, wherein outputting the at least one candidate content comprises:
determining at least one content reproduction mode required to reproduce the at least one candidate content based on the user information and the second operation information; and
outputting information on the determined content reproduction mode together with the at least one candidate content; A method comprising
제3항에 있어서, 상기 적어도 하나의 후보 컨텐츠를 출력하는 단계는
상기 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하는 단계; 및
상기 외부 디바이스로부터 컨텐츠 전송 요청에 응답하여 상기 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하는, 방법.
The method of claim 3, wherein the outputting of the at least one candidate content comprises:
obtaining a content transmission request from an external device connected to the electronic device; and
outputting the at least one candidate content in response to a content transmission request from the external device; A method comprising
제9항에 있어서, 상기 적어도 하나의 후보 컨텐츠를 출력하는 단계는
상기 컨텐츠 전송 요청이 획득되기 전, 상기 전자 장치로부터 출력된 컨텐츠의 재생 상태에 관한 상태 정보를 저장하는 단계; 및
상기 컨텐츠 전송 요청이 획득되면, 상기 상태 정보에 기초하여 상기 전자 장치로부터 출력될 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하는, 방법.
The method of claim 9, wherein the outputting of the at least one candidate content comprises:
before the content transmission request is obtained, storing state information about a reproduction state of the content output from the electronic device; and
outputting at least one candidate content to be output from the electronic device based on the status information when the content transmission request is obtained; A method comprising
제1항에 있어서, 상기 사용자의 정보는
상기 사용자의 생체 정보, 상기 사용자의 취미 정보, 상기 컨텐츠에 대한 사용자의 관심 정보, 상기 사용자의 위치 정보, 상기 사용자의 건강 정보, 상기 전자 장치와 연결된 의료 데이터 베이스로부터 획득될 수 있는 상기 사용자의 의료 기록에 대한 정보 또는 상기 전자 장치를 통하여 사용자가 요청한 컨텐츠 이력에 대한 정보 중 적어도 하나를 포함하고,
상기 제1 동작 정보는, 상기 전자 장치의 동작 이력에 대한 정보, 상기 전자 장치와 상기 외부 디바이스의 연결 상태에 관한 정보 중 적어도 하나를 포함하며,
상기 제2 동작 정보는 상기 외부 디바이스의 전원 공급 상태에 대한 정보, 상기 외부 디바이스의 위치 정보 또는 상기 외부 디바이스 내 압력 센서의 출력 값 중 적어도 하나를 포함하는 것을 특징으로 하는, 방법.
The method of claim 1, wherein the user's information is
The user's biometric information, the user's hobby information, the user's interest information for the content, the user's location information, the user's health information, and the user's medical care that may be obtained from a medical database connected to the electronic device It includes at least one of information about the record or information about a content history requested by a user through the electronic device,
The first operation information includes at least one of information on an operation history of the electronic device and information on a connection state between the electronic device and the external device,
The second operation information comprises at least one of information about a power supply state of the external device, location information of the external device, or an output value of a pressure sensor in the external device.
컨텐츠 서비스를 제공하는 전자 장치에 있어서,
상기 전자 장치의 주변 음향을 획득하는 마이크;
상기 컨텐츠 서비스와 관련된 오디오 신호를 출력하는 스피커;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행함으로써, 상기 컨텐츠를 제공하는 하나 이상의 프로세서; 를 포함하고,
상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하고,
상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하고,
상기 추출된 오디오 특징 벡터에 기초하여 상기 사용자를 인증하고,
상기 사용자 인증 결과에 기초하여, 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득하고,
상기 사용자의 인증 결과에 기초하여 활성화되는 음성 인식 모델에, 상기 추출된 오디오 특징 벡터를 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하고,
상기 인식된 사용자의 음성에 기초하여, 상기 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하고,
상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하고,
상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하고,
상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하고,
상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 적어도 하나의 후보 컨텐츠로 획득하고,
상기 획득된 적어도 하나의 후보 컨텐츠를 출력하는, 전자 장치.
An electronic device for providing a content service, comprising:
a microphone for acquiring ambient sound of the electronic device;
a speaker outputting an audio signal related to the content service;
a memory storing one or more instructions; and
one or more processors that provide the content by executing the one or more instructions; including,
The at least one processor by executing the one or more instructions,
Obtaining an audio signal including the user's voice input from the user of the electronic device,
extracting an audio feature vector from the obtained audio signal,
authenticating the user based on the extracted audio feature vector;
Based on the user authentication result, when the user is authenticated, obtain user information of the authenticated user,
Recognizing the user's voice in the audio signal by inputting the extracted audio feature vector to a voice recognition model activated based on the user's authentication result,
obtaining a content list from a network connected to the electronic device using a string corresponding to the user's voice as a search keyword based on the recognized user's voice;
Determine the priority of the contents in the obtained contents list based on the obtained user information,
Obtaining first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device,
changing the determined priority based on at least one of the first operation information and the second operation information,
acquiring some contents in the contents list as at least one candidate contents according to the changed priority,
and outputting the obtained at least one candidate content.
제12항에 있어서, 상기 적어도 하나의 프로세서는
상기 획득된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송하는, 전자 장치.
13. The method of claim 12, wherein the at least one processor comprises:
An electronic device for transmitting the obtained information on the at least one candidate content to an external device connected to the electronic device by wire or wirelessly.
삭제delete 제12항에 있어서, 상기 적어도 하나의 프로세서는
상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정하고,
상기 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식하는, 전자 장치.
13. The method of claim 12, wherein the at least one processor comprises:
determining whether to activate the speech recognition model based on the audio feature vector for each frame of the obtained audio signal;
When the voice recognition model is activated, the electronic device recognizes the user's voice in the audio signal by inputting the audio feature vector into the voice recognition model.
삭제delete 삭제delete 제12항에 있어서, 상기 적어도 하나의 프로세서는
상기 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정하고,
상기 결정된 컨텐츠 재생 모드에 대한 정보를 상기 적어도 하나의 후보 컨텐츠와 함께 출력하는, 전자 장치.
13. The method of claim 12, wherein the at least one processor comprises:
determining at least one content reproduction mode necessary to reproduce the at least one candidate content based on the user information and the second operation information;
and outputting information on the determined content reproduction mode together with the at least one candidate content.
제13항에 있어서, 상기 적어도 하나의 프로세서는
상기 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하고,
상기 외부 디바이스로부터 컨텐츠 전송 요청에 응답하여 상기 적어도 하나의 후보 컨텐츠를 출력하는, 전자 장치.
14. The method of claim 13, wherein the at least one processor comprises:
obtaining a content transmission request from an external device connected to the electronic device;
and outputting the at least one candidate content in response to a content transmission request from the external device.
전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계;
상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계;
상기 추출된 오디오 특징 벡터에 기초하여 상기 사용자를 인증하는 단계;
상기 사용자의 인증 결과에 기초하여 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득하는 단계;
상기 사용자의 인증 결과에 기초하여 활성화되는 음성 인식 모델에, 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계;
상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및
상기 획득된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하고,
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계는
상기 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하는 단계;
상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하는 단계;
상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하는 단계;
상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하는 단계;
상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
obtaining an audio signal including the user's voice input from a user of the electronic device;
extracting an audio feature vector from the obtained audio signal;
authenticating the user based on the extracted audio feature vector;
obtaining user information of the authenticated user when the user is authenticated based on the authentication result of the user;
recognizing the user's voice in the audio signal by inputting the extracted audio feature vector to the voice recognition model, which is activated based on the user's authentication result;
obtaining at least one candidate content based on the recognized user's voice; and
outputting the obtained at least one candidate content; including,
The step of obtaining the at least one candidate content includes:
obtaining a content list from a network connected to the electronic device by using a string corresponding to the recognized user's voice as a search keyword;
determining the priority of contents in the obtained contents list based on the obtained user information;
acquiring first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device;
changing the determined priority based on at least one of the first operation information and the second operation information;
acquiring some contents in the contents list as the at least one candidate contents according to the changed priority; A computer-readable recording medium recording a program for executing the method on a computer, comprising a.
KR1020200011677A 2020-01-31 2020-01-31 Apparatus and method for providing contents KR102355903B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200011677A KR102355903B1 (en) 2020-01-31 2020-01-31 Apparatus and method for providing contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200011677A KR102355903B1 (en) 2020-01-31 2020-01-31 Apparatus and method for providing contents

Publications (2)

Publication Number Publication Date
KR20210098006A KR20210098006A (en) 2021-08-10
KR102355903B1 true KR102355903B1 (en) 2022-01-25

Family

ID=77316159

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200011677A KR102355903B1 (en) 2020-01-31 2020-01-31 Apparatus and method for providing contents

Country Status (1)

Country Link
KR (1) KR102355903B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11971920B1 (en) 2022-10-13 2024-04-30 Actionpower Corp. Method for determining content associated with voice signal

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230116125A1 (en) * 2021-10-08 2023-04-13 Arris Enterprises Llc Method and system for smart assistant voice command requestor authentication

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101303344B1 (en) 2011-03-21 2013-09-03 주식회사 휴먼리그 Block type musical toy
KR102281178B1 (en) * 2014-07-09 2021-07-23 삼성전자주식회사 Method and apparatus for recognizing multi-level speech
KR102247533B1 (en) * 2014-07-30 2021-05-03 삼성전자주식회사 Speech recognition apparatus and method thereof
KR102254894B1 (en) * 2015-01-05 2021-05-24 엘지전자 주식회사 Display device for arranging categories using voice recognition searching results, and method thereof
KR102098237B1 (en) * 2019-06-26 2020-04-07 네이버 주식회사 Method for verifying speaker and system for recognizing speech

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NUGU 공식 블로그 : NUGU와 당신의 이야기. 내비게이션을 운전 비서로 활용하는 음성 명령 팁 다섯 가지. 2018.11.26. 출처: https://m.blog.naver.com/PostView.naver?blogId=nuguai&logNo=221406439612&proxyReferer=https:%2F%2Fwww.google.com%2F*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11971920B1 (en) 2022-10-13 2024-04-30 Actionpower Corp. Method for determining content associated with voice signal

Also Published As

Publication number Publication date
KR20210098006A (en) 2021-08-10

Similar Documents

Publication Publication Date Title
US11908472B1 (en) Connected accessory for a voice-controlled device
EP3525205B1 (en) Electronic device and method of performing function of electronic device
CN110313152B (en) User registration for an intelligent assistant computer
CN108227932B (en) Interaction intention determination method and device, computer equipment and storage medium
CN109074806B (en) Controlling distributed audio output to enable speech output
CN110998720B (en) Voice data processing method and electronic device supporting the same
US10885091B1 (en) System and method for content playback
US9443527B1 (en) Speech recognition capability generation and control
US12033633B1 (en) Ambient device state content display
US20180199123A1 (en) Voice activated electronic device
EP3721605A1 (en) Streaming radio with personalized content integration
EP3427166A1 (en) Intelligent automated assistant for media exploration
CN110211588A (en) Audio recognition method, device and electronic equipment
CN113168832A (en) Alternating response generation
US11393459B2 (en) Method and apparatus for recognizing a voice
CN112969995A (en) Electronic device and control method thereof
CN114051639A (en) Emotion detection using speaker baseline
KR20160127165A (en) Voice trigger for a digital assistant
CN111199032A (en) Identity authentication method and device
KR102355903B1 (en) Apparatus and method for providing contents
CN110516083A (en) Photograph album management method, storage medium and electronic equipment
KR20200090355A (en) Multi-Channel-Network broadcasting System with translating speech on moving picture and Method thererof
KR20190093962A (en) Speech signal processing mehtod for speaker recognition and electric apparatus thereof
US11373656B2 (en) Speech processing method and apparatus therefor
KR20190101100A (en) Voice input processing method and electronic device supportingthe same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant