KR102355903B1 - Apparatus and method for providing contents - Google Patents
Apparatus and method for providing contents Download PDFInfo
- Publication number
- KR102355903B1 KR102355903B1 KR1020200011677A KR20200011677A KR102355903B1 KR 102355903 B1 KR102355903 B1 KR 102355903B1 KR 1020200011677 A KR1020200011677 A KR 1020200011677A KR 20200011677 A KR20200011677 A KR 20200011677A KR 102355903 B1 KR102355903 B1 KR 102355903B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- electronic device
- content
- information
- voice
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 239000013598 vector Substances 0.000 claims abstract description 84
- 230000005236 sound signal Effects 0.000 claims abstract description 75
- 230000015654 memory Effects 0.000 claims description 42
- 230000005540 biological transmission Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 9
- 230000036541 health Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 23
- 206010012289 Dementia Diseases 0.000 description 20
- 230000004913 activation Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 13
- 239000003205 fragrance Substances 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 8
- 230000009182 swimming Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003213 activating effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/433—Query formulation using audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 개시는 전자 장치가 컨텐츠를 제공하는 방법 및 상기 컨텐츠를 제공하는 전자 장치에 관한 것이다. 전자 장치가 컨텐츠를 제공하는 방법은 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계; 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계; 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및 상기 검색된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함할 수 있다.The present disclosure relates to a method for providing content by an electronic device and an electronic device for providing the content. A method for providing content by an electronic device includes: acquiring an audio signal including a voice input of the user from a user of the electronic device; extracting an audio feature vector from the obtained audio signal; recognizing a user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model; obtaining at least one candidate content based on the recognized user's voice; and outputting the searched at least one candidate content. may include
Description
본 개시는 컨텐츠를 제공하는 전자 장치 및 방법에 관한 것이다. 보다 상세하게는, 전자 장치 또는 전자 장치에 연결된 외부 디바이스를 통하여 컨텐츠를 제공하기 위한 전자 장치 및 방법에 관한 것이다.The present disclosure relates to an electronic device and method for providing content. More particularly, it relates to an electronic device and a method for providing content through an electronic device or an external device connected to the electronic device.
우리나라는 현재 빠른 속도로 고령화 사회에 진입하고 있고, 고령화 사회에 진입하는 속도만큼 빠르게 치매 환자들이 매년 증가하고 있다. 치매 환자들의 증가는 치매 환자들의 가족들에게 경제적, 정신적으로 많은 문제들을 야기할 수 있기 때문에, 노령 인구의 치매 질환은 개인 차원의 문제가 아닌 사회적 차원에서 해결할 필요가 있다. 특히, 치매의 경우 치매라고 판정되기 치매 질환으로 발전하는 경우가 대부분이고, 치매가 발생할 경우 치매 환자들을 치료하기 위하여 쓰여지는 사회 경제적 비용은 10조원에 달하는 것으로 추정되고 있다. Korea is currently entering an aging society at a fast pace, and the number of dementia patients is increasing every year as fast as it is entering an aging society. Since the increase in the number of dementia patients can cause many economic and psychological problems for the families of the dementia patients, the dementia disease of the elderly population needs to be addressed at the social level, not the individual level. In particular, most cases of dementia develop into a dementia disease that is judged to be dementia, and when dementia occurs, it is estimated that the socio-economic cost of treating dementia patients reaches 10 trillion won.
현재 노인들의 치매 치료를 위한 기술들은 노인들의 근력을 향상시키는 제품이거나, 헬스케어 제품들로써 치매의 치료 보다는 노인들의 건강 증진을 위한 부분에 많은 비중을 두고 개발되고 있었으며, 정서적 또는 정신적으로 노인들의 치매를 치료하기 위한 기술 개발이 요구되고 있다.Currently, the technologies for the treatment of dementia in the elderly are products that improve muscle strength of the elderly, or as health care products, they have been developed with a lot of emphasis on improving the health of the elderly rather than the treatment of dementia. The development of technology for treatment is required.
또한, 노인들의 치매 치료 비용으로 개인이 부담해야 하는 비용이 크게 증가하고 있어, 개인들이 자신 또는 친족의 치매 치료에 대한 접근성이 낮은 문제점이 있다. 따라서, 저 비용으로도 치매 환자들을 효과적으로 치료할 수 있는 기술 개발이 요구되고 있다.In addition, as the cost to be borne by the individual due to the dementia treatment cost of the elderly is greatly increased, there is a problem in that individuals have low access to the dementia treatment of themselves or their relatives. Therefore, there is a demand for the development of a technology capable of effectively treating dementia patients even at low cost.
일 실시 예에 따르면, 컨텐츠를 제공하는 전자 장치 및 방법이 제공될 수 있다.According to an embodiment, an electronic device and method for providing content may be provided.
또한, 일 실시 예에 의하면, 전자 장치와 연결된 외부 디바이스를 통하여 컨텐츠를 출력할 수 있는 전자 장치 및 방법이 제공될 수 있다.Also, according to an embodiment, an electronic device and method capable of outputting content through an external device connected to the electronic device may be provided.
상술한 기술적 과제를 달성하기 위한 본 개시의 일 실시 예에 따라, 전자 장치가 컨텐츠를 제공하는 방법은, 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계; 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계; 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및 상기 검색된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함할 수 있다.According to an embodiment of the present disclosure for achieving the above-described technical problem, a method for an electronic device to provide content includes: acquiring an audio signal including a user's voice input from a user of the electronic device; extracting an audio feature vector from the obtained audio signal; recognizing a user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model; obtaining at least one candidate content based on the recognized user's voice; and outputting the searched at least one candidate content. may include
일 실시 예에 의하면, 상기 전자 장치가 컨텐츠를 제공하는 방법은 검색된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송하는 단계; 를 더 포함할 수 있다.According to an embodiment, the method for providing content by the electronic device includes transmitting information on at least one searched candidate content to an external device connected to the electronic device by wire or wirelessly; may further include.
또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 컨텐츠를 제공하는 전자 장치는, 상기 전자 장치의 주변 음향을 획득하는 마이크; 상기 컨텐츠와 관련된 오디오 신호를 출력하는 스피커; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 컨텐츠를 제공하는 하나 이상의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하고, 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하고, 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하고, 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하고, 상기 검색된 적어도 하나의 후보 컨텐츠를 출력할 수 있다.In addition, according to another embodiment of the present disclosure for solving the above technical problem, an electronic device for providing content includes: a microphone for acquiring ambient sound of the electronic device; a speaker outputting an audio signal related to the content; a memory storing one or more instructions; and one or more processors that provide the content by executing the one or more instructions. including, wherein the at least one processor obtains an audio signal including the user's voice input from the user of the electronic device by executing the one or more instructions, and extracts an audio feature vector from the obtained audio signal; , by inputting the extracted audio feature vector into a speech recognition model, recognizes a user's voice in the audio signal, obtains at least one candidate content based on the recognized user's voice, and finds at least one candidate Content can be output.
일 실시 예에 의하면, 상기 적어도 하나의 프로세서는 검색된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송할 수 있다.According to an embodiment, the at least one processor may transmit information on the found at least one candidate content to an external device connected to the electronic device by wire or wirelessly.
또한, 상기 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시 예에 따라, 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계; 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계; 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및 상기 검색된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.Further, according to another embodiment of the present disclosure for solving the technical problem, the method may further include: acquiring an audio signal including a user's voice input from a user of an electronic device; extracting an audio feature vector from the obtained audio signal; recognizing a user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model; obtaining at least one candidate content based on the recognized user's voice; and outputting the searched at least one candidate content. A computer-readable recording medium recording a program for executing the method on a computer, including a computer-readable recording medium, may be provided.
도 1은 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 개략적으로 나타내는 도면이다.
도 2는 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 방법의 흐름도이다.
도 3은 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 방법을 나타내는 흐름도이다.
도 4는 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 구체적인 방법을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 전자 장치가 음성 인식 모델을 활성화 하는 구체적인 방법을 나타내는 흐름도이다.
도 6은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.
도 7은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 전자 장치가 적어도 하나의 후보 컨텐츠를 획득하는 구체적인 방법을 나타내는 흐름도이다.
도 9는 일 실시 예에 따른 전자 장치가 외부 디바이스의 동작 상태에 기초하여 컨텐츠 재생 모드를 결정하고, 결정된 컨텐츠 재생 모드 및 적어도 하나의 후보 컨텐츠를 함께 전송하는 방법을 나타내는 흐름도이다.
도 10은 일 실시 예에 따른 전자 장치가 외부 디바이스에서 컨텐츠가 재생되는 동안, 외부 디바이스로부터 획득된 센싱 정보에 기초하여 재생 모드를 변경하는 구체적인 방법을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 컨텐츠를 제공하는 전자 장치의 블록도이다.
도 12는 일 실시 예에 따른 전자 장치와 연결되는 서버의 블록도이다.
도 13은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 블록도이다.
도 14는 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 구조를 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 전자 장치 및 외부 디바이스가 서로 연동하여 동작하는 과정을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 전자 장치, 서버 및 외부 디바이스가 서로 연동하여 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 동작 과정을 설명하기 위한 도면이다.1 is a diagram schematically illustrating a process in which an electronic device provides content according to an exemplary embodiment.
2 is a flowchart of a method for providing content by an electronic device according to an exemplary embodiment.
3 is a flowchart illustrating a method for an electronic device to authenticate a user of an electronic device according to an embodiment.
4 is a diagram for describing a specific method for an electronic device to authenticate a user of the electronic device according to an exemplary embodiment.
5 is a flowchart illustrating a specific method of activating a voice recognition model by an electronic device according to an exemplary embodiment.
6 is a diagram for explaining a process of providing content by an electronic device according to another exemplary embodiment.
7 is a diagram for describing a process in which an electronic device provides content according to another exemplary embodiment.
8 is a flowchart illustrating a specific method for an electronic device to acquire at least one candidate content, according to an embodiment.
9 is a flowchart illustrating a method in which an electronic device determines a content playback mode based on an operating state of an external device and transmits the determined content playback mode and at least one candidate content together, according to an embodiment.
10 is a diagram for describing a specific method of changing a playback mode based on sensing information obtained from an external device while an electronic device is playing content in an external device, according to an embodiment.
11 is a block diagram of an electronic device that provides content according to an embodiment.
12 is a block diagram of a server connected to an electronic device according to an exemplary embodiment.
13 is a block diagram of an external device connected to an electronic device according to an exemplary embodiment.
14 is a diagram for describing a structure of an external device connected to an electronic device according to an exemplary embodiment.
15 is a diagram for describing a process in which an electronic device and an external device operate in conjunction with each other according to an exemplary embodiment.
16 is a diagram for describing a process in which an electronic device, a server, and an external device interwork with each other to provide content, according to an exemplary embodiment.
17 is a diagram for describing an operation process of an external device connected to an electronic device according to an exemplary embodiment.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part "includes" a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, the embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
도 1은 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 개략적으로 나타내는 도면이다.1 is a diagram schematically illustrating a process in which an electronic device provides content according to an exemplary embodiment.
일 실시 예에 의하면, 전자 장치(1000)는 프로세서(120), 네트워크 인터페이스(130), 메모리(140)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다. 예를 들어, 전자 장치(1000)는 사용자의 음성을 획득하기 위한 마이크(미도시) 또는 오디오 신호를 출력하기 위한 스피커(미도시)를 더 포함할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 메모리(140)는 인공 지능을 기반으로 컨텐츠를 제공하기 위한 컨텐츠 제공 서비스 모델(154)을 포함할 수 있다. 컨텐츠 제공 서비스 모델(154)은 음성 인식 서비스 모델According to an embodiment, the memory 140 may include a content providing
어시스턴트 서비스 모델(152) 사용자 인증 모델(142), 음성 인식 활성화 모델(144), 음성 인식 모델(146) 및 컨텐츠 추천 모델(148)을 포함할 수 있다. 예를 들어, 전자 장치(1000)의 프로세서(120)는 메모리(140)에 저장된 사용자 인증 모델(142), 음성 인식 활성화 모델(144), 음성 인식 모델(146) 또는 컨텐츠 추천 모델(148) 중 적어도 하나를 실행함으로써, 컨텐츠를 제공할 수 있다. 사용자 인증 모델(142), 음성 인식 활성화 모델(144), 음성 인식 모델(146) 및 컨텐츠 추천 모델(148)은 프로세서(120)에 의해 실행될 수 있는 하나 이상의 인스트럭션들을 포함한다.The
예를 들어, 전자 장치(1000)는 메모리 내 사용자 인증 모델(142)을 실행함으로써, 현재 전자 장치의 사용자가 등록된 사용자가 맞는지 여부를 확인하는 사용자 인증 동작을 수행할 수 있다. 또한, 전자 장치(1000)는 음성 인식 활성화 모델(144)을 실행함으로써 음성 인식 서비스를 제공하기 위한 음성 인식 모델을 활성화 할지 여부를 결정할 수 있다. 또한, 전자 장치(1000)는 음성 인식 모델을 실행함으로써, 오디오 신호 내 사용자의 음성을 인식하고, 인식된 사용자 음성에 기초하여 컨텐츠를 제공할 수 있다. 또한, 전자 장치(1000)는 컨텐츠 추천 모델(148)을 이용함으로써, 인식된 사용자 음성 및 사용자의 정보에 기초하여, 사용자에게 적합한 컨텐츠를 제공할 수 있다.For example, by executing the in-memory user authentication model 142 , the
일 실시 예에 의하면, 전자 장치(1000)는 컨텐츠를 요청하는 전자 장치의 사용자의 입력에 기초하여 컨텐츠를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 외부 디바이스(4000)로부터 컨텐츠 전송 요청 및 외부 디바이스의 동작 상태에 관한 동작 정보(104)를 획득하고, 컨텐츠 전송 요청에 응답하여, 컨텐츠에 대한 정보(102)를 외부 디바이스(4000)로 전송할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 전자 장치(1000)는 사용자의 음성 입력을 포함하는 오디오 신호 또는 사용자의 키워드 입력을 획득하고, 획득된 오디오 신호 내 사용자의 음성을 인식함으로써 결정된 문자열 또는 키워드 입력에 기초하여 적어도 하나의 컨텐츠를 검색할 수 있다. According to an embodiment, the
본 개시에 따른 컨텐츠는 전자 장치 또는 외부 디바이스의 출력부를 통하여 출력될 수 있는 미디어 컨텐츠일 수 있다. 예를 들어, 전자 장치가 제공하는 컨텐츠는 청각적으로 인지될 수 있는 오디오 컨텐츠로써, 스피커를 통하여 출력될 수 있는 오디오 데이터를 포함할 수 있다. 또한, 전자 장치가 제공하는 컨텐츠는 시각적으로 인식될 수 있는 비디오 컨텐츠로써 비디오 데이터를 포함할 수도 있다. 또 다른 실시 예에 의하면, 전자 장치가 제공하는 컨텐츠는 오디오 데이터 및 비디오 데이터를 모두 포함하는 멀티미디어 컨텐츠일 수 있다. The content according to the present disclosure may be media content that can be output through an output unit of an electronic device or an external device. For example, the content provided by the electronic device is audio content that can be perceived aurally, and may include audio data that can be output through a speaker. Also, the content provided by the electronic device may include video data as video content that can be visually recognized. According to another embodiment, the content provided by the electronic device may be multimedia content including both audio data and video data.
일 실시 예에 의하면, 전자 장치(1000)는 AI 프로그램이 탑재되고 음성 인식 기능을 포함하는 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, GPS(global positioning system) 장치, 디지털 카메라, 스피커 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 일 실시 예에 의하면, 전자 장치(1000)는 네트워크(3000)를 통하여 서버(2000)와 연결될 수 있다. 전자 장치(1000)는 네트워크(3000)를 통하여 연결된 서버(2000)와 연동함으로써 적어도 하나의 컨텐츠들을 제공할 수 있다.According to an embodiment, the
일 실시 예에 의하면, 네트워크(3000)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함할 수 있고, 전자 장치(1000)와 서버(2000)의 연결을 위한 기타 데이터 통신망을 포함할 수 있다. 또한, 전자 장치(1000)와 네트워크를 통하여 연결되는 서버(2000)는 전자 장치와 연동됨으로써, 컨텐츠를 제공할 수 있는 기타 컴퓨팅 장치 또는 컴퓨팅 서비스 제공 장치를 포함할 수 있다.According to an embodiment, the network 3000 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, It may include a satellite communication network and a combination thereof, and may include other data communication networks for connecting the
일 실시 예에 의하면, 외부 디바이스(4000)는 프로세서(160), 네트워크 인터페이스(170), 메모리(180) 및 출력부(190)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 외부 디바이스(4000)가 가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 외부 디바이스(4000)는 구현될 수도 있다. 예를 들어, 외부 디바이스는 압력 또는 사용자의 위치를 감지할 수 있는 적어도 하나의 센서 또는 외부 디바이스를 통하여 향기를 배출하기 위한 모듈을 더 포함할 수도 있다.According to an embodiment, the
예를 들어, 외부 디바이스(4000)는 전자 장치(1000)로부터 컨텐츠에 대한 정보를 획득하고, 획득된 컨텐츠에 대한 정보를 출력부(190)를 통하여 출력할 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 컨텐츠를 출력하기 위한 출력부가 내장된 장치로써, 베개 타입의 하우징을 더 포함할 수 있다. 외부 디바이스(4000)는 네트워크(6000)를 통하여 다른 외부 디바이스(5000)와 통신 연결될 수 있고, 전자 장치를 경유하거나, 직접 서버(2000)에 액세스 하여 통신을 수행할 수도 있다.For example, the
일 실시 예에 의하면, 네트워크(3000)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함할 수 있고, 외부 디바이스(4000)와 다른 외부 디바이스(5000)의 연결을 위한 기타 데이터 통신망을 더 포함할 수도 있다. 네트워크(6000)는 전자 장치(1000)가 이용하는 네트워크(3000)와 동일한 네트워크일 수도 있지만, 네트워크(3000)와 독립적인 별도의 네트워크일 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 전자 장치(1000)로부터 획득된 컨텐츠를 출력함으로써 외부 디바이스 사용자인 치매 환자들, 또는 노인들의 정신적, 정서적 치료 기능을 수행할 수 있다.According to an embodiment, the network 3000 includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, It may include a satellite communication network and a combination thereof, and may further include other data communication networks for connecting the
도 2는 일 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 방법의 흐름도이다.2 is a flowchart of a method for providing content by an electronic device according to an exemplary embodiment.
S210에서, 전자 장치(1000)는 사용자의 음성 입력을 포함하는 오디오 신호를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치에 포함된 적어도 하나의 마이크를 통하여 사용자의 음성을 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 사용자 입력 인터페이스를 통하여, 사용자로부터 음성 입력, 키(Key) 입력, 터치 입력 또는 모션 입력 중 적어도 하나를 획득할 수 있다. In S210 , the
S220에서, 전자 장치(1000)는 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. 예를 들어, 전자 장치(1000)는 미리 학습된 인공 신경망(Artificial Network)을 이용하여 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. 일 실시 예에 의하면, 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.In S220, the
또한, 일 실시 예에 의하면, 오디오 특징 벡터는 선형예측계수(Linear Predictive Coefficient), 켑스트럼(Cepstrum), 멜 프리퀀시 켑스트럼(Mel Frequency Cepstral Coefficient, MFCC) 또는 주파수 대역별 에너지(Filter Bank Energy) 값 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.In addition, according to an embodiment, the audio feature vector includes a linear predictive coefficient, a cepstrum, a mel frequency cepstral coefficient (MFCC), or a filter bank energy for each frequency band. ) may include at least one of the values, but is not limited thereto.
S230에서, 전자 장치(1000)는 오디오 특징 모델을 음성 인식 모델에 입력함으로써 오디오 신호 내 사용자의 음성을 인식할 수 있다. 예를 들어, 음성 인식 모델은 사용자의 음성을 인식하기 위해 자동 음성 인식 모델(automatic speech recognition, ASR), 자연어 이해 모델, 자연어 생성 모델을 포함할 수 있다. 음성 인식 모델은 입력된 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터에 대응되는 문자열을 출력할 수 있다.In S230 , the
예를 들어, 자동 음성 인식 모델은 사용자 음성을 입력 받고, 입력된 사용자 음성을 텍스트로 변환할 수 있고, 자연어 이해 모델은 사용자 음성이 변환된 텍스트를 에 대한 문법적 분석에 기초하여 사용자 음성에 포함된 의도 정보를 출력할 수 있으며, 자연어 생성 모델(Natural Language Generator, NLG)은 등록된 문자열 정보 및 자연어 이해 모델에 의해 결정된 의도 정보에 기초하여 소정의 문장 규칙을 따르는 새로운 문자열을 출력할 수 있다. For example, the automatic speech recognition model may receive a user's voice and convert the inputted user's voice into text, and the natural language understanding model uses the converted text of the user's voice based on a grammatical analysis of the Intention information may be output, and a natural language generator (NLG) may output a new character string conforming to a predetermined sentence rule based on registered character string information and intention information determined by the natural language understanding model.
일 실시 예에 의하면, 음성 인식 모델은 오디오 학습 신호 내 오디오 특징 벡터들을 추출하고, 추출된 특징 벡터에 대한 음성 인식 모델이 출력 값과 정답 값을 비교하여 결정되는 LOSS를 최소화하도록 미리 학습되는 신경망 기반의 모델일 수 있다.According to an embodiment, the speech recognition model extracts audio feature vectors in the audio learning signal, and the speech recognition model for the extracted feature vector is based on a neural network that is pre-trained to minimize the LOSS determined by comparing the output value and the correct answer value. can be a model of
또 다른 실시 예에 의하면, 전자 장치(1000)는 음성 인식 모델을 이용하여 오디오 신호 내 사용자의 음성을 인식하기 전, 음성 인식 활성화 모델을 이용하여 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터에 기초하여 음성 인식 모델을 활성화 할지 여부를 결정할 수 있다. 전자 장치가 음성 인식 모델을 활성화 할지 여부를 결정하는 구체적인 방법은 도 5를 참조하여 구체적으로 설명하기로 한다.According to another embodiment, before recognizing the user's voice in the audio signal using the voice recognition model, the
S240에서, 전자 장치(1000)는 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 음성 인식 모델의 출력 값으로부터 획득된 문자열을 키워드로 결정하고, 결정된 키워드에 기초하여, 네트워크를 통하여 연결되는 인터넷으로부터 적어도 하나의 후보 컨텐츠를 검색할 수 있다. In S240 , the
일 실시 예에 의하면, 전자 장치(1000)는 전자 장치의 사용자가 인증되면, 인증된 사용자의 사용자 정보를 획득할 수 있다. 전자 장치(1000)는 인식된 사용자의 음성 및 사용자 정보에 기초하여 후보 컨텐츠를 검색함으로써, 사용자 맞춤형 컨텐츠를 획득할 수 있다. 전자 장치(1000)가 적어도 하나의 후보 컨텐츠를 획득하는 구체적인 방법은 도 8 내지 9를 참조하여 구체적으로 설명하기로 한다.According to an embodiment, when a user of the electronic device is authenticated, the
S250에서, 전자 장치(1000)는 검색된 적어도 하나의 후보 컨텐츠를 출력할 수 있다. 예를 들어, 전자 장치(1000)는 검색된 적어도 하나의 후보 컨텐츠를 전자 장치의 출력부를 통하여 직접 제공할 수도 있지만, 전자 장치와 연결된 외부 디바이스에 검색된 후보 컨텐츠에 대한 정보를 전송함으로써, 외부 디바이스를 통하여 검색된 후보 컨텐츠를 출력할 수도 있다.In S250, the
또 다른 실시 예에 의하면, 도 2에는 도시되지 않았지만, 전자 장치(1000)는 상기 상기 컨텐츠 제공 서비스를 제공하기 위한 애플리케이션을 실행하고, 애플리케이션에 의해 제공되는 사용자 인터페이스를 통하여 상기 컨텐츠에 관한 사용자 터치 입력을 더 획득할 수도 있다. 전자 장치(1000)는 사용자의 음성이 아닌 상기 사용자 터치 입력에 기초하여 획득된 키워드를 이용하여, 상기 적어도 하나의 후보 컨텐츠를 획득할 수도 있다. According to another embodiment, although not shown in FIG. 2 , the
도 3은 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method for an electronic device to authenticate a user of an electronic device according to an embodiment.
S320에서, 전자 장치(1000)는 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 사용자를 인증할 수 있다. 예를 들어, 전자 장치(1000)는 사용자의 음성 등록 과정을 통하여, 사용자의 음성 특성이 반영된 등록 사용자 특징 벡터를 포함하는 사용자 모델을 미리 저장할 수 있다. 사용자의 음성 특성은, 사용자의 음성의 주파수 특성, 진폭 특성, 떨림 특성, 빠르기 특성 중 적어도 하나를 포함할 수 있다. In S320 , the
전자 장치(1000)는 사용자 음성 등록 과정이 완료된 후, 사용자로부터 새로 획득된 오디오 신호에서 사용자 특징 벡터를 추출하고, 추출된 사용자 특징 벡터를 사용자 모델 내 등록 사용자 특징 벡터와 비교함으로써, 사용자를 인증할 수 있다. 전자 장치(1000)는 사용자 인증이 완료되면, 사용자 각각을 식별할 수 있는 사용자 식별 정보를 이용하여 전자 장치의 복수의 사용자 각각을 구별할 수 있다. 전자 장치(1000)가 사용자 모델을 이용하여 사용자를 인증하는 방법은 도 4를 참조하여 구체적으로 설명하기로 한다.After the user voice registration process is completed, the
S340에서, 전자 장치(1000)는 사용자가 인증되는 경우, 사용자의 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 사용자 모델을 이용하여 현재 사용자가 전자 장치의 사용자로 인증이 되는 경우, 인증된 사용자의 식별 정보를 이용하여 사용자에 대한 정보를 획득할 수 있다. In S340 , when the user is authenticated, the
일 실시 예에 의하면, 사용자 정보는, 사용자의 생체 정보, 상기 사용자의 취미 정보, 상기 컨텐츠에 대한 사용자의 관심 정보, 상기 사용자의 위치 정보, 상기 사용자의 건강 정보, 상기 전자 장치와 연결된 의료 데이터 베이스로부터 획득될 수 있는 상기 사용자의 의료 기록에 대한 정보 또는 상기 전자 장치를 통하여 사용자가 요청한 컨텐츠 이력에 대한 정보 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the user information includes the user's biometric information, the user's hobby information, the user's interest information for the content, the user's location information, the user's health information, and a medical database connected to the electronic device. It may include at least one of information about the user's medical record that can be obtained from , or information about a content history requested by the user through the electronic device, but is not limited thereto.
도 4는 일 실시 예에 따른 전자 장치가 전자 장치의 사용자를 인증하는 구체적인 방법을 설명하기 위한 도면이다.4 is a diagram for describing a specific method for an electronic device to authenticate a user of the electronic device according to an exemplary embodiment.
도 4를 참조하여, 전자 장치(1000)의 사용자 인증 과정을 사용자 등록 과정(402)과 등록 후, 전자 장치가 음성 인식 서비스를 제공하는 과정(404)으로 나누어 설명하기로 한다. Referring to FIG. 4 , the user authentication process of the
예를 들어, S412에서, 전자 장치(1000)는 사용자 A(1002)로부터, 사용자 등록 발화에 대한 제1 오디오 신호를 획득할 수 있다. S414에서, 전자 장치(1000)는 제1 오디오 신호로부터 제1 사용자 등록 특징 벡터를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 도 2의 S220단계에서와 유사하게 미리 학습된 인공 신경망 기반의 모델을 이용하여 제1 오디오 신호로부터 제1 오디오 특징 벡터를 추출하고, 추출된 제1 오디오 특징 벡터를 이용하여 제1 사용자 등록 특징 벡터를 결정할 수 있다. 일 실시 예에 의하면 제1 사용자 등록 특징 벡터는 제1 오디오 특징 벡터에 대응될 수 있고, 인공 신경망 내 하나의 레이어로부터 출력되는 레이어의 출력 값일 수 있다.For example, in S412 , the
S416에서, 전자 장치(1000)는 사용자 A(1002)로부터, 사용자 등록 발화에 대한 제2 오디오 신호를 획득할 수 있다. S418에서, 전자 장치(1000)는 제2 오디오 신호로부터 제2 사용자 등록 특징 벡터를 결정할 수 있다. 전술한 바와 같이, 전자 장치(1000)는 사용자 A(1002)로부터 복수의 발화를 획득하고, 획득된 발화에 대응되는 오디오 신호로부터 복수의 사용자 등록 특징 벡터를 결정할 수 있다. 전자 장치(1000)는 복수 횟수로 획득된 사용자 등록 특징 벡터들을 이용하여 A사용자 모델(419)을 생성하고, 생성된 A사용자 모델을 메모리에 저장할 수 있다.In S416 , the
일 실시 예에 의하면, 전자 장치(1000)는 복수 횟수로 획득된 사용자 등록 특징 벡터들에 가중치를 설정하고, 설정된 가중치에 따라 복수의 사용자 등록 특징 벡터들을 가중합함으로써 생성되는 하나의 사용자 등록 특징 벡터를 사용자의 고유 식별 정보와 매칭함으로써 등록 사용자 특징 벡터를 생성하고, 생성된 등록 사용자 특징 벡터를 이용하여 A사용자 모델을 생성할 수 있다.According to an embodiment, the
S422에서, 전자 장치(1000)는 사용자 등록 과정을 완료 한 후, 사용자 A(1002)로부터 오디오 신호를 획득할 수 있다. S424에서, 전자 장치(1000)는 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터를 이용하여 사용자 특징 벡터를 결정할 수 있다.In S422 , the
S426에서, 전자 장치(1000)는 미리 저장된 A사용자 모델(419)로부터 등록 사용자 특징 벡터를 획득할 수 있다. S428에서, 전자 장치(1000)는 A 사용자 모델로부터 획득된 등록 사용자 특징벡터와 사용자 특징 벡터를 비교함으로써 유사도를 결정할 수 있다. 일 실시 예에 의하면, 유사도는 벡터간의 유사도 정도를 나타내는 유사도 스코어일 수 있다.In S426 , the
S432에서, 전자 장치(1000)는 등록 사용자 특징 벡터와 사용자 특징 벡터를 비교함으로써 결정된 유사도가 임계치 이상인지 여부를 결정할 수 있다. 일 실시 에에 의하면, 전자 장치(1000)는 벡터 간 내적(dot product), 벡터 간 로그 우도(log likelihood), 또는 벡터 사이의 유클리드 거리(Euclidean distance)거리에 기초하여 등록 사용자 특징 벡터와 사용자 특징 벡터 사이의 유사도를 스코어로 결정할 수 있다.In S432 , the
S436에서, 전자 장치(1000)는 결정된 유사도가 기 설정된 임계치 이상인 경우, 현재 오디오 신호의 발화자가 전자 장치의 사용자 A인 것으로 인증할 수 있다. S434에서, 전자 장치(1000)는 유사도가 기 설정된 임계치 보다 작은 경우, 사용자의 인증을 거부할 수 있다. 전자 장치(1000)는 사용자의 인증이 거부되는 경우, 다시 사용자로부터 새로운 오디오 신호를 획득할 수 있다.In S436 , when the determined similarity is equal to or greater than a preset threshold, the
도 5는 일 실시 예에 따른 전자 장치가 음성 인식 모델을 활성화 하는 구체적인 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a specific method of activating a voice recognition model by an electronic device according to an exemplary embodiment.
S520에서, 전자 장치(1000)는 상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 항상 음성 인식 모델을 활성화 상태로 두지 않고, 음성 인식 활성화 모델을 이용하여, 사용자가 인증이 되는 경우에만 음성 인식 모델을 활성화 함으로써 음성 인식 모델 활성화에 따른 불필요한 전력 소모를 줄일 수 있다.In S520, the
예를 들어, 전자 장치(1000)는 인공 신경망 기반의 모델을 이용하여 사용자 음성을 포함하는 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터를 음성 인식 활성화 모델에 입력함으로써 음성 인식 모델을 활성화 할지 여부를 결정한다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 사용자 인증 과정에서 사용된 사용자 특징 벡터를 획득하고, 획득된 사용자 특징 벡터를 음성 인식 활성화 모델에 입력함으로써 음성 인식 모델을 활성화 할지 여부를 결정할 수도 있다.For example, the
보다 상세하게는, 전자 장치(1000)는 음성 인식 모델을 활성화 하기 위한 활성화 키워드를 미리 메모리에 저장할 수 있다. 전자 장치(1000)는 현재 획득된 사용자의 오디오 신호의 특징 벡터를 인공 신경망 기반의 모델에 입력함으로써 오디오 특징 벡터를 획득하고, 획득된 오디오 특징 벡터를 음성 인식 활성화 모델에 입력함으로써, 오디오 특징 벡터에 대응되는 문자열이 메모리에 저장된 활성화 키워드와 일치하는지 여부를 결정할 수 있다. 전자 장치(1000)는 음성 인식 활성화 모델을 이용하여 오디오 신호로부터 인식된 문자열과 메모리에 미리 저장된 활성화 키워드의 유사도를 결정하고, 결정된 유사도가 기 설정된 임계치 이상인 경우, 음성 인식 모델을 활성화 하는 것으로 결정하고, 결정된 유사도가 임계치 보다 작은 경우, 음성 인식 모델을 활성화 하지 않는 것으로 결정할 수 있다. S540에서, 전자 장치(1000)는 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식할 수 있다. More specifically, the
도 6은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.6 is a diagram for explaining a process of providing content by an electronic device according to another exemplary embodiment.
S602에서, 전자 장치(1000)는 컨텐츠 출력을 위한 안내 메시지를 제공할 수 있다. 예를 들어, 전자 장치(1000)는 사용자 음성 입력 또는 사용자로부터 키워드 입력이 획득되기 전이라도, 컨텐츠 입력과 관련된 안내 메시지(612)를 디스플레이 상에 제공함으로써 사용자 입력을 유도할 수 있다. 전자 장치(1000)가 제공하는 안내 메시지는 디스플레이 상에 시각적으로 제공될 수도 있지만, 전자 장치의 스피커를 통하여 청각적으로 제공될 수도 잇다. 또한, 전자 장치(1000)는 사용자의 키워드 입력을 유도하기 위한 사용자 인터페이스(614) 또는 사용자의 음성 입력을 유도하기 위한 사용자 인터페이스(614) 중 적어도 하나를 안내 메시지와 함께 제공할 수도 있다.In S602, the
또한, 일 실시 예에 의하면, 전자 장치는 컨텐츠를 제공하기 위한 애플리케이션을 메모리에 미리 저장할 수 있다. 전자 장치(1000)는 메모리에 저장된 애플리케이션을 실행함으로써 제공되는 애플리케이션 서비스를 통하여 안내 메시지를 출력할 수 있다.Also, according to an embodiment, the electronic device may store an application for providing content in advance in the memory. The
S604에서, 전자 장치(1000)는 사용자의 음성을 포함하는 오디오 신호를 획득할 수 있다. 예를 들어, 전자 장치의 사용자가 "Play me something from Luis Armstrong"에 대응되는 음성 신호를 획득하면, 전자 장치(1000)는 획득된 음성 신호를 포함하는 오디오 신호로부터 오디오 특징 벡터를 추출하고, 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 사용자 음성을 인식할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 사용자 음성을 인식하는 동안, "listening" 또는 현재 음성 인식 과정이 진행 중이라는 점을 나타내기 위한 시각적 컨텐츠를 표시할 수도 있다.In S604 , the
S606에서, 전자 장치(1000)는 인식된 사용자의 음성에 따라 적어도 하나의 후보 컨텐츠를 검색하고, 검색된 후보 컨텐츠를 전자 장치의 화면에 출력할 수 있다. 도 6을 참조하면, 전자 장치(1000)는 오디오 신호에 포함된 사용자의 음성 중 Luis Armstrong을 인식하고, 인식된 Luis Armstrong의 앨범을 후보 컨텐츠로써 출력할 수 있다. 전자 장치(1000)가 후보 컨텐츠를 획득하는 구체적인 방법은 도 8을 참조하여 구체적으로 설명하기로 한다. In S606 , the
도 7은 또 다른 실시 예에 따른 전자 장치가 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.7 is a diagram for describing a process in which an electronic device provides content according to another exemplary embodiment.
S702에서, 전자 장치(1000)는 사용자의 정보를 획득한다. 예를 들어, 전자 장치(1000)는 S320단계의 사용자 인증 과정을 완료함으로써, 인증이 완료된 사용자의 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 사용자의 정보로써, 사용자의 취미에 관련된 사용자 관심 정보를 획득할 수 있다. In S702, the
일 실시 예에 의하면, 전자 장치(1000)는 "Hobby?" "취미를 선택하세요"와 같은 안내 메시지 및 취미의 예시로써 각 취미를 상징하는 아이콘과 "Dancing" "Walking" "Singing" "Swimming"과 같은 예시들을 함께 출력할 수 있다. 전자 장치(1000)는 출력된 아이콘들 중 하나를 선택하는 사용자의 입력에 기초하여, 사용자의 관심 정보를 획득할 수 있다.According to an embodiment, the
S704에서, 전자 장치(1000)는 사용자의 정보에 기초하여 적어도 하나의 후보 컨텐츠를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 음성 인식 모델을 통하여 인식된 사용자의 음성 및 사용자의 정보에 기초하여 적어도 하나의 후보 컨텐츠를 제공할 수 있다. 그러나, 또 다른 실시 예에 의하면, 전자 장치(1000)는 사용자의 취미에 관련된 관심 정보가 입력되면, 사용자의 관심 정보에 기초하여서도 후보 컨텐츠를 제공할 수 있다. 예를 들어, 도 7을 참조하면, 사용자가 'swimming' 아이콘을 선택하는 경우, 전자 장치(1000)는 수영과 관련된 'ocean wave'와 같은 컨텐츠를 후보 컨텐츠로써 출력할 수 있다.In S704 , the
일 실시 예에 따른 전자 장치(1000)는 사용자의 정보에 기초하여 재생된 후보 컨텐츠를 재생함으로써 전자 장치의 사용자가 치매환자인 경우 치매 환자의 기억을 회복하는데 도움을 줄 수 있다. 예를 들어, 전자 장치(1000)는 사용자의 취미가 'swimming'임을 나타내는 관심 정보를 획득하고, 획득된 관심 정보에 따라 파도 소리에 관한 컨텐츠를 검색하고, 검색된 파도 소리에 관한 컨텐츠를 제공할 수 있다. 따라서, 전자 장치(1000)의 사용자는 전자 장치에서 재생되는 파도 소리에 관한 컨텐츠를 청취함으로써 과거 기억을 회상할 수 있다. 따라서, 본 개시에 따른 전자 장치(1000)는 사용자로부터 획득된 관심 정보에 기초하여 후보 컨텐츠를 재생함으로서 사용자의 치매 환자에 도움을 줄 수 있다.When the user of the electronic device is a dementia patient, the
도 8은 일 실시 예에 따른 전자 장치가 적어도 하나의 후보 컨텐츠를 획득하는 구체적인 방법을 나타내는 흐름도이다.8 is a flowchart illustrating a specific method for an electronic device to acquire at least one candidate content, according to an embodiment.
S820에서, 전자 장치(1000)는 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 오디오 신호를 음성 인식 모델에 입력함으로써 획득되는 문자열을 획득한다. 전자 장치(1000)는 네트워크를 통하여 인터넷에 접속하고, 접속된 인터넷으로부터 획득된 문자열을 검색 키워드로 하는 후보 컨텐츠들에 대한 컨텐츠 리스트를 획득할 수 있다.In S820 , the
S840에서, 전자 장치(1000)는 사용자의 정보에 기초하여, 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 오디오 신호 내 포함된 사용자 음성이 '여름' 또는 'summer'으로 인식되는 경우, '여'' 또는 'summer'와 관련된 '여름 이야기', '바다의 왕자' '한여름밤의 꿈' '해변으로 가요' 'swimming in the pool"과 같은 곡을 포함하는 컨텐츠 리스트를 획득할 수 있다.In S840, the
또한, 전자 장치(1000)는 전자 장치에 미리 저장된 사용자의 정보에 액세스하고, 사용자의 정보 중, 사용자의 취미 정보가 '수영' 인 것을 식별 한 후, 현재 후보 컨텐츠들의 우선 순위를 'swimming in the pool' '해변으로 가요' '바다의 왕자'' '한여름밤의 꿈' 과 같은 순서로 결정할 수 있다.In addition, the
S860에서, 전자 장치(1000)는 결정된 우선 순위에 따라 컨텐츠 리스트 내 일부 컨텐츠들을 적어도 하나의 후보 컨텐츠로써 획득할 수 있다. 예를 들어, 전자 장치(1000)는 현재 디스플레이 표시 가능한 컨텐츠의 수가 2개인 경우, 4개의 컨텐츠를 포함하는 컨텐츠 리스트 내 상위 우선 순위를 가지는 'swimming in the pool' 및 '해변으로 가요'를 후보 컨텐츠로써 획득할 수 있다. 전자 장치(1000)는 획득된 후보 컨텐츠들을 전자 장치 또는 전자 장치와 연결된 외부 디바이스를 통하여 출력할 수 있다.In S860 , the
또 다른 실시 예에 의하면, 도 8에는 도시되지 않았지만, 전자 장치(1000)는 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득할 수 있다. 또한, 전자 장치(1000)는 획득된 제1 동작 정보 또는 제2 동작 정보 중 적어도 하나에 기초하여 S840단계에서 결정된 우선 순위를 변경하고, 변경된 우선 순위에 따라 컨텐츠 리스트 내 일부 컨텐츠들을 적어도 하나의 후보 컨텐츠로써 획득할 수도 있다. According to another embodiment, although not shown in FIG. 8 , the
일 실시 예에 의하면, 제1 동작 정보는, 상기 전자 장치의 동작 이력에 대한 정보, 상기 전자 장치와 상기 외부 디바이스의 연결 상태에 관한 정보 중 적어도 하나를 포함할 수 있고, 제2 동작 정보는 상기 외부 디바이스의 전원 공급 상태에 대한 정보, 상기 외부 디바이스의 위치 정보 또는 상기 외부 디바이스 내 압력 센서의 출력 값 중 적어도 하나를 포함할 수 있다.According to an embodiment, the first operation information may include at least one of information on an operation history of the electronic device and information on a connection state between the electronic device and the external device, and the second operation information includes the It may include at least one of information on a power supply state of an external device, location information of the external device, or an output value of a pressure sensor in the external device.
따라서, 전자 장치(1000)는 사용자의 정보에 적합한 사용자 맞춤형 컨텐츠를 제공할 수 있을 뿐만 아니라, 전자 장치 또는 현재 외부 디바이스의 동작 상태에 기초하여, 컨텐츠가 출력되는 장치의 상태에 더 부합하는 컨텐츠를 출력할 수 있다.Accordingly, the
도 9는 일 실시 예에 따른 전자 장치가 외부 디바이스의 동작 상태에 기초하여 컨텐츠 재생 모드를 결정하고, 결정된 컨텐츠 재생 모드 및 적어도 하나의 후보 컨텐츠를 함께 전송하는 방법을 나타내는 흐름도이다.9 is a flowchart illustrating a method in which an electronic device determines a content playback mode based on an operating state of an external device and transmits the determined content playback mode and at least one candidate content together, according to an embodiment.
이하에서는, 외부 디바이스가 압력 센서, 네트워크 인터페이스 및 스피커를 포함하는 베개 타입의 컨텐츠 출력 장치이고, 전자 장치(1000)는 외부 디바이스를 통하여 검색된 후보 컨텐츠들을 출력하는 경우를 가정하여 설명하기로 한다. Hereinafter, it is assumed that the external device is a pillow-type content output apparatus including a pressure sensor, a network interface, and a speaker, and the
S920에서, 전자 장치(1000)는 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정할 수 있다. S940에서, 전자 장치(1000)는 결정된 컨텐츠 재생 모드에 대한 정보를 후보 컨텐츠와 함께 출력할 수 있다.In S920 , the
예를 들어, 재생 모드는, 컨텐츠를 재생하기 컨텐츠 재생에 필요한 장치의 동작 상태를 나타낼 수 있다. 일 실시 예에 의하면, 재생 모드는 컨텐츠 재생을 위한 음량 파라미터, 컨텐츠 재생 속도를 결정하기 재생 속도 파라미터, 화면 밝기를 결정하기 위한 화면 밝기 파라미터 등을 포함할 수 있다. For example, the reproduction mode may indicate an operating state of a device required to reproduce content in order to reproduce content. According to an embodiment, the playback mode may include a volume parameter for content playback, a playback speed parameter for determining a content playback speed, a screen brightness parameter for determining screen brightness, and the like.
예를 들어, 전자 장치(1000)는 외부 디바이스로부터 제2 동작 정보로써, 압력 센서의 출력 값을 수신하고, 수신된 압력 센서의 출력 값이 기 설정된 임계치 이상인 경우, 컨텐츠 재생을 위한 모드를 제1 재생 모드로 결정하고, 제1 재생 모드에 대한 정보 및 후보 컨텐츠를 함께 외부 디바이스로 전송할 수 있다. 여기에서, 제1 재생 모드는, 낮은 음량 크기 파라미터를 포함할 수 있다. 외부 디바이스(4000)는 전자 장치로부터 수신된 후보 컨텐츠에 대한 정보 및 제1 재생 모드에 대한 정보에 기초하여, 제1 재생 모드(예컨대 낮은 음량 크기 및 느린 재생 속도)에서 후보 컨텐츠를 재생할 수 있다.For example, the
또 다른 실시 예에 의하면, 전자 장치(1000)는 외부 디바이스로부터 제2 동작 정보로써, 압력 센서의 출력 값을 수신하고, 수신된 압력 센서의 출력 값이 기 설정된 임계치 보다 작은 경우, 컨텐츠 재생을 위한 모드를 제2 재생 모드로 결정하고, 제2 재생 모드에 대한 정보 및 후보 컨텐츠를 함께 외부 디바이스로 전송할 수 있다. 일 실시 예에 의하면, 제2 재생 모드는, 높은 음량 크기 파라미터 를 포함할 수 있다. 외부 디바이스(4000)는 전자 장치로부터 수신된 후보 컨텐츠에 대한 정보 및 제2 재생 모드에 대한 정보를 이용하여, 제2 재생 모드에서 후보 컨텐츠를 재생할 수 있다.According to another embodiment, the
도 10은 일 실시 예에 따른 전자 장치가 외부 디바이스에서 컨텐츠가 재생되는 동안, 외부 디바이스로부터 획득된 센싱 정보에 기초하여 재생 모드를 변경하는 구체적인 방법을 설명하기 위한 도면이다.10 is a diagram for describing a specific method of changing a playback mode based on sensing information obtained from an external device while an electronic device is playing content in an external device, according to an embodiment.
S1002에서, 전자 장치(1000)는 적어도 하나의 후보 컨텐츠를 획득할 수 있다. S1002는 도 2에서 S250과정에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1004에서, 전자 장치(1000)는 적어도 하나의 후보 컨텐츠에 대한 정보를 외부 디바이스(4000)로 전송할 수 있다. 예를 들어, 전자 장치(1000)는 후보 컨텐츠에 대한 정보로써, 컨텐츠를 재생하기 위한 오디오 데이터 또는 청각적 데이터 중 적어도 하나를 외부 디바이스(4000)로 전송할 수 있다. 또한, 전자 장치(1000)는 적어도 하나의 후보 컨텐츠에 대한 정보를 스트리밍 방식으로 외부 디바이스(4000)로 전송할 수 있다.In S1002, the
S1006에서, 외부 디바이스(4000)는 전자 장치로부터 수신된 컨텐츠에 대한 정보를 이용하여 제1 컨텐츠를 재생할 수 있다. S1008에서, 외부 디바이스(4000)는 외부 디바이스 내 적어도 하나의 센서를 이용하여 제1 센싱 정보를 획득할 수 있다. 일 실시 예에 의하면, 제1 센싱 정보는 외부 디바이스의 사용자의 위치를 센싱하기 위한 근접 센서의 출력 값 또는 외부 디바이스 내 하우징에 대한 사용자 터치의 압력 강도를 센싱하기 위한 압력 센서의 출력 값에 대한 정보를 포함할 수 있다.In S1006 , the
S1010에서, 외부 디바이스(4000)는 제1 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 및 현재 재생 중인 컨텐츠의 위치에 대한 정보를 전자 장치(1000)로 전송할 수 있다. 예를 들어, 현재 재생 중인 컨텐츠의 식별 정보는 컨텐츠에 대한 메타 데이터를 포함할 수 있고, 현재 재생 중인 컨텐츠의 위치에 대한 정보는 현재 컨텐츠 재생에 관련된 동기 데이터를 포함할 수 있다.In S1010 , the
S1012에서, 전자 장치(1000)는 외부 디바이스로부터 수신된 제1 센싱 정보에 기초하여 제1 재생 모드를 결정할 수 있다. S1014에서, 전자 장치(1000)는 컨텐츠의 위치에 대한 정보에 기초하여 제1 컨텐츠 내 일부 컨텐츠인 제1 부분 컨텐츠를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 외부 디바이스로부터 수신된 컨텐츠의 식별 정보에 기초하여, 현재 외부 디바이스에서 재생 중인 컨텐츠가 무엇인지 식별하고, 외부 디바이스로부터 수신된 컨텐츠의 위치에 대한 정보를 이용하여 식별된 컨텐츠 내 어떤 부분 컨텐츠가 현재 외부 디바이스에서 재생 중인지 여부를 식별할 수 있다. 즉, 전자 장치(1000)는 외부 디바이스(4000)로부터 수신된 현재 재생 중인 컨텐츠의 위치에 대한 정보에 기초하여 제1 컨텐츠 내 제1 부분 컨텐츠를 식별할 수 있다. In S1012 , the
S1016에서, 전자 장치(1000)는 제1 부분 컨텐츠 및 제1 재생 모드에 대한 정보를 함께 외부 디바이스(4000)로 전송할 수 있다. S1018에서, 외부 디바이스(4000)는 제1 재생 모드에 기초하여 제1 부분 컨텐츠를 재생할 수 있다. 전자 장치가 재생 모드를 결정하는 방법은 S920에 대응될 수 있으므로, 구체적인 설명은 생략하기로 한다.In S1016 , the
S1020에서, 외부 디바이스(4000)는 제1 컨텐츠의 재생이 완료되면, 제2 컨텐츠를 재생한다. S1022에서, 외부 디바이스(4000)는 제2 컨텐츠를 재생하는 동안, 외부 디바이스의 적어도 하나의 센서를 이용하여 제2 센싱 정보를 획득할 수 있다. S1024에서, 외부 디바이스(4000)는 제2 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 및 현재 재생 중인 컨텐츠의 위치에 대한 정보를 전자 장치로 전송한다.In S1020, when the reproduction of the first content is completed, the
S1026에서, 전자 장치(1000)는 제2 센싱 정보에 기초하여 제2 재생 모드를 결정할 수 있다. 전자 장치(1000)가 제2 센싱 정보에 기초하여 제2 재생 모드를 결정하는 방법은 S920에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. S1028에서, 전자 장치(1000)는 외부 디바이스로부터 수신된 컨텐츠의 위치에 대한 정보에 기초하여 제2 컨텐츠의 부분 컨텐츠인 제2 부분 컨텐츠를 획득할 수 있다.In S1026, the
S1030에서, 전자 장치(1000)는 제2 부분 컨텐츠 및 제2 재생 모드에 대한 정보를 외부 디바이스(4000)로 전송한다. S1032에서, 외부 디바이스(4000)는 전자 장치로부터 수신된 제2 부분 컨텐츠 및 제2 재생 모드에 대한 정보에 기초하여, 제2 재생 모드에 따라 제2 부분 컨텐츠를 재생한다.In S1030 , the
전술한 바와 같이, 본 개시에 따른 전자 장치(1000)는 외부 디바이스(4000)서 컨텐츠가 재생되는 동안, 외부 디바이스로부터 수신된 센싱 정보에 기초하여 재생 모드를 결정하고, 결정된 재생 모드에 따라 현재 외부 디바이스에서 사용중인 재생 모드를 변경할 수 있다. 또한, 본 개시에 따른 전자 장치(1000)는 외부 디바이스(4000)에서 컨텐츠가 재생 되는 위치를 식별함으로써, 외부 디바이스에서 컨텐츠가 출력되는 순서에 동기화됨으로써 컨텐츠를 실시간으로 스트리밍할 수 있다.As described above, the
또한, 도 10에는 도시되지 않았지만, 본 개시에 따른 전자 장치(1000)는 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하고, 외부 디바이스의 컨텐츠 전송 요청에 응답하여 적어도 하나의 후보 컨텐츠를 출력할 수 도 있다.Also, although not shown in FIG. 10 , the
또한, 일 실시 예에 의하면, 전자 장치(1000)는 외부 디바이스(4000)로부터 컨텐츠 전송 요청이 수신되기 전, 전자 장치로부터 이전에 출력된 컨텐츠의 재생 상태에 관한 상태 정보를 저장할 수 있다. 전자 장치(1000)는 외부 디바이스(4000)로부터 컨텐츠의 재생 요청이 수신되면, 컨텐츠의 재생 상태에 관한 상태 정보에 기초하여, 컨텐츠의 재생 요청이 수신되기 전 가장 최근까지 출력된 컨텐츠가 무엇인지 여부를 식별함으로써, 컨텐츠가 끊기지 않고 연속적으로 출력되게 할 수도 있다.Also, according to an embodiment, before a content transmission request is received from the
도 11은 일 실시 예에 따른 컨텐츠를 제공하는 전자 장치의 블록도이다.11 is a block diagram of an electronic device that provides content according to an embodiment.
일 실시 예에 의하면, 전자 장치(1000)는 프로세서(1400) 및 메모리(1402)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다. 예를 들어, 전자 장치(1000)는 사용자 입력 인터페이스(미도시), 출력부(미도시), 또는 서버 또는 외부 디바이스와 통신하기 위한 네트워크 인터페이스(미도시)를 더 포함할 수도 있다.According to an embodiment, the
예를 들어, 사용자 입력 인터페이스(미도시)는, 사용자가 전자 장치(1000)를 제어하기 위한 사용자 입력을 획득할 수 있다. 예를 들어, 사용자 입력 인터페이스는 마이크를 포함하고, 전자 장치의 사용자의 음성을 포함하는 오디오 신호를 획득할 수 있다. 또한, 사용자 입력 인터페이스(미도시) 는 키 패드(key pad), 터치 패드, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.For example, the user input interface (not shown) may obtain a user input for the user to control the
사용자 입력 인터페이스는, 전자 장치(1000)가 디스플레이 상에 출력한 안내 메시지에 따라, 입력되는 입력 시퀀스를 사용자로부터 수신할 수 있다. 또한, 사용자 입력 인터페이스(1100)는 도 1 내지 도 10에 도시된 사용자의 음성을 획득하거나, 사용자로부터 키 입력, 터치 입력 또는 모션 입력 중 적어도 하나를 획득할 수 있다.The user input interface may receive an input sequence from the user according to a guide message output by the
출력부(미도시)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(미도시)는 디스플레이부, 음향 출력부를 포함할 수 있다. 디스플레이부(미도시)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함한다. 또한, 화면은 안내 메시지, 에러 메시지 등 사용자의 음성에 대한 응답 동작을 문자 이미지, 또는 영상 이미지로 디스플레이할 수 있다. The output unit (not shown) may output an audio signal, a video signal, or a vibration signal, and the output unit (not shown) may include a display unit and a sound output unit. The display unit (not shown) includes a screen for displaying and outputting information processed by the
음향 출력부는 네트워크 인터페이스로부터 수신되거나, 메모리(1402)에 미리 저장된 오디오 데이터를 출력한다. 예를 들어, 음향 출력부는 하나 이상의 오디오 데이터를 출력하기 위한 스피커를 포함할 수 있다. 또한, 음향 출력부는 전자 장치(1000)에서 수행되는 기능(예컨대, 도 6에서 도시된 안내 메시지)과 관련된 오디오 신호를 출력한다. 진동 모터는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터는 전자 장치(1000)에서 수행되는 기능들(예를 들어, 도 6에서 도시된 안내 메시지)의 출력과 함께 진동 신호를 출력할 수 있다.The sound output unit outputs audio data received from the network interface or stored in advance in the
네트워크 인터페이스는 전자 장치(1000)가 외부 디바이스(미도시) 및 서버(2000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 외부 디바이스(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치 또는 오디오 데이터를 출력할 수 있는 스피커 장치일 수 있으나, 이에 제한되지 않는다. 예를 들어, 네트워크 인터페이스는 근거리 통신부, 이동 통신부, 방송 수신부를 포함할 수 있다.The network interface may include one or more components that allow the
프로세서(1400)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. The
일 실시 예에 의하면, 본 개시에 따른 프로세서(1400)는 메모리(1402)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 10에 기재된 전자 장치(1000)의 기능을 수행할 수 있다. 또한, 프로세서(1400)는 하나 또는 복수의 프로세서로 구성될 수 있고, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU와 같은 그래픽 전용 프로세서 또는 인공지능(AI) 전용 프로세서일 수 있다. According to an embodiment, the
일 실시 예에 의하면, 프로세서(1400)가 복수의 프로세서 또는 그래픽 전용 프로세서 또는 인공 지능 전용 프로세서로 구현될 때, 복수의 프로세서 또는 그래픽 전용 프로세서 또는 인공 지능 전용 프로세서 중 적어도 일부는 전자 장치(1000) 및 전자 장치(1000)와 연결된 다른 전자 장치 또는 서버에 탑재될 수도 있다. According to an embodiment, when the
예를 들어, 프로세서(1400)는, 메모리(1402)에 저장된 프로그램들을 실행함으로써, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하고, 상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하며, 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하고, 상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하고, 상기 검색된 적어도 하나의 후보 컨텐츠를 출력할 수 있다.For example, the
또한, 프로세서(1400)는 메모리(1402)에 저장된 프로그램들을 실행함으로써, 상기 검색된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송할 수 있다.Also, the
또한, 프로세서(1400)는 상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 사용자를 인증하고, 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득할 수 있다.In addition, the
또한, 프로세서(1400)는 상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정하고, 상기 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식할 수 있다.Also, the
또한, 프로세서(1400)는 상기 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하고, 상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하고, 상기 결정된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득할 수 있다.In addition, the
또한, 프로세서(1400)는 상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하고, 상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하고, 상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득할 수 있다.In addition, the
또한, 프로세서(1400)는 상기 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정하고, 상기 결정된 컨텐츠 재생 모드에 대한 정보를 상기 적어도 하나의 후보 컨텐츠와 함께 출력할 수 있다.In addition, the
또한, 프로세서(1400)는 상기 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하고, 상기 외부 디바이스로부터 컨텐츠 전송 요청에 응답하여 상기 적어도 하나의 후보 컨텐츠를 출력할 수 있다.Also, the
메모리(1402)는, 프로세서(1400)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1402)는 전자 장치의 사용자를 인증하기 위한 사용자 인증 모델, 음성 인식 모델을 활성화 할지 여부를 결정하기 위한 음성 인식 활성화 모델, 사용자의 음성에 따라 음성 인식 서비스를 제공하기 위한 음성 인식 모델 또는 인식된 사용자의 음성 및 사용자의 정보에 기초하여 컨텐츠를 추천하기 위한 컨텐츠 추천 모델을 포함할 수 있다.The
또한, 메모리(1402)는 인공 신경망을 구성하는 레이어들, 레이어들에 포함된 노드들 및 레이어들의 연결 강도에 관한 가중치들에 대한 정보와 인공 신경망 내 가중치들이 수정 및 갱신될 경우, 수정 및 갱신된 가중치에 관한 정보를 더 저장할 수 있다. 메모리(1402)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. In addition, the
도 12는 일 실시 예에 따른 전자 장치와 연결되는 서버의 블록도이다.12 is a block diagram of a server connected to an electronic device according to an exemplary embodiment.
일 실시 예에 따르면, 서버(2000)는 네트워크 인터페이스(2100), 데이터 베이스(Data Base, 2200) 및 프로세서(2300)를 포함할 수 있다.According to an embodiment, the
네트워크 인터페이스(2100)는 상술한 전자 장치(1000)의 네트워크 인터페이스(미도시)에 대응될 수 있다. 예를 들어, 네트워크 인터페이스(2100)는 전자 장치(1000)로부터 컨텐츠에 대한 정보를 획득할 수 있다. 또한, 네트워크 인터페이스(2100)는 외부 디바이스와 다른 외부 디바이스로부터 컨텐츠에 대한 정보를 수신하거나, 현재 외부 디바이스에서 재생 중인 컨텐츠에 대한 정보를 다른 외부 디바이스로 전송할 수도 있다.The
데이터 베이스(2200)는 도 11에 도시된 전자 장치의 메모리(1402)에 대응될 수 있다. 예를 들어, 데이터 베이스(2200)는 프로세서(2300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.The database 2200 may correspond to the
프로세서(2300)는 통상적으로 서버(2000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2300)는, 서버(2000)의 DB(2200)에 저장된 프로그램들을 실행함으로써, DB(2200) 및 네트워크 인터페이스(2100) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(2300)는 DB(2100)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도11에서의 전자 장치(1000)의 동작의 일부를 수행할 수 있다.The processor 2300 typically controls the overall operation of the
도 13은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 블록도이다.13 is a block diagram of an external device connected to an electronic device according to an exemplary embodiment.
외부 디바이스(4000)는 네트워크 인터페이스(4100), 메모리(4200), 프로세서(4300), 출력부(4400), 전원 공급부(4500), 하우징(4600), 스트랩 체결부(4700), 향기 배출부(4800) 및 센서부(4900)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니고, 도시된 구성 요소보다 많은 구성 요소에 의해 외부 디바이스(4000)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 외부 디바이스(4000)는 구현될 수도 있다.The
일 실시 예에 의하면 네트워크 인터페이스(4100)는 다른 외부 디바이스 또는 전자 장치와 연결됨으로써 컨텐츠에 대한 정보, 현재 외부 디바이스의 센서부에서 획득되는 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 또는 현재 재생 중인 컨텐츠의 위치에 대한 정보를 공유할 수 있다. 네트워크 인터페이스(4100)는 전자 장치의 네트워크 인터페이스에 대응될 수 있다.According to an embodiment, the network interface 4100 is connected to another external device or electronic device to provide information about content, sensing information currently acquired from a sensor unit of an external device, identification information of content currently being played, or information about content being played. You can share information about your location. The network interface 4100 may correspond to a network interface of the electronic device.
메모리(4200)는 프로세서(4300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 외부 디바이스(4000)로 입력되거나, 외부 디바이스로부터 출력되는 데이터를 저장할 수 있다. 또한, 메모리(1402)는 현재 외부 디바이스의 센서부에서 획득되는 센싱 정보, 현재 재생 중인 컨텐츠의 식별 정보 또는 현재 재생 중인 컨텐츠의 위치에 대한 정보를 더 저장할 수도 있다. 본 개시에 따른 외부 디바이스의 메모리(4200)는 전자 장치의 메모리(1402)에 대응될 수 있다.The memory 4200 may store a program for processing and controlling the processor 4300 , and may store data input to or output from the
프로세서(4300)는 메모리(4200)에 저장된 프로그램들을 실행함으로써, 외부 디바이스 내 네트워크 인터페이스(4100), 메모리(4200), 출력부(4400), 전원 공급부(4500), 하우징(4600), 스트랩 체결부(4700), 향기 배출부(4800) 및 센서부(4900)의 동작을 전반적으로 제어할 수 있다.The processor 4300 executes the programs stored in the memory 4200, so that the network interface 4100, the memory 4200, the output unit 4400, the power supply unit 4500, the housing 4600, and the strap fastening unit within the external device. (4700), it is possible to control the overall operation of the fragrance discharge unit (4800) and the sensor unit (4900).
예를 들어, 프로세서(4300)는 전자 장치(1000)로 컨텐츠 요청 신호, 현재 재생 중인 컨텐츠의 식별 정보, 현재 재생 중인 컨텐츠의 위치에 대한 정보를 전송하도록 네트워크 인터페이스를 제어할 수 있다. 또한, 프로세서(4300)는 전자 장치(1000)로부터 수신된 재생 모드에 대한 정보에 기초하여, 외부 디바이스가 컨텐츠를 출력하는데 필요한 음량 크기, 재생 속도 등을 결정할 수 있다.For example, the processor 4300 may control the network interface to transmit a content request signal, identification information of the currently playing content, and information on the location of the currently playing content to the
출력부(4400)는 오디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(미도시)는 적어도 하나의 스피커를 포함하는 음향 출력부 또는 진동판을 포함할 수 있다. 음향 출력부는 네트워크 인터페이스로부터 수신되거나, 메모리(1402)에 미리 저장된 오디오 데이터를 출력한다. The output unit 4400 may output an audio signal or a vibration signal, and the output unit (not shown) may include a sound output unit including at least one speaker or a diaphragm. The sound output unit outputs audio data received from the network interface or stored in advance in the
전원 공급부(4500)는 외부 디바이스 내 네트워크 인터페이스(4100), 메모리(4200), 프로세서(4300), 출력부(4400), 향기 배출부(4800) 및 센서부(4900)의 동작을 위해 전원을 공급할 수 있다. 예를 들어, 전원 공급부(4500)는 외부 디바이스 내부에 포함되어 외부 디바이스의 동작을 위한 전원을 공급할 수 있다.The power supply unit 4500 is an external device within the network interface 4100, the memory 4200, the processor 4300, the output unit 4400, the fragrance discharge unit 4800 and the sensor unit 4900 to supply power for the operation. can For example, the power supply 4500 may be included in the external device to supply power for the operation of the external device.
또한, 일 실시 예에 의하면, 전원 공급부(4500)는 외부 디바이스의 동작을 위한 전원을 외부로부터 무선으로 공급받을 수 있다. 예를 들어, 전원 공급부(4500)는 자기 유도 방식 또는 공진 유도 방식 중 하나를 이용하여 외부 디바이스 외부의 무선 충전 모듈로부터 전원을 공급 받을 수 있다.Also, according to an embodiment, the power supply 4500 may wirelessly receive power for the operation of an external device from the outside. For example, the power supply unit 4500 may receive power from a wireless charging module external to an external device using either a magnetic induction method or a resonance induction method.
하우징(4600)은 네트워크 인터페이스(4100), 메모리(4200), 프로세서(4300), 출력부(4400), 전원 공급부(4500) 및 센서부(4900)의 외각에 위치하여, 외부 디바이스 내 구성을 고정시킬 수 있다. 일 실시 예에 의하면, 외부 디바이스의 하우징(4600)은 제1 부분 하우징, 제2 부분 하우징 및 제3 부분 하우징으로 구분될 수 있고, 제2 부분 하우징은 전술한 출력부의 스피커 외각에 위치할 수 있다. The housing 4600 is located outside the network interface 4100 , the memory 4200 , the processor 4300 , the output unit 4400 , the power supply unit 4500 , and the sensor unit 4900 , and fixes the internal configuration of the external device. can do it According to an embodiment, the housing 4600 of the external device may be divided into a first partial housing, a second partial housing, and a third partial housing, and the second partial housing may be located outside the speaker of the above-described output unit. .
또한, 제2 부분 하우징은 내부 소재 및 상기 내부 소재 외부에 부착되는 패브릭 소재를 포함할 수 있다. 일 실시 예에 의하면, 제2 부분 하우징의 외부에 위치하는 패브릭은 소재는 겉면에 기 설정된 간격으로 형성되는 위선 및 상기 위선과 미리 설정된 각도로 배치되는 경선을 포함하는 격자를 포함할 수 있다. 또한, 하우징(4600)는 하우징의 적어도 일부에 향기를 배출하기 위한 배출홀이 더 형성될 수 있다. In addition, the second partial housing may include an inner material and a fabric material attached to the outside of the inner material. According to an embodiment, the fabric positioned on the outside of the second partial housing may include a grid including a hypothetical line formed at a preset interval on the outer surface and a meridian disposed at a preset angle with the hypothetical line. In addition, the housing 4600 may be further formed with a discharge hole for discharging the fragrance in at least a portion of the housing.
스트랩 체결부(4700)는 제1 부분 하우징의 적어도 일부에 형성되고, 외부 디바이스의 전원을 제어하기 위한 스트랩이 삽입될 수 있다. 일 실시 예에 의하면, 스트랩 체결부는 하우징의 적어도 일부에 형성된 스트랩 채널 내부면에 위치하여 하우징과 연결될 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 하우징 내 스트랩 채널을 통하여 스트랩이 삽입되는 경우, 전원 공급부가 전원을 공급하도록 제어할 수 있지만, 하우징 내 스트랩 채널을 통하여 스트랩이 삽입되지 않는 경우에는 전원 공급부로부터의 전원 공급을 차단할 수 있다.The strap fastening part 4700 is formed in at least a portion of the first partial housing, and a strap for controlling power of an external device may be inserted. According to an embodiment, the strap fastening part may be located on the inner surface of the strap channel formed in at least a part of the housing to be connected to the housing. According to an embodiment, the
향기 배출부(4800)는 하우징의 적어도 일부에 형성된 배출홀을 통하여 향기가 배출되도록 외부 디바이스의 내부의 방향체를 제어할 수 있다. 일 실시 예에 의하면, 배출홀은 스트랩 체결부와 기 설정된 간격으로 이격되어 위치되어, 향기를 배출할 수 있다. 예를 들어, 외부 디바이스는 전자 장치로부터 획득된 컨텐츠를 출력함과 함께, 획득된 컨텐츠와 관련된 향기가 배출홀을 통하여 배출되도록 향기 배출부를 제어할 수 있다. 따라서, 외부 디바이스를 사용하는 치매 환자들의 치매 치료 효과를 극대화 할 수 있다.The fragrance discharge unit 4800 may control the aroma body inside the external device so that the fragrance is discharged through the discharge hole formed in at least a portion of the housing. According to an embodiment, the discharge hole is spaced apart from the strap fastening part at a preset interval, and may discharge the fragrance. For example, the external device may output the content obtained from the electronic device and control the fragrance discharge unit so that the fragrance related to the obtained content is discharged through the discharge hole. Therefore, it is possible to maximize the dementia treatment effect of dementia patients using the external device.
센서부(4900)는 센서부(4900)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 센서부(1400)는 외부 디바이스(4000)의 주변 환경 정보, 외부 디바이스의 상태 정보, 외부 디바이스 사용자의 모션 입력 및 외부 디바이스를 터치하는 사용자 터치 입력의 세기 등을 측정하는데 이용될 수 있다.The sensor unit 4900 may detect a state of the
외부 디바이스 센서부(4900)는, 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, 또는 압력 센서 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 센싱부는 외부 디바이스의 하우징 내 일부에 위치하여, 외부 디바이스를 터치하는 사용자 터치의 세기를 측정하고, 측정된 압력 센서의 출력 값을 프로세서(4300)의 제어에 의해 네트워크 인터페이스(4100)로 전달할 수 있다.The external device sensor unit 4900 includes at least one of an acceleration sensor, a temperature/humidity sensor, an infrared sensor, a gyroscope sensor, a location sensor (eg, GPS), a barometric pressure sensor, a proximity sensor, or a pressure sensor. can, but is not limited thereto. For example, the sensing unit is located in a part of the housing of the external device, measures the intensity of the user's touch touching the external device, and controls the output value of the measured pressure sensor through the control of the processor 4300 to the network interface 4100 can be transmitted as
도 14는 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 구조를 설명하기 위한 도면이다.14 is a diagram for describing a structure of an external device connected to an electronic device according to an exemplary embodiment.
도 14를 참조하면, 외부 디바이스(4000)는 제1 부분 하우징(1422), 제2 부분 하우징(1424) 및 제3 부분 하우징(1426)을 포함할 수 있다. 또한, 외부 디바이스(4000)는 제1 부분 하우징(1422)의 적어도 일부에 형성된 스트랩 체결부(1428) 및 스트랩 체결부(1428)와 기 설정된 간격으로 이격된 향기 배출홀(1434)를 더 포함할 수 있다. 또한, 스트랩 체결부(1428)는 제1 부분 하우징(1422)을 통과하면서, 스트랩 채널과 결합되고, 스트랩 채널을 통하여 스트랩(1432)이 이동될 수 있다. 일 실시 예에 의하면, 스트랩(1432)는 가죽 소재의 고리 타입으로 형성될 수 있다.Referring to FIG. 14 , the
도 14의 1440을 참조하면, 외부 디바이스(4000)의 스트랩 체결부 측에서 바라본 모양이 도시된다. 예를 들어, 외부 디바이스(4000)의 제1 부분 하우징 측면에서 외부 디바이스를 보면, 스트랩(1432) 및 스트랩 체결부(4700)에 인접하게 위치하는 향기 배출홀(1434)를 관측할 수 있다.Referring to 1440 of FIG. 14 , a view from the side of the strap fastening part of the
도 14의 1460을 참조하면, 무선 충전 모듈(1462)에 장착된 외부 디바이스(4000)가 도시된다. 외부 디바이스(4000)는 외부 디바이스의 외부에 위치한 무선 충전 모듈로부터 무선으로 전원을 공급받을 수 있다. 도 14의 1480을 참조하면, 무선 충전 모듈(1462)와 분리된 외부 디바이스의 모양이 도시된다. 무선 충전 모듈(1462)은 무선 충전 모듈과 분리된 별도의 전원 채널(1482)를 통하여, 외부의 전원으로부터 에너지를 획득할 수 있다.Referring to 1460 of FIG. 14 , an
도 15는 일 실시 예에 따른 전자 장치 및 외부 디바이스가 서로 연동하여 동작하는 과정을 설명하기 위한 도면이다.15 is a diagram for describing a process in which an electronic device and an external device operate in conjunction with each other according to an exemplary embodiment.
S1502에서, 전자 장치(1000)는 사용자의 정보를 획득할 수 있다. 예를 들어, 전자 장치(1000)는 전자 장치의 디스플레이 패널에 형성된 지문 센서를 통하여, 디스플레이 패널을 터치하는 사용자 손가락의 지문 정보를 획득할 수 있다. 전자 장치(1000)는 지문 정보를 이용하여 전자 장치의 사용자를 인증할 수 있다. S1506에서, 전자 장치(1000)는 획득된 사용자의 정보에 기초하여 컨텐츠를 출력할 수 있다. 전자 장치(1000)가 사용자의 정보에 기초하여 컨텐츠를 출력하는 방법은 도 7에서 S702 내지 S704에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. In S1502, the
S1508에서, 외부 디바이스(4000)의 스트랩 채널 내 스트랩은, 사용자의 물리적 입력에 기초하여 이동될 수 있다. 예를 들어, 외부 디바이스는 스트랩 채널 내 스트립이 밖으로 이동하는 경우, 전자 장치(1000)로 컨텐츠 전송 요청에 대한 정보를 전송하고, 전자 장치(1000)로부터 컨텐츠에 대한 정보가 수신되는 경우, 컨텐츠를 바로 재생하기 위해, 외부 디바이스 내 각 구성들에 전원을 공급할 수 있다.In S1508, the strap in the strap channel of the
S1510에서, 외부 디바이스(4000)는 외부 디바이스 내 센서부를 통하여 센싱 정보를 획득할 수 있다. 예를 들어, 외부 디바이스(4000)는 압력 센서를 이용하여 외부 디바이스의 사용자가 외부 디바이스를 터치 시 터치 강도를 압력 센서 값으로 측정할 수 있다.In S1510 , the
S1512에서, 외부 디바이스(4000)는 스트랩 채널 내 스트랩은 다시 삽입 될 수 있다. 예를 들어, 외부 디바이스(4000)는 스트랩 채널 내 스트랩이 다시 삽입되는 경우, 컨텐츠 전송 중단 요청에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S1514에서, 외부 디바이스(4000)는 외부의 무선 충전 모듈에 결합되어 외부의 무선 충전 모듈로부터 전원을 공급 받을 수 있다. In S1512, the
도 16은 일 실시 예에 따른 전자 장치, 서버 및 외부 디바이스가 서로 연동하여 컨텐츠를 제공하는 과정을 설명하기 위한 도면이다.16 is a diagram for describing a process in which an electronic device, a server, and an external device interwork with each other to provide content, according to an exemplary embodiment.
S1602에서, 전자 장치(1000)는 제1 오디오 신호를 획득한다. S1604에서, 전자 장치(1000)는 획득한 제1 오디오 신호를 서버(2000)로 전송할 수 있다. S1606에서, 서버(2000)는 서버에 저장된 음성 인식 모델을 이용하여 제1 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. S1608에서, 서버(2000)는 오디오 특징 벡터에 기초하여, 음성 인식 모델을 학습시킬 수 있다.In S1602, the
S1610에서, 전자 장치(1000)는 사용자 음성을 포함하는 제2 오디오 신호를 획득할 수 있다. S1612에서, 전자 장치(1000)는 획득된 제2 오디오 신호를 서버(2000)로 전송할 수 있다. S1614에서, 서버(2000)는 음성 인식 모델을 이용하여 제2 오디오 신호로부터 오디오 특징 벡터를 추출할 수 있다. S1616에서, 서버(2000)는 추출된 오디오 특징 벡터를 미리 학습된 음성 인식 모델에 입력함으로써, 사용자 음성을 인식할 수 있다.In S1610, the
S1618에서, 서버(2000)는 음성 인식 모델의 출력 값을 이용하여 획득된 음성 인식 결과에 대한 정보를 전자 장치(1000)로 전송할 수 있다. S1620에서, 전자 장치(1000)는 음성 인식 결과에 대한 정보를 획득하고, 획득된 음성 인식 결과에 대한 정보에 기초하여 컨텐츠 검색 요청을 서버(2000)로 전송할 수 있다.In S1618 , the
S1622에서, 서버(2000)는 음성 인식 결과에 기초하여 컨텐츠를 획득한다. 예를 들어 서버(2000)는 네트워크를 통하여 인터넷에 액세스하고, 전자 장치로부터 획득된 음성 인식 결과에 대응되는 문자열을 키워드로 하여 후보 컨텐츠를 획득할 수 있다. S1624에서, 서버(2000)는 검색된 후보 컨텐츠를 전자 장치로 전송할 수 있다. S1628에서, 서버(2000)는 검색된 후보 컨텐츠를 전자 장치로 전송함과 함께 외부 디바이스(4000)로 전송할 수 있다. S1630에서, 전자 장치(1000)는 서버(2000)로부터 수신된 컨텐츠를 다시 외부 디바이스(4000)로 전송할 수 있다.In S1622, the
따라서, 본 개시에 따른 외부 디바이스(4000)는 검색된 후보 컨텐츠에 대한 정보를 서버로부터 직접 수신할 수도 있지만, 전자 장치(1000)를 경유하여 후보 컨텐츠에 대한 정보를 획득할 수도 있기 때문에 안정적으로 컨텐츠를 출력할 수 있다.Therefore, the
도 17은 일 실시 예에 따른 전자 장치와 연결되는 외부 디바이스의 동작 과정을 설명하기 위한 도면이다.17 is a diagram for describing an operation process of an external device connected to an electronic device according to an exemplary embodiment.
외부 디바이스(4000)는 도 15에서 전술한 바와 같이, 제1 부분 하우징의 적어도 일부에 형성된 스트랩 채널 내에서 스트랩(1702)의 이동을 감지할 수 있다. 예를 들어, 외부 디바이스(4000)는 스트랩 채널 내 스트랩이 제1 부분 하우징의 외부 방향으로 이동하는 경우, 스트랩의 이동을 감지한 것에 응답하여 전자 장치(1000)로 컨텐츠 전송 요청을 송신하고, 전자 장치(1000)가 컨텐츠 전송 요청에 응답하여 전송한 컨텐츠를 재생할 수 있다. As described above with reference to FIG. 15 , the
또 다른 실시 예에 의하면, 외부 디바이스(4000)는 스트랩 채널 내 스트랩(1702)이 제1 부분 하우징의 내부 방향으로 이동하는 경우, 스트랩의 이동을 감지한 것에 응답하여, 현재 재생 중인 컨텐츠의 재생을 중단할 수 있다. 일 실시 예에 의하면, 외부 디바이스(4000)는 스트랩 채널 내 스트랩이 제1 부분 하우징의 내부 방향으로 이동하는 것을 감지하는 것에 응답하여, 전자 장치(1000)로 커튼츠 전송 중단 요청을 전송할 수도 있다.According to another embodiment, when the
일 실시 예에 의하면, 외부 디바이스(4000)는 적어도 하나의 구동 태엽을 포함하는 구동부(1706)를 더 포함할 수도 있다. 일 실시 예에 의하면, 구동부(1706)는 외부 디바이스 내 제1 부분 하우징 내에 위치할 수 있다. 구동부(1706)는 소정의 기어비를 가지는 복수의 기어들(1709) 및 상기 복수의 기어와 연결된 용수철을 포함하는 구동 태엽 모듈(1708)을 포함할 수 있다.According to an embodiment, the
예를 들어, 외부 디바이스(4000)는 구동부 내 구동 태엽 모듈의 회전에 기초하여 전자 장치로부터 획득된 컨텐츠를 재생할 수도 있다. 예를 들어, 외부 디바이스(4000)의 하우징의 스트랩 채널 내에서 이동하는 스트랩(1702)은 스트랩 연결부(1704)를 통하여 스트랩 라인(1705)과 연결될 수 있다. 스트랩 라인(1705)은 제1 부분 하우징 내 구동부(1706)와 연결될 수 있다. 스트랩 라인(1705)은 제1 부분 하우징의 외부 방향으로 이동하는 스트랩 연결부의 이동에 따라 구동부(1706) 내 구동 태엽 모듈(1708)이 제1 방향으로 회전하도록 함으로써, 구동 태엽 모듈이 구동력을 저장하도록 할 수 있다.For example, the
또 다른 실시 예에 의하면, 외부 디바이스(4000)의 구동 태엽 모듈이 저장한 구동력이 소정의 임계치 이상인 경우, 구동 태엽 모듈의 구동력에 기초하여 전자 장치로부터 획득된 컨텐츠를 재생할 수 있다. 일 실시 예에 의하면, 구동 태엽 모듈이 구동력에 기초하여 회전하는 경우, 스트랩 연결부의 이동은, 제1 부분 하우징의 내부 방향으로 이동할 수도 있다. According to another embodiment, when the driving force stored by the driving power supply module of the
즉, 본 개시에 따른 전자 장치(1000)와 연결되는 외부 디바이스(400)는, 외부 디바이스의 사용자가 외부 디바이스의 외부에 위치한 스트랩(1702)을 당기는 경우, 전자 장치로부터 수신되거나 외부 디바이스 자체에 저장된 컨텐츠를 재생할 수 있고, 외부 디바이스의 사용자가 스트랩(1702)을 다시 제1 부분 하우징 내로 삽입하거나, 외부 디바이스의 구동부 내 구동 태엽 모듈의 구동력에 의해 스트랩(1702)이 제1 부분 하우징 내로 다시 삽입되는 경우, 컨텐츠의 재생을 중단할 수 있다.That is, when the user of the external device pulls the
일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present disclosure, or may be known and available to those skilled in the art of computer software.
또한, 상기 일 실시 예에 다른 방법을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 장치가 제공될 수 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. In addition, according to the embodiment, a computer program apparatus including a recording medium storing a program for performing another method may be provided. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
이상에서 본 개시의 실시예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiment of the present disclosure has been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improved forms of the present disclosure are also provided by those skilled in the art using the basic concept of the present disclosure as defined in the following claims. belong to the scope of the right.
Claims (20)
상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하는 단계;
상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계;
상기 추출된 오디오 특징 벡터에 기초하여 상기 사용자를 인증하는 단계;
상기 사용자의 인증 결과에 기초하여 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득하는 단계;
상기 사용자의 인증 결과에 기초하여 활성화되는 음성 인식 모델에, 상기 추출된 오디오 특징 벡터를 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계;
상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및
상기 획득된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하고,
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계는
상기 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하는 단계;
상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하는 단계;
상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하는 단계;
상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하는 단계;
상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득하는 단계; 를 포함하는, 방법.A method for providing a content service by an electronic device, the method comprising:
obtaining an audio signal including the user's voice input from the user of the electronic device;
extracting an audio feature vector from the obtained audio signal;
authenticating the user based on the extracted audio feature vector;
obtaining user information of the authenticated user when the user is authenticated based on the authentication result of the user;
recognizing the user's voice in the audio signal by inputting the extracted audio feature vector into a voice recognition model activated based on the user's authentication result;
obtaining at least one candidate content based on the recognized user's voice; and
outputting the obtained at least one candidate content; including,
The step of obtaining the at least one candidate content includes:
obtaining a content list from a network connected to the electronic device by using a string corresponding to the recognized user's voice as a search keyword;
determining the priority of contents in the obtained contents list based on the obtained user information;
acquiring first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device;
changing the determined priority based on at least one of the first operation information and the second operation information;
acquiring some contents in the contents list as the at least one candidate contents according to the changed priority; A method comprising
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계 이전에, 상기 컨텐츠 서비스를 제공하기 위한 애플리케이션을 실행하는 단계;
상기 애플리케이션에 의해 제공되는 사용자 인터페이스를 통하여 상기 컨텐츠에 관한 사용자 터치 입력을 획득하는 단계; 및
상기 사용자 터치 입력이 획득되면, 상기 인식된 사용자 음성이 아닌 상기 사용자 터치 입력에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 획득하는 단계; 를 더 포함하는, 방법.The method of claim 1, wherein the method
Before acquiring the at least one candidate content, executing an application for providing the content service;
obtaining a user touch input regarding the content through a user interface provided by the application; and
when the user touch input is obtained, obtaining the at least one candidate content based on the user touch input instead of the recognized user voice; A method further comprising:
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계 이후에, 상기 획득된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송하는 단계; 를 더 포함하는, 방법.The method of claim 1, wherein the method
transmitting, after acquiring the at least one candidate content, information on the acquired at least one candidate content to an external device connected to the electronic device by wire or wirelessly; A method further comprising:
상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정하는 단계; 및
상기 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식하는 단계; 를 포함하는, 방법.The method of claim 1, wherein recognizing the user's voice comprises:
determining whether to activate the speech recognition model based on the audio feature vector for each frame of the obtained audio signal; and
recognizing a user's voice in the audio signal by inputting the audio feature vector into the voice recognition model as the voice recognition model is activated; A method comprising
상기 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정하는 단계; 및
상기 결정된 컨텐츠 재생 모드에 대한 정보를 상기 적어도 하나의 후보 컨텐츠와 함께 출력하는 단계; 를 포함하는, 방법.The method of claim 1, wherein outputting the at least one candidate content comprises:
determining at least one content reproduction mode required to reproduce the at least one candidate content based on the user information and the second operation information; and
outputting information on the determined content reproduction mode together with the at least one candidate content; A method comprising
상기 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하는 단계; 및
상기 외부 디바이스로부터 컨텐츠 전송 요청에 응답하여 상기 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하는, 방법.The method of claim 3, wherein the outputting of the at least one candidate content comprises:
obtaining a content transmission request from an external device connected to the electronic device; and
outputting the at least one candidate content in response to a content transmission request from the external device; A method comprising
상기 컨텐츠 전송 요청이 획득되기 전, 상기 전자 장치로부터 출력된 컨텐츠의 재생 상태에 관한 상태 정보를 저장하는 단계; 및
상기 컨텐츠 전송 요청이 획득되면, 상기 상태 정보에 기초하여 상기 전자 장치로부터 출력될 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하는, 방법.The method of claim 9, wherein the outputting of the at least one candidate content comprises:
before the content transmission request is obtained, storing state information about a reproduction state of the content output from the electronic device; and
outputting at least one candidate content to be output from the electronic device based on the status information when the content transmission request is obtained; A method comprising
상기 사용자의 생체 정보, 상기 사용자의 취미 정보, 상기 컨텐츠에 대한 사용자의 관심 정보, 상기 사용자의 위치 정보, 상기 사용자의 건강 정보, 상기 전자 장치와 연결된 의료 데이터 베이스로부터 획득될 수 있는 상기 사용자의 의료 기록에 대한 정보 또는 상기 전자 장치를 통하여 사용자가 요청한 컨텐츠 이력에 대한 정보 중 적어도 하나를 포함하고,
상기 제1 동작 정보는, 상기 전자 장치의 동작 이력에 대한 정보, 상기 전자 장치와 상기 외부 디바이스의 연결 상태에 관한 정보 중 적어도 하나를 포함하며,
상기 제2 동작 정보는 상기 외부 디바이스의 전원 공급 상태에 대한 정보, 상기 외부 디바이스의 위치 정보 또는 상기 외부 디바이스 내 압력 센서의 출력 값 중 적어도 하나를 포함하는 것을 특징으로 하는, 방법.The method of claim 1, wherein the user's information is
The user's biometric information, the user's hobby information, the user's interest information for the content, the user's location information, the user's health information, and the user's medical care that may be obtained from a medical database connected to the electronic device It includes at least one of information about the record or information about a content history requested by a user through the electronic device,
The first operation information includes at least one of information on an operation history of the electronic device and information on a connection state between the electronic device and the external device,
The second operation information comprises at least one of information about a power supply state of the external device, location information of the external device, or an output value of a pressure sensor in the external device.
상기 전자 장치의 주변 음향을 획득하는 마이크;
상기 컨텐츠 서비스와 관련된 오디오 신호를 출력하는 스피커;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행함으로써, 상기 컨텐츠를 제공하는 하나 이상의 프로세서; 를 포함하고,
상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 전자 장치의 사용자로부터 상기 사용자의 음성 입력을 포함하는 오디오 신호를 획득하고,
상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하고,
상기 추출된 오디오 특징 벡터에 기초하여 상기 사용자를 인증하고,
상기 사용자 인증 결과에 기초하여, 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득하고,
상기 사용자의 인증 결과에 기초하여 활성화되는 음성 인식 모델에, 상기 추출된 오디오 특징 벡터를 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하고,
상기 인식된 사용자의 음성에 기초하여, 상기 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하고,
상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하고,
상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하고,
상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하고,
상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 적어도 하나의 후보 컨텐츠로 획득하고,
상기 획득된 적어도 하나의 후보 컨텐츠를 출력하는, 전자 장치.An electronic device for providing a content service, comprising:
a microphone for acquiring ambient sound of the electronic device;
a speaker outputting an audio signal related to the content service;
a memory storing one or more instructions; and
one or more processors that provide the content by executing the one or more instructions; including,
The at least one processor by executing the one or more instructions,
Obtaining an audio signal including the user's voice input from the user of the electronic device,
extracting an audio feature vector from the obtained audio signal,
authenticating the user based on the extracted audio feature vector;
Based on the user authentication result, when the user is authenticated, obtain user information of the authenticated user,
Recognizing the user's voice in the audio signal by inputting the extracted audio feature vector to a voice recognition model activated based on the user's authentication result,
obtaining a content list from a network connected to the electronic device using a string corresponding to the user's voice as a search keyword based on the recognized user's voice;
Determine the priority of the contents in the obtained contents list based on the obtained user information,
Obtaining first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device,
changing the determined priority based on at least one of the first operation information and the second operation information,
acquiring some contents in the contents list as at least one candidate contents according to the changed priority,
and outputting the obtained at least one candidate content.
상기 획득된 적어도 하나의 후보 컨텐츠에 대한 정보를 상기 전자 장치와 유선 또는 무선으로 연결된 외부 디바이스로 전송하는, 전자 장치.13. The method of claim 12, wherein the at least one processor comprises:
An electronic device for transmitting the obtained information on the at least one candidate content to an external device connected to the electronic device by wire or wirelessly.
상기 획득된 오디오 신호의 프레임 별 오디오 특징 벡터에 기초하여 상기 음성 인식 모델을 활성화 할지 여부를 결정하고,
상기 음성 인식 모델이 활성화 됨에 따라, 상기 오디오 특징 벡터를 음성 인식 모델에 입력함으로써 상기 오디오 신호 내 사용자의 음성을 인식하는, 전자 장치.13. The method of claim 12, wherein the at least one processor comprises:
determining whether to activate the speech recognition model based on the audio feature vector for each frame of the obtained audio signal;
When the voice recognition model is activated, the electronic device recognizes the user's voice in the audio signal by inputting the audio feature vector into the voice recognition model.
상기 사용자의 정보 및 상기 제2 동작 정보에 기초하여, 상기 적어도 하나의 후보 컨텐츠를 재생하는데 필요한 적어도 하나의 컨텐츠 재생 모드를 결정하고,
상기 결정된 컨텐츠 재생 모드에 대한 정보를 상기 적어도 하나의 후보 컨텐츠와 함께 출력하는, 전자 장치.13. The method of claim 12, wherein the at least one processor comprises:
determining at least one content reproduction mode necessary to reproduce the at least one candidate content based on the user information and the second operation information;
and outputting information on the determined content reproduction mode together with the at least one candidate content.
상기 전자 장치와 연결된 외부 디바이스로부터 컨텐츠 전송 요청을 획득하고,
상기 외부 디바이스로부터 컨텐츠 전송 요청에 응답하여 상기 적어도 하나의 후보 컨텐츠를 출력하는, 전자 장치.14. The method of claim 13, wherein the at least one processor comprises:
obtaining a content transmission request from an external device connected to the electronic device;
and outputting the at least one candidate content in response to a content transmission request from the external device.
상기 획득된 오디오 신호로부터 오디오 특징 벡터를 추출하는 단계;
상기 추출된 오디오 특징 벡터에 기초하여 상기 사용자를 인증하는 단계;
상기 사용자의 인증 결과에 기초하여 상기 사용자가 인증되는 경우, 상기 인증된 사용자의 사용자 정보를 획득하는 단계;
상기 사용자의 인증 결과에 기초하여 활성화되는 음성 인식 모델에, 상기 추출된 오디오 특징 벡터를 음성 인식 모델에 입력함으로써, 상기 오디오 신호 내 사용자의 음성을 인식하는 단계;
상기 인식된 사용자의 음성에 기초하여 적어도 하나의 후보 컨텐츠를 획득하는 단계; 및
상기 획득된 적어도 하나의 후보 컨텐츠를 출력하는 단계; 를 포함하고,
상기 적어도 하나의 후보 컨텐츠를 획득하는 단계는
상기 인식된 사용자의 음성에 대응되는 문자열을 검색 키워드로 하여, 상기 전자 장치와 연결된 네트워크로부터 컨텐츠 리스트를 획득하는 단계;
상기 획득된 사용자의 정보에 기초하여 상기 획득된 컨텐츠 리스트 내 컨텐츠들의 우선 순위를 결정하는 단계;
상기 전자 장치의 동작 상태에 관한 제1 동작 정보 또는 상기 전자 장치와 연결된 외부 디바이스의 동작 상태에 관한 제2 동작 정보를 획득하는 단계;
상기 제1 동작 정보 또는 상기 제2 동작 정보 중 적어도 하나에 기초하여 상기 결정된 우선 순위를 변경하는 단계;
상기 변경된 우선 순위에 따라 상기 컨텐츠 리스트 내 일부 컨텐츠들을 상기 적어도 하나의 후보 컨텐츠로 획득하는 단계; 를 포함하는, 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.obtaining an audio signal including the user's voice input from a user of the electronic device;
extracting an audio feature vector from the obtained audio signal;
authenticating the user based on the extracted audio feature vector;
obtaining user information of the authenticated user when the user is authenticated based on the authentication result of the user;
recognizing the user's voice in the audio signal by inputting the extracted audio feature vector to the voice recognition model, which is activated based on the user's authentication result;
obtaining at least one candidate content based on the recognized user's voice; and
outputting the obtained at least one candidate content; including,
The step of obtaining the at least one candidate content includes:
obtaining a content list from a network connected to the electronic device by using a string corresponding to the recognized user's voice as a search keyword;
determining the priority of contents in the obtained contents list based on the obtained user information;
acquiring first operation information on the operation state of the electronic device or second operation information on the operation state of an external device connected to the electronic device;
changing the determined priority based on at least one of the first operation information and the second operation information;
acquiring some contents in the contents list as the at least one candidate contents according to the changed priority; A computer-readable recording medium recording a program for executing the method on a computer, comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200011677A KR102355903B1 (en) | 2020-01-31 | 2020-01-31 | Apparatus and method for providing contents |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200011677A KR102355903B1 (en) | 2020-01-31 | 2020-01-31 | Apparatus and method for providing contents |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210098006A KR20210098006A (en) | 2021-08-10 |
KR102355903B1 true KR102355903B1 (en) | 2022-01-25 |
Family
ID=77316159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200011677A KR102355903B1 (en) | 2020-01-31 | 2020-01-31 | Apparatus and method for providing contents |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102355903B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11971920B1 (en) | 2022-10-13 | 2024-04-30 | Actionpower Corp. | Method for determining content associated with voice signal |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230116125A1 (en) * | 2021-10-08 | 2023-04-13 | Arris Enterprises Llc | Method and system for smart assistant voice command requestor authentication |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101303344B1 (en) | 2011-03-21 | 2013-09-03 | 주식회사 휴먼리그 | Block type musical toy |
KR102281178B1 (en) * | 2014-07-09 | 2021-07-23 | 삼성전자주식회사 | Method and apparatus for recognizing multi-level speech |
KR102247533B1 (en) * | 2014-07-30 | 2021-05-03 | 삼성전자주식회사 | Speech recognition apparatus and method thereof |
KR102254894B1 (en) * | 2015-01-05 | 2021-05-24 | 엘지전자 주식회사 | Display device for arranging categories using voice recognition searching results, and method thereof |
KR102098237B1 (en) * | 2019-06-26 | 2020-04-07 | 네이버 주식회사 | Method for verifying speaker and system for recognizing speech |
-
2020
- 2020-01-31 KR KR1020200011677A patent/KR102355903B1/en active IP Right Grant
Non-Patent Citations (1)
Title |
---|
NUGU 공식 블로그 : NUGU와 당신의 이야기. 내비게이션을 운전 비서로 활용하는 음성 명령 팁 다섯 가지. 2018.11.26. 출처: https://m.blog.naver.com/PostView.naver?blogId=nuguai&logNo=221406439612&proxyReferer=https:%2F%2Fwww.google.com%2F* |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11971920B1 (en) | 2022-10-13 | 2024-04-30 | Actionpower Corp. | Method for determining content associated with voice signal |
Also Published As
Publication number | Publication date |
---|---|
KR20210098006A (en) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11908472B1 (en) | Connected accessory for a voice-controlled device | |
EP3525205B1 (en) | Electronic device and method of performing function of electronic device | |
CN110313152B (en) | User registration for an intelligent assistant computer | |
CN108227932B (en) | Interaction intention determination method and device, computer equipment and storage medium | |
CN109074806B (en) | Controlling distributed audio output to enable speech output | |
CN110998720B (en) | Voice data processing method and electronic device supporting the same | |
US10885091B1 (en) | System and method for content playback | |
US9443527B1 (en) | Speech recognition capability generation and control | |
US12033633B1 (en) | Ambient device state content display | |
US20180199123A1 (en) | Voice activated electronic device | |
EP3721605A1 (en) | Streaming radio with personalized content integration | |
EP3427166A1 (en) | Intelligent automated assistant for media exploration | |
CN110211588A (en) | Audio recognition method, device and electronic equipment | |
CN113168832A (en) | Alternating response generation | |
US11393459B2 (en) | Method and apparatus for recognizing a voice | |
CN112969995A (en) | Electronic device and control method thereof | |
CN114051639A (en) | Emotion detection using speaker baseline | |
KR20160127165A (en) | Voice trigger for a digital assistant | |
CN111199032A (en) | Identity authentication method and device | |
KR102355903B1 (en) | Apparatus and method for providing contents | |
CN110516083A (en) | Photograph album management method, storage medium and electronic equipment | |
KR20200090355A (en) | Multi-Channel-Network broadcasting System with translating speech on moving picture and Method thererof | |
KR20190093962A (en) | Speech signal processing mehtod for speaker recognition and electric apparatus thereof | |
US11373656B2 (en) | Speech processing method and apparatus therefor | |
KR20190101100A (en) | Voice input processing method and electronic device supportingthe same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |