KR102208256B1 - Smart doll performing the reading function - Google Patents
Smart doll performing the reading function Download PDFInfo
- Publication number
- KR102208256B1 KR102208256B1 KR1020190116728A KR20190116728A KR102208256B1 KR 102208256 B1 KR102208256 B1 KR 102208256B1 KR 1020190116728 A KR1020190116728 A KR 1020190116728A KR 20190116728 A KR20190116728 A KR 20190116728A KR 102208256 B1 KR102208256 B1 KR 102208256B1
- Authority
- KR
- South Korea
- Prior art keywords
- reading operation
- control unit
- user
- reading
- doll
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Abstract
Description
본 발명은 리딩 기능을 수행하는 스마트 인형에 관한 것이다. The present invention relates to a smart doll that performs a reading function.
최근 텍스트를 음성으로 변환하는 기술인TTS(Text to sound)기술이 각광을 받고 있다. 이러한 TTS기술은, 텍스트를 음성화 할 때, 사람이 읽는 것과 같은 자연스러움을 도출하기 위한 방향으로 연구 및 개발되고 있다. Recently, TTS (Text to Sound) technology, a technology that converts text into speech, is in the spotlight. Such TTS technology is being researched and developed in a direction to derive naturalness like human reading when text is spoken.
그러나 이러한 TTS를 이용한 종래의 서비스들은 사용자의 반응에 기반한 변경 동작을 수행하지 않는 단방향적인 서비스가 주를 이루었다. 또한 TTS를 활용한 서비스들은 주로 텍스트만 존재하는 콘텐츠에 한정되어 제공되었다. However, conventional services using the TTS mainly consist of a one-way service that does not perform a change operation based on a user's response. In addition, services using TTS were mainly limited to text-only content.
본 발명은 TTS기능 수행 시, 사용자 반응에 기반하여 설정값을 변경하도록 제어하여, 보다 사용자 반응에 기반한 리딩 기능을 제공하고자 하는데 목적이 있다. An object of the present invention is to provide a reading function based on user reaction by controlling to change a set value based on user reaction when performing the TTS function.
또한 본 발명은 이미지, 동영상, 텍스트가 복합적으로 존재하는 콘텐츠(SNS, 메신저 등)에서 리딩 동작을 수행하고자 하는 데 목적이 있다. Another object of the present invention is to perform a reading operation on content (SNS, messenger, etc.) in which images, videos, and texts exist in combination.
본 발명의 실시 예에 따른 사용자 단말 및 서버와 연동하여 동작하는 스마트 인형은 상기 사용자 단말 및 서버와 통신하며, 상기 사용자 단말과 서버 중 적어도 하나로부터 리딩 동작의 대상 콘텐츠를 수신하는 통신부, 인형의 본체의 적어도 일 영역에 구비되며 사용자가 상기 인형에 가하는 접촉 정보를 센싱하는 센서부, 스피커로 상기 대상 콘텐츠의 오디오 데이터를 출력하는 오디오 처리부, 대상 콘텐츠에 대한 리딩 명령을 감지하고, 대상 데이터에 대한 리딩 동작을 수행하며, 출력 설정값 변경 이벤트를 감지함에 따라 리딩 동작 설정값을 제어하는 제어부를 포함할 수 있다. 그리고 이 때, 상기 대상 콘텐츠는SNS 게시물, 메신저 대화내용, 인터넷 뉴스 기사, 전자책 중 적어도 일 종류를 포함하고, 상기 리딩 동작 설정값은 추가되는 배경음 종류, 추가되는 효과음 종류, 사운드 볼륨, 리딩 속도 중 적어도 하나를 포함할 수 있다. A smart doll that operates in conjunction with a user terminal and a server according to an embodiment of the present invention communicates with the user terminal and the server, and a communication unit that receives content to be read from at least one of the user terminal and the server, the body of the doll A sensor unit that is provided in at least one area of and senses contact information applied by a user to the doll, an audio processing unit that outputs audio data of the target content through a speaker, detects a reading command for the target content, and reads the target data It may include a control unit that performs an operation and controls a reading operation setting value according to detecting an output setting value change event. In this case, the target content includes at least one type of SNS posts, messenger conversation contents, Internet news articles, and e-books, and the reading operation setting value is a type of added background sound, type of added sound effect, sound volume, and reading speed. It may include at least one of.
상기 제어부는 사용자의 동작 및 주변 상황 중 적어도 하나에 기반하여 리딩 동작 설정값을 제어하는 상황 기반 제어부를 포함하고, 상기 상황 기반 제어부는 스마트 인형의 적어도 일 영역에 구비된 접촉 센서에 의해 감지된 사용자의 접촉 정보를 기반으로 접촉 종류를 판단하고, 접촉 종류에 대응하여 리딩 동작의 설정값을 제어하는 접촉 기반 제어부와, 사용자의 음성 명령, 주변 소음도, 특정 명령음 중 적어도 하나에 기반하여 리딩 동작 설정값을 제어하는 음성 기반 제어부와, 사용자의 반응 정보를 수집하여 리딩 동작 설정값을 변경하는 반응 기반 제어부를 포함하여 구성될 수 있다. 이 때, 상기 반응 기반 제어부는 상기 반응 정보로 기 설정된 시간 이상 사용자의 움직임 및 음성이 감지되지 않은 수면 반응을 포함하고, 상기 수면 반응이 감지된 경우, 리딩 동작을 중지하도록 제어할 수 있다. The control unit includes a context-based control unit for controlling a reading operation setting value based on at least one of a user's motion and a surrounding situation, and the context-based control unit is a user detected by a touch sensor provided in at least one area of the smart doll. A contact-based control unit that determines the type of contact based on the contact information of and controls the setting value of the reading operation in response to the type of contact, and sets the reading operation based on at least one of a user's voice command, ambient noise level, and a specific command sound It may be configured to include a voice-based control unit for controlling the value, and a reaction-based control unit for collecting user reaction information and changing a reading operation setting value. In this case, the reaction-based controller includes a sleep reaction in which the user's movement and voice are not detected for a predetermined time or longer as the reaction information, and when the sleep reaction is detected, the reading operation may be stopped.
또한, 상기 제어부는 상기 대상 콘텐츠의 특성에 대응하여 리딩 동작의 설정값을 제어하는 콘텐츠 기반 제어부를 포함할 수 있다. In addition, the control unit may include a content-based control unit that controls a setting value of a reading operation in response to a characteristic of the target content.
상기 콘텐츠 기반 제어부는 상기 대상 콘텐츠에 포함된 텍스트를 기 설정된 조건에 따라 감정 카테고리별로 분류하며, 해당 텍스트가 분류된 카테고리에 대응하는 효과음을 출력하도록 제어하는 의미 기반 제어부, 리딩 동작을 수행하기 위해 기 연계된 어플리케이션의 종류에 따라 리딩 동작의 설정값을 상이하게 설정하는 형식 기반 제어부;를 포함할 수 있다. The content-based control unit classifies the text included in the target content by emotion category according to a preset condition, and controls the text to output a sound effect corresponding to the classified category, and is configured to perform a reading operation. It may include a format-based control unit for differently setting the setting value of the reading operation according to the type of the associated application.
그리고 상기 제어부는 스마트 인형의 사용량에 비례하여, 출력되는 목소리의 연령대를 증가시키는 캐릭터 설정부를 포함할 수 있다. In addition, the control unit may include a character setting unit that increases the age range of the output voice in proportion to the amount of use of the smart doll.
스마트 인형과 통신하는 서버는 상기 사용자 단말의 로그 정보에 기반하여 사용자의 어플리케이션 접속 빈도, 주요 관심사 정보를 산출하고, 그에 대응하는 즐겨찾기 리딩 대상 콘텐츠 목록을 산출하는 출력 대상 선택부, 이미지 정보의 리딩 동작을 지원하기 위한 AI 분석 기능을 수행하는AI 지원부를 포함하여 구성될 수 있다.The server communicating with the smart doll calculates the user's application access frequency and major interest information based on the log information of the user terminal, and an output target selection unit that calculates a corresponding list of contents to be read for favorites, reading image information It may be configured to include an AI support unit that performs an AI analysis function to support the operation.
이 때, 상기 AI 지원부는 대상 콘텐츠에 포함된 이미지에 대응하는 배경음 및 효과음 중 적어도 하나를 산출하되, 상기 이미지로부터 색감, 조명, 계절 중 적어도 하나의 요소로부터 온도감 코드를 산출하고, 이미지에 포함된 객체의 종류를 기반으로 객체 코드를 산출하며, 상기 온도감 코드 및 객체 코드가 유사한 배경음, 효과음 중 적어도 하나를 산출할 수 있다. At this time, the AI support unit calculates at least one of a background sound and a sound effect corresponding to an image included in the target content, but calculates a temperature sensation code from at least one of color, lighting, and season from the image, and includes it in the image. An object code may be calculated based on the type of the object, and at least one of a background sound and a sound effect sound in which the temperature feeling code and the object code are similar may be calculated.
본 발명의 실시 예는 TTS 기능을 이용한 콘텐츠 리딩 동작을 수행할 시, 사용자 반응에 기반하여 리딩 속도 조절, 사운드 볼륨 조절, 리딩 동작 중지 등의 기능을 사용자의 필요에 맞게 제공할 수 있다. According to an embodiment of the present invention, when performing a content reading operation using a TTS function, functions such as adjusting a reading speed, adjusting a sound volume, and stopping a reading operation based on a user's response may be provided according to a user's needs.
본 발명의 실시 예는 SNS 게시물, 메신저 대화내용, 웹툰 등 다양한 종류의 콘텐츠를 대신 읽어줄 수 있어, 사용자로 하여금 사용자 단말기를 보지 않더라도 필요한 내용을 확인할 수 있게 한다. 나아가, 본 발명의 실시 예는 콘텐츠에 대응하는 효과음, 배경음을 텍스트 내용과 함께 출력하므로, 종래 기술에 비해 감성적이고 인간 친화적인 서비스 제공이 가능하다. According to an exemplary embodiment of the present invention, various types of contents such as SNS posts, messenger conversation contents, webtoons, and the like can be read instead, so that the user can check necessary contents even without looking at the user terminal. Furthermore, in the exemplary embodiment of the present invention, since sound effect and background sound corresponding to the content are output together with text content, it is possible to provide an emotional and human-friendly service compared to the prior art.
도 1은 본 발명의 실시 예에 따른 스마트 인형의 네트워크 구조를 설명하기 위한 도면이다.
도 2는 본 발명의 실시 예에 따른 스마트 인형 100의 구성 요소를 도시한 구성도이다.
도 3은 본 발명의 실시 예에 따른 상황 기반 제어부의 구성을 도시한 도면이다.
도 4는 본 발명의 실시 예에 따른 콘텐츠 기반 제어부의 구성에 대하여 도시한 도면이다.
도 5는 본 발명의 실시 예에 따른 서버의 구성을 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 스마트 인형의 동작 순서를 도시한 도면이다. 1 is a diagram illustrating a network structure of a smart doll according to an embodiment of the present invention.
2 is a block diagram showing components of a
3 is a diagram illustrating a configuration of a context-based control unit according to an embodiment of the present invention.
4 is a diagram illustrating a configuration of a content-based control unit according to an embodiment of the present invention.
5 is a diagram showing the configuration of a server according to an embodiment of the present invention.
6 is a diagram illustrating an operation sequence of a smart doll according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.
본 명세서에서 개시되는 스마트 인형은 로봇, 자동차, 동물 등의 형태를 갖는 완구를 포함할 수 있으며, 그 외관의 형태 및 재질이 특별히 제한되지는 않는다. The smart doll disclosed in the present specification may include a toy having a shape such as a robot, a car, an animal, etc., and the shape and material of the exterior are not particularly limited.
도 1은 본 발명의 실시 예에 따른 스마트 인형의 네트워크 구조를 설명하기 위한 도면이다. 1 is a diagram illustrating a network structure of a smart doll according to an embodiment of the present invention.
도 1에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 스마트 인형이 네트워크 시스템은 스마트 인형 100, 사용자 단말 200, 서버 300를 포함하여 구성될 수 있다. 본 발명의 실시 예에 따른 상기 스마트 인형 100은 사용자 단말 200과 블루투스 등의 근거리 통신모듈에 기반한 통신을 수행할 수 있다. 그리고 상기 사용자 단말 200은 상기 스마트 인형 100의 구동과 관련된 어플리케이션이 설치될 수 있으며, 사용자 단말 200 내 어플리케이션 설정값에 기반하여 상기 스마트 인형 100의 구동이 제어될 수 있다. As shown in Figure 1, the smart doll network system according to an embodiment of the present invention may be configured to include a
예를 들어, 사용자는 상기 사용자 단말 200에서 상기 스마트 인형 100을 통해 출력(리딩; Reading)될 데이터 항목(예, SNS 어플리케이션 종류)을 선택할 수 있다. 출력 기능(예, 리딩 기능)의 대상이 되는 데이터 항목에 대한 정보는 상기 서버 300로 제공될 수 있으며, 상기 서버 300는 출력 대상 데이터 항목을 상기 스마트 인형 100측으로 전송할 수 있다. For example, the user may select a data item (eg, SNS application type) to be output (read) through the
상기 서버 300는 본 발명의 실시 예에 따라, 상기 스마트 인형 100이 오디오 서비스(리딩 기능)를 수행할 수 있도록, 사용자 단말 200에 의해 선택된 출력 대상 데이터(예, SNS 피드 내용, 인스턴트 메신저 대화 내용, 뉴스 기사, 웹툰, 전자책 등)를 제공할 수 있다. 본 발명의 실시 예에 따른 서버 300는 출력 대상이 되는 데이터 항목을 제공함과 동시에, 상기 데이터 항목의 가공 동작을 수행할 수도 있도록 통합형(예, 스마트 인형 전용 콘텐츠 제공 서버)으로 구현될 수 있다. The
다른 실시 예에 따르면, 상기 서버 300는 추가의 서비스 서버에 접속하여 출력 대상 콘텐츠를 수신한 이후, 상기 스마트 인형 100에서 출력되는 데 요구되는 가공동작(예, 분류 동작, 특정 콘텐트 추출 동작 등)을 수행할 수 있다. 이 때 상기 추가의 서비스 서버는 예컨대, 각종 SNS 서버, 포털 서버, 전자책 제공 서버 등이 해당될 수 있다.According to another embodiment, the
상기 스마트 인형 100은 와이파이 등의 무선 통신 기능이 가능하도록 구현될 수 있으며, 그에 따라 사용자 단말 200 및 서버 300와의 통신을 수행할 수 있다. 상기 스마트 인형 100은 출력 대상 데이터 수신 시, 서버 300로부터 직접 수신할 수도 있고, 서버 300에서 사용자 단말 200로 송신된 후, 상기 사용자 단말 200로부터 수신할 수도 있다. The
또한 다양한 실시 예에 따라 상기 스마트 인형 100은 수집되거나 생성된 일부 정보(예, 센싱 정보, 사용자 음성 입력 정보 등)를 사용자 단말 200 또는 서버 300측으로 전송할 수 있다. In addition, according to various embodiments, the
이하에서, 도 2 내지 도 4를 참조하여, 상기 스마트 인형의 구성에 대한 구체적인 설명을 기술하기로 한다. In the following, a detailed description of the configuration of the smart doll will be described with reference to FIGS. 2 to 4.
먼저, 도 2는 본 발명의 실시 예에 따른 스마트 인형 100의 구성 요소를 도시한 구성도이다. First, Figure 2 is a configuration diagram showing the components of the
도 2에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 스마트 인형 100은 통신부 110, 저장부 120, 입력부 130, 오디오 처리부 140, 센서부 150, 카메라부 160, 제어부 170를 포함하여 구성될 수 있다. 도 2에는 도시되지 않았으나, 다양한 실시 예에 따라 상기 스마트 인형 100은 별도의 표시부를 더 포함할 수 있다. 이 때 상기 표시부(미도시)는 프로젝터 형태를 포함할 수도 있다. As shown in FIG. 2, the
상기 통신부 110는 사용자 단말 및 서버와 스마트 인형 간의 데이터 송수신을 위해 네트워크를 이용할 수 있으며 상기 네트워크의 종류는 특별히 제한되지 않는다. 상기 네트워크는 예를 들어, 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스를 제공하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망 일 수 있다. 또한, 상기 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동통신망, LTE advanced(LTE-A), 5G(Five Generation)를 포함하는 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나 이거나 또는 이들 중 적어도 하나 이상을 결합하여 이루어질 수 있다.The
본 발명의 실시 예에 따른 상기 통신부 110는 리딩 동작의 대상이 되는 출력 콘텐츠(데이터)를 송신 및 수신하는 동작을 지원할 수 있다. The
상기 저장부 120는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.The
외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), XD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치와 기능적으로 및/또는 물리적으로 연결될 수 있다.External memory is a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (mini-SD), extreme digital (XD), It may further include a multi-media card (MMC) or a memory stick. The external memory may be functionally and/or physically connected to the electronic device through various interfaces.
본 발명의 실시 예에 따른 상기 저장부 120는 TTS(Text To Sound) 프로그램 및 다양한 버전의 목소리, 배경음, 효과음 등의 사운드를 포함하여 저장할 수 있다. 상기 저장부 120는 그 외에도 리딩 동작의 대상이 되는 콘텐츠 정보를 저장할 수 있고, 리딩 동작의 설정값 변경과 관련된 정보를 저장할 수 있다. The
상기 입력부 130는 입력부는, 예를 들면, 터치 패널(touch panel), (디지털) 펜 센서(pen sensor), 키(key), 또는 초음파(ultrasonic) 입력 장치를 포함할 수 있다. 터치 패널은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널은 제어 회로를 더 포함할 수도 있다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.The
(디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. The (digital) pen sensor may be, for example, a part of a touch panel or may include a separate sheet for recognition. The key may include, for example, a physical button, an optical key, or a keypad.
본 발명이 실시 예에 따른 상기 입력부 130는 인형 본체의 일 영역에 사용자 입력을 수신하기 위해 키 버튼, 터치패널 등의 형태로 구비될 수 있다. The
상기 오디오 처리부 150는 스피커 및 마이크를 포함하여 구성될 수 있으며, 전기 신호와 소리(sound) 신호를 쌍방향으로 변환시킬 수 있다. The
본 발명의 실시 예에 따른 상기 오디오 처리부 150는 먼저, 스피커를 통해 출력 대상의 오디오 데이터를 출력할 수 있다. 그리고 상기 오디오 처리부 150는 마이크를 통해 사용자의 음성 정보 내지 그 밖의 사운드 정보를 입력 또는 센싱할 수 있다. 예를 들어, 상기 오디오 처리부 150는 주변 소음, 사용자의 음성 입력 등의 사운드 데이터를 입력받을 수 있다. 또한 상기 오디오 처리부 150는 TTS를 통해 텍스트 형태에서 오디오 형태로 변환된 데이터를 스피커로 출력할 수 있다. First, the
상기 센서부 150는 예를 들면, 물리량을 계측하거나 시계의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서부는, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB(red, green, blue) 센서), 생체 센서, 온/습도 센서, 조도 센서, 또는 UV(ultra violet) 센서 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서부는, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서부는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. The
본 발명의 실시 예에 따른 상기 센서부 150는 사용자의 근접 여부, 사용자의 터치(예, 스마트 인형의 일 부위에 대한 터치)를 감지할 수 있다. 예를 들어 상기 센서부 150는 사용자의 터치 여부를 판단할 수 있도록 스마트 인형 100의 일측에 구비되는 터치 센서를 포함할 수 있다. 또한 상기 센서부 150는 자이로 센서 등을 통해 상기 스마트 인형 100이 사용자에 의해 움직임이 발생하였는지 여부를 판단할 수 있다. The
이 밖에도 상기 센서부 150는 주변 조도, 습도 등의 주변 환경 정보를 센싱할 수 있다. In addition, the
상기 카메라부 160는 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면 하나 이상의 이미지 센서, 렌즈, ISP(image signal processor), Ehsms 플래시(flash)를 포함할 수 있다.The
본 발명의 실시 예에 따른 상기 카메라부 160는 사용자의 반응 정보를 촬영할 수 있다. The
상기 제어부 170는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. The
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 제어부에 의해 구동될 수 있다. 메모리는 상기 사용자 단말 및 서버 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 상기 제어부와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory and driven by the control unit. The memory may be located inside or outside the user terminal and the server, and may exchange data with the controller through various known means.
본 발명의 실시 예에 따른 상기 제어부 170는 대상 콘텐츠에 대한 리딩 명령을 감지하고, 이에 따라 대상 데이터에 대한 리딩 동작을 수행할 수 있다. 또한 상기 제어부 170는 리딩 동작을 수행함에 있어서, 출력 설정값 변경 이벤트를 감지하고, 그에 대응하여 출력 설정값을 변경하는 동작을 수행할 수 있다. The
상기 제어부 170는 상황 기반 제어부 171, 콘텐츠 기반 제어부 172, 캐릭터 설정부 173를 포함하여 구성될 수 있다. The
먼저, 상기 상황 기반 제어부 171는 상기 스마트 인형 100을 사용하는 사용자의 모션과 같은 상황 정보를 기반으로 리딩 동작의 설정값을 제어할 수 있다. First, the context-based
그리고 상기 콘텐츠 기반 제어부 172는 상기 스마트 인형 100이 수행하는 리딩 동작의 대상 콘텐츠의 특성에 기빈하여 리딩 동작의 설정값을 제어할 수 있다. In addition, the content-based
이 때 상기 리딩 동작의 설정값이란, 추가되는 배경음, 효과음의 종류, 사운드의 볼륨, 리딩 속도 등을 포함하는 개념일 수 있다. In this case, the setting value of the reading operation may be a concept including an added background sound, a type of sound effect, a volume of a sound, a reading speed, and the like.
또한 이 때, 상기 리딩 동작의 대상 콘텐츠는 TTS 프로그램을 통해 오디오 데이터가 출력될 수 있는 콘텐츠(텍스트 포함 콘텐츠) 및 사운드 데이터를 포함하는 콘텐츠를 의미할 수 있다. 보다 구체적으로, 상기 리딩 동작의 대상이 되는 콘텐츠는, 사용자 단말 200에 설치된 인스턴트 메신저의 메시지, 문자 메시지, 스케줄 내용, 알람 내용, SNS(예, 인스타그램, 페이스북)의 게시 내용, 포털 사이트의 게시물(뉴스 기사 등), 전자책 등이 포함될 수 있다. In this case, the target content for the reading operation may refer to content (content including text) for outputting audio data through a TTS program and content including sound data. More specifically, the content subject to the reading operation is a message of an instant messenger installed in the user terminal 200, text message, schedule content, alarm content, posting content of SNS (eg, Instagram, Facebook), and portal site. Posts (news articles, etc.), e-books, etc. may be included.
상기 캐릭터 설정부 173는 스마트 인형의 성격에 해당하는 설정값을 지정 및 변경할 수 있다. 상기 캐릭터 설정부 173는 예를 들어, 스마트 인형의 사용량(스마트 인형을 이용한 리딩 동작의 수행 횟수 및 빈도를 포함하여 정의될 수 있음)의 단계에 비례하여 출력되는 목소리를 변화시키되, 녹음된 목소리 샘플 항목 중 목소리를 녹음한 모델의 연령대가 낮은 항목(예, 어린이가 녹음한 샘플)에서 높은 항목(예, 성인의 녹음 샘플)으로 단계별 변화시킬 수 있다. The
앞서, 상기 스마트 인형 100의 제어부 170의 구성이 상황 기반 제어부 171, 콘텐츠 기반 제어부 172 및 캐릭터 설정부 173를 포함하여 구성될 수 있음을 설명하였다. 이하에서는, 상기 제어부 170의 구성 중 상황 기반 제어부 171와 콘텐츠 기반 제어부 172에 대한 보다 상세한 설명을 도 3 및 도 4를 각각 참조하여 기술하기로 한다. Previously, it has been described that the configuration of the
도 3은 본 발명의 실시 예에 따른 상황 기반 제어부의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a context-based control unit according to an embodiment of the present invention.
도 3에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 상기 상황 기반 제어부 171는 접촉 기반 제어부 171a, 음성 기반 제어부 171b, 반응 기반 제어부 171c를 포함하여 구성될 수 있다. 상기 상황 기반 제어부 171는 사용자의 동작 및 주변 상황 중 적어도 하나에 기반하여 리딩 동작의 출력 설정값을 제어할 수 있다. As shown in FIG. 3, the context-based
먼저, 상기 접촉 기반 제어부 171a는 스마트 인형 100에 대한 사용자의 접촉 여부 및 접촉의 종류에 기반하여 설정값을 제어할 수 있다. 이 때 상기 접촉 기반 제어부 171a는 상기 스마트 인형 100와 사용자의 근접 여부 및 근접 정도에 기반하여 설정값을 제어할 수도 있다.First, the contact-based
일 실시 예에 따라 상기 접촉 기반 제어부 171a는 스마트 인형 100의 적어도 일측에 구비된 접촉 센서를 통해 사용자가 접촉한 부위를 판단할 수 있다. 접촉 센서는 예컨대, 인형의 머리, 배, 엉덩이 등의 특징 위치에 구비될 수 있다. 그리고 상기 접촉 센서는 1회성 터치/ 반복 터치, 단일터치/멀티 터치/팜 터치(터치 영역이 기 설정 값 이상이 되는 경우, 멀티터치와 구분되는 팜(손바닥) 터치로 인식할 수 있다), 압력을 가한 터치/압력을 가하지 않은 터치 등 다양한 접촉 방식을 구분하여 감지할 수 있다. According to an embodiment, the contact-based
상기 접촉 기반 제어부 171a는 상기 접촉 센서를 통해 감지된 신호의 항목들을 조합하여 사용자의 접촉 종류를 판단할 수 있다. 접촉 센서의 신호가 인형의 머리 위치에서 감지되었으며, 반복터치이고, 팜 터치이며, 압력을 가하지 않은 터치를 의미할 경우, 상기 접촉 기반 제어부 171a는 각 신호의 항목들을 조합하여 사용자의 접촉 동작이 인형의 머리를 쓰다듬는 동작임을 판단할 수 있다. 이와 유사하게, 상기 접촉 기반 제어부 171a는 발바닥을 간지럽히는 동작(반복터치+단일터치+압력을 가하지 않은 터치), 엉덩이를 때리는 동작(1회성 터치+팜터치+압력을 가한 터치), 볼을 찌르는 동작(1회성 터치+단일 터치+압력을 가한 터치) 등을 구분할 수 있다. The contact-based
그리고 상기 접촉 기반 제어부 171a는 접촉 동작의 종류를 구분한 이후, 접촉 동작 각각에 대응하여 리딩 동작의 설정값을 변경할 수 있다. 접촉 동작의 종류에 대응하여 변경되는 설정값은 효과음, 목소리 변경, 사운드 볼륨, 리딩 속도, 리딩 동작의 중지/재시작 등을 포함할 수 있다. In addition, after classifying the type of contact operation, the contact-based
예를 들어, 상기 접촉 기반 제어부 171a는 스마트 인형의 머리를 쓰다듬는 동작이 감지된 경우, 리딩 속도를 감소시킬 수 있다. 또는 상기 접촉 기반 제어부 171a는 스마트 인형의 발바닥을 간지럽히는 접촉 동작이 감지된 경우, 리딩 동작을 잠시 중지하고 웃음소리 효과음을 출력한 후 리딩 동작을 재시작하도록 제어할 수 있다.For example, the contact-based
상기 음성 기반 제어부 171b는 음성 및 기타 사운드 입력에 대응하여 리딩 동작의 출력 설정값을 제어할 수 있다. 예를 들어, 상기 음성 기반 제어부 171b는 사용자의 음성 명령, 주변 소음도, 특정 명령음 등에 기반하여 리딩 동작의 출력 설정값을 제어할 수 있다. The voice-based
상기 음성 명령은 리딩 동작의 설정값을 직접적으로 변경하기 위해 수행될 수 있으며, 그 종류로는 예컨대 “재생”, “볼륨 업(Volume up)”, “빨리 읽어줘”, “어린이 목소리로 읽어줘” 등이 포함될 수 있다. The voice command can be executed to directly change the setting value of the reading operation, and the types are, for example, "play", "volume up", "read quickly", "read with a child's voice." ”, etc.
상기 음성 기반 제어부 171b는 주변 소음도 수치를 판단하고, 판단된 소음도 수치에 대응하여 리딩 동작의 설정값을 변경할 수 있다. 예를 들어, 상기 음성 기반 제어부 171b는 주변 환경의 소음도 수치가 큰 값일수록, 그에 대응하여 출력 볼륨을 상향 조정할 수 있다. 이를 통해, 사용자는 외부 소음도에 따라 직접 볼륨을 조정할 필요 없이, 자동으로 적정값으로 조정된 사운드를 들을 수 있다. The voice-based
또한 상기 음성 기반 제어부 171b는 단어와 같은 의미를 갖지 않은 기타 사운드(이하, 특정 명령음)에 대응하여, 리딩 동작의 설정값을 변경할 수도 있다. 예를 들어, 상기 음성 기반 제어부 171b는 박수 소리, 휘파람 소리 등에 대응하여 설정값(효과음, 목소리 변경, 사운드 볼륨, 리딩 속도 등)을 변경할 수 있다. In addition, the voice-based
상기 반응 기반 제어부 171c는 사용자의 반응 정보를 수집하여 이를 판단하고, 판단된 사용자의 반응 정보에 기반하여 리딩 동작의 설정값을 변경할 수 있다. 이 때 상기 사용자의 반응 정보는 일 리딩 동작이 개시된 이후 발생된 사용자의 표정, 사용자의 모션 등을 통해 판단될 수 있다. 그리고 상기 사용자의 반응 정보는 스마트 인형 100에 구비된 카메라 및 마이크를 통해 입력된 정보를 기반으로 판단될 수 있다. 상기 사용자의 반응 정보의 예로는, 긍정 반응(예, 웃음 소리 감지), 집중 반응(예, 얼굴 정면 이미지 및 눈동자 감지), 하품 반응(예, 얼굴 이미지 및 하품 동작 감지), 수면 반응(예, 사용자 감지 및 기 설정된 시간 이상 움직임 및 음성이 감지되지 않음) 등이 있을 수 있다. The reaction-based
상기 반응 기반 제어부 171c는 사용자의 반응에 대응하는 리딩 동작의 설정값을 유지하거나 변경할지 여부를 먼저 결정한 후, 리딩 동작을 변경하여야 할 것으로 판단되는 경우, 변경할 리딩 동작의 설정값을 산출할 수 있다. 예를 들어, 상기 반응 기반 제어부 171c는 사용자의 반응이 긍정 반응 또는 집중 반응인 경우, 리딩 동작의 설정값을 유지하고, 그 외의 반응인 경우에 리딩 동작의 설정값을 변경하도록 제어할 수 있다. 또한, 상기 반응 기반 제어부 171c는 사용자로부터 하품 반응이 발생한 것을 판단한 경우, 볼륨 업을, 사용자로부터 수면 반응이 감지된 경우, 리딩 동작을 중지하도록 제어할 수 있다. The response-based
상기 상황 기반 제어부 171는 앞서 기술한 예시들 외에도, 다양한 종류의 상황 정보를 감지 및 판단하고, 그에 대응하여 리딩 동작과 관련된 기 설정된 설정값 제어를 수행할 수 있다. In addition to the above-described examples, the context-based
도 4는 본 발명의 실시 예에 따른 콘텐츠 기반 제어부의 구성에 대하여 도시한 도면이다. 4 is a diagram illustrating a configuration of a content-based control unit according to an embodiment of the present invention.
도 4에서 도시되는 상기 콘텐츠 기반 제어부 172는 리딩 동작의 대상이 되는 콘텐츠의 특성에 대응하여 리딩 동작의 다양한 설정값 중 적어도 하나의 설정값을 제어할 수 있다. 그리고 도 4에서 도시됨에 따라 알 수 있듯, 본 발명의 실시 예에 따른 콘텐츠 기반 제어부 172는 의미 기반 제어부 172a, 형식 기반 제어부 172b를 포함하여 구성될 수 있다.The content-based
상기 콘텐츠 기반 제어부 172의 구성 중 상기 의미 기반 제어부 172a는 리딩 동작의 대상이 되는 텍스트 및 이미지의 의미에 대응하여 리딩 동작의 적어도 일 설정값을 제어할 수 있다. 이 때, 스마트 인형 100은 리딩 동작을 수행할 대상을 기 연계된 어플리케이션 내의 콘텐츠들 중에서 선택할 수 있다. 그리고 상기 기 연계된 어플리케이션은 예컨대, SNS 어플리케이션, 메신저 어플리케이션, 전자책 어플리케이션 등을 포함할 수 있다. 또한 상기 리딩 동작을 수행할 대상은 상기 기 연계된 어플리케이션의 전체 콘텐츠, 사용자가 선택한 특정 콘텐츠(예, 사용자가 선택한 채팅방의 대화 목록, 사용자가 선택한 전자책 콘텐츠) 등이 해당될 수 있다. Among the configurations of the content-based
상기 의미 기반 제어부 172a는 상기 리딩 동작의 대상이 되는 대상 콘텐츠의 의미를 판단하는 동작을 수행할 수 있다. 그리고 이후 상기 의미 기반 제어부 172a는 판단된 의미에 대응하여 리딩 동작의 적어도 일 설정값을 제어할 수 있다. The meaning-based
일 실시 예에 따라, 상기 의미 기반 제어부 172a는 상기 대상 콘텐츠에 포함된 텍스트로부터, 특정 단어, 특정 문장 부호, 특정 자모음 등의 의미 요소를 추출하고, 추출된 의미 요소를 기 설정된 조건에 따라 감정 카테고리별로 분류할 수 있다. 그리고 상기 의미 기반 제어부 172a는 상기 의미 요소의 카테고리에 대응하는 효과음을 출력할 수 있다. 구체적으로 예를 들면, 상기 의미 기반 제어부 172a는 기 설정된 기준에 따라 'ㅋ', 'ㅋㅋㅋ', 'ㅋㅋㅋㅋㅋ' 등과 같은 '웃음' 카테고리로 분류되는 의미 요소를 추출할 수 있고, 그에 대응하여 웃음소리 효과음을 출력하도록 제어할 수 있다. According to an embodiment, the meaning-based
이와 유사하게, 상기 의미 기반 제어부 172a는 추출된 의미 요소의 카테고리에 대응하여 리딩 속도, 목소리 종류(예, 목소리의 성별, 연령대 변경 또는 목소리 주파수 변경 등) 및 사운드 볼륨 중 적어도 하나를 포함하는 설정값을 제어할 수 있다. 구체적으로 예를 들면, 상기 의미 기반 제어부 172a는 '!'와 '!!!!!!!!' 에 대하여 '느낌표' 카테고리로 분류하고, 상기 '느낌표' 카테고리로 분류된 의미요소를 포함하는 단위 텍스트(예, 문장, 메신저의 1메세지)의 사운드 볼륨 또는 목소리 주파수를 증가시킬 수 있다. 이에 따라, 스마트 인형 100은 느낌표가 포함된 문장을 읽을 때, 하이 톤의 큰 소리로 읽어줄 수 있게 된다. Similarly, the semantic-based
나아가, 상기 의미 기반 제어부 172a는 동일 카테고리에 해당하더라도 각 의미요소의 단계에 따라 설정값의 단계를 지정할 수 있다. 예를 들어 상기 의미 기반 제어부 172a는 'ㅋ'을 '웃음' 카테고리의 1단계 의미요소로 지정하고, 'ㅋㅋㅋㅋㅋ' 이상을 2단계, 'ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ'이상을 3단계로 지정할 수 있다. 그리고 각 의미요소가 부여받은 단계 정보에 대응하여, 상기 의미 기반 제어부 172a는 출력되는 웃음소리 효과음의 단계 또한 1단계 웃음 소리, 2단계 웃음 소리, 3단계 웃음소리로 출력할 수 있다. Furthermore, the semantic-based
마찬가지로, 상기 의미 기반 제어부 172a는 의미요소의 단계 정보에 대응하여 변경할 사운드 볼륨의 단계, 목소리 주파수의 단계 등을 지정 및 적용할 수 있다. Likewise, the semantic-based
상기 형식 기반 제어부 172b는 출력 대상 콘텐츠의 데이터 형식에 대응하여 리딩 동작의 설정값을 변경할 수 있다. The format-based
일 실시 예에 따라, 상기 형식 기반 제어부 172b는 이미지, 오디오, 동영상, 텍스트 등으로 구분되는 데이터 포맷에 대응하여 리딩 동작의 설정값을 결정 및 적용할 수 있다. 상기 형식 기반 제어부 172b는 리딩 동작에 TTS프로그램에 의한 변환이 요구되는지 여부를 데이터 포맷을 통해 판단한 후, 리딩 동작을 수행할 수 있다. 예를 들어, 인스타그램과 같은 SNS에서 게시물에 대한 리딩 동작을 수행할 때, 상기 형식 기반 제어부 172b는 TTS 가 요구되지 않는 오디오 데이터 및 오디오가 포함된 동영상에 대하여, 별도의 변환 동작 없이 일반적인 방식의 오디오 출력 기능을 수행하도록 제어할 수 있다. 반면, 상기 형식 기반 제어부 172b는 게시물 중 TTS로 사운드 변환 출력이 가능한 포맷인 텍스트 데이터에 대하여 TTS에 의한 리딩 동작을 수행할 수 있다.According to an embodiment, the format-based
나아가, 상기 형식 기반 제어부 172b는 리딩 동작을 수행하기 위해 기 연계된 어플리케이션의 종류에 따라, 리딩 동작의 설정값을 상이하게 설정할 수 있다. 예를 들어, SNS 어플리케이션(예, 인스타그램 게시물)과 포털의 뉴스기사, 인스턴트 메신저 어플리케이션(예, 대화 내용), 전자책(유아용 동화)를 읽어주는 목소리 종류, 리딩 속도, 효과음, 사운드 볼륨 등의 설정값을 각각 상이하게 설정할 수 있다. Further, the format-based
이하에서는 상기 스마트 인형 100과 통신하는 서버 300에 대한 설명을 기술하기로 한다. Hereinafter, a description of the
도 5는 본 발명의 실시 예에 따른 서버의 구성을 도시한 도면이다. 5 is a diagram showing the configuration of a server according to an embodiment of the present invention.
상기 서버 300는 상기 스마트 인형 100, 사용자 단말 200과 통신하며, 상기 스마트 인형 100이 리딩 동작을 수행하는 데 요구되는 대상 콘텐츠 및 부가 설정값 정보를 제공할 수 있다. The
도 5에서는 도시되지 않았으나, 상기 서버 300가 스마트 인형 100, 사용자 단말 200과 통신하기 위해 통신부를 구비하며, 출력 대상 데이터를 저장하기 위한 저장부를 포함하여 구성될 수 있음은 자명한 사항이므로, 이와 관련된 구체 설명은 생략하기로 한다. Although not shown in FIG. 5, it is obvious that the
상기 서버 300는 도 5에서 도시되는 바와 같이 출력 대상 선택부 301, 출력 대상 제공부 302, AI 지원부 303를 포함하여 구성될 수 있다. As illustrated in FIG. 5, the
일 실시 예에서, 사용자는 스마트 인형 100을 통해 리딩 동작을 수행하고자 할 대상(대상 어플리케이션 및 콘텐츠)을 사용자 단말 200의 어플리케이션 상에서 선택할 수 있다. 그러나 이 외에도 본 발명의 다양한 실시 예는, 사용자가 사용자 단말 200이 아닌 스마트 인형 100으로의 음성 명령을 통해 리딩 동작을 수행할 대상 어플리케이션 및 특정 어플리케이션에 속한 특정 콘텐츠를 선택할 수 있다. 보다 다양한 실시 예에 따라, 상기 스마트 인형 100은 서버 300의 출력 대상 선택부 301가 출력 대상을 선택하도록 요청할 수 있다. 예를 들어, 사용자는 스마트 인형 100에 “웹툰 읽어줘” 라는 음성 명령을 수신함에 따라, 상기 스마트 인형 100은 리딩 동작의 대상이 되는 웹툰을 선택하기 위해 서버 300측에 출력 대상 선택 요청 신호를 전송할 수 있다. 그에 대응하여, 상기 서버 300의 출력 대상 선택부 301는 사용자 단말 200의 웹툰 열람 기록에 대응하여 사용자의 관심 웹툰 목록을 산출하고, 그 중 일 웹툰을 선택 및 열람하고, 해당 웹툰에 포함된 텍스트 정보를 스마트 인형 100측으로 전송할 수 있다. In an embodiment, the user may select an object (target application and content) to perform a reading operation through the
앞서 설명한 바와 같이, 상기 출력 대상 선택부 301는 사용자 단말 200의 로그 정보에 기반하여 사용자의 어플리케이션의 접속 빈도, 주요 관심사 정보를 산출하고, 그에 대응하는 즐겨찾기 리딩 대상 콘텐츠 목록을 산출할 수 있다. 그에 따라 상기 출력 대상 선택부 301는 리딩 동작의 대상 콘텐츠가 확정되지 않은 채 리딩 동작이 요구되는 경우, 사용자의 즐겨찾기 목록에 기반하여 리딩 동작을 수행할 대상 콘텐츠를 임의로 선택할 수 있다. 이에 따라 사용자는 별도의 구체적인 명령이 없더라도, 자신이 스마트 인형 100을 통해 주로 리딩 동작을 수행한 생활 습관이 있다면, 해당 동작이 루틴화되어 제공되는 효과를 기대할 수 있다. As described above, the output target selection unit 301 may calculate the access frequency of a user's application and information on major interests based on log information of the user terminal 200, and calculate a list of contents to be read as a favorite. Accordingly, when a reading operation is requested while the target content for the reading operation is not determined, the output target selection unit 301 may randomly select a target content to perform the reading operation based on the user's favorite list. Accordingly, even if there is no separate specific command, if the user has a lifestyle in which he or she mainly performs the reading operation through the
상기 출력 대상 제공부 302는 업데이트 되는 효과음(배경음 포함), 목소리 및 기타 설정값을 스마트 인형 100측으로 제공할 수 있다. 다양한 실시 예에 따라 상기 출력 대상 제공부 302가 추가적으로 제공하는 다양한 설정값 정보는 유료 결제에 대응하여 조건적으로 제공될 수도 있다. The output
상기 서버 300가 콘텐츠 제공 서버와 통합형 서버일 경우, 상기 서버 300는 기 저장된 전자책 데이터, 웹툰 데이터 등의 출력 대상 콘텐츠를 스마트 인형 100측으로 제공할 수 있다. 그러나 콘텐츠 제공 서버와 상기 서버 300가 이원화된 경우, 상기 출력 대상 제공부 302는 출력 대상이 되는 콘텐츠의 제공 서버에 접속하여 해당 출력 대상 터를 수집하고 이후 스마트 인형 100측에 제공할 수 있다.When the
상기 AI 지원부 303는 이미지 정보의 리딩 동작을 지원하기 위한 AI 분석 기능을 지원할 수 있다. The AI support unit 303 may support an AI analysis function to support a reading operation of image information.
상기 AI 지원부 303는 이미지 정보(예, SNS 게시물)에 대응하는 배경음, 효과음을 산출할 수 있다. 상기 AI 지원부 303가 지원하는 이미지 정보의 리딩 동작에 따르면, 상기 스마트 인형 100은 인스타그램과 같은 SNS에 게시된 이미지 및 게시글에 대한 리딩 동작 시, 상기 게시글을 읽음과 동시에 상기 이미지에 대응하는 배경음 내지 효과음을 함께 출력할 수 있다. 마찬가지로 메신저 대화 내용에 대한 리딩 동작 시, 대화 내역은 TTS에 기반하여 텍스트 대응 사운드로 출력함과 동시에, 대화 상대자의 프로필 이미지 정보에 대응하는 배경음을 함께 출력할 수 있다. The AI support unit 303 may calculate a background sound and a sound effect corresponding to image information (eg, SNS posts). According to the reading operation of the image information supported by the AI support unit 303, the
삭제delete
도 6은 본 발명의 실시 예에 따른 스마트 인형의 동작 순서를 도시한 도면이다. 6 is a diagram illustrating an operation sequence of a smart doll according to an embodiment of the present invention.
도 6에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 스마트 인형의 리딩 동작은 먼저 사용자가 출력 대상 데이터를 선택하는 605동작에 의해 개시될 수 있다. 상기 605동작은 사용자가 사용자 단말 200 내 스마트 인형 100을 제어하기 위한 어플리케이션에 접속하여, 리딩 동작(출력) 대상 데이터를 선택하는 동작일 수 있다. 또한 상기 605동작은 스마트 인형 100을 통한 직접 명령 입력(예, 음성 명령) 동작일 수 있다. 이 밖에도 앞서 기술한 다양한 방식에 의해 출력 대상 데이터가 선택될 수 있다. As shown in FIG. 6, the reading operation of the smart doll according to the embodiment of the present invention may be initiated by
이후 스마트 인형 100는 선택된 출력 대상 데이터를 수신하는 610동작을 수행할 수 있다. 이후 상기 스마트 인형 100의 제어부 170는 출력 대상 내용을 오디오 데이터로 변환 및 출력하느 615동작을 수행할 수 있다. 이를 위해 스마트 인형 100 에는 텍스트 데이터를 오디오 데이터로 변환하는 TTS 프로그램이 내장되어 있을 수 있다. Thereafter, the
이후 상기 제어부 170는 출력 설정값 변경 이벤트를 감지하는 620동작을 수행할 수 있다. 출력 설정값(리딩 동작의 설정값)의 변경 이벤트가 감지되지 않는 경우, 620 이하의 동작은 생략될 수 있다. 상기 출력 설정값 변경 이벤트는 앞서 상황 기반 제어부, 콘텐츠 기반 제어부 및 AI 지원부 설명 등에서 기술되었으므로 구체적인 설명은 생략하기로 한다. Thereafter, the
그리고 상기 제어부 170는 620에서 감지된 출력 설정값 변경 이벤트에 대응하여 출력 설정값을 변경하는 625동작을 수행할 수 있다. In addition, the
도 6에서 도시되는 리딩 동작의 설정값 변경 동작은 다양한 실시 예 중 일 실시 예에 해당하는 것이며, 리딩 동작의 설정값은 앞서 설명한 바에 근거하여 출력 대상이 선택되는 당시에 변경 및 적용될 수도 있다. The operation of changing the setting value of the reading operation illustrated in FIG. 6 corresponds to one of various embodiments, and the setting value of the reading operation may be changed and applied at the time when an output target is selected based on the foregoing description.
상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, changes, and modifications to these examples without departing from the scope of the present invention. In short, in order to achieve the intended effect of the present invention, it is not necessary to separately include all functional blocks shown in the drawings or to follow all the sequences shown in the drawings as shown in the order shown. Note that it may fall within the range.
100 : 스마트 인형
110 : 통신부
120 : 저장부
130 : 입력부
140 : 오디오 처리부
150 : 센서부
160 : 카메라부
170 : 제어부
171 : 상황 기반 제어부
172 : 콘텐츠 기반 제어부
173 : 캐릭터 설정부
200 : 사용자 단말
300 : 서버100: Smart Doll
110: communication department
120: storage
130: input unit
140: audio processing unit
150: sensor unit
160: camera unit
170: control unit
171: context-based control unit
172: Content-based control unit
173: Character setting unit
200: user terminal
300: server
Claims (9)
상기 사용자 단말 및 서버와 통신하며, 상기 사용자 단말과 서버 중 적어도 하나로부터 텍스트 데이터를 사운드로 변환하여 출력하는 리딩 동작을 수행할 대상이 되는 대상 콘텐츠를 수신하는 통신부;
인형의 본체의 적어도 일 영역에 구비되며 사용자가 상기 인형에 가하는 접촉 정보를 센싱하는 센서부;
스피커로 상기 대상 콘텐츠의 오디오 데이터를 출력하는 오디오 처리부;
대상 콘텐츠에 대한 리딩 명령을 감지하고, 대상 데이터에 대한 리딩 동작을 수행하며, 출력 설정값 변경 이벤트를 감지함에 따라 리딩 동작 설정값을 제어하는 제어부;를 포함하고,
상기 제어부는
사용자의 동작 및 주변 상황 중 적어도 하나에 기반하여 리딩 동작 설정값을 제어하는 상황 기반 제어부;를 포함하고,
상기 상황 기반 제어부는
스마트 인형의 적어도 일 영역에 구비된 접촉 센서에 의해 감지된 사용자의 접촉 정보를 기반으로 접촉 종류를 판단하고, 접촉 종류에 대응하여 리딩 동작의 설정값을 제어하되, 상기 접촉 종류는 센서를 통해 감지된 개별 신호 항목 및 다수 신호 항목의 조합을 통해 구분하며, 개별 신호 항목으로는 사용자의 근접 여부 및 근접 정도, 사용자의 접촉이 감지된 스마트 인형의 부위, 반복 터치 여부, 터치 면적의 기준값 충족 여부 및 압력이 수반된 터치 여부가 포함되는 접촉 기반 제어부;
사용자의 음성 명령, 주변 소음도 및 특정 명령음을 포함하는 사운드 입력에 대응하여 리딩 동작 설정값을 제어하되, 주변 소음도 수치가 증가할수록 리딩 동작의 출력 사운드 볼륨을 증가시키는 동작을 수행하는 음성 기반 제어부;를 포함하며,
상기 대상 콘텐츠는
SNS 게시물, 메신저 대화내용, 인터넷 뉴스 기사, 전자책 중 적어도 일 종류를 포함하고,
상기 리딩 동작 설정값은
추가되는 배경음 종류, 추가되는 효과음 종류, 사운드 볼륨, 리딩 속도 및 리딩 동작의 중지 설정 중 적어도 하나를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.In a smart doll that operates in conjunction with a user terminal and a server,
A communication unit that communicates with the user terminal and the server, and receives target content that is a target for performing a reading operation of converting and outputting text data into sound from at least one of the user terminal and the server;
A sensor unit provided in at least one area of the main body of the doll and sensing contact information applied by a user to the doll;
An audio processing unit for outputting audio data of the target content through a speaker;
Including; a control unit that detects a reading command for the target content, performs a reading operation on the target data, and controls a reading operation setting value according to detecting an output setting value change event; and
The control unit
Includes; a context-based control unit for controlling a reading operation setting value based on at least one of a user's motion and a surrounding situation
The context-based control unit
The type of contact is determined based on the user's contact information sensed by the contact sensor provided in at least one area of the smart doll, and the set value of the reading operation is controlled in response to the type of contact, but the contact type is detected through a sensor. Individual signal items and a combination of multiple signal items are classified as individual signal items. A touch-based control unit including whether or not a touch is accompanied by pressure;
A voice-based controller configured to control a reading operation setting value in response to a sound input including a user's voice command, an ambient noise level, and a specific command sound, and perform an operation of increasing an output sound volume of the reading operation as the ambient noise level increases; Including,
The target content is
Includes at least one of SNS posts, messenger conversations, Internet news articles, and e-books,
The reading operation setting value is
A smart doll performing a reading function, comprising at least one of an added background sound type, an added sound effect type, a sound volume, a reading speed, and a stop setting of a reading operation.
상기 상황 기반 제어부는
사용자의 반응 정보를 수집하여 리딩 동작 설정값을 변경하는 반응 기반 제어부를 포함하고,
상기 반응 기반 제어부는
상기 반응 정보로 기 설정된 시간 이상 사용자의 움직임 및 음성이 감지되지 않은 수면 반응을 포함하고,
상기 수면 반응이 감지된 경우, 리딩 동작을 중지하도록 제어하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.The method of claim 1,
The context-based control unit
It includes a response-based control unit for collecting the user's response information and changing a reading operation setting value,
The reaction-based control unit
Including a sleep reaction in which the user's movement and voice are not detected for more than a preset time as the reaction information,
Smart doll performing a reading function, characterized in that controlling to stop the reading operation when the sleep reaction is detected.
상기 제어부는
상기 대상 콘텐츠의 특성에 대응하여 리딩 동작의 설정값을 제어하는 콘텐츠 기반 제어부 ;를 포함하고,
상기 콘텐츠 기반 제어부는
상기 대상 콘텐츠에 포함된 텍스트를 기 설정된 조건에 따라 감정 카테고리별로 분류하며, 해당 텍스트가 분류된 카테고리에 대응하는 효과음을 출력하도록 제어하는 의미 기반 제어부;를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.The method of claim 1,
The control unit
Including; a content-based control unit for controlling a set value of the reading operation in response to the characteristics of the target content,
The content-based control unit
And a semantic-based control unit configured to classify text included in the target content by emotion category according to a preset condition, and to output a sound effect corresponding to the category in which the text is classified; and performing a reading function, comprising: Smart doll.
상기 콘텐츠 기반 제어부는
리딩 동작을 수행하기 위해 기 연계된 어플리케이션의 종류에 따라 리딩 동작의 설정값을 상이하게 설정하는 형식 기반 제어부;를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.The method of claim 5,
The content-based control unit
A smart doll performing a reading function, comprising: a format-based control unit configured to differently set a setting value of the reading operation according to the type of the application previously linked to perform the reading operation.
상기 제어부는
스마트 인형을 이용한 리딩 동작의 수행 횟수 및 빈도를 포함하는 스마트 인형의 사용량의 단계에 비례하여 출력되는 목소리를 변화시키되, 녹음된 목소리 샘플 항목 중 목소리를 녹음한 모델의 연령대가 낮은 항목에서 높은 항목으로 단계별 변화시키는 캐릭터 설정부;를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.The method of claim 1,
The control unit
Change the output voice in proportion to the stage of usage of the smart doll, including the number and frequency of reading movements using the smart doll, but among the recorded voice sample items, the age group of the model that recorded the voice is low to the high item. Character setting unit that changes step by step; Smart doll for performing a reading function comprising a.
상기 서버는
상기 사용자 단말의 로그 정보에 기반하여 사용자의 어플리케이션 접속 빈도, 주요 관심사 정보를 산출하고, 그에 대응하는 즐겨찾기 리딩 대상 콘텐츠 목록을 산출하는 출력 대상 선택부;
이미지 정보의 리딩 동작을 지원하기 위한 AI 분석 기능을 수행하는 AI 지원부;를 포함하여 구성되는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.
The method of claim 1,
The server
An output target selection unit that calculates a user's application access frequency and major interest information based on the log information of the user terminal, and calculates a corresponding list of contents to be read as favorites;
An AI support unit that performs an AI analysis function for supporting the reading operation of image information; a smart doll performing a reading function, comprising: a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190116728A KR102208256B1 (en) | 2019-09-23 | 2019-09-23 | Smart doll performing the reading function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190116728A KR102208256B1 (en) | 2019-09-23 | 2019-09-23 | Smart doll performing the reading function |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102208256B1 true KR102208256B1 (en) | 2021-01-27 |
Family
ID=74238684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190116728A KR102208256B1 (en) | 2019-09-23 | 2019-09-23 | Smart doll performing the reading function |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102208256B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102547971B1 (en) * | 2022-05-06 | 2023-06-27 | 주식회사 코코지 | Audio output system and method |
KR102547972B1 (en) * | 2022-05-06 | 2023-06-27 | 주식회사 코코지 | Audio output system and method thereof |
KR102547979B1 (en) * | 2022-05-06 | 2023-06-27 | 주식회사 코코지 | Audio output system and method for changing sound content thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002239257A (en) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | Interactive state determination device in automatic response toy and automatic response toy |
KR100894569B1 (en) * | 2007-11-20 | 2009-04-24 | 전인자 | Humanized doll with adaptive function |
KR20110029485A (en) * | 2009-09-15 | 2011-03-23 | 유비벨록스(주) | Voice playing method, terminal and system for the same method |
KR20170049863A (en) * | 2015-10-29 | 2017-05-11 | 이두만 | Doll for receiving and transmitting voice message |
KR20180012561A (en) * | 2016-07-27 | 2018-02-06 | 주식회사 네이블커뮤니케이션즈 | Offline character doll control apparatus and method using user's emotion information |
JP2019072495A (en) * | 2016-07-20 | 2019-05-16 | Groove X株式会社 | Autonomous travel robot understanding physical contact |
-
2019
- 2019-09-23 KR KR1020190116728A patent/KR102208256B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002239257A (en) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | Interactive state determination device in automatic response toy and automatic response toy |
KR100894569B1 (en) * | 2007-11-20 | 2009-04-24 | 전인자 | Humanized doll with adaptive function |
KR20110029485A (en) * | 2009-09-15 | 2011-03-23 | 유비벨록스(주) | Voice playing method, terminal and system for the same method |
KR20170049863A (en) * | 2015-10-29 | 2017-05-11 | 이두만 | Doll for receiving and transmitting voice message |
JP2019072495A (en) * | 2016-07-20 | 2019-05-16 | Groove X株式会社 | Autonomous travel robot understanding physical contact |
KR20180012561A (en) * | 2016-07-27 | 2018-02-06 | 주식회사 네이블커뮤니케이션즈 | Offline character doll control apparatus and method using user's emotion information |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102547971B1 (en) * | 2022-05-06 | 2023-06-27 | 주식회사 코코지 | Audio output system and method |
KR102547972B1 (en) * | 2022-05-06 | 2023-06-27 | 주식회사 코코지 | Audio output system and method thereof |
KR102547979B1 (en) * | 2022-05-06 | 2023-06-27 | 주식회사 코코지 | Audio output system and method for changing sound content thereof |
WO2023214740A1 (en) * | 2022-05-06 | 2023-11-09 | 주식회사 코코지 | Audio output system and method |
WO2023214739A1 (en) * | 2022-05-06 | 2023-11-09 | 주식회사 코코지 | Audio output system and method |
WO2023214742A1 (en) * | 2022-05-06 | 2023-11-09 | 주식회사 코코지 | Audio output system and sound content change method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11762494B2 (en) | Systems and methods for identifying users of devices and customizing devices to users | |
CN109243432B (en) | Voice processing method and electronic device supporting the same | |
US11854527B2 (en) | Electronic device and method of controlling speech recognition by electronic device | |
US11334376B2 (en) | Emotion-aw are reactive interface | |
KR102208256B1 (en) | Smart doll performing the reading function | |
CN108806669B (en) | Electronic device for providing voice recognition service and method thereof | |
JP2010067104A (en) | Digital photo-frame, information processing system, control method, program, and information storage medium | |
WO2021135685A1 (en) | Identity authentication method and device | |
EP3217254A1 (en) | Electronic device and operation method thereof | |
WO2021008538A1 (en) | Voice interaction method and related device | |
KR102389996B1 (en) | Electronic device and method for screen controlling for processing user input using the same | |
US20190043511A1 (en) | Interactive robot and human-robot interaction method | |
WO2020207413A1 (en) | Content pushing method, apparatus, and device | |
KR102431817B1 (en) | Electronic apparatus and server for processing user utterance | |
KR102193029B1 (en) | Display apparatus and method for performing videotelephony using the same | |
US11019162B2 (en) | System and method for provisioning a user interface for sharing | |
WO2020079941A1 (en) | Information processing device, information processing method, and computer program | |
KR102423257B1 (en) | Supporting system for service about processing record data of dementia patient | |
US10979632B2 (en) | Imaging apparatus, method for controlling same, and storage medium | |
KR102511517B1 (en) | Voice input processing method and electronic device supportingthe same | |
CN111506183A (en) | Intelligent terminal and user interaction method | |
JP6798258B2 (en) | Generation program, generation device, control program, control method, robot device and call system | |
JP2017211430A (en) | Information processing device and information processing method | |
KR102463243B1 (en) | Tinnitus counseling system based on user voice analysis | |
KR20230154380A (en) | System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |