KR102208256B1 - Smart doll performing the reading function - Google Patents

Smart doll performing the reading function Download PDF

Info

Publication number
KR102208256B1
KR102208256B1 KR1020190116728A KR20190116728A KR102208256B1 KR 102208256 B1 KR102208256 B1 KR 102208256B1 KR 1020190116728 A KR1020190116728 A KR 1020190116728A KR 20190116728 A KR20190116728 A KR 20190116728A KR 102208256 B1 KR102208256 B1 KR 102208256B1
Authority
KR
South Korea
Prior art keywords
reading operation
control unit
user
reading
doll
Prior art date
Application number
KR1020190116728A
Other languages
Korean (ko)
Inventor
여영환
Original Assignee
여영환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 여영환 filed Critical 여영환
Priority to KR1020190116728A priority Critical patent/KR102208256B1/en
Application granted granted Critical
Publication of KR102208256B1 publication Critical patent/KR102208256B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

The present invention relates to a smart doll which is operated by being connected to a user terminal and a server. The smart doll comprises: a communicating unit which communicates with the user terminal and the server, and receives target content of the reading operation from at least one of the user terminal and the server; a sensor unit which is provided in at least one region of a body of the doll and senses contact information applied by a user to the doll; an audio processing unit which outputs audio data of the target content through a speaker; and a controlling unit which senses a reading command for the target content, performs the reading operation for target data, and controls a reading operation setting value by sensing an output setting value changing event. The target content includes at least one among SNS posts, messenger conversations, internet news articles, and e-books. The reading operation setting value includes at least one among a type of background sound to be added, a type of a sound effect to be added, a sound volume, and a reading speed. The present invention allows the user to confirm necessary content even though the user does not look at the user terminal.

Description

리딩 기능을 수행하는 스마트 인형{Smart doll performing the reading function}Smart doll performing the reading function {Smart doll performing the reading function}

본 발명은 리딩 기능을 수행하는 스마트 인형에 관한 것이다. The present invention relates to a smart doll that performs a reading function.

최근 텍스트를 음성으로 변환하는 기술인TTS(Text to sound)기술이 각광을 받고 있다. 이러한 TTS기술은, 텍스트를 음성화 할 때, 사람이 읽는 것과 같은 자연스러움을 도출하기 위한 방향으로 연구 및 개발되고 있다. Recently, TTS (Text to Sound) technology, a technology that converts text into speech, is in the spotlight. Such TTS technology is being researched and developed in a direction to derive naturalness like human reading when text is spoken.

그러나 이러한 TTS를 이용한 종래의 서비스들은 사용자의 반응에 기반한 변경 동작을 수행하지 않는 단방향적인 서비스가 주를 이루었다. 또한 TTS를 활용한 서비스들은 주로 텍스트만 존재하는 콘텐츠에 한정되어 제공되었다. However, conventional services using the TTS mainly consist of a one-way service that does not perform a change operation based on a user's response. In addition, services using TTS were mainly limited to text-only content.

본 발명은 TTS기능 수행 시, 사용자 반응에 기반하여 설정값을 변경하도록 제어하여, 보다 사용자 반응에 기반한 리딩 기능을 제공하고자 하는데 목적이 있다. An object of the present invention is to provide a reading function based on user reaction by controlling to change a set value based on user reaction when performing the TTS function.

또한 본 발명은 이미지, 동영상, 텍스트가 복합적으로 존재하는 콘텐츠(SNS, 메신저 등)에서 리딩 동작을 수행하고자 하는 데 목적이 있다. Another object of the present invention is to perform a reading operation on content (SNS, messenger, etc.) in which images, videos, and texts exist in combination.

본 발명의 실시 예에 따른 사용자 단말 및 서버와 연동하여 동작하는 스마트 인형은 상기 사용자 단말 및 서버와 통신하며, 상기 사용자 단말과 서버 중 적어도 하나로부터 리딩 동작의 대상 콘텐츠를 수신하는 통신부, 인형의 본체의 적어도 일 영역에 구비되며 사용자가 상기 인형에 가하는 접촉 정보를 센싱하는 센서부, 스피커로 상기 대상 콘텐츠의 오디오 데이터를 출력하는 오디오 처리부, 대상 콘텐츠에 대한 리딩 명령을 감지하고, 대상 데이터에 대한 리딩 동작을 수행하며, 출력 설정값 변경 이벤트를 감지함에 따라 리딩 동작 설정값을 제어하는 제어부를 포함할 수 있다. 그리고 이 때, 상기 대상 콘텐츠는SNS 게시물, 메신저 대화내용, 인터넷 뉴스 기사, 전자책 중 적어도 일 종류를 포함하고, 상기 리딩 동작 설정값은 추가되는 배경음 종류, 추가되는 효과음 종류, 사운드 볼륨, 리딩 속도 중 적어도 하나를 포함할 수 있다. A smart doll that operates in conjunction with a user terminal and a server according to an embodiment of the present invention communicates with the user terminal and the server, and a communication unit that receives content to be read from at least one of the user terminal and the server, the body of the doll A sensor unit that is provided in at least one area of and senses contact information applied by a user to the doll, an audio processing unit that outputs audio data of the target content through a speaker, detects a reading command for the target content, and reads the target data It may include a control unit that performs an operation and controls a reading operation setting value according to detecting an output setting value change event. In this case, the target content includes at least one type of SNS posts, messenger conversation contents, Internet news articles, and e-books, and the reading operation setting value is a type of added background sound, type of added sound effect, sound volume, and reading speed. It may include at least one of.

상기 제어부는 사용자의 동작 및 주변 상황 중 적어도 하나에 기반하여 리딩 동작 설정값을 제어하는 상황 기반 제어부를 포함하고, 상기 상황 기반 제어부는 스마트 인형의 적어도 일 영역에 구비된 접촉 센서에 의해 감지된 사용자의 접촉 정보를 기반으로 접촉 종류를 판단하고, 접촉 종류에 대응하여 리딩 동작의 설정값을 제어하는 접촉 기반 제어부와, 사용자의 음성 명령, 주변 소음도, 특정 명령음 중 적어도 하나에 기반하여 리딩 동작 설정값을 제어하는 음성 기반 제어부와, 사용자의 반응 정보를 수집하여 리딩 동작 설정값을 변경하는 반응 기반 제어부를 포함하여 구성될 수 있다. 이 때, 상기 반응 기반 제어부는 상기 반응 정보로 기 설정된 시간 이상 사용자의 움직임 및 음성이 감지되지 않은 수면 반응을 포함하고, 상기 수면 반응이 감지된 경우, 리딩 동작을 중지하도록 제어할 수 있다. The control unit includes a context-based control unit for controlling a reading operation setting value based on at least one of a user's motion and a surrounding situation, and the context-based control unit is a user detected by a touch sensor provided in at least one area of the smart doll. A contact-based control unit that determines the type of contact based on the contact information of and controls the setting value of the reading operation in response to the type of contact, and sets the reading operation based on at least one of a user's voice command, ambient noise level, and a specific command sound It may be configured to include a voice-based control unit for controlling the value, and a reaction-based control unit for collecting user reaction information and changing a reading operation setting value. In this case, the reaction-based controller includes a sleep reaction in which the user's movement and voice are not detected for a predetermined time or longer as the reaction information, and when the sleep reaction is detected, the reading operation may be stopped.

또한, 상기 제어부는 상기 대상 콘텐츠의 특성에 대응하여 리딩 동작의 설정값을 제어하는 콘텐츠 기반 제어부를 포함할 수 있다. In addition, the control unit may include a content-based control unit that controls a setting value of a reading operation in response to a characteristic of the target content.

상기 콘텐츠 기반 제어부는 상기 대상 콘텐츠에 포함된 텍스트를 기 설정된 조건에 따라 감정 카테고리별로 분류하며, 해당 텍스트가 분류된 카테고리에 대응하는 효과음을 출력하도록 제어하는 의미 기반 제어부, 리딩 동작을 수행하기 위해 기 연계된 어플리케이션의 종류에 따라 리딩 동작의 설정값을 상이하게 설정하는 형식 기반 제어부;를 포함할 수 있다. The content-based control unit classifies the text included in the target content by emotion category according to a preset condition, and controls the text to output a sound effect corresponding to the classified category, and is configured to perform a reading operation. It may include a format-based control unit for differently setting the setting value of the reading operation according to the type of the associated application.

그리고 상기 제어부는 스마트 인형의 사용량에 비례하여, 출력되는 목소리의 연령대를 증가시키는 캐릭터 설정부를 포함할 수 있다. In addition, the control unit may include a character setting unit that increases the age range of the output voice in proportion to the amount of use of the smart doll.

스마트 인형과 통신하는 서버는 상기 사용자 단말의 로그 정보에 기반하여 사용자의 어플리케이션 접속 빈도, 주요 관심사 정보를 산출하고, 그에 대응하는 즐겨찾기 리딩 대상 콘텐츠 목록을 산출하는 출력 대상 선택부, 이미지 정보의 리딩 동작을 지원하기 위한 AI 분석 기능을 수행하는AI 지원부를 포함하여 구성될 수 있다.The server communicating with the smart doll calculates the user's application access frequency and major interest information based on the log information of the user terminal, and an output target selection unit that calculates a corresponding list of contents to be read for favorites, reading image information It may be configured to include an AI support unit that performs an AI analysis function to support the operation.

이 때, 상기 AI 지원부는 대상 콘텐츠에 포함된 이미지에 대응하는 배경음 및 효과음 중 적어도 하나를 산출하되, 상기 이미지로부터 색감, 조명, 계절 중 적어도 하나의 요소로부터 온도감 코드를 산출하고, 이미지에 포함된 객체의 종류를 기반으로 객체 코드를 산출하며, 상기 온도감 코드 및 객체 코드가 유사한 배경음, 효과음 중 적어도 하나를 산출할 수 있다. At this time, the AI support unit calculates at least one of a background sound and a sound effect corresponding to an image included in the target content, but calculates a temperature sensation code from at least one of color, lighting, and season from the image, and includes it in the image. An object code may be calculated based on the type of the object, and at least one of a background sound and a sound effect sound in which the temperature feeling code and the object code are similar may be calculated.

본 발명의 실시 예는 TTS 기능을 이용한 콘텐츠 리딩 동작을 수행할 시, 사용자 반응에 기반하여 리딩 속도 조절, 사운드 볼륨 조절, 리딩 동작 중지 등의 기능을 사용자의 필요에 맞게 제공할 수 있다. According to an embodiment of the present invention, when performing a content reading operation using a TTS function, functions such as adjusting a reading speed, adjusting a sound volume, and stopping a reading operation based on a user's response may be provided according to a user's needs.

본 발명의 실시 예는 SNS 게시물, 메신저 대화내용, 웹툰 등 다양한 종류의 콘텐츠를 대신 읽어줄 수 있어, 사용자로 하여금 사용자 단말기를 보지 않더라도 필요한 내용을 확인할 수 있게 한다. 나아가, 본 발명의 실시 예는 콘텐츠에 대응하는 효과음, 배경음을 텍스트 내용과 함께 출력하므로, 종래 기술에 비해 감성적이고 인간 친화적인 서비스 제공이 가능하다. According to an exemplary embodiment of the present invention, various types of contents such as SNS posts, messenger conversation contents, webtoons, and the like can be read instead, so that the user can check necessary contents even without looking at the user terminal. Furthermore, in the exemplary embodiment of the present invention, since sound effect and background sound corresponding to the content are output together with text content, it is possible to provide an emotional and human-friendly service compared to the prior art.

도 1은 본 발명의 실시 예에 따른 스마트 인형의 네트워크 구조를 설명하기 위한 도면이다.
도 2는 본 발명의 실시 예에 따른 스마트 인형 100의 구성 요소를 도시한 구성도이다.
도 3은 본 발명의 실시 예에 따른 상황 기반 제어부의 구성을 도시한 도면이다.
도 4는 본 발명의 실시 예에 따른 콘텐츠 기반 제어부의 구성에 대하여 도시한 도면이다.
도 5는 본 발명의 실시 예에 따른 서버의 구성을 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 스마트 인형의 동작 순서를 도시한 도면이다.
1 is a diagram illustrating a network structure of a smart doll according to an embodiment of the present invention.
2 is a block diagram showing components of a smart doll 100 according to an embodiment of the present invention.
3 is a diagram illustrating a configuration of a context-based control unit according to an embodiment of the present invention.
4 is a diagram illustrating a configuration of a content-based control unit according to an embodiment of the present invention.
5 is a diagram showing the configuration of a server according to an embodiment of the present invention.
6 is a diagram illustrating an operation sequence of a smart doll according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서 개시되는 스마트 인형은 로봇, 자동차, 동물 등의 형태를 갖는 완구를 포함할 수 있으며, 그 외관의 형태 및 재질이 특별히 제한되지는 않는다. The smart doll disclosed in the present specification may include a toy having a shape such as a robot, a car, an animal, etc., and the shape and material of the exterior are not particularly limited.

도 1은 본 발명의 실시 예에 따른 스마트 인형의 네트워크 구조를 설명하기 위한 도면이다. 1 is a diagram illustrating a network structure of a smart doll according to an embodiment of the present invention.

도 1에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 스마트 인형이 네트워크 시스템은 스마트 인형 100, 사용자 단말 200, 서버 300를 포함하여 구성될 수 있다. 본 발명의 실시 예에 따른 상기 스마트 인형 100은 사용자 단말 200과 블루투스 등의 근거리 통신모듈에 기반한 통신을 수행할 수 있다. 그리고 상기 사용자 단말 200은 상기 스마트 인형 100의 구동과 관련된 어플리케이션이 설치될 수 있으며, 사용자 단말 200 내 어플리케이션 설정값에 기반하여 상기 스마트 인형 100의 구동이 제어될 수 있다. As shown in Figure 1, the smart doll network system according to an embodiment of the present invention may be configured to include a smart doll 100, a user terminal 200, a server 300. The smart doll 100 according to an embodiment of the present invention may perform communication between the user terminal 200 and a short-range communication module such as Bluetooth. In addition, the user terminal 200 may install an application related to driving of the smart doll 100, and the driving of the smart doll 100 may be controlled based on an application setting value in the user terminal 200.

예를 들어, 사용자는 상기 사용자 단말 200에서 상기 스마트 인형 100을 통해 출력(리딩; Reading)될 데이터 항목(예, SNS 어플리케이션 종류)을 선택할 수 있다. 출력 기능(예, 리딩 기능)의 대상이 되는 데이터 항목에 대한 정보는 상기 서버 300로 제공될 수 있으며, 상기 서버 300는 출력 대상 데이터 항목을 상기 스마트 인형 100측으로 전송할 수 있다. For example, the user may select a data item (eg, SNS application type) to be output (read) through the smart doll 100 from the user terminal 200. Information on a data item that is a target of an output function (eg, a reading function) may be provided to the server 300, and the server 300 may transmit the data item to be output to the smart doll 100 side.

상기 서버 300는 본 발명의 실시 예에 따라, 상기 스마트 인형 100이 오디오 서비스(리딩 기능)를 수행할 수 있도록, 사용자 단말 200에 의해 선택된 출력 대상 데이터(예, SNS 피드 내용, 인스턴트 메신저 대화 내용, 뉴스 기사, 웹툰, 전자책 등)를 제공할 수 있다. 본 발명의 실시 예에 따른 서버 300는 출력 대상이 되는 데이터 항목을 제공함과 동시에, 상기 데이터 항목의 가공 동작을 수행할 수도 있도록 통합형(예, 스마트 인형 전용 콘텐츠 제공 서버)으로 구현될 수 있다. The server 300 according to an embodiment of the present invention, so that the smart doll 100 can perform an audio service (reading function), output target data selected by the user terminal 200 (eg, SNS feed content, instant messenger conversation content, News articles, webtoons, e-books, etc.) can be provided. The server 300 according to an embodiment of the present invention may be implemented as an integrated type (eg, a content providing server for exclusive use of a smart doll) so as to provide a data item to be output and to perform a processing operation of the data item.

다른 실시 예에 따르면, 상기 서버 300는 추가의 서비스 서버에 접속하여 출력 대상 콘텐츠를 수신한 이후, 상기 스마트 인형 100에서 출력되는 데 요구되는 가공동작(예, 분류 동작, 특정 콘텐트 추출 동작 등)을 수행할 수 있다. 이 때 상기 추가의 서비스 서버는 예컨대, 각종 SNS 서버, 포털 서버, 전자책 제공 서버 등이 해당될 수 있다.According to another embodiment, the server 300 accesses an additional service server to receive the content to be output, and then performs a processing operation (e.g., a classification operation, a specific content extraction operation, etc.) required to be output from the smart doll 100. Can be done. In this case, the additional service server may correspond to, for example, various SNS servers, portal servers, and e-book providing servers.

상기 스마트 인형 100은 와이파이 등의 무선 통신 기능이 가능하도록 구현될 수 있으며, 그에 따라 사용자 단말 200 및 서버 300와의 통신을 수행할 수 있다. 상기 스마트 인형 100은 출력 대상 데이터 수신 시, 서버 300로부터 직접 수신할 수도 있고, 서버 300에서 사용자 단말 200로 송신된 후, 상기 사용자 단말 200로부터 수신할 수도 있다. The smart doll 100 may be implemented to enable a wireless communication function such as Wi-Fi, and accordingly, communication with the user terminal 200 and the server 300 may be performed. When receiving the output target data, the smart doll 100 may be directly received from the server 300, or may be transmitted from the server 300 to the user terminal 200 and then received from the user terminal 200.

또한 다양한 실시 예에 따라 상기 스마트 인형 100은 수집되거나 생성된 일부 정보(예, 센싱 정보, 사용자 음성 입력 정보 등)를 사용자 단말 200 또는 서버 300측으로 전송할 수 있다. In addition, according to various embodiments, the smart doll 100 may transmit some collected or generated information (eg, sensing information, user voice input information, etc.) to the user terminal 200 or the server 300.

이하에서, 도 2 내지 도 4를 참조하여, 상기 스마트 인형의 구성에 대한 구체적인 설명을 기술하기로 한다. In the following, a detailed description of the configuration of the smart doll will be described with reference to FIGS. 2 to 4.

먼저, 도 2는 본 발명의 실시 예에 따른 스마트 인형 100의 구성 요소를 도시한 구성도이다. First, Figure 2 is a configuration diagram showing the components of the smart doll 100 according to an embodiment of the present invention.

도 2에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 스마트 인형 100은 통신부 110, 저장부 120, 입력부 130, 오디오 처리부 140, 센서부 150, 카메라부 160, 제어부 170를 포함하여 구성될 수 있다. 도 2에는 도시되지 않았으나, 다양한 실시 예에 따라 상기 스마트 인형 100은 별도의 표시부를 더 포함할 수 있다. 이 때 상기 표시부(미도시)는 프로젝터 형태를 포함할 수도 있다. As shown in FIG. 2, the smart doll 100 according to an embodiment of the present invention may include a communication unit 110, a storage unit 120, an input unit 130, an audio processing unit 140, a sensor unit 150, a camera unit 160, and a control unit 170. . Although not shown in FIG. 2, according to various embodiments, the smart doll 100 may further include a separate display unit. In this case, the display unit (not shown) may include a projector shape.

상기 통신부 110는 사용자 단말 및 서버와 스마트 인형 간의 데이터 송수신을 위해 네트워크를 이용할 수 있으며 상기 네트워크의 종류는 특별히 제한되지 않는다. 상기 네트워크는 예를 들어, 인터넷 프로토콜(IP)을 통하여 대용량 데이터의 송수신 서비스를 제공하는 아이피(IP: Internet Protocol)망 또는 서로 다른 IP 망을 통합한 올 아이피(All IP) 망 일 수 있다. 또한, 상기 네트워크는 유선망, Wibro(Wireless Broadband)망, WCDMA를 포함하는 이동통신망, HSDPA(High Speed Downlink Packet Access)망 및 LTE(Long Term Evolution) 망을 포함하는 이동통신망, LTE advanced(LTE-A), 5G(Five Generation)를 포함하는 이동통신망, 위성 통신망 및 와이파이(Wi-Fi)망 중 하나 이거나 또는 이들 중 적어도 하나 이상을 결합하여 이루어질 수 있다.The communication unit 110 may use a network to transmit and receive data between the user terminal and the server and the smart doll, and the type of the network is not particularly limited. The network may be, for example, an Internet Protocol (IP) network that provides a service for transmitting and receiving large amounts of data through an Internet Protocol (IP) or an All IP network integrating different IP networks. In addition, the network includes a wired network, a wireless broadband (Wibro) network, a mobile communication network including WCDMA, a high speed downlink packet access (HSDPA) network and a mobile communication network including a long term evolution (LTE) network, and LTE advanced (LTE-A). ), a mobile communication network including 5G (Five Generation), a satellite communication network, and a Wi-Fi network, or at least one or more of them may be combined.

본 발명의 실시 예에 따른 상기 통신부 110는 리딩 동작의 대상이 되는 출력 콘텐츠(데이터)를 송신 및 수신하는 동작을 지원할 수 있다. The communication unit 110 according to an embodiment of the present invention may support an operation of transmitting and receiving output content (data) that is an object of a reading operation.

상기 저장부 120는 예를 들면, 내장 메모리 또는 외장 메모리를 포함할 수 있다. 내장메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.The storage unit 120 may include, for example, an internal memory or an external memory. The internal memory includes, for example, volatile memory (e.g., dynamic RAM (DRAM), static RAM (SRAM), synchronous dynamic RAM (SDRAM), etc.)), non-volatile memory (e.g., OTPROM (one time programmable ROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash), hard drive, Alternatively, it may include at least one of a solid state drive (SSD).

외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), XD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치와 기능적으로 및/또는 물리적으로 연결될 수 있다.External memory is a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (mini-SD), extreme digital (XD), It may further include a multi-media card (MMC) or a memory stick. The external memory may be functionally and/or physically connected to the electronic device through various interfaces.

본 발명의 실시 예에 따른 상기 저장부 120는 TTS(Text To Sound) 프로그램 및 다양한 버전의 목소리, 배경음, 효과음 등의 사운드를 포함하여 저장할 수 있다. 상기 저장부 120는 그 외에도 리딩 동작의 대상이 되는 콘텐츠 정보를 저장할 수 있고, 리딩 동작의 설정값 변경과 관련된 정보를 저장할 수 있다. The storage unit 120 according to an embodiment of the present invention may store sounds such as a text to sound (TTS) program and various versions of voices, background sounds, and effect sounds. In addition, the storage unit 120 may store content information that is an object of a reading operation, and may store information related to change of a setting value of the reading operation.

상기 입력부 130는 입력부는, 예를 들면, 터치 패널(touch panel), (디지털) 펜 센서(pen sensor), 키(key), 또는 초음파(ultrasonic) 입력 장치를 포함할 수 있다. 터치 패널은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널은 제어 회로를 더 포함할 수도 있다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.The input unit 130 may include, for example, a touch panel, a (digital) pen sensor, a key, or an ultrasonic input device. The touch panel may use at least one of, for example, a capacitive type, a pressure sensitive type, an infrared type, or an ultrasonic type. Also, the touch panel may further include a control circuit. The touch panel may further include a tactile layer to provide a tactile response to a user.

(디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. The (digital) pen sensor may be, for example, a part of a touch panel or may include a separate sheet for recognition. The key may include, for example, a physical button, an optical key, or a keypad.

본 발명이 실시 예에 따른 상기 입력부 130는 인형 본체의 일 영역에 사용자 입력을 수신하기 위해 키 버튼, 터치패널 등의 형태로 구비될 수 있다. The input unit 130 according to the exemplary embodiment of the present invention may be provided in the form of a key button or a touch panel to receive a user input in a region of the doll body.

상기 오디오 처리부 150는 스피커 및 마이크를 포함하여 구성될 수 있으며, 전기 신호와 소리(sound) 신호를 쌍방향으로 변환시킬 수 있다. The audio processing unit 150 may include a speaker and a microphone, and may bidirectionally convert an electric signal and a sound signal.

본 발명의 실시 예에 따른 상기 오디오 처리부 150는 먼저, 스피커를 통해 출력 대상의 오디오 데이터를 출력할 수 있다. 그리고 상기 오디오 처리부 150는 마이크를 통해 사용자의 음성 정보 내지 그 밖의 사운드 정보를 입력 또는 센싱할 수 있다. 예를 들어, 상기 오디오 처리부 150는 주변 소음, 사용자의 음성 입력 등의 사운드 데이터를 입력받을 수 있다. 또한 상기 오디오 처리부 150는 TTS를 통해 텍스트 형태에서 오디오 형태로 변환된 데이터를 스피커로 출력할 수 있다. First, the audio processing unit 150 according to an embodiment of the present invention may output audio data to be output through a speaker. Further, the audio processing unit 150 may input or sense user's voice information or other sound information through a microphone. For example, the audio processing unit 150 may receive sound data such as ambient noise and a user's voice input. In addition, the audio processing unit 150 may output data converted from text form to audio form to a speaker through TTS.

상기 센서부 150는 예를 들면, 물리량을 계측하거나 시계의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서부는, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB(red, green, blue) 센서), 생체 센서, 온/습도 센서, 조도 센서, 또는 UV(ultra violet) 센서 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서부는, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서부는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. The sensor unit 150 may measure a physical quantity or detect an operating state of a watch and convert the measured or sensed information into an electric signal. The sensor unit includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor (eg, RGB (red, green, blue) sensor), a biometric sensor, It may include at least one of a temperature/humidity sensor, an illuminance sensor, or an ultra violet (UV) sensor. Additionally or alternatively, the sensor unit may include, for example, an E-nose sensor, an electromyography sensor, an electroencephalogram sensor, an electrocardiogram sensor, an infrared sensor. ) Sensor, iris sensor and/or fingerprint sensor. The sensor unit may further include a control circuit for controlling at least one or more sensors included therein.

본 발명의 실시 예에 따른 상기 센서부 150는 사용자의 근접 여부, 사용자의 터치(예, 스마트 인형의 일 부위에 대한 터치)를 감지할 수 있다. 예를 들어 상기 센서부 150는 사용자의 터치 여부를 판단할 수 있도록 스마트 인형 100의 일측에 구비되는 터치 센서를 포함할 수 있다. 또한 상기 센서부 150는 자이로 센서 등을 통해 상기 스마트 인형 100이 사용자에 의해 움직임이 발생하였는지 여부를 판단할 수 있다. The sensor unit 150 according to an embodiment of the present invention may detect whether a user is in proximity or a user's touch (eg, a touch on a part of a smart doll). For example, the sensor unit 150 may include a touch sensor provided on one side of the smart doll 100 to determine whether the user touches or not. In addition, the sensor unit 150 may determine whether or not the smart doll 100 has been moved by a user through a gyro sensor or the like.

이 밖에도 상기 센서부 150는 주변 조도, 습도 등의 주변 환경 정보를 센싱할 수 있다. In addition, the sensor unit 150 may sense surrounding environment information such as ambient illumination and humidity.

상기 카메라부 160는 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면 하나 이상의 이미지 센서, 렌즈, ISP(image signal processor), Ehsms 플래시(flash)를 포함할 수 있다.The camera unit 160 is a device capable of photographing, for example, a still image and a moving picture, and according to an embodiment may include one or more image sensors, a lens, an image signal processor (ISP), and an Ehsms flash.

본 발명의 실시 예에 따른 상기 카메라부 160는 사용자의 반응 정보를 촬영할 수 있다. The camera unit 160 according to an embodiment of the present invention may photograph user reaction information.

상기 제어부 170는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있다. 한편, 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. The control unit 170 may also be referred to as a processor, a controller, a microcontroller, a microprocessor, a microcomputer, and the like. Meanwhile, the control unit may be implemented by hardware, firmware, software, or a combination thereof.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 제어부에 의해 구동될 수 있다. 메모리는 상기 사용자 단말 및 서버 내부 또는 외부에 위치할 수 있으며, 이미 공지된 다양한 수단에 의해 상기 제어부와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, an embodiment of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in a memory and driven by the control unit. The memory may be located inside or outside the user terminal and the server, and may exchange data with the controller through various known means.

본 발명의 실시 예에 따른 상기 제어부 170는 대상 콘텐츠에 대한 리딩 명령을 감지하고, 이에 따라 대상 데이터에 대한 리딩 동작을 수행할 수 있다. 또한 상기 제어부 170는 리딩 동작을 수행함에 있어서, 출력 설정값 변경 이벤트를 감지하고, 그에 대응하여 출력 설정값을 변경하는 동작을 수행할 수 있다. The control unit 170 according to an embodiment of the present invention may detect a reading command for target content and perform a reading operation for target data accordingly. In addition, in performing a reading operation, the controller 170 may detect an output setting value change event and perform an operation of changing an output setting value in response thereto.

상기 제어부 170는 상황 기반 제어부 171, 콘텐츠 기반 제어부 172, 캐릭터 설정부 173를 포함하여 구성될 수 있다. The control unit 170 may include a context-based control unit 171, a content-based control unit 172, and a character setting unit 173.

먼저, 상기 상황 기반 제어부 171는 상기 스마트 인형 100을 사용하는 사용자의 모션과 같은 상황 정보를 기반으로 리딩 동작의 설정값을 제어할 수 있다. First, the context-based controller 171 may control a setting value of a reading operation based on context information such as a motion of a user using the smart doll 100.

그리고 상기 콘텐츠 기반 제어부 172는 상기 스마트 인형 100이 수행하는 리딩 동작의 대상 콘텐츠의 특성에 기빈하여 리딩 동작의 설정값을 제어할 수 있다. In addition, the content-based controller 172 may control a setting value of the reading operation based on a characteristic of the target content of the reading operation performed by the smart doll 100.

이 때 상기 리딩 동작의 설정값이란, 추가되는 배경음, 효과음의 종류, 사운드의 볼륨, 리딩 속도 등을 포함하는 개념일 수 있다. In this case, the setting value of the reading operation may be a concept including an added background sound, a type of sound effect, a volume of a sound, a reading speed, and the like.

또한 이 때, 상기 리딩 동작의 대상 콘텐츠는 TTS 프로그램을 통해 오디오 데이터가 출력될 수 있는 콘텐츠(텍스트 포함 콘텐츠) 및 사운드 데이터를 포함하는 콘텐츠를 의미할 수 있다. 보다 구체적으로, 상기 리딩 동작의 대상이 되는 콘텐츠는, 사용자 단말 200에 설치된 인스턴트 메신저의 메시지, 문자 메시지, 스케줄 내용, 알람 내용, SNS(예, 인스타그램, 페이스북)의 게시 내용, 포털 사이트의 게시물(뉴스 기사 등), 전자책 등이 포함될 수 있다. In this case, the target content for the reading operation may refer to content (content including text) for outputting audio data through a TTS program and content including sound data. More specifically, the content subject to the reading operation is a message of an instant messenger installed in the user terminal 200, text message, schedule content, alarm content, posting content of SNS (eg, Instagram, Facebook), and portal site. Posts (news articles, etc.), e-books, etc. may be included.

상기 캐릭터 설정부 173는 스마트 인형의 성격에 해당하는 설정값을 지정 및 변경할 수 있다. 상기 캐릭터 설정부 173는 예를 들어, 스마트 인형의 사용량(스마트 인형을 이용한 리딩 동작의 수행 횟수 및 빈도를 포함하여 정의될 수 있음)의 단계에 비례하여 출력되는 목소리를 변화시키되, 녹음된 목소리 샘플 항목 중 목소리를 녹음한 모델의 연령대가 낮은 항목(예, 어린이가 녹음한 샘플)에서 높은 항목(예, 성인의 녹음 샘플)으로 단계별 변화시킬 수 있다. The character setting unit 173 may designate and change a setting value corresponding to the personality of the smart doll. The character setting unit 173, for example, changes the output voice in proportion to the level of the amount of use of the smart doll (which may be defined including the number and frequency of the reading operation using the smart doll), but the recorded voice sample Among the items, the model that recorded the voice can be changed step by step from a low age group (eg, a sample recorded by a child) to a higher item (eg, a sample recorded by an adult).

앞서, 상기 스마트 인형 100의 제어부 170의 구성이 상황 기반 제어부 171, 콘텐츠 기반 제어부 172 및 캐릭터 설정부 173를 포함하여 구성될 수 있음을 설명하였다. 이하에서는, 상기 제어부 170의 구성 중 상황 기반 제어부 171와 콘텐츠 기반 제어부 172에 대한 보다 상세한 설명을 도 3 및 도 4를 각각 참조하여 기술하기로 한다. Previously, it has been described that the configuration of the control unit 170 of the smart doll 100 may include a context-based control unit 171, a content-based control unit 172, and a character setting unit 173. Hereinafter, a more detailed description of the context-based control unit 171 and the content-based control unit 172 of the configuration of the control unit 170 will be described with reference to FIGS. 3 and 4, respectively.

도 3은 본 발명의 실시 예에 따른 상황 기반 제어부의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a context-based control unit according to an embodiment of the present invention.

도 3에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 상기 상황 기반 제어부 171는 접촉 기반 제어부 171a, 음성 기반 제어부 171b, 반응 기반 제어부 171c를 포함하여 구성될 수 있다. 상기 상황 기반 제어부 171는 사용자의 동작 및 주변 상황 중 적어도 하나에 기반하여 리딩 동작의 출력 설정값을 제어할 수 있다. As shown in FIG. 3, the context-based control unit 171 according to an embodiment of the present invention may include a contact-based control unit 171a, a voice-based control unit 171b, and a response-based control unit 171c. The context-based controller 171 may control an output setting value of a reading operation based on at least one of a user's motion and a surrounding situation.

먼저, 상기 접촉 기반 제어부 171a는 스마트 인형 100에 대한 사용자의 접촉 여부 및 접촉의 종류에 기반하여 설정값을 제어할 수 있다. 이 때 상기 접촉 기반 제어부 171a는 상기 스마트 인형 100와 사용자의 근접 여부 및 근접 정도에 기반하여 설정값을 제어할 수도 있다.First, the contact-based controller 171a may control a set value based on whether the user has contacted the smart doll 100 and the type of contact. In this case, the contact-based controller 171a may control a set value based on whether the smart doll 100 is in proximity to the user and the proximity degree.

일 실시 예에 따라 상기 접촉 기반 제어부 171a는 스마트 인형 100의 적어도 일측에 구비된 접촉 센서를 통해 사용자가 접촉한 부위를 판단할 수 있다. 접촉 센서는 예컨대, 인형의 머리, 배, 엉덩이 등의 특징 위치에 구비될 수 있다. 그리고 상기 접촉 센서는 1회성 터치/ 반복 터치, 단일터치/멀티 터치/팜 터치(터치 영역이 기 설정 값 이상이 되는 경우, 멀티터치와 구분되는 팜(손바닥) 터치로 인식할 수 있다), 압력을 가한 터치/압력을 가하지 않은 터치 등 다양한 접촉 방식을 구분하여 감지할 수 있다. According to an embodiment, the contact-based control unit 171a may determine a portion that the user has contacted through a contact sensor provided on at least one side of the smart doll 100. The contact sensor may be provided at a characteristic position such as a head, a stomach, and a hip of the doll, for example. And the touch sensor is one-time touch / repeated touch, single touch / multi-touch / palm touch (when the touch area exceeds a preset value, it can be recognized as a palm (palm) touch that is distinguished from multi-touch), pressure Various contact methods, such as touch with applied/touch without applying pressure, can be classified and detected.

상기 접촉 기반 제어부 171a는 상기 접촉 센서를 통해 감지된 신호의 항목들을 조합하여 사용자의 접촉 종류를 판단할 수 있다. 접촉 센서의 신호가 인형의 머리 위치에서 감지되었으며, 반복터치이고, 팜 터치이며, 압력을 가하지 않은 터치를 의미할 경우, 상기 접촉 기반 제어부 171a는 각 신호의 항목들을 조합하여 사용자의 접촉 동작이 인형의 머리를 쓰다듬는 동작임을 판단할 수 있다. 이와 유사하게, 상기 접촉 기반 제어부 171a는 발바닥을 간지럽히는 동작(반복터치+단일터치+압력을 가하지 않은 터치), 엉덩이를 때리는 동작(1회성 터치+팜터치+압력을 가한 터치), 볼을 찌르는 동작(1회성 터치+단일 터치+압력을 가한 터치) 등을 구분할 수 있다. The contact-based controller 171a may determine a user's contact type by combining items of signals sensed through the contact sensor. When the signal of the contact sensor is detected at the position of the doll's head, it is a repetitive touch, a palm touch, or a touch without pressure, the touch-based controller 171a combines the items of each signal to determine the user's contact motion. It can be determined that it is the movement of stroking the head. Similarly, the contact-based control unit 171a tickles the sole of the foot (repeated touch + single touch + touch without pressure), hitting the hip (one-time touch + palm touch + pressure applied touch), and It is possible to distinguish between a stabbing operation (one-time touch + single touch + pressure applied touch).

그리고 상기 접촉 기반 제어부 171a는 접촉 동작의 종류를 구분한 이후, 접촉 동작 각각에 대응하여 리딩 동작의 설정값을 변경할 수 있다. 접촉 동작의 종류에 대응하여 변경되는 설정값은 효과음, 목소리 변경, 사운드 볼륨, 리딩 속도, 리딩 동작의 중지/재시작 등을 포함할 수 있다. In addition, after classifying the type of contact operation, the contact-based controller 171a may change a setting value of the reading operation corresponding to each contact operation. The setting value that is changed in response to the type of the contact operation may include a sound effect, a voice change, a sound volume, a reading speed, a stop/restart of the reading operation, and the like.

예를 들어, 상기 접촉 기반 제어부 171a는 스마트 인형의 머리를 쓰다듬는 동작이 감지된 경우, 리딩 속도를 감소시킬 수 있다. 또는 상기 접촉 기반 제어부 171a는 스마트 인형의 발바닥을 간지럽히는 접촉 동작이 감지된 경우, 리딩 동작을 잠시 중지하고 웃음소리 효과음을 출력한 후 리딩 동작을 재시작하도록 제어할 수 있다.For example, the contact-based controller 171a may decrease a reading speed when a motion of strokes the head of the smart doll is detected. Alternatively, when a contact motion that tickles the sole of the smart doll is sensed, the contact-based controller 171a may control the reading operation to be temporarily stopped, output a laughter sound effect, and then restart the reading operation.

상기 음성 기반 제어부 171b는 음성 및 기타 사운드 입력에 대응하여 리딩 동작의 출력 설정값을 제어할 수 있다. 예를 들어, 상기 음성 기반 제어부 171b는 사용자의 음성 명령, 주변 소음도, 특정 명령음 등에 기반하여 리딩 동작의 출력 설정값을 제어할 수 있다. The voice-based controller 171b may control an output setting value of a reading operation in response to voice and other sound inputs. For example, the voice-based controller 171b may control an output setting value of a reading operation based on a user's voice command, ambient noise level, and a specific command sound.

상기 음성 명령은 리딩 동작의 설정값을 직접적으로 변경하기 위해 수행될 수 있으며, 그 종류로는 예컨대 “재생”, “볼륨 업(Volume up)”, “빨리 읽어줘”, “어린이 목소리로 읽어줘” 등이 포함될 수 있다. The voice command can be executed to directly change the setting value of the reading operation, and the types are, for example, "play", "volume up", "read quickly", "read with a child's voice." ”, etc.

상기 음성 기반 제어부 171b는 주변 소음도 수치를 판단하고, 판단된 소음도 수치에 대응하여 리딩 동작의 설정값을 변경할 수 있다. 예를 들어, 상기 음성 기반 제어부 171b는 주변 환경의 소음도 수치가 큰 값일수록, 그에 대응하여 출력 볼륨을 상향 조정할 수 있다. 이를 통해, 사용자는 외부 소음도에 따라 직접 볼륨을 조정할 필요 없이, 자동으로 적정값으로 조정된 사운드를 들을 수 있다. The voice-based control unit 171b may determine an ambient noise level value and change a setting value of a reading operation in response to the determined noise level value. For example, the voice-based control unit 171b may increase the output volume corresponding to the larger value of the noise level of the surrounding environment. Through this, the user can hear the sound automatically adjusted to an appropriate value without having to directly adjust the volume according to the external noise level.

또한 상기 음성 기반 제어부 171b는 단어와 같은 의미를 갖지 않은 기타 사운드(이하, 특정 명령음)에 대응하여, 리딩 동작의 설정값을 변경할 수도 있다. 예를 들어, 상기 음성 기반 제어부 171b는 박수 소리, 휘파람 소리 등에 대응하여 설정값(효과음, 목소리 변경, 사운드 볼륨, 리딩 속도 등)을 변경할 수 있다. In addition, the voice-based control unit 171b may change a setting value of a reading operation in response to other sounds (hereinafter, referred to as specific command sounds) that do not have the same meaning as a word. For example, the voice-based controller 171b may change a set value (effect sound, voice change, sound volume, reading speed, etc.) in response to a clap sound, a whistle sound, and the like.

상기 반응 기반 제어부 171c는 사용자의 반응 정보를 수집하여 이를 판단하고, 판단된 사용자의 반응 정보에 기반하여 리딩 동작의 설정값을 변경할 수 있다. 이 때 상기 사용자의 반응 정보는 일 리딩 동작이 개시된 이후 발생된 사용자의 표정, 사용자의 모션 등을 통해 판단될 수 있다. 그리고 상기 사용자의 반응 정보는 스마트 인형 100에 구비된 카메라 및 마이크를 통해 입력된 정보를 기반으로 판단될 수 있다. 상기 사용자의 반응 정보의 예로는, 긍정 반응(예, 웃음 소리 감지), 집중 반응(예, 얼굴 정면 이미지 및 눈동자 감지), 하품 반응(예, 얼굴 이미지 및 하품 동작 감지), 수면 반응(예, 사용자 감지 및 기 설정된 시간 이상 움직임 및 음성이 감지되지 않음) 등이 있을 수 있다. The reaction-based controller 171c may collect and determine the user's reaction information, and may change a setting value of the reading operation based on the determined user's reaction information. In this case, the user's reaction information may be determined through a user's facial expression, a user's motion, etc. generated after a reading operation is started. In addition, the user's reaction information may be determined based on information input through a camera and a microphone provided in the smart doll 100. Examples of the user's reaction information include positive reactions (e.g., laughter detection), concentration reactions (e.g., face-front image and pupil detection), yawning reactions (e.g., face image and yawning motion detection), sleep reactions (e.g., User detection, motion and voice not detected for more than a preset time), etc. may exist.

상기 반응 기반 제어부 171c는 사용자의 반응에 대응하는 리딩 동작의 설정값을 유지하거나 변경할지 여부를 먼저 결정한 후, 리딩 동작을 변경하여야 할 것으로 판단되는 경우, 변경할 리딩 동작의 설정값을 산출할 수 있다. 예를 들어, 상기 반응 기반 제어부 171c는 사용자의 반응이 긍정 반응 또는 집중 반응인 경우, 리딩 동작의 설정값을 유지하고, 그 외의 반응인 경우에 리딩 동작의 설정값을 변경하도록 제어할 수 있다. 또한, 상기 반응 기반 제어부 171c는 사용자로부터 하품 반응이 발생한 것을 판단한 경우, 볼륨 업을, 사용자로부터 수면 반응이 감지된 경우, 리딩 동작을 중지하도록 제어할 수 있다. The response-based control unit 171c may first determine whether to maintain or change a setting value of a reading operation corresponding to a user's reaction, and then, when it is determined that the reading operation should be changed, may calculate a setting value of the reading operation to be changed. . For example, the response-based controller 171c may control to maintain a setting value of a reading operation when the user's reaction is a positive reaction or an intensive reaction, and to change a setting value of the reading operation in the case of other reactions. In addition, the reaction-based controller 171c may control a volume up when it is determined that a yawning reaction has occurred from the user, and to stop a reading operation when a sleep reaction is detected by the user.

상기 상황 기반 제어부 171는 앞서 기술한 예시들 외에도, 다양한 종류의 상황 정보를 감지 및 판단하고, 그에 대응하여 리딩 동작과 관련된 기 설정된 설정값 제어를 수행할 수 있다. In addition to the above-described examples, the context-based controller 171 may detect and determine various types of context information, and perform preset set value control related to a reading operation in response thereto.

도 4는 본 발명의 실시 예에 따른 콘텐츠 기반 제어부의 구성에 대하여 도시한 도면이다. 4 is a diagram illustrating a configuration of a content-based control unit according to an embodiment of the present invention.

도 4에서 도시되는 상기 콘텐츠 기반 제어부 172는 리딩 동작의 대상이 되는 콘텐츠의 특성에 대응하여 리딩 동작의 다양한 설정값 중 적어도 하나의 설정값을 제어할 수 있다. 그리고 도 4에서 도시됨에 따라 알 수 있듯, 본 발명의 실시 예에 따른 콘텐츠 기반 제어부 172는 의미 기반 제어부 172a, 형식 기반 제어부 172b를 포함하여 구성될 수 있다.The content-based control unit 172 illustrated in FIG. 4 may control at least one of various setting values of the reading operation in response to characteristics of the content subject to the reading operation. And, as shown in FIG. 4, the content-based control unit 172 according to an embodiment of the present invention may include a meaning-based control unit 172a and a type-based control unit 172b.

상기 콘텐츠 기반 제어부 172의 구성 중 상기 의미 기반 제어부 172a는 리딩 동작의 대상이 되는 텍스트 및 이미지의 의미에 대응하여 리딩 동작의 적어도 일 설정값을 제어할 수 있다. 이 때, 스마트 인형 100은 리딩 동작을 수행할 대상을 기 연계된 어플리케이션 내의 콘텐츠들 중에서 선택할 수 있다. 그리고 상기 기 연계된 어플리케이션은 예컨대, SNS 어플리케이션, 메신저 어플리케이션, 전자책 어플리케이션 등을 포함할 수 있다. 또한 상기 리딩 동작을 수행할 대상은 상기 기 연계된 어플리케이션의 전체 콘텐츠, 사용자가 선택한 특정 콘텐츠(예, 사용자가 선택한 채팅방의 대화 목록, 사용자가 선택한 전자책 콘텐츠) 등이 해당될 수 있다. Among the configurations of the content-based control unit 172, the meaning-based control unit 172a may control at least one set value of the reading operation according to the meaning of the text and image that are the target of the reading operation. In this case, the smart doll 100 may select an object to perform a reading operation from among contents in a previously linked application. In addition, the previously linked application may include, for example, an SNS application, a messenger application, an e-book application, and the like. In addition, the target to perform the reading operation may correspond to the entire content of the previously linked application, specific content selected by the user (eg, a conversation list in a chat room selected by the user, e-book content selected by the user), and the like.

상기 의미 기반 제어부 172a는 상기 리딩 동작의 대상이 되는 대상 콘텐츠의 의미를 판단하는 동작을 수행할 수 있다. 그리고 이후 상기 의미 기반 제어부 172a는 판단된 의미에 대응하여 리딩 동작의 적어도 일 설정값을 제어할 수 있다. The meaning-based control unit 172a may perform an operation of determining the meaning of the target content subject to the reading operation. Then, the meaning-based controller 172a may control at least one set value of the reading operation in response to the determined meaning.

일 실시 예에 따라, 상기 의미 기반 제어부 172a는 상기 대상 콘텐츠에 포함된 텍스트로부터, 특정 단어, 특정 문장 부호, 특정 자모음 등의 의미 요소를 추출하고, 추출된 의미 요소를 기 설정된 조건에 따라 감정 카테고리별로 분류할 수 있다. 그리고 상기 의미 기반 제어부 172a는 상기 의미 요소의 카테고리에 대응하는 효과음을 출력할 수 있다. 구체적으로 예를 들면, 상기 의미 기반 제어부 172a는 기 설정된 기준에 따라 'ㅋ', 'ㅋㅋㅋ', 'ㅋㅋㅋㅋㅋ' 등과 같은 '웃음' 카테고리로 분류되는 의미 요소를 추출할 수 있고, 그에 대응하여 웃음소리 효과음을 출력하도록 제어할 수 있다. According to an embodiment, the meaning-based controller 172a extracts semantic elements, such as a specific word, a specific punctuation mark, and a specific consonant, from text included in the target content, and evaluates the extracted semantic element according to a preset condition. It can be classified by category. In addition, the meaning-based controller 172a may output a sound effect corresponding to the category of the semantic element. Specifically, for example, the meaning-based control unit 172a may extract semantic elements classified into'laugh' categories such as'ㅋ','ㅋㅋㅋ', and'ㅋㅋㅋㅋㅋ' according to a preset criterion, and smile in response thereto. You can control to output sound effects.

이와 유사하게, 상기 의미 기반 제어부 172a는 추출된 의미 요소의 카테고리에 대응하여 리딩 속도, 목소리 종류(예, 목소리의 성별, 연령대 변경 또는 목소리 주파수 변경 등) 및 사운드 볼륨 중 적어도 하나를 포함하는 설정값을 제어할 수 있다. 구체적으로 예를 들면, 상기 의미 기반 제어부 172a는 '!'와 '!!!!!!!!' 에 대하여 '느낌표' 카테고리로 분류하고, 상기 '느낌표' 카테고리로 분류된 의미요소를 포함하는 단위 텍스트(예, 문장, 메신저의 1메세지)의 사운드 볼륨 또는 목소리 주파수를 증가시킬 수 있다. 이에 따라, 스마트 인형 100은 느낌표가 포함된 문장을 읽을 때, 하이 톤의 큰 소리로 읽어줄 수 있게 된다. Similarly, the semantic-based control unit 172a is a set value including at least one of a reading speed, a voice type (e.g., a gender of a voice, a change in an age group, a change in a voice frequency, etc.), and a sound volume corresponding to the category of the extracted semantic element Can be controlled. Specifically, for example, the meaning-based control unit 172a includes'!' and'!!!!!!!!' The sound volume or voice frequency of a unit text (eg, a sentence or one message of a messenger) including semantic elements classified in the'exclamation mark' category may be classified as a'exclamation mark' category. Accordingly, when reading a sentence containing an exclamation point, the smart doll 100 can read it aloud in a high tone.

나아가, 상기 의미 기반 제어부 172a는 동일 카테고리에 해당하더라도 각 의미요소의 단계에 따라 설정값의 단계를 지정할 수 있다. 예를 들어 상기 의미 기반 제어부 172a는 'ㅋ'을 '웃음' 카테고리의 1단계 의미요소로 지정하고, 'ㅋㅋㅋㅋㅋ' 이상을 2단계, 'ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ'이상을 3단계로 지정할 수 있다. 그리고 각 의미요소가 부여받은 단계 정보에 대응하여, 상기 의미 기반 제어부 172a는 출력되는 웃음소리 효과음의 단계 또한 1단계 웃음 소리, 2단계 웃음 소리, 3단계 웃음소리로 출력할 수 있다. Furthermore, the semantic-based control unit 172a may designate the level of the set value according to the level of each semantic element even if it corresponds to the same category. For example, the meaning-based control unit 172a may designate'ㅋ' as a first-stage semantic element of the'laugh' category, and designate'ㅋㅋㅋㅋㅋ' or higher as a second stage, and'ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ' as three stages. In response to step information to which each semantic element is assigned, the meaning-based control unit 172a may also output the level of the output laughter sound effect as a first-stage laughter sound, a second-stage laughter sound, and a third-stage laughter sound.

마찬가지로, 상기 의미 기반 제어부 172a는 의미요소의 단계 정보에 대응하여 변경할 사운드 볼륨의 단계, 목소리 주파수의 단계 등을 지정 및 적용할 수 있다. Likewise, the semantic-based controller 172a may designate and apply a level of a sound volume to be changed, a level of a voice frequency, etc. in response to step information of a semantic element.

상기 형식 기반 제어부 172b는 출력 대상 콘텐츠의 데이터 형식에 대응하여 리딩 동작의 설정값을 변경할 수 있다. The format-based controller 172b may change a setting value of a reading operation in response to a data format of the content to be output.

일 실시 예에 따라, 상기 형식 기반 제어부 172b는 이미지, 오디오, 동영상, 텍스트 등으로 구분되는 데이터 포맷에 대응하여 리딩 동작의 설정값을 결정 및 적용할 수 있다. 상기 형식 기반 제어부 172b는 리딩 동작에 TTS프로그램에 의한 변환이 요구되는지 여부를 데이터 포맷을 통해 판단한 후, 리딩 동작을 수행할 수 있다. 예를 들어, 인스타그램과 같은 SNS에서 게시물에 대한 리딩 동작을 수행할 때, 상기 형식 기반 제어부 172b는 TTS 가 요구되지 않는 오디오 데이터 및 오디오가 포함된 동영상에 대하여, 별도의 변환 동작 없이 일반적인 방식의 오디오 출력 기능을 수행하도록 제어할 수 있다. 반면, 상기 형식 기반 제어부 172b는 게시물 중 TTS로 사운드 변환 출력이 가능한 포맷인 텍스트 데이터에 대하여 TTS에 의한 리딩 동작을 수행할 수 있다.According to an embodiment, the format-based controller 172b may determine and apply a setting value of a reading operation in response to a data format classified into image, audio, video, text, and the like. The format-based controller 172b may determine whether a conversion by a TTS program is required for a reading operation through a data format, and then perform a reading operation. For example, when performing a reading operation on a post in an SNS such as Instagram, the format-based control unit 172b provides a general method without a separate conversion operation for audio data that does not require TTS and a video containing audio. It can be controlled to perform the audio output function. On the other hand, the format-based controller 172b may perform a TTS reading operation on text data in a format capable of converting and outputting sound to TTS among posts.

나아가, 상기 형식 기반 제어부 172b는 리딩 동작을 수행하기 위해 기 연계된 어플리케이션의 종류에 따라, 리딩 동작의 설정값을 상이하게 설정할 수 있다. 예를 들어, SNS 어플리케이션(예, 인스타그램 게시물)과 포털의 뉴스기사, 인스턴트 메신저 어플리케이션(예, 대화 내용), 전자책(유아용 동화)를 읽어주는 목소리 종류, 리딩 속도, 효과음, 사운드 볼륨 등의 설정값을 각각 상이하게 설정할 수 있다. Further, the format-based control unit 172b may differently set a setting value of the reading operation according to the type of an application previously linked to perform the reading operation. For example, SNS applications (eg Instagram posts) and portal news articles, instant messenger applications (eg, conversation content), e-books (children's fairy tales), the type of voice reading, reading speed, sound effect, sound volume, etc. The setting values of can be set differently.

이하에서는 상기 스마트 인형 100과 통신하는 서버 300에 대한 설명을 기술하기로 한다. Hereinafter, a description of the server 300 communicating with the smart doll 100 will be described.

도 5는 본 발명의 실시 예에 따른 서버의 구성을 도시한 도면이다. 5 is a diagram showing the configuration of a server according to an embodiment of the present invention.

상기 서버 300는 상기 스마트 인형 100, 사용자 단말 200과 통신하며, 상기 스마트 인형 100이 리딩 동작을 수행하는 데 요구되는 대상 콘텐츠 및 부가 설정값 정보를 제공할 수 있다. The server 300 communicates with the smart doll 100 and the user terminal 200, and may provide target content and additional setting value information required for the smart doll 100 to perform a reading operation.

도 5에서는 도시되지 않았으나, 상기 서버 300가 스마트 인형 100, 사용자 단말 200과 통신하기 위해 통신부를 구비하며, 출력 대상 데이터를 저장하기 위한 저장부를 포함하여 구성될 수 있음은 자명한 사항이므로, 이와 관련된 구체 설명은 생략하기로 한다. Although not shown in FIG. 5, it is obvious that the server 300 has a communication unit to communicate with the smart doll 100 and the user terminal 200, and can be configured to include a storage unit for storing output target data. A detailed description will be omitted.

상기 서버 300는 도 5에서 도시되는 바와 같이 출력 대상 선택부 301, 출력 대상 제공부 302, AI 지원부 303를 포함하여 구성될 수 있다. As illustrated in FIG. 5, the server 300 may include an output target selection unit 301, an output target providing unit 302, and an AI support unit 303.

일 실시 예에서, 사용자는 스마트 인형 100을 통해 리딩 동작을 수행하고자 할 대상(대상 어플리케이션 및 콘텐츠)을 사용자 단말 200의 어플리케이션 상에서 선택할 수 있다. 그러나 이 외에도 본 발명의 다양한 실시 예는, 사용자가 사용자 단말 200이 아닌 스마트 인형 100으로의 음성 명령을 통해 리딩 동작을 수행할 대상 어플리케이션 및 특정 어플리케이션에 속한 특정 콘텐츠를 선택할 수 있다. 보다 다양한 실시 예에 따라, 상기 스마트 인형 100은 서버 300의 출력 대상 선택부 301가 출력 대상을 선택하도록 요청할 수 있다. 예를 들어, 사용자는 스마트 인형 100에 “웹툰 읽어줘” 라는 음성 명령을 수신함에 따라, 상기 스마트 인형 100은 리딩 동작의 대상이 되는 웹툰을 선택하기 위해 서버 300측에 출력 대상 선택 요청 신호를 전송할 수 있다. 그에 대응하여, 상기 서버 300의 출력 대상 선택부 301는 사용자 단말 200의 웹툰 열람 기록에 대응하여 사용자의 관심 웹툰 목록을 산출하고, 그 중 일 웹툰을 선택 및 열람하고, 해당 웹툰에 포함된 텍스트 정보를 스마트 인형 100측으로 전송할 수 있다. In an embodiment, the user may select an object (target application and content) to perform a reading operation through the smart doll 100 on an application of the user terminal 200. However, in addition to this, in various embodiments of the present disclosure, the user may select a target application to perform a reading operation and specific content belonging to a specific application through a voice command to the smart doll 100 instead of the user terminal 200. According to various embodiments of the present disclosure, the smart doll 100 may request the output target selection unit 301 of the server 300 to select an output target. For example, as the user receives the voice command “Read the webtoon” to the smart doll 100, the smart doll 100 transmits an output target selection request signal to the server 300 in order to select a webtoon that is the target of the reading operation. I can. In response, the output target selection unit 301 of the server 300 calculates a list of webtoons of interest of the user in response to the webtoon viewing record of the user terminal 200, selects and reads one webtoon among them, and text information included in the webtoon. Can be transferred to the 100 side of the smart doll.

앞서 설명한 바와 같이, 상기 출력 대상 선택부 301는 사용자 단말 200의 로그 정보에 기반하여 사용자의 어플리케이션의 접속 빈도, 주요 관심사 정보를 산출하고, 그에 대응하는 즐겨찾기 리딩 대상 콘텐츠 목록을 산출할 수 있다. 그에 따라 상기 출력 대상 선택부 301는 리딩 동작의 대상 콘텐츠가 확정되지 않은 채 리딩 동작이 요구되는 경우, 사용자의 즐겨찾기 목록에 기반하여 리딩 동작을 수행할 대상 콘텐츠를 임의로 선택할 수 있다. 이에 따라 사용자는 별도의 구체적인 명령이 없더라도, 자신이 스마트 인형 100을 통해 주로 리딩 동작을 수행한 생활 습관이 있다면, 해당 동작이 루틴화되어 제공되는 효과를 기대할 수 있다. As described above, the output target selection unit 301 may calculate the access frequency of a user's application and information on major interests based on log information of the user terminal 200, and calculate a list of contents to be read as a favorite. Accordingly, when a reading operation is requested while the target content for the reading operation is not determined, the output target selection unit 301 may randomly select a target content to perform the reading operation based on the user's favorite list. Accordingly, even if there is no separate specific command, if the user has a lifestyle in which he or she mainly performs the reading operation through the smart doll 100, the user can expect the effect that the corresponding operation is routineized and provided.

상기 출력 대상 제공부 302는 업데이트 되는 효과음(배경음 포함), 목소리 및 기타 설정값을 스마트 인형 100측으로 제공할 수 있다. 다양한 실시 예에 따라 상기 출력 대상 제공부 302가 추가적으로 제공하는 다양한 설정값 정보는 유료 결제에 대응하여 조건적으로 제공될 수도 있다. The output target providing unit 302 may provide an updated sound effect (including background sound), a voice, and other set values to the smart doll 100 side. According to various embodiments, various set value information additionally provided by the output target provider 302 may be provided conditionally in response to a paid payment.

상기 서버 300가 콘텐츠 제공 서버와 통합형 서버일 경우, 상기 서버 300는 기 저장된 전자책 데이터, 웹툰 데이터 등의 출력 대상 콘텐츠를 스마트 인형 100측으로 제공할 수 있다. 그러나 콘텐츠 제공 서버와 상기 서버 300가 이원화된 경우, 상기 출력 대상 제공부 302는 출력 대상이 되는 콘텐츠의 제공 서버에 접속하여 해당 출력 대상 터를 수집하고 이후 스마트 인형 100측에 제공할 수 있다.When the server 300 is an integrated server with a content providing server, the server 300 may provide output target content such as pre-stored e-book data and webtoon data to the smart doll 100 side. However, when the content providing server and the server 300 are dualized, the output target providing unit 302 may access the content providing server to be output, collect the corresponding output target site, and then provide it to the smart doll 100 side.

상기 AI 지원부 303는 이미지 정보의 리딩 동작을 지원하기 위한 AI 분석 기능을 지원할 수 있다. The AI support unit 303 may support an AI analysis function to support a reading operation of image information.

상기 AI 지원부 303는 이미지 정보(예, SNS 게시물)에 대응하는 배경음, 효과음을 산출할 수 있다. 상기 AI 지원부 303가 지원하는 이미지 정보의 리딩 동작에 따르면, 상기 스마트 인형 100은 인스타그램과 같은 SNS에 게시된 이미지 및 게시글에 대한 리딩 동작 시, 상기 게시글을 읽음과 동시에 상기 이미지에 대응하는 배경음 내지 효과음을 함께 출력할 수 있다. 마찬가지로 메신저 대화 내용에 대한 리딩 동작 시, 대화 내역은 TTS에 기반하여 텍스트 대응 사운드로 출력함과 동시에, 대화 상대자의 프로필 이미지 정보에 대응하는 배경음을 함께 출력할 수 있다. The AI support unit 303 may calculate a background sound and a sound effect corresponding to image information (eg, SNS posts). According to the reading operation of the image information supported by the AI support unit 303, the smart doll 100 reads the post and the background sound corresponding to the image when the reading operation for images and posts posted on SNS such as Instagram Or sound effects can be output together. Likewise, when reading the contents of a messenger conversation, the conversation history may be output as a text-corresponding sound based on the TTS, and a background sound corresponding to the profile image information of the conversation partner may be output together.

삭제delete

도 6은 본 발명의 실시 예에 따른 스마트 인형의 동작 순서를 도시한 도면이다. 6 is a diagram illustrating an operation sequence of a smart doll according to an embodiment of the present invention.

도 6에서 도시되는 바와 같이, 본 발명의 실시 예에 따른 스마트 인형의 리딩 동작은 먼저 사용자가 출력 대상 데이터를 선택하는 605동작에 의해 개시될 수 있다. 상기 605동작은 사용자가 사용자 단말 200 내 스마트 인형 100을 제어하기 위한 어플리케이션에 접속하여, 리딩 동작(출력) 대상 데이터를 선택하는 동작일 수 있다. 또한 상기 605동작은 스마트 인형 100을 통한 직접 명령 입력(예, 음성 명령) 동작일 수 있다. 이 밖에도 앞서 기술한 다양한 방식에 의해 출력 대상 데이터가 선택될 수 있다. As shown in FIG. 6, the reading operation of the smart doll according to the embodiment of the present invention may be initiated by operation 605 in which the user selects data to be output. The operation 605 may be an operation in which the user accesses an application for controlling the smart doll 100 in the user terminal 200 and selects data to be read operation (output). In addition, operation 605 may be a direct command input (eg, voice command) operation through the smart doll 100. In addition, data to be output may be selected by various methods described above.

이후 스마트 인형 100는 선택된 출력 대상 데이터를 수신하는 610동작을 수행할 수 있다. 이후 상기 스마트 인형 100의 제어부 170는 출력 대상 내용을 오디오 데이터로 변환 및 출력하느 615동작을 수행할 수 있다. 이를 위해 스마트 인형 100 에는 텍스트 데이터를 오디오 데이터로 변환하는 TTS 프로그램이 내장되어 있을 수 있다. Thereafter, the smart doll 100 may perform operation 610 of receiving the selected output target data. Thereafter, the controller 170 of the smart doll 100 may perform operation 615 of converting and outputting the content to be output into audio data. To this end, the smart doll 100 may have a built-in TTS program that converts text data into audio data.

이후 상기 제어부 170는 출력 설정값 변경 이벤트를 감지하는 620동작을 수행할 수 있다. 출력 설정값(리딩 동작의 설정값)의 변경 이벤트가 감지되지 않는 경우, 620 이하의 동작은 생략될 수 있다. 상기 출력 설정값 변경 이벤트는 앞서 상황 기반 제어부, 콘텐츠 기반 제어부 및 AI 지원부 설명 등에서 기술되었으므로 구체적인 설명은 생략하기로 한다. Thereafter, the controller 170 may perform operation 620 of detecting an output setting value change event. When an event of changing the output setting value (the setting value of the reading operation) is not detected, the operation 620 or less may be omitted. The output setting value change event has been described above in the context-based control unit, the content-based control unit, and the AI support unit, and thus a detailed description thereof will be omitted.

그리고 상기 제어부 170는 620에서 감지된 출력 설정값 변경 이벤트에 대응하여 출력 설정값을 변경하는 625동작을 수행할 수 있다. In addition, the controller 170 may perform operation 625 of changing an output setting value in response to an output setting value change event detected in 620.

도 6에서 도시되는 리딩 동작의 설정값 변경 동작은 다양한 실시 예 중 일 실시 예에 해당하는 것이며, 리딩 동작의 설정값은 앞서 설명한 바에 근거하여 출력 대상이 선택되는 당시에 변경 및 적용될 수도 있다. The operation of changing the setting value of the reading operation illustrated in FIG. 6 corresponds to one of various embodiments, and the setting value of the reading operation may be changed and applied at the time when an output target is selected based on the foregoing description.

상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 요컨대 본 발명이 의도하는 효과를 달성하기 위해 도면에 도시된 모든 기능 블록을 별도로 포함하거나 도면에 도시된 모든 순서를 도시된 순서 그대로 따라야만 하는 것은 아니며, 그렇지 않더라도 얼마든지 청구항에 기재된 본 발명의 기술적 범위에 속할 수 있음에 주의한다.Although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, changes, and modifications to these examples without departing from the scope of the present invention. In short, in order to achieve the intended effect of the present invention, it is not necessary to separately include all functional blocks shown in the drawings or to follow all the sequences shown in the drawings as shown in the order shown. Note that it may fall within the range.

100 : 스마트 인형
110 : 통신부
120 : 저장부
130 : 입력부
140 : 오디오 처리부
150 : 센서부
160 : 카메라부
170 : 제어부
171 : 상황 기반 제어부
172 : 콘텐츠 기반 제어부
173 : 캐릭터 설정부
200 : 사용자 단말
300 : 서버
100: Smart Doll
110: communication department
120: storage
130: input unit
140: audio processing unit
150: sensor unit
160: camera unit
170: control unit
171: context-based control unit
172: Content-based control unit
173: Character setting unit
200: user terminal
300: server

Claims (9)

사용자 단말 및 서버와 연동하여 동작하는 스마트 인형에 있어서,
상기 사용자 단말 및 서버와 통신하며, 상기 사용자 단말과 서버 중 적어도 하나로부터 텍스트 데이터를 사운드로 변환하여 출력하는 리딩 동작을 수행할 대상이 되는 대상 콘텐츠를 수신하는 통신부;
인형의 본체의 적어도 일 영역에 구비되며 사용자가 상기 인형에 가하는 접촉 정보를 센싱하는 센서부;
스피커로 상기 대상 콘텐츠의 오디오 데이터를 출력하는 오디오 처리부;
대상 콘텐츠에 대한 리딩 명령을 감지하고, 대상 데이터에 대한 리딩 동작을 수행하며, 출력 설정값 변경 이벤트를 감지함에 따라 리딩 동작 설정값을 제어하는 제어부;를 포함하고,
상기 제어부는
사용자의 동작 및 주변 상황 중 적어도 하나에 기반하여 리딩 동작 설정값을 제어하는 상황 기반 제어부;를 포함하고,
상기 상황 기반 제어부는
스마트 인형의 적어도 일 영역에 구비된 접촉 센서에 의해 감지된 사용자의 접촉 정보를 기반으로 접촉 종류를 판단하고, 접촉 종류에 대응하여 리딩 동작의 설정값을 제어하되, 상기 접촉 종류는 센서를 통해 감지된 개별 신호 항목 및 다수 신호 항목의 조합을 통해 구분하며, 개별 신호 항목으로는 사용자의 근접 여부 및 근접 정도, 사용자의 접촉이 감지된 스마트 인형의 부위, 반복 터치 여부, 터치 면적의 기준값 충족 여부 및 압력이 수반된 터치 여부가 포함되는 접촉 기반 제어부;
사용자의 음성 명령, 주변 소음도 및 특정 명령음을 포함하는 사운드 입력에 대응하여 리딩 동작 설정값을 제어하되, 주변 소음도 수치가 증가할수록 리딩 동작의 출력 사운드 볼륨을 증가시키는 동작을 수행하는 음성 기반 제어부;를 포함하며,
상기 대상 콘텐츠는
SNS 게시물, 메신저 대화내용, 인터넷 뉴스 기사, 전자책 중 적어도 일 종류를 포함하고,
상기 리딩 동작 설정값은
추가되는 배경음 종류, 추가되는 효과음 종류, 사운드 볼륨, 리딩 속도 및 리딩 동작의 중지 설정 중 적어도 하나를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.
In a smart doll that operates in conjunction with a user terminal and a server,
A communication unit that communicates with the user terminal and the server, and receives target content that is a target for performing a reading operation of converting and outputting text data into sound from at least one of the user terminal and the server;
A sensor unit provided in at least one area of the main body of the doll and sensing contact information applied by a user to the doll;
An audio processing unit for outputting audio data of the target content through a speaker;
Including; a control unit that detects a reading command for the target content, performs a reading operation on the target data, and controls a reading operation setting value according to detecting an output setting value change event; and
The control unit
Includes; a context-based control unit for controlling a reading operation setting value based on at least one of a user's motion and a surrounding situation
The context-based control unit
The type of contact is determined based on the user's contact information sensed by the contact sensor provided in at least one area of the smart doll, and the set value of the reading operation is controlled in response to the type of contact, but the contact type is detected through a sensor. Individual signal items and a combination of multiple signal items are classified as individual signal items. A touch-based control unit including whether or not a touch is accompanied by pressure;
A voice-based controller configured to control a reading operation setting value in response to a sound input including a user's voice command, an ambient noise level, and a specific command sound, and perform an operation of increasing an output sound volume of the reading operation as the ambient noise level increases; Including,
The target content is
Includes at least one of SNS posts, messenger conversations, Internet news articles, and e-books,
The reading operation setting value is
A smart doll performing a reading function, comprising at least one of an added background sound type, an added sound effect type, a sound volume, a reading speed, and a stop setting of a reading operation.
삭제delete 삭제delete 제 1항에 있어서,
상기 상황 기반 제어부는
사용자의 반응 정보를 수집하여 리딩 동작 설정값을 변경하는 반응 기반 제어부를 포함하고,
상기 반응 기반 제어부는
상기 반응 정보로 기 설정된 시간 이상 사용자의 움직임 및 음성이 감지되지 않은 수면 반응을 포함하고,
상기 수면 반응이 감지된 경우, 리딩 동작을 중지하도록 제어하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.
The method of claim 1,
The context-based control unit
It includes a response-based control unit for collecting the user's response information and changing a reading operation setting value,
The reaction-based control unit
Including a sleep reaction in which the user's movement and voice are not detected for more than a preset time as the reaction information,
Smart doll performing a reading function, characterized in that controlling to stop the reading operation when the sleep reaction is detected.
제 1항에 있어서,
상기 제어부는
상기 대상 콘텐츠의 특성에 대응하여 리딩 동작의 설정값을 제어하는 콘텐츠 기반 제어부 ;를 포함하고,
상기 콘텐츠 기반 제어부는
상기 대상 콘텐츠에 포함된 텍스트를 기 설정된 조건에 따라 감정 카테고리별로 분류하며, 해당 텍스트가 분류된 카테고리에 대응하는 효과음을 출력하도록 제어하는 의미 기반 제어부;를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.
The method of claim 1,
The control unit
Including; a content-based control unit for controlling a set value of the reading operation in response to the characteristics of the target content,
The content-based control unit
And a semantic-based control unit configured to classify text included in the target content by emotion category according to a preset condition, and to output a sound effect corresponding to the category in which the text is classified; and performing a reading function, comprising: Smart doll.
제 5항에 있어서,
상기 콘텐츠 기반 제어부는
리딩 동작을 수행하기 위해 기 연계된 어플리케이션의 종류에 따라 리딩 동작의 설정값을 상이하게 설정하는 형식 기반 제어부;를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.
The method of claim 5,
The content-based control unit
A smart doll performing a reading function, comprising: a format-based control unit configured to differently set a setting value of the reading operation according to the type of the application previously linked to perform the reading operation.
제 1항에 있어서,
상기 제어부는
스마트 인형을 이용한 리딩 동작의 수행 횟수 및 빈도를 포함하는 스마트 인형의 사용량의 단계에 비례하여 출력되는 목소리를 변화시키되, 녹음된 목소리 샘플 항목 중 목소리를 녹음한 모델의 연령대가 낮은 항목에서 높은 항목으로 단계별 변화시키는 캐릭터 설정부;를 포함하는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.
The method of claim 1,
The control unit
Change the output voice in proportion to the stage of usage of the smart doll, including the number and frequency of reading movements using the smart doll, but among the recorded voice sample items, the age group of the model that recorded the voice is low to the high item. Character setting unit that changes step by step; Smart doll for performing a reading function comprising a.
제 1항에 있어서,
상기 서버는
상기 사용자 단말의 로그 정보에 기반하여 사용자의 어플리케이션 접속 빈도, 주요 관심사 정보를 산출하고, 그에 대응하는 즐겨찾기 리딩 대상 콘텐츠 목록을 산출하는 출력 대상 선택부;
이미지 정보의 리딩 동작을 지원하기 위한 AI 분석 기능을 수행하는 AI 지원부;를 포함하여 구성되는 것을 특징으로 하는 리딩 기능을 수행하는 스마트 인형.



The method of claim 1,
The server
An output target selection unit that calculates a user's application access frequency and major interest information based on the log information of the user terminal, and calculates a corresponding list of contents to be read as favorites;
An AI support unit that performs an AI analysis function for supporting the reading operation of image information; a smart doll performing a reading function, comprising: a.



삭제delete
KR1020190116728A 2019-09-23 2019-09-23 Smart doll performing the reading function KR102208256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190116728A KR102208256B1 (en) 2019-09-23 2019-09-23 Smart doll performing the reading function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190116728A KR102208256B1 (en) 2019-09-23 2019-09-23 Smart doll performing the reading function

Publications (1)

Publication Number Publication Date
KR102208256B1 true KR102208256B1 (en) 2021-01-27

Family

ID=74238684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190116728A KR102208256B1 (en) 2019-09-23 2019-09-23 Smart doll performing the reading function

Country Status (1)

Country Link
KR (1) KR102208256B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102547971B1 (en) * 2022-05-06 2023-06-27 주식회사 코코지 Audio output system and method
KR102547972B1 (en) * 2022-05-06 2023-06-27 주식회사 코코지 Audio output system and method thereof
KR102547979B1 (en) * 2022-05-06 2023-06-27 주식회사 코코지 Audio output system and method for changing sound content thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239257A (en) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd Interactive state determination device in automatic response toy and automatic response toy
KR100894569B1 (en) * 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
KR20110029485A (en) * 2009-09-15 2011-03-23 유비벨록스(주) Voice playing method, terminal and system for the same method
KR20170049863A (en) * 2015-10-29 2017-05-11 이두만 Doll for receiving and transmitting voice message
KR20180012561A (en) * 2016-07-27 2018-02-06 주식회사 네이블커뮤니케이션즈 Offline character doll control apparatus and method using user's emotion information
JP2019072495A (en) * 2016-07-20 2019-05-16 Groove X株式会社 Autonomous travel robot understanding physical contact

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239257A (en) * 2001-02-14 2002-08-27 Sanyo Electric Co Ltd Interactive state determination device in automatic response toy and automatic response toy
KR100894569B1 (en) * 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
KR20110029485A (en) * 2009-09-15 2011-03-23 유비벨록스(주) Voice playing method, terminal and system for the same method
KR20170049863A (en) * 2015-10-29 2017-05-11 이두만 Doll for receiving and transmitting voice message
JP2019072495A (en) * 2016-07-20 2019-05-16 Groove X株式会社 Autonomous travel robot understanding physical contact
KR20180012561A (en) * 2016-07-27 2018-02-06 주식회사 네이블커뮤니케이션즈 Offline character doll control apparatus and method using user's emotion information

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102547971B1 (en) * 2022-05-06 2023-06-27 주식회사 코코지 Audio output system and method
KR102547972B1 (en) * 2022-05-06 2023-06-27 주식회사 코코지 Audio output system and method thereof
KR102547979B1 (en) * 2022-05-06 2023-06-27 주식회사 코코지 Audio output system and method for changing sound content thereof
WO2023214740A1 (en) * 2022-05-06 2023-11-09 주식회사 코코지 Audio output system and method
WO2023214739A1 (en) * 2022-05-06 2023-11-09 주식회사 코코지 Audio output system and method
WO2023214742A1 (en) * 2022-05-06 2023-11-09 주식회사 코코지 Audio output system and sound content change method thereof

Similar Documents

Publication Publication Date Title
US11762494B2 (en) Systems and methods for identifying users of devices and customizing devices to users
CN109243432B (en) Voice processing method and electronic device supporting the same
US11854527B2 (en) Electronic device and method of controlling speech recognition by electronic device
US11334376B2 (en) Emotion-aw are reactive interface
KR102208256B1 (en) Smart doll performing the reading function
CN108806669B (en) Electronic device for providing voice recognition service and method thereof
JP2010067104A (en) Digital photo-frame, information processing system, control method, program, and information storage medium
WO2021135685A1 (en) Identity authentication method and device
EP3217254A1 (en) Electronic device and operation method thereof
WO2021008538A1 (en) Voice interaction method and related device
KR102389996B1 (en) Electronic device and method for screen controlling for processing user input using the same
US20190043511A1 (en) Interactive robot and human-robot interaction method
WO2020207413A1 (en) Content pushing method, apparatus, and device
KR102431817B1 (en) Electronic apparatus and server for processing user utterance
KR102193029B1 (en) Display apparatus and method for performing videotelephony using the same
US11019162B2 (en) System and method for provisioning a user interface for sharing
WO2020079941A1 (en) Information processing device, information processing method, and computer program
KR102423257B1 (en) Supporting system for service about processing record data of dementia patient
US10979632B2 (en) Imaging apparatus, method for controlling same, and storage medium
KR102511517B1 (en) Voice input processing method and electronic device supportingthe same
CN111506183A (en) Intelligent terminal and user interaction method
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
JP2017211430A (en) Information processing device and information processing method
KR102463243B1 (en) Tinnitus counseling system based on user voice analysis
KR20230154380A (en) System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant