WO2023214740A1 - Audio output system and method - Google Patents

Audio output system and method Download PDF

Info

Publication number
WO2023214740A1
WO2023214740A1 PCT/KR2023/005815 KR2023005815W WO2023214740A1 WO 2023214740 A1 WO2023214740 A1 WO 2023214740A1 KR 2023005815 W KR2023005815 W KR 2023005815W WO 2023214740 A1 WO2023214740 A1 WO 2023214740A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
book
audio output
voice data
sound
Prior art date
Application number
PCT/KR2023/005815
Other languages
French (fr)
Korean (ko)
Inventor
박지희
최기운
Original Assignee
주식회사 코코지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코코지 filed Critical 주식회사 코코지
Publication of WO2023214740A1 publication Critical patent/WO2023214740A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing

Definitions

  • the present invention relates to an audio output system and method that provides an operating environment that allows users, including infants, to easily select various sounds, and a convenient control environment that allows changing sound content even when the audio output device is offline. .
  • Screen time refers to time spent sitting or lying down due to the use of digital video devices, excluding time for physical activity and learning activities.
  • This increase in screen time can have a negative impact on the health of adult users and have an even more negative impact on infant users.
  • long-term exposure to visual information for infants and toddlers under 24 months of age may have undesirable effects on their cerebral development, and the World Health Organization (WHO) also stipulates screen exposure guidelines for infants and toddlers that children under 1 year of age should not be exposed to electronic device screens. It has been suggested that exposure should be limited to 1 hour per day for children ages 2 to 5.
  • auditory stimulation can have a beneficial effect on the growth and development of infants and young children who begin to feel and learn about the world through auditory stimulation from the fetus.
  • Various auditory stimuli have a significant impact on infants and young children's language development as well as their creativity and imagination.
  • guardians want to deliver auditory stimulation to infants and toddlers, there is a lack of means to stimulate the curiosity of infants and toddlers, who are actual users, and to provide infants and toddlers with an easy operating environment, so guardians ultimately choose digital video devices (TVs, smart devices). Phones) are currently providing auditory stimulation along with visual information.
  • the object of the present invention is to provide an audio output system and method that includes an operating environment that allows users, including infants and young children, to easily select various sounds.
  • Another object of the present invention is to provide an audio output system and method that uses sound content recorded by a guardian's voice.
  • An audio output system for solving the above problems includes an audio output device that outputs sound content for auditory stimulation of infants and young children, a user terminal that inputs the user's voice data, and receives the user's voice data. and a content management server that provides the user's voice data to the audio output device and a book recommendation server that receives the user's voice data and recommends books associated with the user's voice data using the user's voice data. It includes, wherein the audio output device outputs the user's voice data as the sound content, and the book recommendation server generates a first keyword cluster based on a plurality of book text data stored in a database, and the user's voice data is output as the sound content. A second keyword cluster is created based on voice data, and a book related to the user's voice data is recommended by comparing the first keyword cluster and the second keyword cluster.
  • the audio output device includes an audio output station including a sound doll and a docking space in which the sound doll is docked, the audio output station recognizes the sound doll docked in the docking space, and the recognized sound doll Sound content corresponding to can be output.
  • the content management server when the content management server receives the user's voice data, it transmits a message about a content update to the audio output device and receives a request signal for the user's voice data from the audio output device. , the user's voice data can be transmitted to the audio output device.
  • the book recommendation server includes a communication unit that receives book selection data and the user's voice data from the user terminal and transmits a recommended book list and first book text data associated with the book selection data to the user terminal;
  • a voice analysis unit that converts the user's voice data into user text data, a text analysis engine that generates the first keyword cluster and the second keyword cluster, compares the first and second keyword clusters, and makes the recommendation. It may include a book matching unit that generates a book list.
  • the text analysis engine includes a natural language processing unit that receives the user text data and the plurality of book text data, processes them into natural language, and extracts keywords, and creates the first and second keyword clusters based on the distribution of the keywords. It may include a keyword cluster creation unit.
  • the step of generating the first keyword cluster includes receiving the plurality of book text data from the database, extracting book keywords for each of the plurality of book text data through natural language processing, and It may include generating the first keyword cluster according to the distribution of book keywords, and storing the first keyword cluster in the database.
  • the step of generating the second keyword cluster includes converting the user's voice data into user text data, extracting a user keyword from the user text data through natural language processing, and distribution of the user keyword It may include generating the second keyword cluster according to .
  • An audio output system for solving the above problems includes an audio output device that outputs sound content for auditory stimulation of infants and young children, a microphone into which the user's voice data is input, and a device that edits the user's voice data.
  • a user terminal a content management server that provides the user's voice data to the audio output device, and a book recommendation server that recommends a book associated with the user's voice data using the user's voice data, the book recommendation server Converts the user's voice data into user text data in the form of text data, processes the user text data into natural language, extracts keywords for the user text data, and creates a keyword cluster based on the distribution of the keywords. and recommending books related to the user's voice data using the keyword cluster.
  • An audio output system for solving the above problems includes a first sound doll corresponding to the first sound content, a second sound doll corresponding to a second sound content different from the first sound content, and a sound It includes an audio output station that outputs sound content corresponding to the doll, a user terminal into which the user's voice data is input, and a sound doll recommendation server that recommends a sound doll associated with the user's voice data.
  • the sound doll recommendation server includes, Analyzing first text data for the first sound content to generate a first keyword cluster, analyzing second text data for the second sound content to generate a second keyword cluster, and The user's voice Analyzing data, generating a third keyword cluster, and comparing the first to third keyword clusters to determine a sound doll associated with the user's voice data.
  • the audio output system and method of the present invention can stimulate the curiosity of infants and young children and provide an environment in which infants and young children can select various sounds on their own without going through their guardian's digital video device. In other words, it is possible to have a beneficial effect on the growth and development of infants and young children by providing them with a variety of auditory stimulation while minimizing exposure to digital imaging devices.
  • the audio output system and method according to embodiments of the present invention can provide emotional stability to infants and young children by using the voice of their guardian, which the infant has grown up listening to since the fetus, as sound content.
  • FIG. 1 is a schematic diagram illustrating an audio output system according to some embodiments of the present invention.
  • FIG. 2 is a block diagram for explaining the audio output device of FIG. 1.
  • FIG. 3 is an example diagram for explaining the audio output station of FIG. 2.
  • Figure 4 is an example diagram for explaining the audio output station and sound doll of Figure 2.
  • FIG. 5 is a block diagram for explaining the server of FIG. 1.
  • FIG. 6 is a block diagram for explaining the relationship between the audio output station of FIG. 2 and the content management server of FIG. 5.
  • Figure 7 is a block diagram for explaining the book recommendation server of Figure 5.
  • FIG. 8 is a block diagram for explaining the text analysis engine of FIG. 7.
  • FIGS. 9A and 9B are exemplary diagrams for explaining the book matching unit of FIG. 7.
  • Figure 10 is a flowchart for explaining an audio output method according to some embodiments of the present invention.
  • FIG. 11 is a flowchart for explaining the first keyword cluster generation step of FIG. 10.
  • FIG. 12 is a flowchart for explaining the second keyword cluster creation step of FIG. 10.
  • Figure 13 is a schematic diagram for explaining an audio output system according to some embodiments of the present invention.
  • Figure 14 is a block diagram for explaining a server of an audio output system according to some embodiments of the present invention.
  • first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
  • a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention.
  • the term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.
  • each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.
  • FIG. 1 is a schematic diagram illustrating an audio output system according to some embodiments of the present invention.
  • an audio output system 10 includes an audio output device 100, a server 200, and a user terminal 300.
  • the audio output device 100 is configured to output sound content for auditory stimulation of infants and young children.
  • the audio output device 100 can download and update sound content by exchanging information with the server 200 and the user terminal 300.
  • the server 200 provides a service environment in which the user terminal 300 controls the audio output device 100. Additionally, the server 200 may provide sound content output by the audio output device 100. That is, the server 200 may provide sound content matching the information recognized through the audio output device 100 to the audio output device 100 .
  • the user terminal 300 is connected to the audio output device 100 and can control the audio output device 100. Additionally, the user terminal 300 may input the user's voice data.
  • the user terminal 300 is a terminal that can use applications or web services provided through the server 200.
  • the user terminal 300 may be, for example, a user's personal computer or smartphone.
  • the user of the audio output device 100 and the user of the user terminal 300 may include infants and toddlers and their guardians.
  • the main user of the audio output device 100 may be an infant or young child, and the main user of the user terminal 300 may be a guardian of an infant or young child.
  • this embodiment is not limited to this.
  • the communication network can connect the audio output device 100, the server 200, and the user terminal 300.
  • Communication networks may include networks based on wired Internet technology, wireless Internet technology, and short-distance communication technology.
  • Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).
  • Wireless Internet technologies include, for example, Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • WMBS Wireless Mobile Broadband Service
  • 5G NR New Radio
  • Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra-Wideband
  • ZigBee ZigBee
  • Near Field Communication At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include.
  • NFC Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra-Wideband
  • ZigBee ZigBee
  • NFC Ultrasound Communication
  • VLC Visible Light Communication
  • Wi-Fi Wi-Fi Direct
  • 5G NR New Radio
  • the audio output device 100, server 200, and user terminal 300 that communicate through a communication network can comply with technical standards and standard communication methods for mobile communication.
  • standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), and EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only).
  • WCDMA Wideband CDMA
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • LTEA Long Term Evolution-Advanced
  • NR 5G New Radio
  • this embodiment is not limited to this.
  • FIG. 2 is a block diagram for explaining the audio output device of FIG. 1, and FIG. 3 is an example diagram for explaining the audio output station of FIG. 2.
  • Figure 4 is an example diagram for explaining the audio output station and sound doll of Figure 2.
  • the audio output device 100 of the audio output system 10 may include an audio output station 110 and a sound doll 120.
  • the audio output station 110 may recognize the sound doll 120 and output sound content corresponding to the sound doll 120.
  • the sound content may include children's songs, traditional fairy tales, English fairy tales, etc. recorded for auditory stimulation of infants and young children.
  • sound content may include the user's voice data input through the user terminal 300. Sound content may be stored in the audio output station 110 or in the sound doll 120.
  • the audio output station 110 may include a data processing unit that checks the overall operating state of the audio output station 110, a data storage unit that stores sound content, and a speaker unit that outputs sound content.
  • the data processor may check whether the sound doll 120 is recognized, manage power of the audio output station 110, and check whether sound content is stored.
  • the sound doll 120 may be a device that allows the user to recognize the audio output station 110 to play sound content.
  • the sound doll 120 may correspond to sound content for auditory stimulation of infants and young children.
  • sound content may include content for language learning such as counting, bilingual repetition, onomatopoeia repetition, and onomatopoeia repetition, and content that enhances the user's imagination and creativity such as melodies, sound theater, and folk tales.
  • the sound content may be at least one of content that allows the user to perform physical activities through movement, such as animal nursery rhymes and children's rhythmic songs, and content in which a guardian records a voice for the user's emotional development.
  • the audio output station 110 may have an external appearance with a docking space (D) in which the sound doll 120 can be seated, a speaker (S) through which sound content is output, and the volume of the speaker. It may include a volume control device (V) to adjust, an operating status light (L) to indicate the operating state of the audio output station through color change, and a playback track controller (C) to change the output sound track. For example, the operation status light L may be turned on or off depending on whether the sound doll 120 is docked. Additionally, the audio output station 110 may have an appearance that stimulates the curiosity of infants and young children.
  • the audio output station 110 may have an appearance like a house with a docking space (D) formed, the volume control device (V) is composed of a chimney of the house, and the playback track controller (C) may be composed of part of the roof of a house.
  • the volume control device (V) is composed of a chimney of the house
  • the playback track controller (C) may be composed of part of the roof of a house.
  • infant users can play sound content by placing the sound doll 120 in the docking space (D) of the audio output station 110.
  • the audio output station 110 can identify the sound doll 120 placed in the docking space (D) through near field communication (NFC).
  • NFC near field communication
  • the docking space (D) of the audio output station 110 and the sound doll 120 may each include a magnet, and the docking space (D) and the sound doll 120 may be fixed by magnetic force.
  • this embodiment is not limited to this.
  • the sound doll 120 may be sized so that infants and young children can hold it with one hand. Accordingly, the docking space D may be formed in a size that can sufficiently accommodate the sound doll 120.
  • the sound doll 120 may be configured in the shape of an animal or a character that can stimulate the curiosity of infants and young children. Additionally, the sound doll 120 may be rounded without sharp parts for the safety of infants and young children. At this time, the sound doll 120 may be composed of a plurality of sound dolls 120 with different appearances, and different sound content may correspond to each sound doll 120.
  • the first sound doll 120A may correspond to content recorded by the user's guardian
  • the second sound doll 120B may correspond to animal nursery rhyme content
  • the third sound doll 120C, the fourth sound doll 120D, and the fifth sound doll 120E may each correspond to traditional fairy tales, children's songs, and language learning content. Accordingly, when the user wants to play the desired sound content, the sound doll 120 corresponding to the sound content can be recognized by the audio output station 110 and the sound content can be played.
  • the specific appearance of the sound doll 120 and the corresponding sound content may vary depending on need.
  • the user can safely select the sound doll 120 with one hand and easily place it in the docking space (D) of the audio output station 110. Additionally, the user may remove the mounted sound doll 120 with one hand. Through this, when the user docks another sound doll 120, the audio output station 110 can output sound content corresponding to the newly docked sound doll 120.
  • the sound content output process of the audio output device 100 is comprised of a simple docking and detachment process, so even infants and young children can sufficiently operate it. Additionally, sound content may be stored in the audio output station 110 in advance. Accordingly, output of sound content corresponding to the sound doll 120 may be possible only through the audio output device 100 even without connection to other devices.
  • FIG. 5 is a block diagram for explaining the server of FIG. 1
  • FIG. 6 is a block diagram for explaining the relationship between the audio output station of FIG. 2 and the content management server of FIG. 5.
  • the server 200 of the audio output system 10 may include a content management server 210 and a book recommendation server 220.
  • the user's voice data may be input through the user terminal 300 and transmitted to the server 200 through a communication network.
  • voice data may be data recorded by a guardian through the user terminal 300 for the emotional development of infants and young children.
  • voice data (D_voice) may be recorded data about a nursery rhyme sung by a guardian to an infant or toddler, a fairy tale read by a guardian to an infant or toddler, or a message delivered by a guardian to an infant or toddler.
  • Voice data (D_voice) transmitted to the server 200 may be delivered to the content management server 210 and the book recommendation server 220.
  • the content management server 210 can store and manage sound content. Referring to FIG. 2, when the user first recognizes the sound doll 120 to the audio output station 110, the content management server 210 sends sound content corresponding to the sound doll 120 to the audio output station ( 110).
  • the user can access the service environment using the user terminal 300 and change or edit sound content stored in the content management server 210. For example, the user can change at least one of the number, type, and order of sound tracks stored in the content management server 210 through the user terminal 300. Additionally, the user can select part of the voice data (D_voice) and edit it, such as using it as sound content. However, in this specification, it is assumed that voice data (D_voice) input from the user is used as sound content.
  • the sound doll 120 may include a first sound doll and a second sound doll.
  • the first sound doll can re-record the corresponding sound content, but the second sound doll may not be able to change the corresponding sound content while it is specified.
  • a change in the corresponding sound content may be performed while the first sound doll is docked at the audio output station 101, and a change in the corresponding sound content may be performed while the second sound doll is docked at the audio output station 101. This may not be done.
  • the description of the first sound doll and the second sound doll is only an illustrative description and the embodiments are not limited thereto.
  • the second sound doll can also be implemented to change the sound content.
  • the first sound doll may have recorded sound content recorded by the user uploaded, and the second sound doll may be implemented to change the sound content through subscription to a content server or download from a content server.
  • the sound doll 120 is a first sound doll capable of outputting sound content recorded from a user.
  • the content management server 210 may receive voice data (D_voice) and transmit it to the audio output station 110.
  • D_voice voice data
  • the user can generate voice data (D_voice) using the user terminal 300.
  • the user may provide voice data (D_voice) to the content management server 210 through the user terminal 300.
  • the user can access the service environment using the user terminal 300 and change the sound content stored in the content management server 210 to include voice data (D_voice).
  • D_voice voice data
  • the content management server 210 An update message (MSG_update) may be transmitted to the output station 110.
  • the update message (MSG_update) may include information indicating that the sound content managed by the content management server 210 has been updated.
  • the audio output station 110 may provide a voice data request signal (RQ_D_voice) to the content management server 210.
  • the content management server 210 may receive a voice data request signal (RQ_D_voice) from the audio output station 110.
  • the voice data request signal (RQ_D_voice) may include a request for a download URL for voice data (D_voice) or a direct request for voice data (D_voice).
  • the content management server 210 may transmit a voice data return signal (RT_D_voice) to the audio output station 110.
  • the voice data return signal (RT_D_voice) may be a signal including a URL from which voice data (D_voice) can be downloaded, or may be a signal including the voice data (D_voice) itself.
  • FIG. 7 is a block diagram for explaining the book recommendation server of FIG. 5, and FIG. 8 is a block diagram for explaining the text analysis engine of FIG. 7.
  • Figure 9a is an example diagram for explaining the book matching unit of Figure 7.
  • the book recommendation server 220 of the audio output system 10 includes a communication unit 221, a voice analysis unit 222, a text analysis engine 223, and book matching. It may include a unit 224 and a database (DB).
  • DB database
  • the communication unit 221 may receive voice data (D_voice) and book selection data (D_select) from the user terminal 300. Additionally, the communication unit 221 may transmit a recommended book list (LoB) and first book text data (S_ToB) to the user terminal 300. Through this, the book recommendation server 220 can transmit and receive information with the user terminal 300.
  • D_voice voice data
  • D_select book selection data
  • S_ToB first book text data
  • the database (DB) can store book text data (ToB).
  • book text data (ToB) may include the text of various books that may be helpful in the development of infants and toddlers.
  • the database (DB) may update book text data (ToB) through a communication network.
  • the database (DB) may transmit first book text data (S_ToB) corresponding to book selection data (D_select) to the communication unit 221.
  • the first book text data (S_ToB) may be included in the book text data (ToB).
  • the database (DB) can transmit book text data (ToB) to the text analysis engine 223. Subsequently, the database (DB) may receive the first keyword cluster (KC_B) and store it together with the book text data (ToB).
  • the voice analysis unit 222 may receive voice data (D_voice) and convert the voice data (D_voice) in sound into user text data (D_text) in text.
  • voice data (D_voice) may be a recording of a fairy tale that the user wants to tell to infants and toddlers. Therefore, the user text data (D_text) may be a fairy tale that the user wants to tell to infants and toddlers converted into text.
  • the voice analysis unit 222 may transmit user text data (D_text) to the text analysis engine 223.
  • the voice analysis unit 222 may receive the second keyword cluster (KC_T) from the text analysis engine 223. Additionally, the voice analysis unit 222 may transmit the second keyword cluster (KC_T) to the book matching unit 224.
  • the text analysis engine 223 may receive user text data (D_text) from the voice analysis unit 222. Additionally, the text analysis engine 223 may receive book text data (ToB) from the database (DB).
  • D_text user text data
  • ToB book text data
  • the text analysis engine 223 can generate keyword clusters by analyzing text data.
  • the text analysis engine 223 may generate a first keyword cluster (KC_B) by analyzing book text data (ToB). According to some embodiments, the text analysis engine 223 may select keywords from book text data (ToB). The text analysis engine 223 may generate a first keyword cluster (KC_B) based on the selected keywords.
  • KC_B first keyword cluster
  • the text analysis engine 223 may generate a second keyword cluster (KC_T) by analyzing user text data (D_text). According to some embodiments, the text analysis engine 223 may select keywords from user text data (D_text). The text analysis engine 223 may generate a second keyword cluster (KC_T) based on the selected keywords.
  • the first keyword cluster (KC_B) generated by the text analysis engine 223 may be provided to the database (DB). Additionally, the second keyword cluster (KC_T) generated by the text analysis engine 223 may be provided to the book matching unit 224.
  • Figure 7 illustrates that the second keyword cluster (KC_T) generated in the text analysis engine 223 is provided to the book matching unit 224 through the voice analysis unit 222, the embodiments are not limited thereto. .
  • the second keyword cluster (KC_T) generated by the text analysis engine 223 may be provided to the book matching unit 224 through a separate path.
  • the book matching unit 224 may receive the first keyword cluster (KC_B) from the database (DB). Additionally, the book matching unit 224 may receive the second keyword cluster (KC_T) from the text analysis engine 223 through the voice analysis unit 222. However, as described above, the embodiments are not limited to this, and the book matching unit 224 may receive the second keyword cluster (KC_T) from the text analysis engine 223 without going through the voice analysis unit 222. .
  • the book matching unit 224 may compare the received first keyword cluster (KC_B) and the second keyword cluster (KC_T) to generate a recommended book list (LoB). Additionally, the book matching unit 224 may generate publisher information (PI) by comparing the first keyword cluster (KC_B) and the second keyword cluster (KC_T). The book matching unit 224 may transmit a recommended book list (LoB) and/or publisher information (PI) to the user terminal 300 through the communication unit 221.
  • the text analysis engine 223 of the audio output system 10 may include a natural language processing unit 223_1 and a keyword cluster generating unit 223_2.
  • the natural language processing unit 223_1 can identify words and extract keywords from text data through natural language processing.
  • the natural language processing unit 223_1 may generate a book keyword (Keyword_1) by processing book text data (ToB) into natural language and extracting keywords.
  • the book keyword (Keyword_1) may be an analysis of the number and frequency of occurrences of a specific word in the book text data (ToB).
  • the natural language processing unit 223_1 may process user text data (D_text) into natural language, extract keywords, and generate user keywords (Keyword_2).
  • the user keyword (Keyword_2) similar to the book keyword (Keyword_1), may be an analysis of the number and frequency of occurrences of a specific word in the user text data (D_text).
  • the keyword cluster generator 223_2 may generate a first keyword cluster (KC_B) based on the distribution of the book keyword (Keyword_1).
  • the first keyword cluster (KC_B) selects words from the book keyword (Keyword_1) based on a predetermined number of times (e.g., 5 or more times) or a predetermined frequency (e.g., 1 or more occurrences per 10 words). You may.
  • the first keyword cluster (KC_B) may select five words with a high number of appearances or high frequencies from the book keyword (Keyword_1).
  • this embodiment is not limited to this, and the specific method of generating the first keyword cluster (KC_B) may vary.
  • the keyword cluster generator 223_2 may generate a second keyword cluster (KC_T) based on the user keyword (Keyword_2).
  • the second keyword cluster (KC_T) can be created in a similar way to the first keyword cluster (KC_B).
  • the embodiments are not limited to this, and when the number of words in the user text data (D_text) is significantly different from the number of words in the book text data (ToB), the method for generating the second keyword cluster (KC_T) is 1
  • the method of creating a keyword cluster (KC_B) may be different.
  • the book matching unit 224 matches the first keyword cluster (KC_B) and the second keyword cluster (KC_T), and accordingly selects some of the books stored in the database (DB) to create a list of recommended books. can be created.
  • the 2-1 keyword cluster (KC_T1) is 'animal, princess.'
  • the book matching unit 224 determines that the 2-1 keyword cluster (KC_T1) has a high matching rate with the 1-1 keyword cluster (KC_B1) and the 1-2 keyword cluster (KC_B2). can do.
  • the 1-1 keyword cluster (KC_B1) may include the keywords 'animal, prince, princess'
  • the 1-2 keyword cluster (KC_B2) may include the keywords 'animal, princess, love'.
  • the book matching unit 224 recommends books including the Frog Prince (ToB1) corresponding to the 1-1 keyword cluster (KC_B1) and the Little Mermaid (ToB2) corresponding to the 1-2 keyword cluster (KC_B2).
  • a list (LoB) can be created.
  • the book matching unit 224 matches the first keyword cluster (KC_B) and the second keyword cluster (KC_T) to generate publisher information (PI) of the book related to the second keyword cluster (KC_T). can do. According to some embodiments, even if the content is the same, different keywords may be used depending on the publisher. Therefore, by comparing the first keyword cluster (KC_B) and the second keyword cluster (KC_T), it is possible to know which publisher's book the voice data (D_voice) recorded from the user was created using.
  • the database contains the first text data (ToB4) of the book 'The Frog Prince' published by the first publisher (P1), and the second text data of the 'Frog Prince' book published by the second publisher (P2). It may include data (ToB5) and third text data (ToB6) of the book 'The Frog Prince' published by a third publisher (P3).
  • the first to fourth keyword clusters (KC_B4) derived from the first text data (ToB4) may be 'animal, prince, princess'.
  • the 1st to 5th keyword clusters (KC_B5) derived from the second text data (ToB5) may be 'frog, prince, princess'.
  • the 1st-6th keyword cluster (KC_B6) derived from the third text data (ToB6) may be 'animal, prince, princess'. In this way, keyword clusters generated from the same topic, 'Frog Prince', may be different for each publisher.
  • the book matching unit 224 compares the first keyword cluster (KC_B) and the second keyword cluster (KC_T), and determines whether the voice data (D_voice) related to the second keyword cluster (KC_T) originates from a book of a certain publisher. Information can be generated depending on the In other words, the book matching unit 224 may generate publisher information (PI) related to voice data (D_voice).
  • the book matching unit 224 If the book matching unit 224 fails to generate information about the publisher related to the voice data (D_voice) through comparison of the first keyword cluster (KC_B) and the second keyword cluster (KC_T), the book matching unit 224 ) can request the user to directly enter the publisher information (PI) of the book the user used.
  • the book matching unit 224 may transmit a recommended book list (LoB) and publisher information (PI) to the user terminal 300 through the communication unit 221. Users can receive recommendations for fairy tales similar to what they recorded through the recommended book list (LoB).
  • the guardian user receives the communication unit through the user terminal 300 (You can check the first book text data (S_ToB) provided by 221). Through this, guardian users can easily access and record a variety of fairy tales that are helpful for the emotional development of infants and toddlers or on topics preferred by infants and toddlers, and infant users can listen to various fairy tales recorded in the guardian's voice.
  • the book matching unit 224 can provide the user with publisher information (PI) if a copyright problem may occur with the corresponding voice data (D_voice), and the book matching unit 224 provides the publisher information If the (PI) cannot be created, the user can be asked to directly enter the publisher information (PI). Users can use publisher information (PI) to share profits generated by using sound content with publishers related to the publisher information (PI). This profit sharing can be performed through this system, and may also be performed through a separate system.
  • FIG. 10 is a flowchart for explaining a book recommendation method according to some embodiments of the present invention
  • FIG. 11 is a flowchart for explaining the first keyword cluster generation step of FIG. 10.
  • FIG. 12 is a flowchart for explaining the second keyword cluster creation step of FIG. 10.
  • the book recommendation server 220 analyzes the database and creates a first keyword cluster (S100).
  • the text analysis engine 223 receives book text data from the database (S110).
  • the text analysis engine 223 may include a natural language processing unit 223_1 and a keyword cluster generating unit 223_2.
  • the natural language processing unit 223_1 may receive book text data (ToB) from the database (DB).
  • the text analysis engine 223 can extract book keywords from book text data through natural language processing (S120).
  • the natural language processing unit 223_1 may analyze book text data (ToB) and extract a book keyword (Keyword_1) based on the number of occurrences and frequencies of words.
  • a first keyword cluster is created according to the distribution of book keywords (S130).
  • the keyword cluster generator 223_2 may receive a book keyword (Keyword_1). Subsequently, the keyword cluster generator 223_2 may generate a first keyword cluster (KC_B) in which keywords related to the topic are selected based on the distribution of the book keyword (Keyword_1).
  • KC_B first keyword cluster
  • the text analysis engine 223 stores the first keyword cluster in the database (S140).
  • the keyword cluster generator 223_2 may store the first keyword cluster (KC_B) in the database (DB).
  • the book recommendation server 220 receives voice data from the user terminal, analyzes the voice data, and generates a second keyword cluster (S200).
  • the voice analysis unit 222 converts the user's voice data into user text data (S210).
  • the voice analysis unit 222 may receive the user's voice data (D_voice) from the communication unit 221.
  • the voice analysis unit 222 may convert voice data (D_voice) into user text data (D_text) in the form of text data.
  • the text analysis engine 223 extracts user keywords from user text data through natural language processing (S220).
  • the natural language processing unit 223_1 may receive user text data (D_text).
  • the natural language processing unit 223_1 may analyze user text data (D_text) and extract user keywords (Keyword_2) based on the number of occurrences and frequencies of words.
  • a second keyword cluster is created according to the distribution of user keywords (S230).
  • the keyword cluster generator 223_2 may receive a user keyword (Keyword_2). Subsequently, the keyword cluster generator 223_2 may generate a second keyword cluster (KC_T) in which keywords related to the topic are selected based on the distribution of the user keyword (Keyword_2).
  • K_T second keyword cluster
  • the text analysis engine 223 provides the second keyword cluster to the book matching unit (S240).
  • the keyword cluster generator 223_2 may provide the second keyword cluster (KC_T) to the book matching unit 224 to generate a recommended book list (LoB).
  • the book recommendation server 220 generates a recommended book list by matching the first keyword cluster and the second keyword cluster (S300).
  • the book matching unit 224 may receive a first keyword cluster (KC_B) from the database (DB) and a second keyword cluster (KC_T) from the voice analysis unit 222. At this time, the book matching unit 224 may obtain a matching rate by comparing the first keyword cluster (KC_B) and the second keyword cluster (KC_T).
  • the matching rate can be obtained by comparing the 2-2 keyword cluster (KC_T2) and the 1-1 to 1-5 keyword clusters (KC_B1 to KC_B5), respectively. Since the 2-2 keyword cluster (KC_T2) includes 'Hangul, prince, stepmother', the matching rate with the 1-1 to 1-5 keyword clusters (KC_B1 to KC_B5) is 33%, 0%, and 0%, respectively. , 66%, and 0%. Accordingly, the book matching unit 224 can generate a recommended book list (LoB) in order of high matching rate.
  • the book recommendation server 220 transmits a list of recommended books to the user terminal (S400).
  • the book matching unit 224 sends a recommended book list (LoB) generated based on the matching rate of the first keyword cluster (KC_B) and the second keyword cluster (KC_T) to the user through the communication unit 221. It can be transmitted to the terminal 300.
  • the recommended book list (LoB) may include the title of the recommended book and the matching rate, and items expected to be preferred by the user may be displayed at the top.
  • the book recommendation server 220 receives book selection data from the user terminal (S500).
  • the communication unit 221 may receive book selection data (D_select) in which the user selects one from the recommended book list (LoB). In other words, the user can check the recommended book list (LoB) on the user terminal 300 and select at least one of the recommended book list (LoB).
  • the communication unit 221 may transmit book selection data (D_select) to the database (DB).
  • the book recommendation server 220 transmits book text data corresponding to the book selection data to the user terminal (S600).
  • the database may transmit first book text data (S_ToB) corresponding to book selection data (D_select) to the communication unit 221.
  • the communication unit 221 may transmit the first book text data (S_ToB) to the user terminal 300.
  • Figure 13 is a schematic diagram for explaining an audio output system according to some embodiments of the present invention. For convenience of explanation, content that is the same or similar to the content described above is omitted or briefly explained.
  • the audio output system 10 may include a microphone 400.
  • the microphone 400 may be a device through which the user's voice data is input.
  • the microphone 400 may be connected to the user terminal 300 wired/wireless.
  • the microphone 400 may be connected to the user terminal 300 via Bluetooth, but this is only an example and the embodiments are not limited thereto.
  • the user can generate voice data (D_voice) through the microphone 400 and provide it to the user terminal 300.
  • the user terminal 300 may provide voice data (D_voice) generated by the microphone 400 to the server 200 through a communication network.
  • the microphone 400 may be directly connected to the server 200 through a communication network.
  • the user can generate voice data (D_voice) through the microphone 400.
  • Voice data (D_voice) generated by the microphone 400 may be provided to the server 200 through a communication network.
  • a user can produce recorded sound content with clearer sound quality by using the microphone 400.
  • Figure 14 is a block diagram for explaining a server of an audio output system according to some other embodiments of the present invention.
  • the first server 201 of the audio output system may include a sound doll recommendation server 230.
  • the sound doll recommendation server 230 may receive the user's voice data (D_voice). The sound doll recommendation server 230 may analyze the received voice data (D_voice) and recommend the sound doll 120 associated with the voice data (D_voice).
  • the sound doll recommendation server 230 may analyze a plurality of sound contents corresponding to a plurality of sound dolls. Specifically, the sound doll recommendation server 230 may analyze text data for a plurality of sound contents and generate a keyword cluster for each sound content. For example, the sound doll recommendation server 230 receives text data such as song lyrics and fairy tale text for sound content included in each of the plurality of sound dolls 120 and analyzes the text data, so that each of the plurality of sound dolls 120 A third keyword cluster can be created.
  • the sound doll recommendation server 230 may analyze the voice data (D_voice) and generate a second keyword cluster (KC_T) for the voice data (D_voice). The sound doll recommendation server 230 may compare the second keyword cluster (KC_T) and the third keyword cluster and recommend a sound doll associated with the voice data (D_voice).
  • the sound doll recommendation server 230 may analyze the first sound content corresponding to the first sound doll. At this time, the sound doll recommendation server 230 may analyze the first text data for the first sound content and generate the 3-1 keyword cluster.
  • the sound doll recommendation server 230 may analyze the second sound content corresponding to the second sound doll. At this time, the second sound content may be different from the first sound content. The sound doll recommendation server 230 may analyze the second text data for the second sound content and generate a 3-2 keyword cluster.
  • the sound doll recommendation server 230 may convert the voice data (D_voice) into user text data (D_text) in the form of text data.
  • the sound doll recommendation server 230 may analyze user text data (D_text) and generate a fourth keyword cluster.
  • the sound doll recommendation server 230 may compare the 3-1, 3-2, and 4th keyword clusters and determine the sound doll with a high keyword cluster matching rate as the recommended sound doll. For example, when the matching rate of the 3-1st keyword cluster and the 4th keyword cluster is higher than the matching rate of the 3-2nd keyword cluster and the 4th keyword cluster, the sound doll recommendation server 230 selects the first sound doll.
  • a recommended sound doll may be determined, and information about the first sound doll may be provided to the user terminal 300. At this time, information about the first sound doll may include the product name, sound content, purchase link, etc. of the sound doll. Through this, the user can be encouraged to purchase a sound doll that corresponds to sound content that matches well with the user's personality.
  • an audio output system that operates by docking a sound doll to an audio station, it is possible to provide an environment in which infants and young children can select various sounds on their own. Additionally, it is possible to provide infants and young children with a variety of auditory stimulation while minimizing their exposure to digital imaging devices. In particular, it is possible to provide emotional stability to infants and toddlers by using sound content using the voice of the guardian. Additionally, by recommending content similar to the sound content input by the user, it is possible to provide an environment in which infants and young children can easily access various sound content.

Abstract

The present invention provides an audio output system and method. The audio output system comprises: an audio output device, which outputs sound content for auditory stimulation of infants; a user terminal into which voice data of a user is input; a content management server which receives the voice data of the user and which provides the voice data of the user to the audio output device; and a book recommendation server which receives the voice data of the user, and which uses the voice data of the user so as to recommend a book associated with the voice data of the user, wherein the audio output device outputs the voice data of the user as the sound content, and the book recommendation server generates a first keyword cluster on the basis of a plurality of pieces of book text data stored in a database, generates a second keyword cluster on the basis of the voice data of the user, and compares the first keyword cluster to the second keyword cluster so as to recommend the book associated with the voice data of the user.

Description

오디오 출력 시스템 및 방법Audio output system and method
본 발명은 영유아를 포함하는 사용자에게 다양한 사운드를 쉽게 선택할 수 있는 작동 환경을 제공하며, 오디오 출력 장치가 오프라인 상태이더라도 사운드 컨텐츠를 변경할 수 있는 편리한 제어 환경을 제공하는 오디오 출력 시스템 및 방법에 관한 기술이다.The present invention relates to an audio output system and method that provides an operating environment that allows users, including infants, to easily select various sounds, and a convenient control environment that allows changing sound content even when the audio output device is offline. .
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section simply provides background information for this embodiment and does not constitute prior art.
스마트폰, 태블릿과 같은 전자 기기의 고도화 및 소형화에 따라 디지털 영상 기기를 사용하는 사용자들의 스크린 타임이 점점 늘어나고 있다. 스크린 타임은 디지털 영상 기기의 사용으로 앉아 있거나 누워 있는 시간을 의미하며, 신체 활동 및 학습 활동을 위한 시간이 제외된다. 이러한 스크린 타임의 증가는 성인 사용자의 건강에 악영향을 미치며, 영유아 사용자에게는 더욱 부정적인 영향을 미칠 수 있다. 특히, 24개월 미만의 영유아 사용자가 시각적인 정보에 장기간 노출되는 것은 대뇌 발달에 바람직하지 않은 영향을 미칠 수 있으며, 세계 보건 기구(WHO) 또한 영유아 스크린 노출 가이드를 만 1세 미만은 전자 기기 화면에 노출되지 않아야 하는 것으로, 만 2~5세는 하루에 1시간으로 제한해야 하는 것으로 제시한 바 있다.With the advancement and miniaturization of electronic devices such as smartphones and tablets, the screen time of users using digital video devices is increasing. Screen time refers to time spent sitting or lying down due to the use of digital video devices, excluding time for physical activity and learning activities. This increase in screen time can have a negative impact on the health of adult users and have an even more negative impact on infant users. In particular, long-term exposure to visual information for infants and toddlers under 24 months of age may have undesirable effects on their cerebral development, and the World Health Organization (WHO) also stipulates screen exposure guidelines for infants and toddlers that children under 1 year of age should not be exposed to electronic device screens. It has been suggested that exposure should be limited to 1 hour per day for children ages 2 to 5.
반면, 청각 자극은 태아때부터 청각 자극을 통해 세상을 느끼고 알아가게 되는 영유아의 성장과 발달에 유익한 영향을 미칠 수 있다. 다양한 청각 자극은 영유아의 언어 발달은 물론 창의력, 상상력을 키우는 데 많은 영향을 주게 된다. 다만, 보호자가 영유아에게 청각 자극을 전달하고 싶으나 실사용자에 해당하는 영유아의 호기심을 자극하고, 영유아에게 쉬운 작동 환경을 제공할 수 있는 수단이 부족한 상황으로, 보호자는 결국 디지털 영상 기기(TV, 스마트폰)에 의존하여 시각적인 정보와 함께 청각 자극을 제공하고 있는 실정이다.On the other hand, auditory stimulation can have a beneficial effect on the growth and development of infants and young children who begin to feel and learn about the world through auditory stimulation from the fetus. Various auditory stimuli have a significant impact on infants and young children's language development as well as their creativity and imagination. However, although guardians want to deliver auditory stimulation to infants and toddlers, there is a lack of means to stimulate the curiosity of infants and toddlers, who are actual users, and to provide infants and toddlers with an easy operating environment, so guardians ultimately choose digital video devices (TVs, smart devices). Phones) are currently providing auditory stimulation along with visual information.
이에, 영유아의 호기심을 자극하고, 보호자의 디지털 영상 기기를 거치지 않더라도 다양한 사운드를 영유아가 선택할 수 있는 영유아에게 쉬운 작동 환경을 제공하며, 다양한 청각 자극을 영유아에게 제공하여 영유아의 성장 및 발달에 유익한 영향을 미칠 수 있는 시스템이 요구되고 있다.Accordingly, it stimulates the curiosity of infants and young children, provides an easy operating environment for infants and young children where they can select various sounds even without going through the guardian's digital video device, and provides various auditory stimulation to infants and young children, which has a beneficial effect on the growth and development of infants and young children. A system that can influence is required.
본 발명의 과제는, 영유아를 포함하는 사용자에게 다양한 사운드를 쉽게 선택할 수 있는 작동 환경을 포함하는 오디오 출력 시스템 및 방법을 제공하는 것이다.The object of the present invention is to provide an audio output system and method that includes an operating environment that allows users, including infants and young children, to easily select various sounds.
또한, 본 발명의 다른 과제는, 보호자의 목소리를 녹음한 사운드 컨텐츠를 이용하는 오디오 출력 시스템 및 방법을 제공하는 것이다.In addition, another object of the present invention is to provide an audio output system and method that uses sound content recorded by a guardian's voice.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 오디오 출력 시스템은 영유아의 청각 자극을 위한 사운드 컨텐츠를 출력하는 오디오 출력 장치, 사용자의 음성 데이터가 입력되는 사용자 단말, 상기 사용자의 음성 데이터를 수신하고, 상기 사용자의 음성 데이터를 상기 오디오 출력 장치에 제공하는 컨텐츠 관리 서버 및 상기 사용자의 음성 데이터를 수신하고, 상기 사용자의 음성 데이터를 이용하여 상기 사용자의 음성 데이터와 연관된 도서를 추천하는 도서 추천 서버를 포함하고, 상기 오디오 출력 장치는 상기 사용자의 음성 데이터를 상기 사운드 컨텐츠로 출력하고, 상기 도서 추천 서버는, 데이터베이스에 저장된 복수의 도서 텍스트 데이터를 기초로 제1 키워드 클러스터를 생성하고, 상기 사용자의 음성 데이터를 기초로 제2 키워드 클러스터를 생성하고, 상기 제1 키워드 클러스터 및 상기 제2 키워드 클러스터를 비교하여, 상기 사용자의 음성 데이터와 연관된 도서를 추천한다.An audio output system according to some embodiments of the present invention for solving the above problems includes an audio output device that outputs sound content for auditory stimulation of infants and young children, a user terminal that inputs the user's voice data, and receives the user's voice data. and a content management server that provides the user's voice data to the audio output device and a book recommendation server that receives the user's voice data and recommends books associated with the user's voice data using the user's voice data. It includes, wherein the audio output device outputs the user's voice data as the sound content, and the book recommendation server generates a first keyword cluster based on a plurality of book text data stored in a database, and the user's voice data is output as the sound content. A second keyword cluster is created based on voice data, and a book related to the user's voice data is recommended by comparing the first keyword cluster and the second keyword cluster.
또한, 상기 오디오 출력 장치는 사운드 인형 및 상기 사운드 인형이 도킹되는 도킹 공간을 포함하는 오디오 출력 스테이션을 포함하고, 상기 오디오 출력 스테이션은 상기 도킹 공간에 도킹된 사운드 인형을 인식하고, 상기 인식된 사운드 인형에 대응하는 사운드 컨텐츠를 출력할 수 있다.In addition, the audio output device includes an audio output station including a sound doll and a docking space in which the sound doll is docked, the audio output station recognizes the sound doll docked in the docking space, and the recognized sound doll Sound content corresponding to can be output.
또한, 상기 컨텐츠 관리 서버는, 상기 사용자의 음성 데이터를 수신한 경우, 상기 오디오 출력 장치에 컨텐츠 업데이트에 대한 메시지를 송신하고, 상기 오디오 출력 장치로부터 상기 사용자의 음성 데이터에 대한 요청 신호를 수신하는 경우, 상기 사용자의 음성 데이터를 상기 오디오 출력 장치에 송신할 수 있다.In addition, when the content management server receives the user's voice data, it transmits a message about a content update to the audio output device and receives a request signal for the user's voice data from the audio output device. , the user's voice data can be transmitted to the audio output device.
또한, 상기 도서 추천 서버는, 상기 사용자 단말로부터 도서 선택 데이터 및 상기 사용자의 음성 데이터를 수신하고, 상기 사용자 단말로 추천 도서 목록과 상기 도서 선택 데이터와 연관된 제1 도서 텍스트 데이터를 송신하는 통신부와, 상기 사용자의 음성 데이터를 사용자 텍스트 데이터로 변환하는 음성 분석부와, 상기 제1 키워드 클러스터 및 상기 제2 키워드 클러스터를 생성하는 텍스트 분석 엔진과, 상기 제1 및 제2 키워드 클러스터를 비교하여, 상기 추천 도서 목록을 생성하는 도서 매칭부를 포함할 수 있다.In addition, the book recommendation server includes a communication unit that receives book selection data and the user's voice data from the user terminal and transmits a recommended book list and first book text data associated with the book selection data to the user terminal; A voice analysis unit that converts the user's voice data into user text data, a text analysis engine that generates the first keyword cluster and the second keyword cluster, compares the first and second keyword clusters, and makes the recommendation. It may include a book matching unit that generates a book list.
또한, 상기 텍스트 분석 엔진은, 상기 사용자 텍스트 데이터 및 상기 복수의 도서 텍스트 데이터를 수신하여 자연어 처리하고, 키워드를 추출하는 자연어 처리부와, 상기 키워드의 분포를 바탕으로 상기 제1 및 제2 키워드 클러스터를 생성하는 키워드 클러스터 생성부를 포함할 수 있다.In addition, the text analysis engine includes a natural language processing unit that receives the user text data and the plurality of book text data, processes them into natural language, and extracts keywords, and creates the first and second keyword clusters based on the distribution of the keywords. It may include a keyword cluster creation unit.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 오디오 출력 방법은 서버에 포함된 데이터베이스에 저장된 복수의 도서 텍스트 데이터를 분석하여 제1 키워드 클러스터를 생성하는 단계, 사용자 단말로부터 사용자의 음성 데이터를 수신하고, 상기 사용자의 음성 데이터를 분석하여 제2 키워드 클러스터를 생성하는 단계, 상기 제1 및 제2 키워드 클러스터를 매칭시켜 추천 도서 목록을 생성하는 단계, 상기 추천 도서 목록을 상기 사용자 단말로 송신하는 단계, 상기 사용자 단말로부터 상기 추천 도서 목록에 대한 도서 선택 데이터를 수신하는 단계 및 상기 사용자 단말로 상기 도서 선택 데이터에 대응하는 제1 도서 텍스트 데이터를 송신하는 단계를 포함한다.An audio output method according to some embodiments of the present invention to solve the above problem includes generating a first keyword cluster by analyzing a plurality of book text data stored in a database included in the server, and collecting the user's voice data from the user terminal. Receiving and analyzing the user's voice data to generate a second keyword cluster, matching the first and second keyword clusters to generate a recommended book list, and transmitting the recommended book list to the user terminal. Receiving book selection data for the recommended book list from the user terminal and transmitting first book text data corresponding to the book selection data to the user terminal.
또한, 상기 제1 키워드 클러스터를 생성하는 단계는, 상기 데이터베이스에서 상기 복수의 도서 텍스트 데이터를 수신하는 단계와, 자연어 처리를 통해 상기 복수의 도서 텍스트 데이터 각각에 대한 도서 키워드를 추출하는 단계와, 상기 도서 키워드의 분포에 따라 상기 제1 키워드 클러스터를 생성하는 단계와, 상기 제1 키워드 클러스터를 상기 데이터베이스에 저장하는 단계를 포함할 수 있다.In addition, the step of generating the first keyword cluster includes receiving the plurality of book text data from the database, extracting book keywords for each of the plurality of book text data through natural language processing, and It may include generating the first keyword cluster according to the distribution of book keywords, and storing the first keyword cluster in the database.
또한, 상기 제2 키워드 클러스터를 생성하는 단계는, 상기 사용자의 음성 데이터를 사용자 텍스트 데이터로 변환하는 단계와, 자연어 처리를 통해 상기 사용자 텍스트 데이터에서 사용자 키워드를 추출하는 단계와, 상기 사용자 키워드의 분포에 따라 상기 제2 키워드 클러스터를 생성하는 단계를 포함할 수 있다.In addition, the step of generating the second keyword cluster includes converting the user's voice data into user text data, extracting a user keyword from the user text data through natural language processing, and distribution of the user keyword It may include generating the second keyword cluster according to .
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 오디오 출력 시스템은 영유아의 청각 자극을 위한 사운드 컨텐츠를 출력하는 오디오 출력 장치, 사용자의 음성 데이터가 입력되는 마이크, 상기 사용자의 음성 데이터를 편집하는 사용자 단말, 상기 사용자의 음성 데이터를 상기 오디오 출력 장치에 제공하는 컨텐츠 관리 서버 및 상기 사용자의 음성 데이터를 이용하여 상기 사용자의 음성 데이터와 연관된 도서를 추천하는 도서 추천 서버를 포함하고, 상기 도서 추천 서버는, 상기 사용자의 음성 데이터를 텍스트 데이터의 형식인 사용자 텍스트 데이터로 변환하고, 상기 사용자 텍스트 데이터를 자연어 처리하여, 상기 사용자 텍스트 데이터에 대한 키워드를 추출하고, 상기 키워드의 분포를 기초로, 키워드 클러스터를 생성하고, 상기 키워드 클러스터를 이용하여 상기 사용자의 음성 데이터와 연관된 도서를 추천하는 것을 포함한다.An audio output system according to some embodiments of the present invention for solving the above problems includes an audio output device that outputs sound content for auditory stimulation of infants and young children, a microphone into which the user's voice data is input, and a device that edits the user's voice data. A user terminal, a content management server that provides the user's voice data to the audio output device, and a book recommendation server that recommends a book associated with the user's voice data using the user's voice data, the book recommendation server Converts the user's voice data into user text data in the form of text data, processes the user text data into natural language, extracts keywords for the user text data, and creates a keyword cluster based on the distribution of the keywords. and recommending books related to the user's voice data using the keyword cluster.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 오디오 출력 시스템은 제1 사운드 컨텐츠에 대응하는 제1 사운드 인형, 상기 제1 사운드 컨텐츠와 다른 제2 사운드 컨텐츠에 대응하는 제2 사운드 인형, 사운드 인형에 대응하는 사운드 컨텐츠를 출력하는 오디오 출력 스테이션, 사용자의 음성 데이터가 입력되는 사용자 단말 및 상기 사용자의 음성 데이터와 연관된 사운드 인형을 추천하는 사운드 인형 추천 서버를 포함하고, 상기 사운드 인형 추천 서버는, 상기 제1 사운드 컨텐츠에 대한 제1 텍스트 데이터를 분석하여, 제1 키워드 클러스터를 생성하고, 상기 제2 사운드 컨텐츠에 대한 제2 텍스트 데이터를 분석하여, 제2 키워드 클러스터를 생성하고, 상기 사용자의 음성 데이터를 분석하여, 제3 키워드 클러스터를 생성하고, 상기 제1 내지 제3 키워드 클러스터를 비교하여, 상기 사용자의 음성 데이터와 연관된 사운드 인형을 결정하는 것을 포함한다.An audio output system according to some embodiments of the present invention for solving the above problems includes a first sound doll corresponding to the first sound content, a second sound doll corresponding to a second sound content different from the first sound content, and a sound It includes an audio output station that outputs sound content corresponding to the doll, a user terminal into which the user's voice data is input, and a sound doll recommendation server that recommends a sound doll associated with the user's voice data. The sound doll recommendation server includes, Analyzing first text data for the first sound content to generate a first keyword cluster, analyzing second text data for the second sound content to generate a second keyword cluster, and The user's voice Analyzing data, generating a third keyword cluster, and comparing the first to third keyword clusters to determine a sound doll associated with the user's voice data.
본 발명의 오디오 출력 시스템 및 방법은, 영유아의 호기심을 자극하고, 보호자의 디지털 영상 기기를 거치지 않더라도 다양한 사운드를 영유아 스스로 선택할 수 있는 환경을 제공할 수 있다. 즉, 디지털 영상 기기에 대한 노출을 최소화하면서, 다양한 청각 자극을 영유아에게 제공하여 영유아의 성장 및 발달에 유익한 영향을 미칠 수 있다.The audio output system and method of the present invention can stimulate the curiosity of infants and young children and provide an environment in which infants and young children can select various sounds on their own without going through their guardian's digital video device. In other words, it is possible to have a beneficial effect on the growth and development of infants and young children by providing them with a variety of auditory stimulation while minimizing exposure to digital imaging devices.
또한, 본 발명의 실시예들에 따른 오디오 출력 시스템 및 방법은, 영유아가 태아때부터 들으며 자라온 보호자의 목소리를 사운드 컨텐츠로 이용함으로써, 영유아에게 정서적 안정감을 제공할 수 있다.Additionally, the audio output system and method according to embodiments of the present invention can provide emotional stability to infants and young children by using the voice of their guardian, which the infant has grown up listening to since the fetus, as sound content.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.
도 1은 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템을 설명하기 위한 개략도이다.1 is a schematic diagram illustrating an audio output system according to some embodiments of the present invention.
도 2는 도 1의 오디오 출력 장치를 설명하기 위한 블록도이다.FIG. 2 is a block diagram for explaining the audio output device of FIG. 1.
도 3은 도 2의 오디오 출력 스테이션을 설명하기 위한 예시도이다.FIG. 3 is an example diagram for explaining the audio output station of FIG. 2.
도 4는 도 2의 오디오 출력 스테이션과 사운드 인형을 설명하기 위한 예시도이다.Figure 4 is an example diagram for explaining the audio output station and sound doll of Figure 2.
도 5는 도 1의 서버를 설명하기 위한 블록도이다.FIG. 5 is a block diagram for explaining the server of FIG. 1.
도 6은 도 2의 오디오 출력 스테이션과 도 5의 컨텐츠 관리 서버의 관계를 설명하기 위한 블록도이다.FIG. 6 is a block diagram for explaining the relationship between the audio output station of FIG. 2 and the content management server of FIG. 5.
도 7은 도 5의 도서 추천 서버를 설명하기 위한 블록도이다.Figure 7 is a block diagram for explaining the book recommendation server of Figure 5.
도 8은 도 7의 텍스트 분석 엔진을 설명하기 위한 블록도이다.FIG. 8 is a block diagram for explaining the text analysis engine of FIG. 7.
도 9a 및 도 9b는 도 7의 도서 매칭부를 설명하기 위한 예시도이다.FIGS. 9A and 9B are exemplary diagrams for explaining the book matching unit of FIG. 7.
도 10은 본 발명의 몇몇 실시예들에 따른 오디오 출력 방법을 설명하기 위한 순서도이다.Figure 10 is a flowchart for explaining an audio output method according to some embodiments of the present invention.
도 11은 도 10의 제1 키워드 클러스터 생성 단계를 설명하기 위한 순서도이다.FIG. 11 is a flowchart for explaining the first keyword cluster generation step of FIG. 10.
도 12는 도 10의 제2 키워드 클러스터 생성 단계를 설명하기 위한 순서도이다.FIG. 12 is a flowchart for explaining the second keyword cluster creation step of FIG. 10.
도 13은 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템을 설명하기 위한 개략도이다.Figure 13 is a schematic diagram for explaining an audio output system according to some embodiments of the present invention.
도 14는 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템의 서버를 설명하기 위한 블록도이다. Figure 14 is a block diagram for explaining a server of an audio output system according to some embodiments of the present invention.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define terms or word concepts in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.
이하, 도 1 내지 도 13을 참조하여, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템 및 방법을 설명한다.Hereinafter, an audio output system and method according to some embodiments of the present invention will be described with reference to FIGS. 1 to 13.
도 1은 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템을 설명하기 위한 개략도이다.1 is a schematic diagram illustrating an audio output system according to some embodiments of the present invention.
도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)은 오디오 출력 장치(100), 서버(200) 및 사용자 단말(300)을 포함한다.Referring to FIG. 1, an audio output system 10 according to some embodiments of the present invention includes an audio output device 100, a server 200, and a user terminal 300.
오디오 출력 장치(100)는 영유아의 청각 자극을 위한 사운드 컨텐츠를 출력하도록 구성된다. 오디오 출력 장치(100)는 서버(200) 및 사용자 단말(300)과 정보를 주고받음으로써 사운드 컨텐츠를 다운로드 및 업데이트 할 수 있다.The audio output device 100 is configured to output sound content for auditory stimulation of infants and young children. The audio output device 100 can download and update sound content by exchanging information with the server 200 and the user terminal 300.
서버(200)는 사용자 단말(300)이 오디오 출력 장치(100)를 제어하는 서비스 환경을 제공한다. 또한, 서버(200)는 오디오 출력 장치(100)가 출력하는 사운드 컨텐츠를 제공할 수 있다. 즉, 서버(200)는 오디오 출력 장치(100)를 통해 인식된 정보에 매칭되는 사운드 컨텐츠를 오디오 출력 장치(100)로 제공할 수 있다.The server 200 provides a service environment in which the user terminal 300 controls the audio output device 100. Additionally, the server 200 may provide sound content output by the audio output device 100. That is, the server 200 may provide sound content matching the information recognized through the audio output device 100 to the audio output device 100 .
사용자 단말(300)은 오디오 출력 장치(100)와 연결되어 오디오 출력 장치(100)를 제어할 수 있다. 또한, 사용자 단말(300)은 사용자의 음성 데이터가 입력될 수 있다. 사용자 단말(300)은 서버(200)를 통해 제공되는 어플리케이션이나 웹 서비스를 이용할 수 있는 단말기이다. 사용자 단말(300)은 예를 들어, 사용자의 퍼스널 컴퓨터 또는 스마트폰일 수 있다.The user terminal 300 is connected to the audio output device 100 and can control the audio output device 100. Additionally, the user terminal 300 may input the user's voice data. The user terminal 300 is a terminal that can use applications or web services provided through the server 200. The user terminal 300 may be, for example, a user's personal computer or smartphone.
여기서, 오디오 출력 장치(100)의 사용자와 사용자 단말(300)의 사용자는 영유아와, 상기 영유아의 보호자를 포함할 수 있다. 오디오 출력 장치(100)는 영유아가 주 사용자일 수 있고, 사용자 단말(300)은 영유아의 보호자가 주 사용자일 수 있다. 다만, 본 실시예가 이에 제한되는 것은 아니다.Here, the user of the audio output device 100 and the user of the user terminal 300 may include infants and toddlers and their guardians. The main user of the audio output device 100 may be an infant or young child, and the main user of the user terminal 300 may be a guardian of an infant or young child. However, this embodiment is not limited to this.
통신망은 오디오 출력 장치(100), 서버(200) 및 사용자 단말(300)을 연결할 수 있다. 통신망은 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.The communication network can connect the audio output device 100, the server 200, and the user terminal 300. Communication networks may include networks based on wired Internet technology, wireless Internet technology, and short-distance communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).
무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology. However, this embodiment is not limited to this.
근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication. At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include. However, this embodiment is not limited to this.
통신망을 통해서 통신하는 오디오 출력 장치(100), 서버(200) 및 사용자 단말(300)은 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The audio output device 100, server 200, and user terminal 300 that communicate through a communication network can comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), and EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include. However, this embodiment is not limited to this.
이하, 도 2 내지 도 4를 참조하여, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템의 오디오 출력 장치를 설명한다.Hereinafter, an audio output device of an audio output system according to some embodiments of the present invention will be described with reference to FIGS. 2 to 4.
도 2는 도 1의 오디오 출력 장치를 설명하기 위한 블록도이고, 도 3은 도 2의 오디오 출력 스테이션을 설명하기 위한 예시도이다. 도 4는 도 2의 오디오 출력 스테이션과 사운드 인형을 설명하기 위한 예시도이다.FIG. 2 is a block diagram for explaining the audio output device of FIG. 1, and FIG. 3 is an example diagram for explaining the audio output station of FIG. 2. Figure 4 is an example diagram for explaining the audio output station and sound doll of Figure 2.
도 2를 참조하면, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)의 오디오 출력 장치(100)는 오디오 출력 스테이션(110)과 사운드 인형(120)을 포함할 수 있다.Referring to FIG. 2, the audio output device 100 of the audio output system 10 according to some embodiments of the present invention may include an audio output station 110 and a sound doll 120.
오디오 출력 스테이션(110)은 사운드 인형(120)을 인식하고, 사운드 인형(120)에 대응하는 사운드 컨텐츠를 출력할 수 있다. 여기서, 사운드 컨텐츠는 영유아의 청각 자극을 위해 녹음된 동요, 전래동화, 영어동화 등을 포함할 수 있다. 또는, 도 1을 참조하면, 사운드 컨텐츠는 사용자 단말(300)을 통해 입력된 사용자의 음성 데이터를 포함할 수 있다. 사운드 컨텐츠는 오디오 출력 스테이션(110)에 저장될 수도 있고, 사운드 인형(120)에 저장될 수도 있다.The audio output station 110 may recognize the sound doll 120 and output sound content corresponding to the sound doll 120. Here, the sound content may include children's songs, traditional fairy tales, English fairy tales, etc. recorded for auditory stimulation of infants and young children. Alternatively, referring to FIG. 1 , sound content may include the user's voice data input through the user terminal 300. Sound content may be stored in the audio output station 110 or in the sound doll 120.
오디오 출력 스테이션(110)은 오디오 출력 스테이션(110)의 전반적인 동작 상태를 확인하는 데이터 처리부, 사운드 컨텐츠를 저장하는 데이터 저장부, 사운드 컨텐츠를 출력하는 스피커부를 포함할 수 있다. 여기서, 데이터 처리부는 사운드 인형(120)의 인식 여부, 오디오 출력 스테이션(110)의 전원 관리, 사운드 컨텐츠의 저장 여부 확인 등을 수행할 수 있다.The audio output station 110 may include a data processing unit that checks the overall operating state of the audio output station 110, a data storage unit that stores sound content, and a speaker unit that outputs sound content. Here, the data processor may check whether the sound doll 120 is recognized, manage power of the audio output station 110, and check whether sound content is stored.
사운드 인형(120)은 사용자가 사운드 컨텐츠를 재생하기 위해 오디오 출력 스테이션(110)에 인식시키는 장치일 수 있다. 사운드 인형(120)은 영유아의 청각 자극을 위한 사운드 컨텐츠에 대응될 수 있다. 예를 들어, 사운드 컨텐츠는 숫자 세기, 이중 언어 반복, 의성어 반복, 의태어 반복과 같은 언어 학습을 위한 컨텐츠, 멜로디, 사운드 극장, 전래 동화와 같이 사용자의 상상력과 창의력을 향상시키는 컨텐츠를 포함할 수 있다. 또한, 사운드 컨텐츠는 동물 동요, 율동 동요와 같이 사용자가 율동을 통해 신체 활동을 수행하게 하는 컨텐츠 및 사용자의 정서 발달을 위해 보호자가 목소리를 녹음한 컨텐츠 중 적어도 하나일 수 있다.The sound doll 120 may be a device that allows the user to recognize the audio output station 110 to play sound content. The sound doll 120 may correspond to sound content for auditory stimulation of infants and young children. For example, sound content may include content for language learning such as counting, bilingual repetition, onomatopoeia repetition, and onomatopoeia repetition, and content that enhances the user's imagination and creativity such as melodies, sound theater, and folk tales. . In addition, the sound content may be at least one of content that allows the user to perform physical activities through movement, such as animal nursery rhymes and children's rhythmic songs, and content in which a guardian records a voice for the user's emotional development.
도 3을 참조하면, 오디오 출력 스테이션(110)은 사운드 인형(120)이 안착될 수 있는 도킹 공간(D)이 형성된 외형을 가질 수 있으며, 사운드 컨텐츠가 출력되는 스피커(S), 스피커의 볼륨을 조절하는 볼륨 조절 장치(V), 색상 변화를 통해 오디오 출력 스테이션의 동작 상태를 나타내는 동작 상태등(L) 및 출력되는 사운드 트랙을 변경하기 위한 재생 트랙 컨트롤러(C)를 포함할 수 있다. 예를 들어, 동작 상태등(L)은 사운드 인형(120)의 도킹 여부에 따라 점등 또는 소등될 수 있다. 또한, 오디오 출력 스테이션(110)은 영유아 사용자의 호기심을 자극할 수 있는 외형을 가질 수 있다.Referring to FIG. 3, the audio output station 110 may have an external appearance with a docking space (D) in which the sound doll 120 can be seated, a speaker (S) through which sound content is output, and the volume of the speaker. It may include a volume control device (V) to adjust, an operating status light (L) to indicate the operating state of the audio output station through color change, and a playback track controller (C) to change the output sound track. For example, the operation status light L may be turned on or off depending on whether the sound doll 120 is docked. Additionally, the audio output station 110 may have an appearance that stimulates the curiosity of infants and young children.
예를 들어, 오디오 출력 스테이션(110)은 도킹 공간(D)이 형성된 집(house)과 같은 외형을 가질 수 있으며, 볼륨 조절 장치(V)는 주택의 굴뚝으로 구성되고, 재생 트랙 컨트롤러(C)는 주택의 지붕의 일부로 구성될 수 있다. 이러한 형상을 통해, 영유아 사용자는 사운드 인형(120)이 오디오 출력 스테이션(110)에 거주하는 것으로 순수하게 인식할 수 있다. 위와 같은 집 형상의 오디오 출력 스테이션(110)은 영유아 사용자에게 정서적 안정감과 만족감을 줄 수 있다.For example, the audio output station 110 may have an appearance like a house with a docking space (D) formed, the volume control device (V) is composed of a chimney of the house, and the playback track controller (C) may be composed of part of the roof of a house. Through this shape, infant users can purely perceive the sound doll 120 as residing in the audio output station 110. The above house-shaped audio output station 110 can provide emotional stability and satisfaction to users of infants and young children.
도 4를 참조하면, 영유아 사용자는 사운드 인형(120)을 오디오 출력 스테이션(110)의 도킹 공간(D)에 위치시켜 사운드 컨텐츠를 재생할 수 있다. 이때, 오디오 출력 스테이션(110)은 도킹 공간(D)에 놓인 사운드 인형(120)을 근거리 무선 통신(NFC)을 통해 식별할 수 있다. 또한, 오디오 출력 스테이션(110)의 도킹 공간(D)과 사운드 인형(120)은 각각 자석을 포함할 수 있으며, 도킹 공간(D)과 사운드 인형(120)은 자력에 의해 고정될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Referring to FIG. 4 , infant users can play sound content by placing the sound doll 120 in the docking space (D) of the audio output station 110. At this time, the audio output station 110 can identify the sound doll 120 placed in the docking space (D) through near field communication (NFC). Additionally, the docking space (D) of the audio output station 110 and the sound doll 120 may each include a magnet, and the docking space (D) and the sound doll 120 may be fixed by magnetic force. However, this embodiment is not limited to this.
사운드 인형(120)은 영유아 사용자가 한 손으로 잡을 수 있는 크기로 형성될 수 있다. 이에 따라, 도킹 공간(D)은 사운드 인형(120)을 충분히 수용할 수 있는 크기로 형성될 수 있다. 사운드 인형(120)은 영유아 사용자의 호기심을 자극할 수 있는 동물 형상 또는 캐릭터 형상으로 구성될 수 있다. 또한, 사운드 인형(120)은 영유아 사용자의 안전을 위해 뾰족한 부분없이 둥글게 형성될 수 있다. 이때, 사운드 인형(120)은 서로 상이한 외형을 가진 복수로 구성될 수 있으며, 각각의 사운드 인형(120)마다 서로 다른 사운드 컨텐츠가 대응될 수 있다.The sound doll 120 may be sized so that infants and young children can hold it with one hand. Accordingly, the docking space D may be formed in a size that can sufficiently accommodate the sound doll 120. The sound doll 120 may be configured in the shape of an animal or a character that can stimulate the curiosity of infants and young children. Additionally, the sound doll 120 may be rounded without sharp parts for the safety of infants and young children. At this time, the sound doll 120 may be composed of a plurality of sound dolls 120 with different appearances, and different sound content may correspond to each sound doll 120.
예를 들어, 제1 사운드 인형(120A)은 사용자의 보호자가 녹음한 컨텐츠에 대응하고, 제2 사운드 인형(120B)은 동물 동요 컨텐츠에 대응할 수 있다. 제3 사운드 인형(120C), 제4 사운드 인형(120D) 및 제5 사운드 인형(120E)은 각각 전래 동화, 율동 동요, 언어 학습 컨텐츠에 대응할 수 있다. 따라서, 사용자가 원하는 사운드 컨텐츠를 재생하고자 하는 경우, 해당 사운드 컨텐츠에 대응하는 사운드 인형(120)을 오디오 출력 스테이션(110)에 인식시켜 사운드 컨텐츠를 재생시킬 수 있다. 단, 사운드 인형(120)의 구체적인 외형과 각각 대응하는 사운드 컨텐츠는 필요에 따라 달라질 수 있다.For example, the first sound doll 120A may correspond to content recorded by the user's guardian, and the second sound doll 120B may correspond to animal nursery rhyme content. The third sound doll 120C, the fourth sound doll 120D, and the fifth sound doll 120E may each correspond to traditional fairy tales, children's songs, and language learning content. Accordingly, when the user wants to play the desired sound content, the sound doll 120 corresponding to the sound content can be recognized by the audio output station 110 and the sound content can be played. However, the specific appearance of the sound doll 120 and the corresponding sound content may vary depending on need.
사용자는 한 손으로 안전하게 사운드 인형(120)을 선택하여 오디오 출력 스테이션(110)의 도킹 공간에(D) 용이하게 안착시킬 수 있다. 또한, 사용자는 한 손으로 안착된 사운드 인형(120)을 이탈시킬 수도 있다. 이를 통해, 사용자가 다른 사운드 인형(120)을 도킹시키는 경우, 오디오 출력 스테이션(110)은 새롭게 도킹된 사운드 인형(120)에 대응하는 사운드 컨텐츠가 출력될 수 있다.The user can safely select the sound doll 120 with one hand and easily place it in the docking space (D) of the audio output station 110. Additionally, the user may remove the mounted sound doll 120 with one hand. Through this, when the user docks another sound doll 120, the audio output station 110 can output sound content corresponding to the newly docked sound doll 120.
이러한 오디오 출력 장치(100)의 사운드 컨텐츠 출력 과정은 도킹과 이탈 과정으로 단순하게 구성되어, 영유아 사용자들도 충분히 조작할 수 있다. 또한, 사운드 컨텐츠는 미리 오디오 출력 스테이션(110)에 저장될 수 있다. 따라서, 사운드 인형(120)에 대응하는 사운드 컨텐츠의 출력은 다른 기기와의 연결이 없더라도 오디오 출력 장치(100)만으로 가능할 수 있다.The sound content output process of the audio output device 100 is comprised of a simple docking and detachment process, so even infants and young children can sufficiently operate it. Additionally, sound content may be stored in the audio output station 110 in advance. Accordingly, output of sound content corresponding to the sound doll 120 may be possible only through the audio output device 100 even without connection to other devices.
이하, 도 5 및 도 6을 참조하여, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)의 서버(200)를 설명한다.Hereinafter, with reference to FIGS. 5 and 6, the server 200 of the audio output system 10 according to some embodiments of the present invention will be described.
도 5는 도 1의 서버를 설명하기 위한 블록도이고, 도 6은 도 2의 오디오 출력 스테이션과 도 5의 컨텐츠 관리 서버의 관계를 설명하기 위한 블록도이다.FIG. 5 is a block diagram for explaining the server of FIG. 1, and FIG. 6 is a block diagram for explaining the relationship between the audio output station of FIG. 2 and the content management server of FIG. 5.
도 5를 참조하면, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)의 서버(200)는 컨텐츠 관리 서버(210)와 도서 추천 서버(220)를 포함할 수 있다.Referring to FIG. 5, the server 200 of the audio output system 10 according to some embodiments of the present invention may include a content management server 210 and a book recommendation server 220.
사용자의 음성 데이터(D_voice)는 사용자 단말(300)을 통해 입력되고, 통신망을 통해 서버(200)로 송신될 수 있다. 여기서, 음성 데이터(D_voice)는 영유아의 정서 발달을 위해 보호자가 사용자 단말(300)을 통해 녹음한 데이터일 수 있다. 예를 들어, 음성 데이터(D_voice)는 보호자가 영유아에게 불러주는 동요, 보호자가 영유아에게 읽어주는 동화, 또는 보호자가 영유아에게 전달하는 메시지 등에 관해 녹음된 데이터일 수 있다. 서버(200)로 송신된 음성 데이터(D_voice)는 컨텐츠 관리 서버(210)와 도서 추천 서버(220)에 전달될 수 있다.The user's voice data (D_voice) may be input through the user terminal 300 and transmitted to the server 200 through a communication network. Here, voice data (D_voice) may be data recorded by a guardian through the user terminal 300 for the emotional development of infants and young children. For example, voice data (D_voice) may be recorded data about a nursery rhyme sung by a guardian to an infant or toddler, a fairy tale read by a guardian to an infant or toddler, or a message delivered by a guardian to an infant or toddler. Voice data (D_voice) transmitted to the server 200 may be delivered to the content management server 210 and the book recommendation server 220.
컨텐츠 관리 서버(210)는 사운드 컨텐츠를 저장하고 관리할 수 있다. 도 2를 참조하면, 사용자가 최초에 사운드 인형(120)을 오디오 출력 스테이션(110)에 인식시키는 경우, 컨텐츠 관리 서버(210)는 해당 사운드 인형(120)에 대응하는 사운드 컨텐츠를 오디오 출력 스테이션(110)으로 송신할 수 있다. The content management server 210 can store and manage sound content. Referring to FIG. 2, when the user first recognizes the sound doll 120 to the audio output station 110, the content management server 210 sends sound content corresponding to the sound doll 120 to the audio output station ( 110).
또한, 사용자는 사용자 단말(300)로 서비스 환경에 접속하여, 컨텐츠 관리 서버(210)에 저장되어 있는 사운드 컨텐츠를 변경 또는 편집할 수 있다. 예를 들어, 사용자는 사용자 단말(300)을 통해 컨텐츠 관리 서버(210)에 저장된 사운드 트랙의 개수, 종류 및 순서 중 적어도 하나를 변경할 수 있다. 또한, 사용자는 음성 데이터(D_voice)의 일부를 선택하여 사운드 컨텐츠로 사용하는 등의 편집을 할 수도 있다. 다만, 본 명세서에서는 사용자로부터 입력된 음성 데이터(D_voice)가 그대로 사운드 컨텐츠로 사용되는 것으로 가정하여 설명한다. Additionally, the user can access the service environment using the user terminal 300 and change or edit sound content stored in the content management server 210. For example, the user can change at least one of the number, type, and order of sound tracks stored in the content management server 210 through the user terminal 300. Additionally, the user can select part of the voice data (D_voice) and edit it, such as using it as sound content. However, in this specification, it is assumed that voice data (D_voice) input from the user is used as sound content.
몇몇 실시예에 따르면, 사운드 인형(120)은 제1 사운드 인형 및 제2 사운드 인형을 포함할 수 있다. 제1 사운드 인형은 대응되는 사운드 컨텐츠의 재기록이 가능하나, 제2 사운드 인형은 대응되는 사운드 컨텐츠가 지정된 상태로 이의 변경이 불가능할 수 있다. 제1 사운드 인형이 오디오 출력 스테이션(101)에 도킹된 상태에서 대응하는 사운드 컨텐츠의 변경이 수행될 수 있으며, 제2 사운드 인형이 오디오 출력 스테이션(101)에 도킹된 상태에서는 대응하는 사운드 컨텐츠의 변경이 수행되지 않을 수 있다. 다만, 제1 사운드 인형과 제2 사운드 인형에 대한 설명은 하나의 예시적인 설명일 뿐 실시예들이 이에 제한되지는 않는다. 제2 사운드 인형 역시 사운드 컨텐츠의 변경이 수행되도록 구현될 수 있음은 물론이다. 예를 들어, 제1 사운드 인형은 사용자가 녹음한 녹음 사운드 컨텐츠가 업로드될 수 있고, 제2 사운드 인형은 컨텐츠 서버의 구독 또는 컨텐츠 서버의 다운로드를 통해 사운드 컨텐츠를 변경하도록 구현될 수도 있다. 이하에서는 설명의 편의를 위해, 사운드 인형(120)은 사용자로부터 녹음된 사운드 컨텐츠를 출력할 수 있는 제1 사운드 인형인 것으로 가정하여 설명한다.According to some embodiments, the sound doll 120 may include a first sound doll and a second sound doll. The first sound doll can re-record the corresponding sound content, but the second sound doll may not be able to change the corresponding sound content while it is specified. A change in the corresponding sound content may be performed while the first sound doll is docked at the audio output station 101, and a change in the corresponding sound content may be performed while the second sound doll is docked at the audio output station 101. This may not be done. However, the description of the first sound doll and the second sound doll is only an illustrative description and the embodiments are not limited thereto. Of course, the second sound doll can also be implemented to change the sound content. For example, the first sound doll may have recorded sound content recorded by the user uploaded, and the second sound doll may be implemented to change the sound content through subscription to a content server or download from a content server. Hereinafter, for convenience of explanation, it is assumed that the sound doll 120 is a first sound doll capable of outputting sound content recorded from a user.
도 6을 참조하면, 컨텐츠 관리 서버(210)는 음성 데이터(D_voice)를 수신하여, 오디오 출력 스테이션(110)으로 송신할 수 있다.Referring to FIG. 6 , the content management server 210 may receive voice data (D_voice) and transmit it to the audio output station 110.
사용자는 사용자 단말(300)을 이용하여 음성 데이터(D_voice)를 생성할 수 있다. 사용자는 사용자 단말(300)을 통해, 음성 데이터(D_voice)를 컨텐츠 관리 서버(210)에 제공할 수 있다. 사용자는 사용자 단말(300)로 서비스 환경에 접속하여, 컨텐츠 관리 서버(210)에 저장되어 있는 사운드 컨텐츠가 음성 데이터(D_voice)를 포함하도록 변경할 수 있다. 컨텐츠 관리 서버(210)에 저장되어 있는 사운드 컨텐츠가 음성 데이터(D_voice)를 포함하도록 변경된 경우, 즉, 컨텐츠 관리 서버(210)가 관리하는 사운드 컨텐츠가 업데이트된 경우, 컨텐츠 관리 서버(210)는 오디오 출력 스테이션(110)에 업데이트 메시지(MSG_update)를 송신할 수 있다. 여기서 업데이트 메시지(MSG_update)는 컨텐츠 관리 서버(210)가 관리하던 사운드 컨텐츠가 업데이트되었음을 알리는 내용을 포함할 수 있다.The user can generate voice data (D_voice) using the user terminal 300. The user may provide voice data (D_voice) to the content management server 210 through the user terminal 300. The user can access the service environment using the user terminal 300 and change the sound content stored in the content management server 210 to include voice data (D_voice). When the sound content stored in the content management server 210 is changed to include voice data (D_voice), that is, when the sound content managed by the content management server 210 is updated, the content management server 210 An update message (MSG_update) may be transmitted to the output station 110. Here, the update message (MSG_update) may include information indicating that the sound content managed by the content management server 210 has been updated.
이어서, 오디오 출력 스테이션(110)은 컨텐츠 관리 서버(210)에 음성 데이터 요청 신호(RQ_D_voice)를 제공할 수 있다. 다시 말해, 컨텐츠 관리 서버(210)는 오디오 출력 스테이션(110)으로부터 음성 데이터 요청 신호(RQ_D_voice)를 수신할 수 있다. 여기서 음성 데이터 요청 신호(RQ_D_voice)는 음성 데이터(D_voice)에 대한 다운로드 URL을 요청하거나, 음성 데이터(D_voice)를 직접 요청하는 내용을 포함할 수 있다.Subsequently, the audio output station 110 may provide a voice data request signal (RQ_D_voice) to the content management server 210. In other words, the content management server 210 may receive a voice data request signal (RQ_D_voice) from the audio output station 110. Here, the voice data request signal (RQ_D_voice) may include a request for a download URL for voice data (D_voice) or a direct request for voice data (D_voice).
이어서, 컨텐츠 관리 서버(210)는 오디오 출력 스테이션(110)으로 음성 데이터 리턴 신호(RT_D_voice)를 송신할 수 있다. 음성 데이터 리턴 신호(RT_D_voice)는 음성 데이터(D_voice)를 다운로드할 수 있는 URL을 포함하는 신호일 수도 있고, 음성 데이터(D_voice) 자체를 포함하는 신호일 수도 있다.Subsequently, the content management server 210 may transmit a voice data return signal (RT_D_voice) to the audio output station 110. The voice data return signal (RT_D_voice) may be a signal including a URL from which voice data (D_voice) can be downloaded, or may be a signal including the voice data (D_voice) itself.
이하, 도 7 내지 도 9b를 참조하여, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)의 도서 추천 서버(220)를 설명한다.Hereinafter, the book recommendation server 220 of the audio output system 10 according to some embodiments of the present invention will be described with reference to FIGS. 7 to 9B.
도 7은 도 5의 도서 추천 서버를 설명하기 위한 블록도이고, 도 8은 도 7의 텍스트 분석 엔진을 설명하기 위한 블록도이다. 도 9a는 도 7의 도서 매칭부를 설명하기 위한 예시도이다.FIG. 7 is a block diagram for explaining the book recommendation server of FIG. 5, and FIG. 8 is a block diagram for explaining the text analysis engine of FIG. 7. Figure 9a is an example diagram for explaining the book matching unit of Figure 7.
도 7을 참조하면, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)의 도서 추천 서버(220)는 통신부(221), 음성 분석부(222), 텍스트 분석 엔진(223), 도서 매칭부(224) 및 데이터베이스(DB)를 포함할 수 있다.Referring to FIG. 7, the book recommendation server 220 of the audio output system 10 according to some embodiments of the present invention includes a communication unit 221, a voice analysis unit 222, a text analysis engine 223, and book matching. It may include a unit 224 and a database (DB).
통신부(221)는 사용자 단말(300)로부터 음성 데이터(D_voice)와 도서 선택 데이터(D_select)를 수신할 수 있다. 또한, 통신부(221)는 사용자 단말(300)로 추천 도서 목록(LoB)과 제1 도서 텍스트 데이터(S_ToB)를 송신할 수 있다. 이를 통해, 도서 추천 서버(220)는 사용자 단말(300)과 정보를 송수신할 수 있다.The communication unit 221 may receive voice data (D_voice) and book selection data (D_select) from the user terminal 300. Additionally, the communication unit 221 may transmit a recommended book list (LoB) and first book text data (S_ToB) to the user terminal 300. Through this, the book recommendation server 220 can transmit and receive information with the user terminal 300.
데이터베이스(DB)는 도서 텍스트 데이터(ToB)를 저장할 수 있다. 여기서 도서 텍스트 데이터(ToB)는 영유아의 발달에 도움이 될 수 있는 다양한 도서의 본문을 포함할 수 있다. 도면에 도시하지는 않았으나, 데이터베이스(DB)는 통신망을 통해 도서 텍스트 데이터(ToB)를 업데이트할 수도 있다. 또한, 데이터베이스(DB)는 도서 선택 데이터(D_select)에 대응하는 제1 도서 텍스트 데이터(S_ToB)를 통신부(221)로 전달할 수 있다. 제1 도서 텍스트 데이터(S_ToB)는 도서 텍스트 데이터(ToB)에 포함될 수 있다. 이를 통해, 사용자는 선택한 도서의 본문을 사용자 단말(300)에서 확인할 수 있다.The database (DB) can store book text data (ToB). Here, book text data (ToB) may include the text of various books that may be helpful in the development of infants and toddlers. Although not shown in the drawing, the database (DB) may update book text data (ToB) through a communication network. Additionally, the database (DB) may transmit first book text data (S_ToB) corresponding to book selection data (D_select) to the communication unit 221. The first book text data (S_ToB) may be included in the book text data (ToB). Through this, the user can check the text of the selected book on the user terminal 300.
데이터베이스(DB)는 도서 텍스트 데이터(ToB)를 텍스트 분석 엔진(223)으로 전달할 수 있다. 이어서, 데이터베이스(DB)는 제1 키워드 클러스터(KC_B)를 수신하고, 도서 텍스트 데이터(ToB)와 함께 저장할 수 있다.The database (DB) can transmit book text data (ToB) to the text analysis engine 223. Subsequently, the database (DB) may receive the first keyword cluster (KC_B) and store it together with the book text data (ToB).
음성 분석부(222)는 음성 데이터(D_voice)를 수신하고, 소리로 된 음성 데이터(D_voice)를 문자로 된 사용자 텍스트 데이터(D_text)로 변환할 수 있다. 예를 들어, 음성 데이터(D_voice)는 사용자가 영유아에게 들려주고자 하는 동화를 녹음한 것일 수 있다. 따라서, 사용자 텍스트 데이터(D_text)는 사용자가 영유아에게 들려주고자 하는 동화를 문자로 변환한 것일 수 있다.The voice analysis unit 222 may receive voice data (D_voice) and convert the voice data (D_voice) in sound into user text data (D_text) in text. For example, voice data (D_voice) may be a recording of a fairy tale that the user wants to tell to infants and toddlers. Therefore, the user text data (D_text) may be a fairy tale that the user wants to tell to infants and toddlers converted into text.
음성 분석부(222)는 사용자 텍스트 데이터(D_text)를 텍스트 분석 엔진(223)으로 전달할 수 있다. 음성 분석부(222)는 텍스트 분석 엔진(223)으로부터 제2 키워드 클러스터(KC_T)를 수신할 수 있다. 또한, 음성 분석부(222)는 제2 키워드 클러스터(KC_T)를 도서 매칭부(224)에 전달할 수도 있다.The voice analysis unit 222 may transmit user text data (D_text) to the text analysis engine 223. The voice analysis unit 222 may receive the second keyword cluster (KC_T) from the text analysis engine 223. Additionally, the voice analysis unit 222 may transmit the second keyword cluster (KC_T) to the book matching unit 224.
텍스트 분석 엔진(223)은 음성 분석부(222)로부터 사용자 텍스트 데이터(D_text)를 수신할 수 있다. 또한, 텍스트 분석 엔진(223)은 데이터베이스(DB)로부터 도서 텍스트 데이터(ToB)를 수신할 수 있다.The text analysis engine 223 may receive user text data (D_text) from the voice analysis unit 222. Additionally, the text analysis engine 223 may receive book text data (ToB) from the database (DB).
텍스트 분석 엔진(223)은 문자로 된 데이터를 분석하여 키워드 클러스터를 생성할 수 있다. 텍스트 분석 엔진(223)은 도서 텍스트 데이터(ToB)를 분석하여 제1 키워드 클러스터(KC_B)를 생성할 수 있다. 몇몇 실시예에 따르면, 텍스트 분석 엔진(223)은 도서 텍스트 데이터(ToB)에서 키워드를 선별할 수 있다. 텍스트 분석 엔진(223)은 선별된 키워드에 기초하여 제1 키워드 클러스터(KC_B)를 생성할 수 있다. The text analysis engine 223 can generate keyword clusters by analyzing text data. The text analysis engine 223 may generate a first keyword cluster (KC_B) by analyzing book text data (ToB). According to some embodiments, the text analysis engine 223 may select keywords from book text data (ToB). The text analysis engine 223 may generate a first keyword cluster (KC_B) based on the selected keywords.
이와 유사하게, 텍스트 분석 엔진(223)은 사용자 텍스트 데이터(D_text)를 분석하여 제2 키워드 클러스터(KC_T)를 생성할 수 있다. 몇몇 실시예에 따르면, 텍스트 분석 엔진(223)은 사용자 텍스트 데이터(D_text)에서 키워드를 선별할 수 있다. 텍스트 분석 엔진(223)은 선별된 키워드에 기초하여 제2 키워드 클러스터(KC_T)를 생성할 수 있다.Similarly, the text analysis engine 223 may generate a second keyword cluster (KC_T) by analyzing user text data (D_text). According to some embodiments, the text analysis engine 223 may select keywords from user text data (D_text). The text analysis engine 223 may generate a second keyword cluster (KC_T) based on the selected keywords.
텍스트 분석 엔진(223)에서 생성된 제1 키워드 클러스터(KC_B)는 데이터베이스(DB)에 제공될 수 있다. 또한, 텍스트 분석 엔진(223)에서 생성된 제2 키워드 클러스터(KC_T)는 도서 매칭부(224)에 제공될 수 있다. 비록 도 7은 텍스트 분석 엔진(223)에서 생성된 제2 키워드 클러스터(KC_T)가 음성 분석부(222)를 통해 도서 매칭부(224)로 제공되는 것으로 표현하였으나, 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 텍스트 분석 엔진(223)에서 생성된 제2 키워드 클러스터(KC_T)는 별도의 경로를 통해 도서 매칭부(224)로 제공될 수도 있을 것이다.The first keyword cluster (KC_B) generated by the text analysis engine 223 may be provided to the database (DB). Additionally, the second keyword cluster (KC_T) generated by the text analysis engine 223 may be provided to the book matching unit 224. Although Figure 7 illustrates that the second keyword cluster (KC_T) generated in the text analysis engine 223 is provided to the book matching unit 224 through the voice analysis unit 222, the embodiments are not limited thereto. . For example, the second keyword cluster (KC_T) generated by the text analysis engine 223 may be provided to the book matching unit 224 through a separate path.
도서 매칭부(224)는 데이터베이스(DB)로부터 제1 키워드 클러스터(KC_B)를 수신할 수 있다. 또한, 도서 매칭부(224)는 음성 분석부(222)를 통해 텍스트 분석 엔진(223)으로부터 제2 키워드 클러스터(KC_T)를 수신할 수 있다. 다만, 전술한 바와 같이 실시예들이 이에 제한되는 것은 아니고, 도서 매칭부(224)는 음성 분석부(222)를 거치지 않고도 텍스트 분석 엔진(223)에서 제2 키워드 클러스터(KC_T)를 수신할 수도 있다. 도서 매칭부(224)는 수신한 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 비교하여 추천 도서 목록(LoB)을 생성할 수 있다. 또한, 도서 매칭부(224)는 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 비교하여 출판사 정보(PI)를 생성할 수 있다. 도서 매칭부(224)는 통신부(221)를 통해 사용자 단말(300)로 추천 도서 목록(LoB) 및/또는 출판사 정보(PI)를 송신할 수 있다.The book matching unit 224 may receive the first keyword cluster (KC_B) from the database (DB). Additionally, the book matching unit 224 may receive the second keyword cluster (KC_T) from the text analysis engine 223 through the voice analysis unit 222. However, as described above, the embodiments are not limited to this, and the book matching unit 224 may receive the second keyword cluster (KC_T) from the text analysis engine 223 without going through the voice analysis unit 222. . The book matching unit 224 may compare the received first keyword cluster (KC_B) and the second keyword cluster (KC_T) to generate a recommended book list (LoB). Additionally, the book matching unit 224 may generate publisher information (PI) by comparing the first keyword cluster (KC_B) and the second keyword cluster (KC_T). The book matching unit 224 may transmit a recommended book list (LoB) and/or publisher information (PI) to the user terminal 300 through the communication unit 221.
도 8을 참조하면, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)의 텍스트 분석 엔진(223)은 자연어 처리부(223_1)와 키워드 클러스터 생성부(223_2)를 포함할 수 있다.Referring to FIG. 8, the text analysis engine 223 of the audio output system 10 according to some embodiments of the present invention may include a natural language processing unit 223_1 and a keyword cluster generating unit 223_2.
자연어 처리부(223_1)는 문자로 된 데이터에서 자연어 처리를 통해 단어를 식별하고, 키워드를 추출할 수 있다. 자연어 처리부(223_1)는 도서 텍스트 데이터(ToB)를 자연어 처리하고, 키워드를 추출함으로써 도서 키워드(Keyword_1)를 생성할 수 있다. 여기서 도서 키워드(Keyword_1)는 도서 텍스트 데이터(ToB)에서 특정 단어가 나타난 횟수 및 빈도를 분석한 것일 수 있다.The natural language processing unit 223_1 can identify words and extract keywords from text data through natural language processing. The natural language processing unit 223_1 may generate a book keyword (Keyword_1) by processing book text data (ToB) into natural language and extracting keywords. Here, the book keyword (Keyword_1) may be an analysis of the number and frequency of occurrences of a specific word in the book text data (ToB).
또한, 자연어 처리부(223_1)는 사용자 텍스트 데이터(D_text)를 자연어 처리하고, 키워드를 추출하여 사용자 키워드(Keyword_2)를 생성할 수 있다. 여기서 사용자 키워드(Keyword_2)는 도서 키워드(Keyword_1)와 유사하게, 사용자 텍스트 데이터(D_text)에서 특정 단어가 나타난 횟수 및 빈도를 분석한 것일 수 있다.Additionally, the natural language processing unit 223_1 may process user text data (D_text) into natural language, extract keywords, and generate user keywords (Keyword_2). Here, the user keyword (Keyword_2), similar to the book keyword (Keyword_1), may be an analysis of the number and frequency of occurrences of a specific word in the user text data (D_text).
키워드 클러스터 생성부(223_2)는 도서 키워드(Keyword_1)의 분포를 바탕으로 제1 키워드 클러스터(KC_B)를 생성할 수 있다. 제1 키워드 클러스터(KC_B)는 도서 키워드(Keyword_1)에서 미리 정해진 횟수(예를 들어, 5회 이상) 또는 미리 정해진 빈도(예를 들어, 10개 단어 당 1회 이상 등장)를 기준으로 단어를 선별할 수도 있다. 또는, 제1 키워드 클러스터(KC_B)는 도서 키워드(Keyword_1)에서 등장 횟수 또는 빈도가 높은 단어 5개를 선별할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니며, 제1 키워드 클러스터(KC_B)를 생성하는 구체적인 방법은 얼마든지 달라질 수 있다.The keyword cluster generator 223_2 may generate a first keyword cluster (KC_B) based on the distribution of the book keyword (Keyword_1). The first keyword cluster (KC_B) selects words from the book keyword (Keyword_1) based on a predetermined number of times (e.g., 5 or more times) or a predetermined frequency (e.g., 1 or more occurrences per 10 words). You may. Alternatively, the first keyword cluster (KC_B) may select five words with a high number of appearances or high frequencies from the book keyword (Keyword_1). However, this embodiment is not limited to this, and the specific method of generating the first keyword cluster (KC_B) may vary.
또한, 키워드 클러스터 생성부(223_2)는 사용자 키워드(Keyword_2)를 토대로 제2 키워드 클러스터(KC_T)를 생성할 수 있다. 제2 키워드 클러스터(KC_T)는 제1 키워드 클러스터(KC_B)와 유사한 방법으로 생성될 수 있다. 다만, 실시예들이 이에 제한되는 것은 아니고, 사용자 텍스트 데이터(D_text)의 단어 개수가 도서 텍스트 데이터(ToB)의 단어 개수와 현저하게 차이나는 경우, 제2 키워드 클러스터(KC_T)를 생성하는 방법은 제1 키워드 클러스터(KC_B)를 생성하는 방법과 상이할 수도 있다.Additionally, the keyword cluster generator 223_2 may generate a second keyword cluster (KC_T) based on the user keyword (Keyword_2). The second keyword cluster (KC_T) can be created in a similar way to the first keyword cluster (KC_B). However, the embodiments are not limited to this, and when the number of words in the user text data (D_text) is significantly different from the number of words in the book text data (ToB), the method for generating the second keyword cluster (KC_T) is 1 The method of creating a keyword cluster (KC_B) may be different.
도 9a를 참조하면, 도서 매칭부(224)는 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 매칭시키고, 이에 따라 데이터베이스(DB)에 저장된 도서 중 일부를 선별하여 추천 도서 목록을 생성할 수 있다.Referring to Figure 9a, the book matching unit 224 matches the first keyword cluster (KC_B) and the second keyword cluster (KC_T), and accordingly selects some of the books stored in the database (DB) to create a list of recommended books. can be created.
예를 들어, 제2-1 키워드 클러스터(KC_T1)가 '동물, 공주. 영어'로 생성된 경우, 도서 매칭부(224)는 제2-1 키워드 클러스터(KC_T1)는 제1-1 키워드 클러스터(KC_B1) 및 제1-2 키워드 클러스터(KC_B2)와 매칭률이 높은 것으로 판단할 수 있다. 제1-1 키워드 클러스터(KC_B1)는 키워드 '동물, 왕자, 공주'를 포함하고, 제1-2 키워드 클러스터(KC_B2)는 키워드 '동물, 공주, 사랑'을 포함할 수 있다. 따라서, 도서 매칭부(224)는 제1-1 키워드 클러스터(KC_B1)에 대응하는 개구리 왕자(ToB1)와, 제1-2 키워드 클러스터(KC_B2)에 대응하는 인어공주(ToB2)를 포함하는 추천 도서 목록(LoB)을 생성할 수 있다.For example, the 2-1 keyword cluster (KC_T1) is 'animal, princess.' When generated as 'English', the book matching unit 224 determines that the 2-1 keyword cluster (KC_T1) has a high matching rate with the 1-1 keyword cluster (KC_B1) and the 1-2 keyword cluster (KC_B2). can do. The 1-1 keyword cluster (KC_B1) may include the keywords 'animal, prince, princess', and the 1-2 keyword cluster (KC_B2) may include the keywords 'animal, princess, love'. Accordingly, the book matching unit 224 recommends books including the Frog Prince (ToB1) corresponding to the 1-1 keyword cluster (KC_B1) and the Little Mermaid (ToB2) corresponding to the 1-2 keyword cluster (KC_B2). A list (LoB) can be created.
도 9b를 참조하면, 도서 매칭부(224)는 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 매칭시켜, 제2 키워드 클러스터(KC_T)와 관련된 도서의 출판사 정보(PI)를 생성할 수 있다. 몇몇 실시예에 따르면, 동일한 내용이더라도, 출판사에 따라 서로 다른 키워드를 사용할 수 있다. 따라서, 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 비교하면, 사용자로부터 녹음된 음성 데이터(D_voice)가 어떤 출판사에서 출판된 도서를 이용하여 생성된 것인지 알 수 있다.Referring to Figure 9b, the book matching unit 224 matches the first keyword cluster (KC_B) and the second keyword cluster (KC_T) to generate publisher information (PI) of the book related to the second keyword cluster (KC_T). can do. According to some embodiments, even if the content is the same, different keywords may be used depending on the publisher. Therefore, by comparing the first keyword cluster (KC_B) and the second keyword cluster (KC_T), it is possible to know which publisher's book the voice data (D_voice) recorded from the user was created using.
예를 들어, 데이터베이스(DB)는 제1 출판사(P1)에서 출판한 '개구리 왕자' 도서의 제1 텍스트 데이터(ToB4), 제2 출판사(P2)에서 출판한 '개구리 왕자' 도서의 제2 텍스트 데이터(ToB5), 제3 출판사(P3)에서 출판한 '개구리 왕자' 도서의 제3 텍스트 데이터(ToB6)를 포함할 수 있다. 제1 텍스트 데이터(ToB4)로부터 기인된 제1-4 키워드 클러스터(KC_B4)는 '동물, 왕자, 공주'일 수 있다. 또한, 제2 텍스트 데이터(ToB5)로부터 기인된 제1-5 키워드 클러스터(KC_B5)는 '개구리, 왕자, 공주'일 수 있다. 또한, 제3 텍스트 데이터(ToB6)로부터 기인된 제1-6 키워드 클러스터(KC_B6)는 '동물, 왕자, 프린세스'일 수 있다. 이와 같이, 동일한 주제인 '개구리 왕자'로부터 생성된 키워드 클러스터는 출판사별로 서로 상이할 수 있다. 이때, 도서 매칭부(224)는 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 비교하여, 제2 키워드 클러스터(KC_T)와 관련된 음성 데이터(D_voice)가 어떤 출판사의 도서로부터 기인된 것인지에 정보를 생성할 수 있다. 다시 말해서, 도서 매칭부(224)는 음성 데이터(D_voice)와 관련된 출판사 정보(PI)를 생성할 수 있다.For example, the database (DB) contains the first text data (ToB4) of the book 'The Frog Prince' published by the first publisher (P1), and the second text data of the 'Frog Prince' book published by the second publisher (P2). It may include data (ToB5) and third text data (ToB6) of the book 'The Frog Prince' published by a third publisher (P3). The first to fourth keyword clusters (KC_B4) derived from the first text data (ToB4) may be 'animal, prince, princess'. Additionally, the 1st to 5th keyword clusters (KC_B5) derived from the second text data (ToB5) may be 'frog, prince, princess'. Additionally, the 1st-6th keyword cluster (KC_B6) derived from the third text data (ToB6) may be 'animal, prince, princess'. In this way, keyword clusters generated from the same topic, 'Frog Prince', may be different for each publisher. At this time, the book matching unit 224 compares the first keyword cluster (KC_B) and the second keyword cluster (KC_T), and determines whether the voice data (D_voice) related to the second keyword cluster (KC_T) originates from a book of a certain publisher. Information can be generated depending on the In other words, the book matching unit 224 may generate publisher information (PI) related to voice data (D_voice).
만약, 도서 매칭부(224)가 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)의 비교를 통해 음성 데이터(D_voice)와 관련된 출판사에 대한 정보를 생성하지 못한 경우, 도서 매칭부(224)는 사용자로 하여금 사용자가 이용한 도서의 출판사 정보(PI)를 직접 입력하도록 요청할 수 있다. If the book matching unit 224 fails to generate information about the publisher related to the voice data (D_voice) through comparison of the first keyword cluster (KC_B) and the second keyword cluster (KC_T), the book matching unit 224 ) can request the user to directly enter the publisher information (PI) of the book the user used.
도서 매칭부(224)는 추천 도서 목록(LoB) 및 출판사 정보(PI)를 통신부(221)를 통해 사용자 단말(300)로 송신할 수 있다. 사용자는 추천 도서 목록(LoB)을 통해 자신이 녹음한 내용과 유사한 동화를 추천받을 수 있다. 추천 도서 목록(LoB) 중에서 하나를 선택하는 경우, 즉, 사용자 단말(300)을 통해 통신부(221)에 도서 선택 데이터(D_select)를 제공하는 경우, 보호자 사용자는 사용자 단말(300)을 통해 통신부(221)에서 제공하는 제1 도서 텍스트 데이터(S_ToB)를 확인할 수 있다. 이를 통해, 보호자 사용자는 영유아의 정서 발달에 도움이 되는 또는 영유아가 선호하는 주제의 다양한 동화를 쉽게 접하고 녹음할 수 있으며, 영유아 사용자는 보호자의 목소리로 녹음된 다양한 동화를 들을 수 있다.The book matching unit 224 may transmit a recommended book list (LoB) and publisher information (PI) to the user terminal 300 through the communication unit 221. Users can receive recommendations for fairy tales similar to what they recorded through the recommended book list (LoB). When selecting one from the recommended book list (LoB), that is, when providing book selection data (D_select) to the communication unit 221 through the user terminal 300, the guardian user receives the communication unit through the user terminal 300 ( You can check the first book text data (S_ToB) provided by 221). Through this, guardian users can easily access and record a variety of fairy tales that are helpful for the emotional development of infants and toddlers or on topics preferred by infants and toddlers, and infant users can listen to various fairy tales recorded in the guardian's voice.
전술한 바와 같이, 사용자는 자신이 녹음한 데이터를 통해 사운드 컨텐츠를 생성할 수 있다. 이때, 사용자가 녹음한 사운드 컨텐츠를 통해 수익이 발생된 경우, 해당 수익의 분배에 대한 문제가 발생될 수 있다. 사용자가 녹음할 때 이용한 텍스트 데이터가 특정 출판사에서 저작권을 보유하고 있을 수 있기 때문이다. 따라서, 도서 매칭부(224)는 사용자에게 해당 음성 데이터(D_voice)에 대해 저작권 문제가 발생될 수 있는 경우, 사용자에게 출판사 정보(PI)를 제공할 수 있으며, 도서 매칭부(224)가 출판사 정보(PI)를 생성하지 못한 경우, 사용자로 하여금 출판사 정보(PI)를 직접 입력하도록 요청할 수 있다. 사용자는 출판사 정보(PI)를 이용하여 사운드 컨텐츠를 이용하여 발생된 수익을 출판사 정보(PI)에 관련된 출판사와 공유할 수 있다. 이러한 수익 공유는 본 시스템을 통해서도 수행 가능하며, 이와 별개의 시스템으로도 수행이 가능할 수 있다. As described above, users can create sound content through their own recorded data. At this time, if profits are generated through sound content recorded by the user, problems may arise regarding distribution of the profits. This is because the text data used when recording by the user may be copyrighted by a specific publisher. Therefore, the book matching unit 224 can provide the user with publisher information (PI) if a copyright problem may occur with the corresponding voice data (D_voice), and the book matching unit 224 provides the publisher information If the (PI) cannot be created, the user can be asked to directly enter the publisher information (PI). Users can use publisher information (PI) to share profits generated by using sound content with publishers related to the publisher information (PI). This profit sharing can be performed through this system, and may also be performed through a separate system.
이하, 도 10 내지 도 12를 더 참조하여, 본 발명의 몇몇 실시예들에 따른 오디오 출력 방법을 설명한다. 상술한 실시예와 중복되는 부분은 생략하거나, 간략히 한다.Hereinafter, an audio output method according to some embodiments of the present invention will be described with further reference to FIGS. 10 to 12. Parts that overlap with the above-described embodiments are omitted or simplified.
도 10은 본 발명의 몇몇 실시예들에 따른 도서 추천 방법을 설명하기 위한 순서도이고, 도 11은 도 10의 제1 키워드 클러스터 생성 단계를 설명하기 위한 순서도이다. 도 12는 도 10의 제2 키워드 클러스터 생성 단계를 설명하기 위한 순서도이다.FIG. 10 is a flowchart for explaining a book recommendation method according to some embodiments of the present invention, and FIG. 11 is a flowchart for explaining the first keyword cluster generation step of FIG. 10. FIG. 12 is a flowchart for explaining the second keyword cluster creation step of FIG. 10.
도 10을 참조하면, 도서 추천 서버(220)는 데이터베이스를 분석하여 제1 키워드 클러스터를 생성한다(S100).Referring to FIG. 10, the book recommendation server 220 analyzes the database and creates a first keyword cluster (S100).
세부적으로, 도 11을 참조하면, 텍스트 분석 엔진(223)은 데이터베이스에서 도서 텍스트 데이터를 수신한다(S110). In detail, referring to FIG. 11, the text analysis engine 223 receives book text data from the database (S110).
몇몇 실시예에 따르면, 텍스트 분석 엔진(223)은 자연어 처리부(223_1)와 키워드 클러스터 생성부(223_2)를 포함할 수 있다. 자연어 처리부(223_1)는 데이터베이스(DB)로부터 도서 텍스트 데이터(ToB)를 수신할 수 있다.According to some embodiments, the text analysis engine 223 may include a natural language processing unit 223_1 and a keyword cluster generating unit 223_2. The natural language processing unit 223_1 may receive book text data (ToB) from the database (DB).
이어서, 텍스트 분석 엔진(223)은 자연어 처리를 통해 도서 텍스트 데이터에서 도서 키워드를 추출할 수 있다(S120).Next, the text analysis engine 223 can extract book keywords from book text data through natural language processing (S120).
몇몇 실시예에 따르면, 자연어 처리부(223_1)는 도서 텍스트 데이터(ToB)를 분석하고, 단어의 등장 횟수와 빈도를 바탕으로 도서 키워드(Keyword_1)를 추출할 수 있다.According to some embodiments, the natural language processing unit 223_1 may analyze book text data (ToB) and extract a book keyword (Keyword_1) based on the number of occurrences and frequencies of words.
도서 키워드의 분포에 따라 제1 키워드 클러스터를 생성한다(S130). A first keyword cluster is created according to the distribution of book keywords (S130).
몇몇 실시예에 따르면, 키워드 클러스터 생성부(223_2)는 도서 키워드(Keyword_1)를 수신할 수 있다. 이어서, 키워드 클러스터 생성부(223_2)는 도서 키워드(Keyword_1)의 분포를 바탕으로 주제와 관련된 키워드를 선별한 제1 키워드 클러스터(KC_B)를 생성할 수 있다.According to some embodiments, the keyword cluster generator 223_2 may receive a book keyword (Keyword_1). Subsequently, the keyword cluster generator 223_2 may generate a first keyword cluster (KC_B) in which keywords related to the topic are selected based on the distribution of the book keyword (Keyword_1).
텍스트 분석 엔진(223)은 제1 키워드 클러스터를 데이터베이스에 저장한다(S140).The text analysis engine 223 stores the first keyword cluster in the database (S140).
몇몇 실시예에 따르면, 키워드 클러스터 생성부(223_2)는 제1 키워드 클러스터(KC_B)를 데이터베이스(DB)에 저장할 수 있다.According to some embodiments, the keyword cluster generator 223_2 may store the first keyword cluster (KC_B) in the database (DB).
다시, 도 10을 참조하면, 도서 추천 서버(220)는 사용자 단말로부터 음성 데이터를 수신하고, 음성 데이터를 분석하여 제2 키워드 클러스터를 생성한다(S200).Referring again to FIG. 10, the book recommendation server 220 receives voice data from the user terminal, analyzes the voice data, and generates a second keyword cluster (S200).
세부적으로, 도 12를 참조하면, 음성 분석부(222)는 사용자의 음성 데이터를 사용자 텍스트 데이터로 변환한다(S210). In detail, referring to FIG. 12, the voice analysis unit 222 converts the user's voice data into user text data (S210).
몇몇 실시예에 따르면, 음성 분석부(222)는 통신부(221)로부터 사용자의 음성 데이터(D_voice)를 수신할 수 있다. 음성 분석부(222)는 음성 데이터(D_voice)를 텍스트 데이터 형태인 사용자 텍스트 데이터(D_text)로 변환할 수 있다.According to some embodiments, the voice analysis unit 222 may receive the user's voice data (D_voice) from the communication unit 221. The voice analysis unit 222 may convert voice data (D_voice) into user text data (D_text) in the form of text data.
이어서, 텍스트 분석 엔진(223)은 자연어 처리를 통해 사용자 텍스트 데이터에서 사용자 키워드를 추출한다(S220).Next, the text analysis engine 223 extracts user keywords from user text data through natural language processing (S220).
몇몇 실시예에 따르면, 자연어 처리부(223_1)는 사용자 텍스트 데이터(D_text)를 수신할 수 있다. 자연어 처리부(223_1)는 사용자 텍스트 데이터(D_text)를 분석하고, 단어의 등장 횟수와 빈도를 바탕으로 사용자 키워드(Keyword_2)를 추출할 수 있다.According to some embodiments, the natural language processing unit 223_1 may receive user text data (D_text). The natural language processing unit 223_1 may analyze user text data (D_text) and extract user keywords (Keyword_2) based on the number of occurrences and frequencies of words.
사용자 키워드의 분포에 따라 제2 키워드 클러스터를 생성한다(S230). A second keyword cluster is created according to the distribution of user keywords (S230).
몇몇 실시예에 따르면, 키워드 클러스터 생성부(223_2)는 사용자 키워드(Keyword_2)를 수신할 수 있다. 이어서, 키워드 클러스터 생성부(223_2)는 사용자 키워드(Keyword_2)의 분포를 바탕으로 주제와 관련된 키워드를 선별한 제2 키워드 클러스터(KC_T)를 생성할 수 있다.According to some embodiments, the keyword cluster generator 223_2 may receive a user keyword (Keyword_2). Subsequently, the keyword cluster generator 223_2 may generate a second keyword cluster (KC_T) in which keywords related to the topic are selected based on the distribution of the user keyword (Keyword_2).
텍스트 분석 엔진(223)은 제2 키워드 클러스터를 도서 매칭부에 제공한다(S240).The text analysis engine 223 provides the second keyword cluster to the book matching unit (S240).
몇몇 실시예에 따르면, 키워드 클러스터 생성부(223_2)는 제2 키워드 클러스터(KC_T)를 도서 매칭부(224)에 제공하여 추천 도서 목록(LoB)을 생성하도록 할 수 있다.According to some embodiments, the keyword cluster generator 223_2 may provide the second keyword cluster (KC_T) to the book matching unit 224 to generate a recommended book list (LoB).
다시, 도 10을 참조하면, 도서 추천 서버(220)는 제1 키워드 클러스터와 제2 키워드 클러스터를 매칭시켜 추천 도서 목록을 생성한다(S300).Again, referring to FIG. 10, the book recommendation server 220 generates a recommended book list by matching the first keyword cluster and the second keyword cluster (S300).
몇몇 실시예에 따르면, 도서 매칭부(224)는 데이터베이스(DB)로부터 제1 키워드 클러스터(KC_B)를 수신하고, 음성 분석부(222)로부터 제2 키워드 클러스터(KC_T)를 수신할 수 있다. 이때, 도서 매칭부(224)는 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)를 비교하여 매칭률을 구할 수 있다.According to some embodiments, the book matching unit 224 may receive a first keyword cluster (KC_B) from the database (DB) and a second keyword cluster (KC_T) from the voice analysis unit 222. At this time, the book matching unit 224 may obtain a matching rate by comparing the first keyword cluster (KC_B) and the second keyword cluster (KC_T).
예를 들어, 제2-2 키워드 클러스터(KC_T2)와 제1-1 내지 제1-5 키워드 클러스터(KC_B1~KC_B5)를 각각 비교하여 매칭률을 구할 수 있다. 제2-2 키워드 클러스터(KC_T2)는 '한글, 왕자, 계모'를 포함하므로, 제1-1 내지 제1-5 키워드 클러스터(KC_B1~KC_B5)와의 매칭률은 각각 33%, 0%, 0%, 66%, 0%로 결정될 수 있다. 따라서, 도서 매칭부(224)는 매칭률이 높은 순서대로 추천 도서 목록(LoB)을 생성할 수 있다.For example, the matching rate can be obtained by comparing the 2-2 keyword cluster (KC_T2) and the 1-1 to 1-5 keyword clusters (KC_B1 to KC_B5), respectively. Since the 2-2 keyword cluster (KC_T2) includes 'Hangul, prince, stepmother', the matching rate with the 1-1 to 1-5 keyword clusters (KC_B1 to KC_B5) is 33%, 0%, and 0%, respectively. , 66%, and 0%. Accordingly, the book matching unit 224 can generate a recommended book list (LoB) in order of high matching rate.
도서 추천 서버(220)는 추천 도서 목록을 사용자 단말로 송신한다(S400).The book recommendation server 220 transmits a list of recommended books to the user terminal (S400).
몇몇 실시예에 따르면, 도서 매칭부(224)는 제1 키워드 클러스터(KC_B)와 제2 키워드 클러스터(KC_T)의 매칭률에 기반하여 생성한 추천 도서 목록(LoB)을 통신부(221)를 통해 사용자 단말(300)로 송신할 수 있다. 이때, 추천 도서 목록(LoB)은 추천 도서의 제목과 상기 매칭률을 포함할 수 있으며, 사용자가 선호할 것으로 예상되는 항목을 상단에 표시할 수 있다.According to some embodiments, the book matching unit 224 sends a recommended book list (LoB) generated based on the matching rate of the first keyword cluster (KC_B) and the second keyword cluster (KC_T) to the user through the communication unit 221. It can be transmitted to the terminal 300. At this time, the recommended book list (LoB) may include the title of the recommended book and the matching rate, and items expected to be preferred by the user may be displayed at the top.
도서 추천 서버(220)는 사용자 단말로부터 도서 선택 데이터를 수신한다(S500).The book recommendation server 220 receives book selection data from the user terminal (S500).
몇몇 실시예에 따르면, 통신부(221)는 사용자가 추천 도서 목록(LoB) 중에서 하나를 선택하는 도서 선택 데이터(D_select)를 수신할 수 있다. 다시 말해, 사용자는 사용자 단말(300)에서 추천 도서 목록(LoB)을 확인하고, 추천 도서 목록(LoB) 중 적어도 하나를 선택할 수 있다. 통신부(221)는 도서 선택 데이터(D_select)를 데이터베이스(DB)로 전달할 수 있다.According to some embodiments, the communication unit 221 may receive book selection data (D_select) in which the user selects one from the recommended book list (LoB). In other words, the user can check the recommended book list (LoB) on the user terminal 300 and select at least one of the recommended book list (LoB). The communication unit 221 may transmit book selection data (D_select) to the database (DB).
도서 추천 서버(220)는 사용자 단말로 도서 선택 데이터에 대응하는 도서 텍스트 데이터를 송신한다(S600).The book recommendation server 220 transmits book text data corresponding to the book selection data to the user terminal (S600).
몇몇 실시예에 따르면, 데이터베이스(DB)는 도서 선택 데이터(D_select)에 대응하는 제1 도서 텍스트 데이터(S_ToB)를 통신부(221)로 전달할 수 있다. 통신부(221)는 제1 도서 텍스트 데이터(S_ToB)를 사용자 단말(300)로 송신할 수 있다. 이를 통해, 사용자는 자신이 녹음한 동화와 비슷한 주제를 가진 다른 동화에 손쉽게 접근하고, 이를 이용하여 더욱 아이의 흥미를 유발하고 정서를 발달시킬 수 있다.According to some embodiments, the database (DB) may transmit first book text data (S_ToB) corresponding to book selection data (D_select) to the communication unit 221. The communication unit 221 may transmit the first book text data (S_ToB) to the user terminal 300. Through this, users can easily access other fairy tales with similar themes to the fairy tale they recorded, and use them to further arouse the child's interest and develop their emotions.
이하, 도 13을 참조하여, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템을 설명한다.Hereinafter, with reference to FIG. 13, an audio output system according to some embodiments of the present invention will be described.
도 13은 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템을 설명하기 위한 개략도이다. 설명의 편의를 위해 전술한 내용과 동일하거나 유사한 내용은 생략하거나 간단히 설명한다.Figure 13 is a schematic diagram for explaining an audio output system according to some embodiments of the present invention. For convenience of explanation, content that is the same or similar to the content described above is omitted or briefly explained.
도 13을 참조하면, 본 발명의 몇몇 실시예들에 따른 오디오 출력 시스템(10)은 마이크(400)를 포함할 수 있다.Referring to FIG. 13 , the audio output system 10 according to some embodiments of the present invention may include a microphone 400.
마이크(400)는 사용자의 음성 데이터가 입력되는 장치일 수 있다.The microphone 400 may be a device through which the user's voice data is input.
도 13의 <A1>을 참조하면, 마이크(400)는 사용자 단말(300)과 유/무선으로 연결될 수 있다. 예를 들어, 마이크(400)는 사용자 단말(300)과 블루투스(Bluetooth)를 통해 연결될 수 있으나, 이는 한가지 예시일 뿐 실시예들이 이에 제한되지는 않는다. 사용자는 마이크(400)를 통해 음성 데이터(D_voice)를 생성하고, 이를 사용자 단말(300)에 제공할 수 있다. 사용자 단말(300)은 마이크(400)에서 생성된 음성 데이터(D_voice)를 통신망을 통해 서버(200)에 제공할 수 있다.Referring to <A1> in FIG. 13, the microphone 400 may be connected to the user terminal 300 wired/wireless. For example, the microphone 400 may be connected to the user terminal 300 via Bluetooth, but this is only an example and the embodiments are not limited thereto. The user can generate voice data (D_voice) through the microphone 400 and provide it to the user terminal 300. The user terminal 300 may provide voice data (D_voice) generated by the microphone 400 to the server 200 through a communication network.
도 13의 <A2>를 참조하면, 마이크(400)는 통신망을 통해 서버(200)와 직접 연결될 수도 있다. 사용자는 마이크(400)를 통해 음성 데이터(D_voice)를 생성할 수 있다. 마이크(400)에서 생성된 음성 데이터(D_voice)는 통신망을 통해 서버(200)에 제공될 수 있다. Referring to <A2> in FIG. 13, the microphone 400 may be directly connected to the server 200 through a communication network. The user can generate voice data (D_voice) through the microphone 400. Voice data (D_voice) generated by the microphone 400 may be provided to the server 200 through a communication network.
몇몇 실시예에 따르면, 사용자는 마이크(400)를 이용함으로써, 더욱 선명한 음질로 녹음한 사운드 컨텐츠를 제작할 수 있다.According to some embodiments, a user can produce recorded sound content with clearer sound quality by using the microphone 400.
이하, 도 14를 참조하여, 본 발명의 다른 몇몇 실시예들에 따른 오디오 출력 시스템의 서버를 설명한다. 상술한 실시예와 중복되는 부분은 생략하거나, 간략히 한다.Hereinafter, with reference to FIG. 14, the server of the audio output system according to some other embodiments of the present invention will be described. Parts that overlap with the above-described embodiments are omitted or simplified.
도 14는 본 발명의 다른 몇몇 실시예들에 따른 오디오 출력 시스템의 서버를 설명하기 위한 블록도이다.Figure 14 is a block diagram for explaining a server of an audio output system according to some other embodiments of the present invention.
도 14를 참조하면, 본 발명의 다른 몇몇 실시예들에 따른 오디오 출력 시스템의 제1 서버(201)는 사운드 인형 추천 서버(230)를 포함할 수 있다.Referring to FIG. 14, the first server 201 of the audio output system according to some other embodiments of the present invention may include a sound doll recommendation server 230.
사운드 인형 추천 서버(230)는 사용자의 음성 데이터(D_voice)를 수신할 수 있다. 사운드 인형 추천 서버(230)는 수신한 음성 데이터(D_voice)를 분석하여, 음성 데이터(D_voice)와 연관된 사운드 인형(120)을 추천할 수 있다.The sound doll recommendation server 230 may receive the user's voice data (D_voice). The sound doll recommendation server 230 may analyze the received voice data (D_voice) and recommend the sound doll 120 associated with the voice data (D_voice).
사운드 인형 추천 서버(230)는 복수의 사운드 인형에 대응하는 복수의 사운드 컨텐츠를 분석할 수 있다. 구체적으로, 사운드 인형 추천 서버(230)는 복수의 사운드 컨텐츠에 대한 텍스트 데이터를 분석하여, 각각의 사운드 컨텐츠에 대한 키워드 클러스터를 생성할 수 있다. 예를 들어, 사운드 인형 추천 서버(230)는 복수의 사운드 인형(120) 각각에 포함된 사운드 컨텐츠에 대한 노래 가사, 동화 본문 등 텍스트 데이터를 수신하고 이를 분석함으로써, 복수의 사운드 인형(120) 각각에 대한 제3 키워드 클러스터를 생성할 수 있다. The sound doll recommendation server 230 may analyze a plurality of sound contents corresponding to a plurality of sound dolls. Specifically, the sound doll recommendation server 230 may analyze text data for a plurality of sound contents and generate a keyword cluster for each sound content. For example, the sound doll recommendation server 230 receives text data such as song lyrics and fairy tale text for sound content included in each of the plurality of sound dolls 120 and analyzes the text data, so that each of the plurality of sound dolls 120 A third keyword cluster can be created.
또한, 사운드 인형 추천 서버(230)는 음성 데이터(D_voice)를 분석하여, 음성 데이터(D_voice)에 대한 제2 키워드 클러스터(KC_T)를 생성할 수 있다. 사운드 인형 추천 서버(230)는 제2 키워드 클러스터(KC_T)와 제3 키워드 클러스터를 비교하여, 음성 데이터(D_voice)와 연관된 사운드 인형을 추천할 수 있다.Additionally, the sound doll recommendation server 230 may analyze the voice data (D_voice) and generate a second keyword cluster (KC_T) for the voice data (D_voice). The sound doll recommendation server 230 may compare the second keyword cluster (KC_T) and the third keyword cluster and recommend a sound doll associated with the voice data (D_voice).
예를 들어, 사운드 인형 추천 서버(230)는 제1 사운드 인형에 대응하는 제1 사운드 컨텐츠를 분석할 수 있다. 이때, 사운드 인형 추천 서버(230)는 제1 사운드 컨텐츠에 대한 제1 텍스트 데이터를 분석하여, 제3-1 키워드 클러스터를 생성할 수 있다.For example, the sound doll recommendation server 230 may analyze the first sound content corresponding to the first sound doll. At this time, the sound doll recommendation server 230 may analyze the first text data for the first sound content and generate the 3-1 keyword cluster.
또한, 사운드 인형 추천 서버(230)는 제2 사운드 인형에 대응하는 제2 사운드 컨텐츠를 분석할 수 있다. 이때, 제2 사운드 컨텐츠는 제1 사운드 컨텐츠와 다를 수 있다. 사운드 인형 추천 서버(230)는 제2 사운드 컨텐츠에 대한 제2 텍스트 데이터를 분석하여, 제3-2 키워드 클러스터를 생성할 수 있다.Additionally, the sound doll recommendation server 230 may analyze the second sound content corresponding to the second sound doll. At this time, the second sound content may be different from the first sound content. The sound doll recommendation server 230 may analyze the second text data for the second sound content and generate a 3-2 keyword cluster.
사운드 인형 추천 서버(230)는 도 7과 같은 방식으로, 사용자의 음성 데이터(D_voice)를 수신한 경우, 음성 데이터(D_voice)를 텍스트 데이터 형태인 사용자 텍스트 데이터(D_text)로 변환할 수 있다. 사운드 인형 추천 서버(230)는 사용자 텍스트 데이터(D_text)를 분석하여, 제4 키워드 클러스터를 생성할 수 있다.When receiving the user's voice data (D_voice) in the same manner as shown in FIG. 7, the sound doll recommendation server 230 may convert the voice data (D_voice) into user text data (D_text) in the form of text data. The sound doll recommendation server 230 may analyze user text data (D_text) and generate a fourth keyword cluster.
이어서, 사운드 인형 추천 서버(230)는 제3-1, 제3-2 및 제4 키워드 클러스터를 비교하여, 키워드 클러스터의 매칭률이 높은 사운드 인형을 추천 사운드 인형으로 결정할 수 있다. 예를 들어, 제3-1 키워드 클러스터와 제4 키워드 클러스터의 매칭률이 제3-2 키워드 클러스터와 제4 키워드 클러스터의 매칭률보다 높은 경우, 사운드 인형 추천 서버(230)는 제1 사운드 인형을 추천 사운드 인형으로 결정하고, 제1 사운드 인형에 대한 정보를 사용자 단말(300)에 제공할 수 있다. 이때, 제1 사운드 인형에 대한 정보는 해당 사운드 인형의 제품명, 사운드 컨텐츠, 구입링크 등을 포함할 수 있다. 이를 통해, 사용자의 성향과 잘 매치되는 사운드 컨텐츠와 대응되는 사운드 인형을 구매하도록 유도할 수 있다.Next, the sound doll recommendation server 230 may compare the 3-1, 3-2, and 4th keyword clusters and determine the sound doll with a high keyword cluster matching rate as the recommended sound doll. For example, when the matching rate of the 3-1st keyword cluster and the 4th keyword cluster is higher than the matching rate of the 3-2nd keyword cluster and the 4th keyword cluster, the sound doll recommendation server 230 selects the first sound doll. A recommended sound doll may be determined, and information about the first sound doll may be provided to the user terminal 300. At this time, information about the first sound doll may include the product name, sound content, purchase link, etc. of the sound doll. Through this, the user can be encouraged to purchase a sound doll that corresponds to sound content that matches well with the user's personality.
지금까지 설명한 본 발명의 실시예들에 따르면, 사운드 인형을 오디오 스테이션에 도킹시키는 것으로 조작하는 오디오 출력 시스템을 제공함으로써, 영유아가 스스로 다양한 사운드를 선택할 수 있는 환경을 제공할 수 있다. 또한, 영유아에게 디지털 영상 기기에 대한 노출을 최소화하면서, 다양한 청각 자극을 제공할 수 있다. 특히, 보호자의 목소리를 이용한 사운드 컨텐츠를 이용하여, 영유아에게 정서적인 안정감을 제공할 수 있다. 또한, 사용자가 입력한 사운드 컨텐츠와 유사한 컨텐츠를 추천함으로써, 영유아가 다양한 사운드 컨텐츠를 접하기 쉬운 환경을 제공할 수 있다.According to the embodiments of the present invention described so far, by providing an audio output system that operates by docking a sound doll to an audio station, it is possible to provide an environment in which infants and young children can select various sounds on their own. Additionally, it is possible to provide infants and young children with a variety of auditory stimulation while minimizing their exposure to digital imaging devices. In particular, it is possible to provide emotional stability to infants and toddlers by using sound content using the voice of the guardian. Additionally, by recommending content similar to the sound content input by the user, it is possible to provide an environment in which infants and young children can easily access various sound content.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these examples. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

Claims (10)

  1. 영유아의 청각 자극을 위한 사운드 컨텐츠를 출력하는 오디오 출력 장치;An audio output device that outputs sound content for auditory stimulation of infants and young children;
    사용자의 음성 데이터가 입력되는 사용자 단말;A user terminal into which the user's voice data is input;
    상기 사용자의 음성 데이터를 수신하고, 상기 사용자의 음성 데이터를 상기 오디오 출력 장치에 제공하는 컨텐츠 관리 서버; 및a content management server that receives the user's voice data and provides the user's voice data to the audio output device; and
    상기 사용자의 음성 데이터를 수신하고, 상기 사용자의 음성 데이터를 이용하여 상기 사용자의 음성 데이터와 연관된 도서를 추천하는 도서 추천 서버를 포함하고,A book recommendation server that receives the user's voice data and recommends books associated with the user's voice data using the user's voice data,
    상기 오디오 출력 장치는 상기 사용자의 음성 데이터를 상기 사운드 컨텐츠로 출력하고,The audio output device outputs the user's voice data as the sound content,
    상기 도서 추천 서버는,The book recommendation server is,
    데이터베이스에 저장된 복수의 도서 텍스트 데이터를 기초로 제1 키워드 클러스터를 생성하고,Generate a first keyword cluster based on a plurality of book text data stored in the database,
    상기 사용자의 음성 데이터를 기초로 제2 키워드 클러스터를 생성하고,Generating a second keyword cluster based on the user's voice data,
    상기 제1 키워드 클러스터 및 상기 제2 키워드 클러스터를 비교하여, 상기 사용자의 음성 데이터와 연관된 도서를 추천하는Comparing the first keyword cluster and the second keyword cluster to recommend a book related to the user's voice data
    오디오 출력 시스템.Audio output system.
  2. 제1 항에 있어서,According to claim 1,
    상기 오디오 출력 장치는 사운드 인형 및 상기 사운드 인형이 도킹되는 도킹 공간을 포함하는 오디오 출력 스테이션을 포함하고,The audio output device includes an audio output station including a sound doll and a docking space where the sound doll is docked,
    상기 오디오 출력 스테이션은 상기 도킹 공간에 도킹된 사운드 인형을 인식하고, 상기 인식된 사운드 인형에 대응하는 사운드 컨텐츠를 출력하는The audio output station recognizes a sound doll docked in the docking space and outputs sound content corresponding to the recognized sound doll.
    오디오 출력 시스템.Audio output system.
  3. 제1 항에 있어서,According to claim 1,
    상기 컨텐츠 관리 서버는,The content management server is,
    상기 사용자의 음성 데이터를 수신한 경우, 상기 오디오 출력 장치에 컨텐츠 업데이트에 대한 메시지를 송신하고,When receiving the user's voice data, transmitting a message about a content update to the audio output device,
    상기 오디오 출력 장치로부터 상기 사용자의 음성 데이터에 대한 요청 신호를 수신하는 경우, 상기 사용자의 음성 데이터를 상기 오디오 출력 장치에 송신하는When receiving a request signal for the user's voice data from the audio output device, transmitting the user's voice data to the audio output device
    오디오 출력 시스템.Audio output system.
  4. 제1 항에 있어서,According to claim 1,
    상기 도서 추천 서버는,The book recommendation server is,
    상기 사용자 단말로부터 도서 선택 데이터 및 상기 사용자의 음성 데이터를 수신하고, 상기 사용자 단말로 추천 도서 목록과 상기 도서 선택 데이터와 연관된 제1 도서 텍스트 데이터를 송신하는 통신부와,a communication unit that receives book selection data and the user's voice data from the user terminal, and transmits a recommended book list and first book text data associated with the book selection data to the user terminal;
    상기 사용자의 음성 데이터를 사용자 텍스트 데이터로 변환하는 음성 분석부와,a voice analysis unit that converts the user's voice data into user text data;
    상기 제1 키워드 클러스터 및 상기 제2 키워드 클러스터를 생성하는 텍스트 분석 엔진과,a text analysis engine that generates the first keyword cluster and the second keyword cluster;
    상기 제1 및 제2 키워드 클러스터를 비교하여, 상기 추천 도서 목록을 생성하는 도서 매칭부를 포함하는Comprising a book matching unit that compares the first and second keyword clusters and generates the recommended book list.
    오디오 출력 시스템.Audio output system.
  5. 제4 항에 있어서,According to clause 4,
    상기 텍스트 분석 엔진은,The text analysis engine is,
    상기 사용자 텍스트 데이터 및 상기 복수의 도서 텍스트 데이터를 수신하여 자연어 처리하고, 키워드를 추출하는 자연어 처리부와,a natural language processing unit that receives the user text data and the plurality of book text data, processes them into natural language, and extracts keywords;
    상기 키워드의 분포를 바탕으로 상기 제1 및 제2 키워드 클러스터를 생성하는 키워드 클러스터 생성부를 포함하는A keyword cluster generator that generates the first and second keyword clusters based on the distribution of the keywords.
    오디오 출력 시스템.Audio output system.
  6. 사용자 단말 및 오디오 출력 장치와 연동되는 서버에서 수행되고, 사운드 인형에 따라 서로 다른 사운드 컨텐츠를 출력하는 오디오 출력 방법에 있어서,In an audio output method that is performed on a server linked to a user terminal and an audio output device and outputs different sound content depending on the sound doll,
    상기 서버에 포함된 데이터베이스에 저장된 복수의 도서 텍스트 데이터를 분석하여 제1 키워드 클러스터를 생성하는 단계;Generating a first keyword cluster by analyzing a plurality of book text data stored in a database included in the server;
    상기 사용자 단말로부터 사용자의 음성 데이터를 수신하고, 상기 사용자의 음성 데이터를 분석하여 제2 키워드 클러스터를 생성하는 단계;Receiving the user's voice data from the user terminal and analyzing the user's voice data to generate a second keyword cluster;
    상기 제1 및 제2 키워드 클러스터를 매칭시켜 추천 도서 목록을 생성하는 단계;Generating a recommended book list by matching the first and second keyword clusters;
    상기 추천 도서 목록을 상기 사용자 단말로 송신하는 단계;Transmitting the recommended book list to the user terminal;
    상기 사용자 단말로부터 상기 추천 도서 목록에 대한 도서 선택 데이터를 수신하는 단계; 및Receiving book selection data for the recommended book list from the user terminal; and
    상기 사용자 단말로 상기 도서 선택 데이터에 대응하는 제1 도서 텍스트 데이터를 송신하는 단계를 포함하는Comprising the step of transmitting first book text data corresponding to the book selection data to the user terminal.
    오디오 출력 방법.Audio output method.
  7. 제6 항에 있어서,According to clause 6,
    상기 제1 키워드 클러스터를 생성하는 단계는,The step of generating the first keyword cluster is,
    상기 데이터베이스에서 상기 복수의 도서 텍스트 데이터를 수신하는 단계와,Receiving the plurality of book text data from the database;
    자연어 처리를 통해 상기 복수의 도서 텍스트 데이터 각각에 대한 도서 키워드를 추출하는 단계와,extracting book keywords for each of the plurality of book text data through natural language processing;
    상기 도서 키워드의 분포에 따라 상기 제1 키워드 클러스터를 생성하는 단계와,generating the first keyword cluster according to the distribution of the book keywords;
    상기 제1 키워드 클러스터를 상기 데이터베이스에 저장하는 단계를 포함하는Comprising the step of storing the first keyword cluster in the database.
    오디오 출력 방법.Audio output method.
  8. 제6 항에 있어서,According to clause 6,
    상기 제2 키워드 클러스터를 생성하는 단계는,The step of generating the second keyword cluster is,
    상기 사용자의 음성 데이터를 사용자 텍스트 데이터로 변환하는 단계와,converting the user's voice data into user text data;
    자연어 처리를 통해 상기 사용자 텍스트 데이터에서 사용자 키워드를 추출하는 단계와,extracting user keywords from the user text data through natural language processing;
    상기 사용자 키워드의 분포에 따라 상기 제2 키워드 클러스터를 생성하는 단계를 포함하는Comprising the step of generating the second keyword cluster according to the distribution of the user keywords.
    오디오 출력 방법.Audio output method.
  9. 영유아의 청각 자극을 위한 사운드 컨텐츠를 출력하는 오디오 출력 장치;An audio output device that outputs sound content for auditory stimulation of infants and young children;
    사용자의 음성 데이터가 입력되는 마이크;A microphone into which the user's voice data is input;
    상기 사용자의 음성 데이터를 편집하는 사용자 단말;a user terminal that edits the user's voice data;
    상기 사용자의 음성 데이터를 상기 오디오 출력 장치에 제공하는 컨텐츠 관리 서버; 및a content management server that provides the user's voice data to the audio output device; and
    상기 사용자의 음성 데이터를 이용하여 상기 사용자의 음성 데이터와 연관된 도서를 추천하는 도서 추천 서버를 포함하고,A book recommendation server that recommends books related to the user's voice data using the user's voice data,
    상기 도서 추천 서버는,The book recommendation server is,
    상기 사용자의 음성 데이터를 텍스트 데이터의 형식인 사용자 텍스트 데이터로 변환하고,Converting the user's voice data into user text data in the form of text data,
    상기 사용자 텍스트 데이터를 자연어 처리하여, 상기 사용자 텍스트 데이터에 대한 키워드를 추출하고,Processing the user text data in natural language to extract keywords for the user text data,
    상기 키워드의 분포를 기초로, 키워드 클러스터를 생성하고,Based on the distribution of the keywords, generate a keyword cluster,
    상기 키워드 클러스터를 이용하여 상기 사용자의 음성 데이터와 연관된 도서를 추천하는 것을 포함하는Including recommending books related to the user's voice data using the keyword cluster.
    오디오 출력 시스템.Audio output system.
  10. 제1 사운드 컨텐츠에 대응하는 제1 사운드 인형;a first sound doll corresponding to the first sound content;
    상기 제1 사운드 컨텐츠와 다른 제2 사운드 컨텐츠에 대응하는 제2 사운드 인형;a second sound doll corresponding to second sound content different from the first sound content;
    사운드 인형에 대응하는 사운드 컨텐츠를 출력하는 오디오 출력 스테이션;an audio output station that outputs sound content corresponding to the sound doll;
    사용자의 음성 데이터가 입력되는 사용자 단말; 및A user terminal into which the user's voice data is input; and
    상기 사용자의 음성 데이터와 연관된 사운드 인형을 추천하는 사운드 인형 추천 서버를 포함하고,A sound doll recommendation server that recommends a sound doll associated with the user's voice data,
    상기 사운드 인형 추천 서버는,The sound doll recommendation server is,
    상기 제1 사운드 컨텐츠에 대한 제1 텍스트 데이터를 분석하여, 제1 키워드 클러스터를 생성하고,Analyzing first text data for the first sound content to generate a first keyword cluster,
    상기 제2 사운드 컨텐츠에 대한 제2 텍스트 데이터를 분석하여, 제2 키워드 클러스터를 생성하고,Analyzing second text data for the second sound content to generate a second keyword cluster,
    상기 사용자의 음성 데이터를 분석하여, 제3 키워드 클러스터를 생성하고,By analyzing the user's voice data, a third keyword cluster is generated,
    상기 제1 내지 제3 키워드 클러스터를 비교하여, 상기 사용자의 음성 데이터와 연관된 사운드 인형을 결정하는 것을 포함하는Comparing the first to third keyword clusters to determine a sound doll associated with the user's voice data.
    오디오 출력 시스템.Audio output system.
PCT/KR2023/005815 2022-05-06 2023-04-27 Audio output system and method WO2023214740A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220056148A KR102547972B1 (en) 2022-05-06 2022-05-06 Audio output system and method thereof
KR10-2022-0056148 2022-05-06

Publications (1)

Publication Number Publication Date
WO2023214740A1 true WO2023214740A1 (en) 2023-11-09

Family

ID=86946778

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/005815 WO2023214740A1 (en) 2022-05-06 2023-04-27 Audio output system and method

Country Status (3)

Country Link
KR (2) KR102547972B1 (en)
CN (1) CN117055835A (en)
WO (1) WO2023214740A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100894569B1 (en) * 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
KR101678521B1 (en) * 2016-06-07 2016-11-22 주식회사 미래엔 Service providing apparatus and method for recommending book
KR20180012561A (en) * 2016-07-27 2018-02-06 주식회사 네이블커뮤니케이션즈 Offline character doll control apparatus and method using user's emotion information
KR20180022431A (en) * 2016-08-24 2018-03-06 엘지전자 주식회사 Nfc speaker system and method for controlling the same
KR102208256B1 (en) * 2019-09-23 2021-01-27 여영환 Smart doll performing the reading function

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100894569B1 (en) * 2007-11-20 2009-04-24 전인자 Humanized doll with adaptive function
KR101678521B1 (en) * 2016-06-07 2016-11-22 주식회사 미래엔 Service providing apparatus and method for recommending book
KR20180012561A (en) * 2016-07-27 2018-02-06 주식회사 네이블커뮤니케이션즈 Offline character doll control apparatus and method using user's emotion information
KR20180022431A (en) * 2016-08-24 2018-03-06 엘지전자 주식회사 Nfc speaker system and method for controlling the same
KR102208256B1 (en) * 2019-09-23 2021-01-27 여영환 Smart doll performing the reading function

Also Published As

Publication number Publication date
KR20230156673A (en) 2023-11-14
CN117055835A (en) 2023-11-14
KR102547972B1 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
JP6625418B2 (en) Human-computer interaction method, apparatus and terminal equipment based on artificial intelligence
Trehub et al. Maternal vocal interactions with infants: Reciprocal visual influences
Booth et al. A horse of a different color: Specifying with precision infants’ mappings of novel nouns and adjectives
Vouloumanos et al. Do 6‐month‐olds understand that speech can communicate?
WO2014038916A1 (en) System and method of controlling external apparatus connected with device
WO2013085320A1 (en) Method for providing foreign language acquirement and studying service based on context recognition using smart device
WO2016035933A1 (en) Display device and operating method therefor
WO2021251711A1 (en) Internet of things-based device and method for providing companion animal communication function, and user terminal
WO2016093552A2 (en) Terminal device and data processing method thereof
WO2013012159A1 (en) Intelligent information providing system and method
WO2020153614A1 (en) Method and platform for providing ai entities evolving via reinforced learning
WO2019006792A1 (en) Voice-controlled education method and system, mobile terminal, and storage medium
WO2023214740A1 (en) Audio output system and method
WO2015125983A1 (en) Mood-based music service system and method
WO2016190676A1 (en) Robot, smart block toy, and robot control system using same
WO2021118050A1 (en) Computer program for automatically editing highlights video
KR102296925B1 (en) Network broadcasting system
WO2016065878A1 (en) Electronic toy control system and method, electronic equipment content updating method
WO2023214739A1 (en) Audio output system and method
WO2023214742A1 (en) Audio output system and sound content change method thereof
WO2020213884A1 (en) Electronic device for providing text and control method therefor
WO2023075009A1 (en) System for player-merchandise customized through input signal control, and control method of server
KR20140131023A (en) Systeme for supplying image and sound of book reading
WO2017191995A1 (en) Chatting method and chatting system for language learning
WO2024085401A1 (en) Electronic device capable of proposing contextual behavior pattern and control method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23799623

Country of ref document: EP

Kind code of ref document: A1