WO2011102600A2 - Study terminal, learning contents generation method, study method, and recording medium thereof - Google Patents

Study terminal, learning contents generation method, study method, and recording medium thereof Download PDF

Info

Publication number
WO2011102600A2
WO2011102600A2 PCT/KR2010/009220 KR2010009220W WO2011102600A2 WO 2011102600 A2 WO2011102600 A2 WO 2011102600A2 KR 2010009220 W KR2010009220 W KR 2010009220W WO 2011102600 A2 WO2011102600 A2 WO 2011102600A2
Authority
WO
WIPO (PCT)
Prior art keywords
learning
image
input
area
terminal
Prior art date
Application number
PCT/KR2010/009220
Other languages
French (fr)
Korean (ko)
Other versions
WO2011102600A3 (en
Inventor
김도영
Original Assignee
(주)시누스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100015298A external-priority patent/KR101000463B1/en
Priority claimed from KR1020100095897A external-priority patent/KR101060281B1/en
Application filed by (주)시누스 filed Critical (주)시누스
Publication of WO2011102600A2 publication Critical patent/WO2011102600A2/en
Publication of WO2011102600A3 publication Critical patent/WO2011102600A3/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Definitions

  • the present invention relates to a learning terminal, a learning content generation method, a learning method, and a recording medium thereof, wherein the learning content generation method for a learning terminal for outputting learning material corresponding to a selected item among a plurality of items arranged on one image is output.
  • the present invention relates to a learning content generation method capable of easily generating content desired by a user, thereby broadening the learning range and inspiring learning motivation, and a terminal providing the same.
  • learning boards and painting boards have been used as a means for learning infants such as numbers, letters, words, and various objects. These are prints of images arranged with a large number of letters, numbers, or pictures, and because they are learning tools that depend only on the visual part, they have no effect on pronunciation learning and are difficult to attract attention of low concentration children.
  • learning board-type electronic terminals providing a more interactive learning method.
  • the present invention has been made to solve the above-mentioned conventional problems, and an object of the present invention is to select a specific area of an image in which a plurality of letters, numbers, pictures, etc. are arranged, and then select a letter, number, It is to provide a learning terminal that can enhance the learning effect by providing a learning terminal for outputting a voice related to a picture.
  • Another object of the present invention is to provide a learning content generation method that enables users to easily create learning content provided to users in a learning terminal.
  • Still another object of the present invention is to provide a learning content generation method that enables to create learning content using an image without being limited by the size or shape of an image in which letters, numbers, pictures, and the like are arranged.
  • step (d) comprises: (d1) assigning one piece of identification information to the image data; ; (d2) generating and storing a name of the learning content generated in step (c); And (d3) storing a correspondence between the identification information allocated in step (d1) and the name of the learning content generated in step (d2).
  • Learning terminal for displaying a digital or analog image arranged a plurality of items;
  • a touch sensing unit sensing a user's touch input applied to the image displayed on the image display unit;
  • a screen output unit configured to output data of a text, an image, or a video;
  • a voice output unit for outputting voice data;
  • a controller configured to calculate a position of the touch input sensed by the touch sensing unit and output learning data associated with an item corresponding to the position of the calculated touch input among the plurality of items arranged in the image.
  • the user may select one digital or analog image from the user, set a plurality of different areas in the selected image, receive the learning material corresponding to each set area, and generate the learning content corresponding to the selected image. have.
  • a learning file generating method for a learning terminal in which learning material corresponding to a selected item among a plurality of items arranged on one image is output.
  • Receiving a selection of at least one corresponding input area from among a plurality of preset input areas for each item in the image material consisting of one image in which items of? receives a designation of one or more learning material files corresponding to one or more input areas selected for each item in step (a); And (c) generating the corresponding relationship information between each input area and the learning data file into one learning file.
  • the learning method is a learning method using a learning terminal that outputs a learning material corresponding to a selected item among a plurality of items arranged on one image, (A) executing the selected learning file. Steps; (B) detecting a user input in any one of a plurality of preset input areas; (C) retrieving one or more designated learning material files corresponding to the input area where a user input is detected from the learning file; And (D) outputting one or more learning materials corresponding to the searched learning material files.
  • a computer-readable recording medium is installed in a learning terminal that outputs learning material corresponding to a selected item among a plurality of items arranged on one image, and causes the terminal to (1) Receiving a learning file; (2) interpreting the selected learning file and reading a learning material name corresponding to each preset input area in the learning file; (3) if the user input is detected, searching for a learning material name corresponding to the input area where the user input is detected; (4) searching for a corresponding learning material file in the data stored in the terminal with the found learning material name; And (5) playing the searched learning material file.
  • the learning terminal As described in detail above, according to the learning terminal, the learning content generation method, the learning method, and the recording medium according to the present invention, the following effects can be expected.
  • the learning effect can be enhanced by providing a learning terminal for outputting voices related to letters, numbers, and pictures corresponding to the selected area.
  • the learning terminal the learning content generating method, and the recording medium according to the present invention
  • the learning terminal provided to the user in the learning terminal can be easily made by the user, thereby enabling the user to perform a wider range of learning. have.
  • the learning content generation method, and the recording medium according to the present invention since the learning content using the image can be made without being limited by the size or shape of the image in which letters, numbers, pictures, etc. are arranged, various contents There is an advantage that can be utilized.
  • FIGS. 1A to 1C are perspective views illustrating a learning terminal according to an embodiment of the present invention.
  • Figure 1d is a perspective view showing a learning terminal according to another embodiment of the present invention.
  • Figure 2a is a block diagram schematically showing the configuration of a learning terminal according to an embodiment of the present invention.
  • Figure 2b is a block diagram showing the configuration of a computer for generating learning content of the learning terminal according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of generating learning content according to an exemplary embodiment of the present invention.
  • FIG. 4A is a flowchart illustrating a first embodiment for performing step 100 of the method of generating learning content shown in FIG. 3;
  • FIG. 4A is a flowchart illustrating a first embodiment for performing step 100 of the method of generating learning content shown in FIG. 3;
  • Fig. 4b is a flow chart showing more specifically the first embodiment of the 100th step for the analog image.
  • 4C and 4D illustrate screens in the case of setting an area according to the first embodiment of the 100th step for an analog image.
  • FIG. 5A is a flowchart illustrating a second embodiment for performing step 100 of the method of generating learning contents shown in FIG. 3;
  • FIG. 5A is a flowchart illustrating a second embodiment for performing step 100 of the method of generating learning contents shown in FIG. 3;
  • 5B and 5C are flowcharts illustrating in more detail a second embodiment of the 100th step for digital and analog images, respectively;
  • FIG. 5D is a screen example of setting an area according to the second embodiment of the 100th step shown in FIG. 5A.
  • FIG. 6A is a flowchart illustrating a first embodiment for performing step 200 of the method for generating learning contents shown in FIG. 3;
  • FIG. 6A is a flowchart illustrating a first embodiment for performing step 200 of the method for generating learning contents shown in FIG. 3;
  • FIG. 6B is an exemplary view of a screen in the case of allocating learning material according to the first embodiment of step 200 shown in FIG. 6A;
  • FIG. 7A is a flowchart illustrating a second embodiment for performing step 200 of the method of generating learning content shown in FIG. 3; FIG.
  • FIG. 7B illustrates an example of a screen for allocating learning material according to the second embodiment of step 200 of FIG. 7A.
  • step 400 is a flowchart illustrating a more specific embodiment of step 400 of the method of generating learning content illustrated in FIG. 3.
  • 9A is a flowchart illustrating a method of generating image data in a method of generating learning content according to an embodiment of the present invention.
  • FIG. 9B is a screen example of generating image data and learning content by the image data generating method shown in FIG. 9A; FIG.
  • FIG. 10 is a flowchart illustrating a learning method using learning contents generated by an embodiment of the present invention step by step.
  • FIG. 11 is a flowchart illustrating a method of generating a training file according to another embodiment of the present invention in a stepwise manner.
  • FIG. 12 is a diagram illustrating an embodiment of a training file generated by the training file generating method shown in FIG.
  • FIG. 13 is a flowchart illustrating a learning method step by step according to another embodiment of the present invention.
  • Audio output unit 15 Controller
  • control unit 230 display unit
  • TTS converter 270 storage
  • FIGS. 1A to 1C are perspective views illustrating a learning terminal according to an embodiment of the present invention.
  • the learning terminal 100 is provided with a screen output unit (10).
  • the screen output unit 10 is configured with display means such as an LCD (Liquid Crystal Display) to output a screen corresponding to the operation of the terminal.
  • LCD Liquid Crystal Display
  • the learning terminal 100 is provided with a voice output unit 11.
  • the voice output unit 11 is a speaker means for outputting the stored audio data according to the operation of the terminal.
  • the audio output unit 11 may output audio data related to the image data displayed on the screen output unit 10.
  • the learning terminal 100 is provided with a touch screen 12 for receiving a command or data from the user.
  • the touch screen 12 is formed by forming a touch panel on the front of the display means such as LCD.
  • Various screens may be displayed on the touch screen 12, and a user may input data or commands by touching one side of the screen with the stylus fan 13 or the like.
  • the touch screen 12 may display an image in which a plurality of letters, numbers, or pictures are arranged.
  • an image in which alphabets are arranged may be displayed as shown in the figure.
  • the screen 12 is partitioned into a plurality of preset input areas. Each input area of the plurality of input areas has a predetermined predetermined size and position.
  • the learning terminal 100 displays image data I on which the plurality of letters, numbers, or pictures are arranged for the user's learning on the touch screen 12.
  • each item of the image material I is arranged at a position corresponding to at least one of the plurality of input areas of the touch screen 12.
  • the image data I displayed through the touch screen 12 corresponds to a digital image stored in the learning terminal 100.
  • the learning materials related to the selected letters, numbers, or pictures are displayed on the screen output unit 10 or the like. It is output through the voice output unit 11.
  • the voice output unit 11 starts with 'ei' or letter A corresponding to the pronunciation of the letter A.
  • the pronunciation of any one of the English words may be output.
  • the screen output unit 10 may also output words or pictures related to the pronunciation output from the voice output unit 11.
  • the user can learn words, letters, numbers, pictures, multiplication tables, etc. arranged in the image material I through the learning terminal 100.
  • the learning terminal 100 may be implemented in various embodiments in addition to the embodiment shown in Figure 1a. As shown in FIG. 1B, another embodiment of the learning terminal 100 also includes the screen output unit 10 and the voice output unit 11. And image material I is displayed at the bottom, in this embodiment the image material I is provided as an analog image. That is, the image data I may be a printed matter or an image drawn by a user. Therefore, the learning terminal 100 may further include mechanical means for fixing or supporting such an analog image.
  • the learning terminal 100 illustrated in FIG. 1B includes a wireless signal transmitting means 23 as a means for detecting a user's touch input on a specific region of the image material I composed of an analog image.
  • the wireless signal transmission means 23 is provided with a contact recognition unit for sensing pressure at one end thereof, and a wireless signal transmission unit for transmitting infrared signals and ultrasonic signals when pressure is detected at the contact recognition unit. Accordingly, when the user touches a specific portion on the image material I using the wireless signal transmitting means 23, the infrared signal and the ultrasonic signal are transmitted by the wireless signal transmitting means 23.
  • the two ultrasonic receiving sensors S1 and the infrared receiving sensor S2 arranged at predetermined intervals on the learning terminal 100 detect the signal transmitted from the wireless signal transmitting means 23.
  • the learning terminal 100 uses the time required for receiving the ultrasonic signals from the two ultrasonic receiving sensors S1 from the time when the infrared signal is received by the infrared receiving sensor S2. 23) calculates respective distances between the position at which the signal is sent and the two ultrasonic receiving sensors S1.
  • the distance between the wireless signal transmitting means 23 and the ultrasonic wave receiving sensor S1 is calculated using the time when the ultrasonic wave reaches the two ultrasonic receiving sensors S1. do. If the calculated distance value and the distance value between the two ultrasonic receiving sensors S1 are used, the coordinates of the portion where the wireless signal transmitting means 23 touches the image material I may be calculated. Accordingly, the learning terminal 100 can know the coordinates of the position touched by the user on the image data I, and accordingly voice data corresponding to items such as letters, numbers, and pictures arranged at the corresponding coordinates Or text, images, etc. may be output through the voice output unit 11 and the screen output unit 10.
  • the user since the size, shape, etc. of the image data (I) in which letters, numbers, and pictures are arranged are less limited, the user directly draws the image data, or utilizes a printed material that he / she has. Can be used to create new image material.
  • the learning terminal 100 may be implemented in an embodiment as shown in FIG. 1C.
  • the learning terminal 100 includes a screen output unit 10 and a voice output unit 11.
  • the learning terminal 100 is provided with a touch panel 32 on the front to receive a touch input by a user's hand 33 or a stylus pen.
  • the touch panel 32 is formed to be transparent so that the image material I to be installed on the rear of the touch panel 32 can be seen from the front of the touch panel 32.
  • An insertion slot 35 may be provided to enable an analog image such as a printed matter to be displayed on the learning terminal 100 as image material I.
  • the image material I is installed in the learning terminal 100 through the insertion slot 35, the image material I is positioned on the rear surface of the touch panel 32.
  • the configuration of the insertion slot 35 is only one embodiment, and the learning terminal 100 may have any structure in which the image material I may be fixed to the rear surface of the touch panel 32. .
  • the learning terminal 100 is provided with a screen output unit 10 and a voice output unit (11).
  • the learning terminal 100 includes a panel in which a plurality of switches S that are energized when a pressure is applied by a user's hand or other means are arranged in a matrix form. On the panel image material I can be fixed in front of it.
  • the plurality of switches S may include, for example, two film layers coated with a conductive metal, or two conductive metal films, and further include an electromagnetic plate (PCB) in the form of a key matrix. May be In this case, when pressure is applied to a specific region of the image material I on the panel, the contact may be formed on the two film layers, and the driving may be performed in a manner in which electricity flows.
  • the switch S indicates each of a plurality of predetermined input regions on the two film layers coated with the conductive metal.
  • the learning materials corresponding to the input area corresponding to the portion to which the pressure is applied are output from the screen output unit 10 or the voice output unit 11.
  • the learning materials corresponding to the input area corresponding to the portion to which the pressure is applied are output from the screen output unit 10 or the voice output unit 11.
  • the alphabet A is input
  • a word starting with the alphabet A and a pronunciation of the word may be output from the screen output unit 10 and the voice output unit 11.
  • the image material I composed of a digital image or an analog image may be directly made by a user.
  • a digital image may be produced by synthesizing a plurality of image files, and an analog image may be freely created by drawing itself or copying or pasting another image.
  • the learning terminal 100 is freely made by the user. Regardless of the size of the image material I, the contents, the position of the item included in the image material, or the like, appropriate learning materials corresponding thereto may be provided in the learning terminal 100.
  • FIG. 2A is a block diagram schematically illustrating a configuration of a learning terminal according to an embodiment of the present invention.
  • the learning terminal 100 includes a controller 15 for the overall control of the terminal. 1A to 1D, the screen output unit 10 and the audio output unit 11 are included. Through the screen output unit 10 and / or the voice output unit 11, learning materials to be learned by the user are output as images, texts, and audio.
  • the learning terminal 100 includes an image display unit 16.
  • the image display unit 16 is a means for displaying analog or digital image data in which a plurality of letters, numbers, pictures, and the like are arranged on the learning terminal 100.
  • the image display unit 16 may be an electronic device such as the touch screen of FIG. It may be a means, but may be configured as a means for simply fixing or supporting the analog image as in the embodiment described with reference to FIG. 1B or 1C.
  • the analog image may be fixed, and at the same time, a means for sensing a user input including a matrix-type input area may be provided.
  • the learning terminal 100 includes a touch sensing unit 17.
  • the touch sensing unit 17 is a means for detecting a user's selection on the image material I, and may be provided by various means as described with reference to FIGS. 1A to 1C. That is, it may be a touch screen which outputs a digital image as shown in FIG. 1A, and a wireless signal transmitting means for transmitting a radio signal on an analog image as shown in FIG. 1B, and a radio signal transmitted by the radio signal transmitting means. It may include a sensor means for receiving. Alternatively, the touch panel may be provided on the analog image as shown in FIG. 1C. Furthermore, as shown in FIG. 1D, the switch may be a switch using a conductive metal film provided on the rear surface of the analog image.
  • the controller 15 is set to divide the entire area in which the touch sensing unit 17 can detect a user input into a plurality of input areas in a predetermined matrix form. Each of the plurality of input areas is preset in size and position. Each input area is assigned a unique identifier to distinguish it, so that the controller 15 can distinguish each input area.
  • the input area is designated as a default when the learning terminal 100 is manufactured, and the user may reset the input area by changing a position or size as necessary.
  • the controller 15 may sense the touch input using the touch sensing unit 17.
  • the controller 15 detects which of the plurality of input areas a position where a touch input of the user sensed using the touch sensor 17 corresponds to.
  • the controller 15 may sense the touch input using the touch sensing unit 17.
  • the controller 15 detects which of the plurality of input areas a position where a touch input of the user sensed using the touch sensor 17 corresponds to.
  • the learning terminal 100 is provided with a storage unit 18.
  • the storage unit 18 stores learning materials. That is, one item among a plurality of items such as letters, numbers, pictures, and the like arranged on the image material I displayed on the image display unit 16 is selected, and the controller 15 determines that the touch sensing unit ( The controller 15 detects the learning data corresponding to the selected item among the learning materials stored in the storage 18 through the screen output unit 10 or the voice output unit 11. Output Therefore, the storage unit 18 stores learning materials such as audio, video, text, and image to be output to the screen output unit 10 or the voice output unit 11.
  • the learning material may be an image, video, audio, text file, etc. for the items arranged in the image material (I).
  • various learning materials may be provided to be downloaded by using the website, and the learning materials generated by the users are uploaded to the website. This can facilitate the sharing of learning materials among users.
  • the learning terminal 100 may be connected to a network directly or through a device such as a computer to receive learning materials. Users can upload their own audio, image, video files, etc. to the website via the network.
  • a predetermined fee may be paid to the user who uploaded the learning materials.
  • the learning terminal 100 may be provided with a connection unit 19.
  • the connection unit 19 is a communication interface means for allowing the learning terminal 100 to be connected to a computer or another device. This may be provided for downloading data such as learning material from a computer or other device.
  • connection unit 19 may be connected to an external storage medium that can be selectively connected to the learning terminal 100.
  • the user connects the external storage medium storing the desired learning material file or the following learning file to the learning terminal 100 so that the learning material file or the learning file stored in the external storage medium is stored in the learning terminal 100.
  • the external storage medium storing the desired learning material file or the following learning file to the learning terminal 100 so that the learning material file or the learning file stored in the external storage medium is stored in the learning terminal 100.
  • Figure 2b is a block diagram showing the configuration of a computer for generating learning content of the learning terminal according to an embodiment of the present invention.
  • the learning terminal 100 is connected to the interface unit 210 of the computer 200 through the connection unit 19.
  • the computer 200 is an information processing device such as a general personal computer.
  • the computer 200 includes a control unit 220 for overall control of the computer 200 according to an operating system, a display unit 230 for outputting a result of the operation of the computer 200, and a user to the computer 200.
  • An input unit 240 for inputting a command or data is provided.
  • the display unit 230 may be an LCD monitor or the like, and the input unit 240 may be a conventional input means such as a keyboard or a mouse.
  • the voice input unit 250 may be provided in the computer 200.
  • the voice input unit 250 is a conventional microphone means, and detects a sound to be input by the user and converts it into a digital audio signal.
  • the computer 200 may be provided with a text-to-speech (TTS) converter 260. When the user inputs text through the input unit 240, the TTS converter 260 converts the text into an audio signal corresponding to the pronunciation of the text.
  • TTS text-to-speech
  • the computer 200 is provided with a storage unit 270.
  • the storage unit 270 stores the audio signal generated by the voice input unit 250 or the TTS converter 260, and stores data generated by a method of generating learning content, which will be described later.
  • a user may generate learning content corresponding to the image material I having a plurality of items arranged using learning materials including audio, text, or video materials. This may be downloaded to the terminal 100 through the interface unit 210.
  • a method of generating learning content for enabling a user to perform learning based on image data (I) having a plurality of items arranged using the learning terminal 100 as described above will be described. That is, a method of generating learning content provided through the learning terminal 100 will be described.
  • Such learning content may be directly generated by the learning terminal 100 or generated using the computer 200. It may be downloaded to the learning terminal 100.
  • step S100 of setting an area corresponding to each of a plurality of items arranged in a specific image material I on the image material I is performed. Starts from.
  • the step S100 is performed by setting the area where each item arranged in the image material I as a separate area, and the two-dimensional coordinate area corresponding to the position where the specific item is arranged on the image material I.
  • Each coordinate region is stored as a region corresponding to the item. For example, for an image data I having a coordinate of 100x100, a coordinate region from coordinates (0, 0) to coordinates (50, 100) is set as an area corresponding to one item, and coordinates (50, 100) By setting the area from to to the coordinates 100 and 100 as the area corresponding to the other item, the coordinate area corresponding to each item is set.
  • the step S100 may be performed differently depending on whether the image material I is configured as an analog image or a digital image, and may also be performed differently depending on an item arrangement method on the image material I and the like. Can be. This will be described in more detail later with reference to other drawings.
  • the step (S200) of mapping the learning material related to the item corresponding to each set area to each area is performed.
  • the step S 200 is performed by designating the learning material related to the item corresponding to the specific area for each area.
  • the learning material may be audio material such as voice or music and / or video material such as text or image. That is, for example, as shown in FIG. 1A, a coordinate region is set in each of the plurality of alphabet items arranged in the image material I, and is output when the user selects a coordinate region corresponding to the alphabet A.
  • FIG. Learning materials for example, as shown in the drawing, the English word 'Apple' starting with the letter A may be assigned as the learning material for the coordinate region corresponding to the letter A.
  • the learning materials associated with each alphabet are also assigned to each of the coordinate regions corresponding to the remaining alphabets.
  • the audio material may be materials stored in the learning terminal 100 or the computer 200 in advance, or the user may record or newly create data using the TTS conversion. May be As illustrated in FIG. 2B, the computer 200 may be provided with a voice input unit 250 and / or a TTS converter 260 to generate a new audio material. If the learning terminal 100 also includes means such as a voice input unit or a TTS converting unit, audio material may be allocated to an area corresponding to each item through the learning terminal 100.
  • the video learning material may also be materials stored in advance in the learning terminal 100 or the computer 200, or may be a digital image newly created by the user or downloaded through a network such as the Internet.
  • text directly input by a user may be assigned to each area as a learning material.
  • the learning content may include a range of coordinate areas corresponding to each item arranged in the image material I, audio and / or video learning materials corresponding to each area, and a correspondence relationship between each area and the learning material. It is a collection of data that it contains.
  • the generated learning content is stored in the learning terminal 100 or the computer 200 (S400), which image material I corresponds to the stored learning content, and its corresponding relationship is displayed.
  • the image material I is a digital image
  • the image material I may be stored together in the learning content.
  • the image material I is an analog image
  • the learning content is stored. It is indicated whether or not it corresponds to the image material (I).
  • step S 400 will also be described in more detail later.
  • FIG. 4A is a flowchart illustrating a first embodiment for performing step S100 of the method of generating learning content illustrated in FIG. 3, and FIG. 4B illustrates a first embodiment of the step S100 for an analog image in more detail.
  • 4C and 4D are diagrams illustrating screens when an area is set according to the first embodiment of step S100 for an analog image.
  • FIG. 5A is a flowchart illustrating a second embodiment for performing step S100 of the method of generating learning content illustrated in FIG. 3, and FIGS. 5B and 5C are diagrams illustrating steps S100 of digital and analog images, respectively.
  • FIG. 5D is a flowchart illustrating a second embodiment in more detail, and FIG. 5D is a screen example of setting an area according to the second embodiment of step S100 shown in FIG. 5A.
  • step S100 of FIG. 3 may be performed in various embodiments.
  • the first embodiment of the method starts from the step of providing a plurality of predetermined region division schemes as shown in FIG. 4A (S101). That is, the controller 15 of the learning terminal 100 or the controller 220 of the computer 200 may provide any one of a plurality of region division schemes set in advance.
  • the controller ( 15) or the controller 220 provides both methods to the user, so that the user selects either of them.
  • the image material (I) used to generate the learning content is composed of items arranged in respective regions divided into three quarters and three quarters, the user can arrange three sections horizontally and vertically. Allows you to choose how to divide the area into three parts.
  • the region division scheme has been described with only two relatively simple schemes provided, but in practice, various region division schemes may be provided so that each region may be set in a wide variety of ways.
  • each divided area according to the selected method is set as an area corresponding to each item (S103).
  • each coordinate of the image data I is divided into two horizontal and two vertical portions. It is set to be divided into four groups.
  • step S100 described with reference to FIG. 4A may be implemented both when the image data I is a digital image and when it is an analog image.
  • the first embodiment is performed through more specific steps as shown in FIG. 4B.
  • a plurality of predetermined area division schemes are provided (S111), and the user selects one area division scheme corresponding to the arrangement of items of the analog image (S112).
  • the user may perform one of the plurality of region division methods provided in step S111 as shown in FIG. 4C. Select the division method of the shape that corresponds to 5 horizontal divisions and 5 vertical divisions.
  • the user may input the horizontal and vertical lengths of the analog image to be used for generating the learning content (S113).
  • step S113 the user inputs the horizontal and vertical lengths of the actual analog image, so that the learning terminal 100 or the computer 200 can generate the entire coordinate region corresponding to the actual image.
  • the area division method selected in operation S112 is applied to the entire area corresponding to the analog image size input from the user to calculate the size and position of each area divided in the entire area. For example, when the learning content is generated using an analog image of 50 cm x 50 cm as the image material (I) as shown in FIG. Twenty-five areas of 10 cm length are calculated as areas corresponding to each item.
  • the divided regions are set as regions corresponding to each item arranged in the image data according to the size and position information of each region calculated as described above (S115).
  • a process of providing a plurality of predetermined region division methods, and the user selecting one of them, as shown in FIG. 4D is the number of horizontal and vertical divisions of image data. It may be provided by directly inputting. Accordingly, the quadrangular image divided according to the number of divisions selected by the user may be displayed as shown in FIG. 4C.
  • the user wants to create on the display unit 230 of the computer 200 or the screen output unit 10 of the learning terminal 100
  • the digital sample image of the image material I corresponding to the learning content is displayed starts at step S151 (S151).
  • the digital sample image may be the digital image itself to be used as the image material I or reduced.
  • a digital sample image refers to an analog image that is scanned or photographed and converted into digital data. That is, the digital sample image having the same shape as the analog image to be used as the image material I may be a digital sample image.
  • step S151 When the digital sample image is displayed in step S151, the user visually checks a plurality of items shown in the digital sample image and drags and selects an area corresponding to each item according to the arrangement of the items ( S152).
  • each area selected by the drag input is set as an area corresponding to each item (S153).
  • step S100 may be performed differently according to the case where the image data I is a digital image and an analog image, as described above. If the image data I corresponds to the digital image as described above, step S161 of selecting one of the pre-stored digital images is performed.
  • the learning terminal 100 When the learning terminal 100 provides a method for generating learning content, one of the digital images stored in the learning terminal 100 may be selected to generate corresponding learning content, and the computer 200 may generate the learning content corresponding thereto. When a learning content generation method is provided, one of the digital images stored in the computer 200 may be selected to generate learning content corresponding thereto, and downloaded to the learning terminal 100.
  • a sample image of the selected digital image is displayed on the display unit 230 of the computer 200 or the screen output unit 10 of the learning terminal 100 ( S162).
  • the sample image may be the selected digital image as it is, or an enlargement or reduction thereof.
  • the user selects a partial area of the sample image displayed as the drag input.
  • the user can appropriately select a region in which any one item among the plurality of items arranged on one digital image selected as the image material I is arranged (S163).
  • each area corresponding to each item can be freely selected.
  • the controller 15 of the learning terminal 100 or the controller 220 of the computer 200 calculates and stores the size and position of the selected region. (S164). Accordingly, each region selected by the user through the drag input is set as an region corresponding to the item (S165).
  • the analog image is used as the image material (I)
  • the learning terminal 100 or the computer 200 to store and display it (S172) is performed.
  • the process of generating a digital image sample for the analog image may be performed by cutting out an unnecessary portion of the digital image generated by photographing or scanning the analog image with a digital camera and not corresponding to the analog image.
  • the user may receive the size of the analog image corresponding to the digital image sample displayed in step S172 (S173). That is, the horizontal and vertical lengths of the analog images are input, so that the computer 200 or the learning terminal 100 knows the total area of the analog image.
  • the user receives a drag input for a specific area on the digital image sample displayed in operation S172 to select a partial region of the digital image sample.
  • the size and position information of the actual analog image corresponding to the partial region of the digital image sample selected in operation S174 may be calculated and stored. That is, the size and position of the selected area are calculated by using the horizontal and vertical lengths of the actual analog image input in step S173. Since the ratio of the width and height of the digital image sample will be the same as or slightly smaller than the ratio of the width and height of the actual analog image, selecting some areas of the digital image sample will give the actual analog image the size and position of the selected area. The size and position of the corresponding region in the image may be calculated.
  • each stored area is set as an area corresponding to each item arranged in the analog image (S176).
  • step S173 for receiving the size of the image does not need to be performed.
  • FIG. 5D An example of performing the step S100 according to the second embodiment as described above will be described with reference to FIG. 5D.
  • the screen output unit of the display unit 230 or the learning terminal 100 of the computer 200 is described.
  • a digital image sample of the image material I is displayed. Accordingly, the user selects by dragging or touch dragging a specific area of the displayed digital image sample. As shown in the drawing, only an area corresponding to a specific item may be selectively set on a digital image sample in which several items are irregularly arranged.
  • a user interface for inputting the horizontal and vertical lengths of the image may be provided together so that the user may input the size of the actual analog image.
  • the area selected by the user may be set as an area corresponding to the item on the image material I, and input learning material such as voice or text corresponding thereto. That is, the user may repeatedly select a specific area and input a corresponding learning material.
  • FIGS. 6A and 7A are flowcharts illustrating a first embodiment and a second embodiment step by step for performing step S200 of the method for generating learning content illustrated in FIG. 3, respectively.
  • FIGS. 6B and 7B are FIGS. 6A and 7B, respectively.
  • 7A is a screen diagram illustrating an example of allocating learning material according to the first and second embodiments of step S200 shown in FIG. 7A.
  • the process of allocating the learning materials for each item corresponding to the plurality of areas set on the image material I includes selecting one area (S210) and corresponding to the selected area. Input the audio data associated with the item or select one of the stored voice data to correspond to the selected area (S220). In addition, in step S220, only when the learning terminal 100 or the computer 200 provides a TTS conversion function, voice data may be input as text.
  • step S230 text related to an item selected by the learning terminal 100 may be displayed when the text data related to the item corresponding to the selected area is input by using the learning terminal 100.
  • Both the step S220 and the step S230 may be performed, or only one of them may be selectively performed.
  • the learning material may be image data or video data, in addition to audio data or text data, and each of these data may be selectively input by the user.
  • the display unit 230 of the computer 200 or in the case of generating the learning content in the learning terminal 100, is set in the image material I in the screen output unit 10.
  • a plurality of areas is displayed.
  • a plurality of regions divided according to a plurality of predetermined region division schemes are schematically displayed, or each region determined by a drag input by the user is displayed on the digital image sample.
  • a user interface for inputting or selecting learning materials related to an item corresponding to the corresponding area is provided.
  • voice data corresponding to the selected area may be input by directly recording and inputting voice data, selecting prestored voice data, or generating text data by performing TTS conversion after text input.
  • text data related to an item corresponding to the selected area may be input.
  • the voice data including the pronunciation of the word 'lion' or the word 'lion' with the initial consonant of ' ⁇ ' as the voice material may be allocated to the corresponding area as the learning material.
  • 'textured' or 'lion' may be assigned as text data, and an image related to a lion may be assigned to the corresponding area as learning data.
  • step S200 as shown in FIG. 7A also starts from step S250 in which one area of the set area is selected.
  • the user may input first learning data corresponding to the first input with respect to the area selected in operation S250.
  • the first input means any one of a plurality of input methods.
  • the learning terminal 100 detects a user's touch input and outputs learning data related to an item corresponding to an area where the touch input is detected. Can be performed. Only one short touch input may be detected within a specific area, one long touch input over a predetermined time may be detected, and two touch inputs may be detected within a predetermined time. In addition, a touch input input in a specific direction within a specific area may be detected, or a touch input input in a shape corresponding to a specific shape may be detected.
  • the controller 15 of the learning terminal 100 may recognize a pattern of a signal input from the touch sensing unit 17 and recognize a touch input as a different command according to the input pattern. Accordingly, the controller 15 may be preprogrammed to recognize the first input, the second input, and the like of the predetermined pattern as different commands.
  • the first input may be a touch input corresponding to one predetermined input pattern among various touch input patterns, and may be an operation of touching a specific region once within a predetermined time.
  • the learning data to be output when the first input is detected in the specific region selected in step S250 is input in step S260.
  • the learning material may be a voice material or may be a material such as an image, text, or video.
  • another learning material corresponding to the second input is input.
  • the second input may also be preset as a touch input corresponding to any one input pattern among various touch input patterns as one touch input having a pattern different from the first input.
  • the learning data input corresponding to the second input is another learning material which is distinguished from the first learning data input corresponding to the first input.
  • the first learning material is a voice material
  • the second learning material may be text data. In this way, the step S200 is performed by designating both learning materials corresponding to the first input and the second input for each area.
  • a plurality of areas set as shown in Figure 7b is displayed, the user can select any one of them.
  • a plurality of regions are displayed, only relative positions and sizes of each region may be schematically displayed as illustrated in FIG. 6B, and as shown in FIG. 7B, a digital image sample image for the image material I may be displayed. Each divided area may be displayed.
  • the learning material related to the item ' ⁇ ' corresponding to the selected region is received.
  • learning materials are input separately according to the input method. That is, the voice data 'siot' and the text data 'siot' may be allocated as the learning data to be output when the corresponding area is touched briefly, and the learning data to be output when the corresponding area is touched once long may be allocated separately. .
  • the learning material to be output when the user touches the area twice twice may be separately allocated. Accordingly, when all the learning materials are allocated to each of the plurality of regions, the learning contents can be generated by storing them.
  • FIG. 8 is a flowchart illustrating a more exemplary embodiment of step S400 of the method of generating learning content illustrated in FIG. 3. Referring to FIG. 8, a process of displaying and storing a corresponding relationship with the image material I in the learning content generating method illustrated in FIG. 3 will be described.
  • the learning content generated by the learning content generating method is based on the image material (I). That is, when a user selects any one of a plurality of items arranged in the image material I displayed on the terminal 100, in order to generate the learning content for outputting the learning material corresponding to the item, a specific image is first generated. Data (I) should be selected. Thus, each of the generated learning contents corresponds to one image material (I). For each learning content generated for this purpose, a correspondence with each image material I is displayed.
  • identification information is allocated to the image material I corresponding to the learning content to be generated. For example, when the image data I corresponds to a digital image, step S410 is performed by allocating a file name already assigned to the digital image as identification information or allocating a new file name.
  • identification information including at least one of a number, a letter, and a pattern is assigned to the analog image.
  • an identification number may be assigned to the analog image, or an identification pattern that may be displayed at a specific position of the analog image may be assigned.
  • a pattern recognition means for recognizing the identification pattern is separately disposed on the learning terminal 100, and the pattern recognition when the analog image is installed in the learning terminal 100.
  • the identification pattern is located at a position corresponding to the position of the means so that the pattern recognition means can read the identification pattern.
  • the identification pattern may be generated by displaying a portion of the plurality of squares drawn at a predetermined position in black and the others in white. In the case of four squares, the number of two or four , that is, 16 different cases may be represented from the case where all four rectangles are displayed in white, to the case where all the rectangles are displayed in black.
  • the image of the identification pattern is output on the screen, so that the user can directly display the same pattern as the identification pattern output on the screen in a specific area of the analog image.
  • the learning content is generated and stored under the determined name (S430).
  • the name of the learning content is input from the user or automatically determined. It may be determined by a name associated with the identification information assigned to the image material (I).
  • the learning content includes a location of each area set on the image material I, learning materials corresponding to each area, and a corresponding relationship between each area and the learning materials. That is, area information corresponding to each item arranged in the image data I, learning materials such as voice, text, image, and video, and their corresponding relations are stored together.
  • the correspondence between the image data I and the learning content is stored (S440). That is, it stores with the learning content whether the specific learning content is based on what image material (I). For this purpose, the correspondence between the identification information assigned to the image data I and the name of the learning content is stored.
  • the step S440 is not necessarily a step to be performed. For example, if the identification information allocated to the image material I is used as the name of the learning content corresponding thereto, there is no need to store a separate correspondence relationship.
  • the image material (I) when the image material (I) is a digital image from above, the image material (I) may be stored together in the learning content without additional identification information.
  • FIG. 9A is a flowchart illustrating a method of generating image data in a method of generating learning content according to an embodiment of the present invention.
  • FIG. 9B is a diagram illustrating image data and learning content generated by the method of generating image data shown in FIG. 9A.
  • the screen is an example of the case.
  • FIG. 9A One example of a method of generating image material as shown in FIG. 9A is limited to the case of using a digital image as the image material I. In addition, this is only one embodiment of the image data generating method that can be additionally performed in the embodiment of the present invention and image data may be generated by other methods.
  • an embodiment for generating image data starts with the step of providing a plurality of predetermined region division schemes (S500).
  • various region division schemes predetermined in the learning terminal 100 or the computer 200 are provided to the user, and any one of the provided schemes is selected by the user (S510).
  • Each divided area is displayed on the screen according to the selected method, and the user selects one area on the displayed screen to select an image of an item to be displayed on the corresponding area (S520).
  • FIG. 9B when the user selects a horizontal 4-split or vertical 4-split scheme among a plurality of predetermined region division schemes, an image of the divided regions is shown on one side of the screen, and the user divides the screen.
  • the selected 16 areas may be sequentially selected to select an image of an item to be displayed in the corresponding area.
  • each region where the items are arranged may be set as the region set by performing step S100 of FIG.
  • the corresponding learning materials corresponding to the corresponding areas can be matched together, so that each step for image generation, area setting, and learning material allocation can be performed in parallel at the same time.
  • Embodiments of the method for generating learning content according to the present invention as described above may be performed in the learning terminal 100 or the computer 200 as described above, and for this purpose, the learning terminal 100 or the computer ( 200 includes display means for screen display, input means for receiving a command or data from a user, and the like.
  • the learning terminal 100 or the computer includes display means for screen display, input means for receiving a command or data from a user, and the like.
  • a learning content generating program is stored in the learning terminal 100 or the computer 200.
  • the controller 15 or the controller 230 may execute this.
  • the computer 200 In the case of generating the learning content in the computer 200, if the computer 200 is provided with a communication module, the user can access the Internet using the communication module, and various image and audio materials necessary for generating the learning content can be easily There is also an advantage that can be obtained easily.
  • an Internet server for sharing the learning content used in the learning terminal 100 a plurality of users upload and download their own self-produced learning content to each other, so that each user can learn a wide variety of learning content. It can also be used.
  • the internet server may provide various items for generating learning content.
  • 10 is a flowchart illustrating a learning method using learning content generated by an embodiment of the present invention in stages.
  • a specific image material I is selected by the user and displayed (S900). Is begun.
  • the user may select one of the one or more image materials I stored in the learning terminal 100, and the selected image material I may be displayed.
  • the image data I is an analog image
  • the user may select a specific analog image and install it on the learning terminal 100.
  • the analog image since the setting area of each item stored in the learning terminal 100 and the corresponding area of the actual analog image must correspond, the analog image can be installed according to a specific reference point of the learning terminal 100.
  • the terminal as shown in FIG. 1B may display a reference point between the two ultrasonic receiving sensors S1 to allow the user to center the upper side of the analog image.
  • the controller 15 of the learning terminal 100 searches for learning content corresponding to the image material I among the stored learning content (S910).
  • the controller 15 may recognize the learning content corresponding to the selected digital image.
  • the corresponding learning content is selected by the user, The identification information displayed in the specific area may be read and the learning content corresponding thereto may be searched for.
  • the user waits for a user's touch input (S920).
  • a user's touch input to a specific area of the image material I (S930)
  • the learning material related to the item corresponding to the corresponding area is displayed.
  • Search S940. That is, since the learning content includes all of the plurality of learning materials and the corresponding relationship between each area and the learning material, the learning content corresponding to the area where the user's touch input is sensed can be searched.
  • the controller 15 touches not only the touch input position of the user but also the touch.
  • the learning pattern corresponding to the touch input pattern may be output by calculating the input pattern.
  • FIG. 11 is a flowchart illustrating a method of generating a training file according to another embodiment of the present invention.
  • FIG. 12 is a diagram illustrating an example of a training file generated by the training file generating method of FIG. 11. to be.
  • the learning file may be assigned to each command assigned to be executed when a user input is detected as a corresponding input area for each of a plurality of preset input areas among all areas in which the touch sensing unit 17 can detect a user input.
  • Data file containing the mapping That is, the learning file includes data representing a correspondence relationship between a command allocated to a plurality of input areas and the learning material to be output from the learning terminal 100 in response to the command.
  • the touch sensing unit 17 allocates one or more commands corresponding to each of a plurality of preset input areas among all areas in which the touch sensing unit 17 can detect a user input. It starts from step S1100.
  • the step S1100 is performed by allocating a command corresponding to each preset input area. For example, as shown in FIG. 1D, when 20 input areas of 5 rows and 4 columns are preset, the first command is allocated to the four input areas included in the first row, and the four commands included in the second row.
  • the second command may be allocated to two input areas. That is, it is not necessary to allocate different commands to each input area, but the same command may be allocated to a plurality of input areas. In addition, it is not necessary to assign a command to all input areas, and a command may be assigned to only some of them.
  • the training data to be output corresponding to each command is designated. That is, for example, audio, video, text, or image data to be output is designated in response to one command.
  • 20 input regions of 5 rows and 4 columns are preset, and a first command is assigned to four input regions included in the first row, and four input regions included in the second row are assigned.
  • the fourth instruction in clause 4 and the fifth instruction in clause 5 one or more learning material files corresponding to the first instruction can be designated. According to this, when a user input is detected in any one of the four input areas included in the first row, the designated learning data file may be output.
  • one learning file including a command allocated to each input area and a learning material file name corresponding to each command is generated.
  • the learning file generated in step S1120 includes a corresponding relationship between each input area and each command, and a corresponding relationship between each command and the learning data file name.
  • the learning file includes a matrix, such as an Excel file generated by an application program such as Microsoft Office Excel, and each element of the matrix represents a preset input area, and the name of a command corresponding to each input area.
  • Each of these matrices is written, and contains the name of the command and a list of correspondences of the files to be output.
  • the learning file when there are 80 preset input areas in total of 10 rows and 8 columns, the learning file includes a matrix of 10 rows and 8 columns, and each region of the matrix has a name of each command. Is written. That is, the same command A is assigned to all four input regions in the upper left corner of the matrix. Command A is a command to output the audio file a.mp3. Therefore, in this case, when the user detects a user input in any one of the plurality of input areas, the audio file a.mp3 is output in response to the command A.
  • the learning material file name may be directly written in each matrix. In FIG. 12, only one learning material file corresponds to each command, but a plurality of learning material files may be designated for one command. For example, one voice file and one image file may be designated in correspondence to one command.
  • Such a learning file serves to determine a correspondence relationship between each input area of the touch sensing unit 17 of the learning terminal 100 and the learning data files associated with each item arranged in the image material I. do. To this end, the controller 15 interprets the data included in the learning file as shown in FIG. 12, and when the user input is detected in each input area of the touch sensing unit 17, the learning material corresponding to the corresponding input area. You can run an application that retrieves and prints files.
  • the user executes the learning file corresponding to the image material I displayed on the learning terminal 100 with the application program so that appropriate learning material related to the items arranged in the image material I can be output. .
  • each item arranged in the image material I is input to any one of the plurality of input areas while the image material I is installed in the learning terminal 100. After checking whether it is arranged at a location corresponding to the area, a command for outputting learning data related to the item is allocated to the input area at the location corresponding to the specific item.
  • the learning file may be generated by a document editing program such as an Excel program on a computer, downloaded to the learning terminal 100, or may be generated as a separate dedicated program.
  • the learning terminal 100 may be generated directly.
  • the screen output unit 10 receives a list of files stored in the storage unit 18. By selecting one or more of the files, a file corresponding to each input area may be allocated.
  • the user directly selects each input area and then records and stores the voice file to be output when the corresponding input area is selected. You can also create
  • the controller 15 executes the data, and analyzes the data included in the learning file to search for the learning data file corresponding to the input area when a user input is detected in each input area of the touch sensing unit 17.
  • the outputting application may operate in other ways. That is, when a user input is detected in a specific input area of the touch sensing unit 17, the operation of searching for and outputting a learning material file corresponding to the input area is reversed. After outputting, it may be operated by monitoring whether the user selects a corresponding input area accordingly and outputting the result.
  • a plurality of input areas of the touch sensing unit 17 and corresponding learning are provided, such as finding and inputting all input areas set to output the same learning material to the user, or sequentially selecting the input areas to make a specific word. It can provide a variety of possible learning methods that can be used with the material.
  • the learning file is generated by the method as shown in FIG. 11, with respect to different image data I, the corresponding learning according to the position of each item arranged in the image material I and the meaning of each item corresponding thereto. Since the data can be properly allocated, the utilization of the learning terminal 100 can be widened.
  • the size of the image data I or the data is arranged in the image data I. Even if the items are different from each other, the input area and corresponding learning materials can be designated so that learning materials related to the items included in the image data can be output. There is an advantage.
  • FIG. 13 is a flowchart illustrating a learning method step by step according to another embodiment of the present invention.
  • the learning method according to another embodiment of the present invention starts from step S1300 in which image material I is displayed on the learning terminal 100.
  • step S1300 in which image material I is displayed on the learning terminal 100.
  • the image material I can be replaced, but also the respective input areas of the touch sensing unit 17 by the learning file. Since it is possible to change the command to be performed corresponding to the, in step S1300 it is possible to replace the various image data (I).
  • the image may be displayed as a digital image or an analog image according to a sensing method of a user input of the learning terminal 100.
  • step S1310 of executing the learning file corresponding to the displayed image material I is performed.
  • the controller 15 analyzes the data included in the learning file and detects a correspondence between a command corresponding to each input area and a learning material file corresponding to each command.
  • the controller 15 sensed by the sensing unit 17 and the controller 15 executes a command corresponding to the input area where the user's input is sensed based on the contents of the learning file currently being executed.
  • the command corresponding to the input area in which the user input is detected may be searched in the storage unit 18 for the learning data file whose file name is stored in the learning file in advance in correspondence with the corresponding input area. It is output to the voice output unit 11.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a method for generating learning contents and a terminal which provides same. The present invention provides a learning contents generation method for a study terminal which outputs learning data corresponding to an item selected from a plurality of items on an image, the method comprising the steps of: (a) setting regions corresponding to each item arranged on said one image, relative to image data formed with the one image on which the plurality of items are arranged; (b) matching each region with learning data related to the items corresponding to each region set in step (a); (c) generating one learning content by using the learning data corresponding to each region in step (b); and (d) displaying and storing the matched relationship between the generated learning content and the image data. Thus, according to the present invention, effective learning is increased and users are able to easily create learning contents, whereby the users may learn in a more diverse range. Further, since the learning contents using images are generated without restrictions on size, shape or the like of the images, it is possible to use various contents.

Description

학습 단말기, 학습 컨텐츠 생성방법, 학습 방법 및 그 기록 매체Learning terminal, learning content generation method, learning method and recording medium thereof
본 발명은 학습 단말기, 학습 컨텐츠 생성방법, 학습 방법 및 그 기록 매체에 관한 것으로서, 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 위한 학습 컨텐츠 생성방법에 있어서, 사용자가 원하는 컨텐츠를 용이하게 생성할 수 있도록 함으로써 학습 범위를 넓히고 학습 의욕을 고취시킬 수 있는 학습 컨텐츠 생성방법 및 이를 제공하는 단말기에 관한 것이다.The present invention relates to a learning terminal, a learning content generation method, a learning method, and a recording medium thereof, wherein the learning content generation method for a learning terminal for outputting learning material corresponding to a selected item among a plurality of items arranged on one image is output. The present invention relates to a learning content generation method capable of easily generating content desired by a user, thereby broadening the learning range and inspiring learning motivation, and a terminal providing the same.
유아에게 숫자나 문자, 단어, 각종 사물 등을 학습시키기 위한 수단으로써 전통적으로 학습판이나 그림판 등이 사용되어져 왔다. 이들은 다수의 문자, 숫자 또는 그림 등을 배열한 이미지의 인쇄물로서, 시각적인 부분에만 의존하는 학습도구이기 때문에, 발음 학습에는 효과가 없었고 집중력이 낮은 유아들의 주의를 끌기 어려워 학습효과 또한 크지 않았다. Traditionally, learning boards and painting boards have been used as a means for learning infants such as numbers, letters, words, and various objects. These are prints of images arranged with a large number of letters, numbers, or pictures, and because they are learning tools that depend only on the visual part, they have no effect on pronunciation learning and are difficult to attract attention of low concentration children.
한편 이와 같은 기존의 학습판의 단점을 해결하기 위하여 보다 상호적인 학습 방식을 제공하는 학습판 형식의 전자 단말기들이 개발되어 사용되고 있다. 복수의 문자나 숫자, 그림 등이 배열된 이미지의 특정 부분을 사용자가 누르면, 눌러진 부분에 대응하는 문자나 숫자, 그림과 관련된 음성이나 멜로디 등이 출력되는 단말기들이 사용되고 있다. 예를 들어 문자나 숫자, 그림 등이 배열된 이미지를 포함하는 학습판의 저면에 도전성 물질이 도포된 여러 층을 배열하여 사용자의 입력을 감지하는 방식으로 단말기를 개발하여 기존의 학습판을 대체할 수 있게 되었다. On the other hand, in order to solve the disadvantages of the existing learning board, learning board-type electronic terminals providing a more interactive learning method have been developed and used. When a user presses a specific part of an image in which a plurality of letters, numbers, pictures, etc. are arranged, terminals that output voices, melodies, etc. corresponding to the pressed part are output. For example, it is possible to replace the existing learning board by developing a terminal by arranging several layers coated with a conductive material on the bottom of the learning board including an image in which letters, numbers, and pictures are arranged to sense user input. It became.
그러나 이와 같은 전자 단말기 형태의 학습판을 사용하더라도, 단말기 구입시 제공되는 이미지 이외에 다른 문자나 숫자, 그림 등을 포함하는 이미지는 제공받기 어렵기 때문에, 각 사용자마다 관심분야가 매우 다름에도 불구하고, 그에 맞는 학습 내용을 사용자들에게 학습시키기 어렵다는 문제점이 있었다. However, even when using the learning board in the form of an electronic terminal, it is difficult to provide an image including other letters, numbers, pictures, etc. in addition to the image provided when the terminal is purchased. There was a problem that it is difficult to learn the correct learning content to users.
나아가 다양한 학습 자료를 활용하기 위해서 사용자가 직접 그림판에 배열된 아이템과 학습 자료들, 입력 수단의 사이의 대응 관계를 변경하기가 용이하지 않다는 문제점이 있었다.Furthermore, in order to utilize various learning materials, there is a problem that it is not easy for the user to directly change the correspondence between the items arranged on the paint board, the learning materials, and the input means.
또한 특정 회사에서 생성된 학습판 이미지들을 다른 회사에서 제조된 단말기에서 사용할 수 없다는 문제점도 있었다. In addition, there was a problem that the learning image generated by a specific company can not be used in a terminal manufactured by another company.
따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 복수의 문자, 숫자, 그림 등이 배열된 이미지의 특정 영역을 선택하면 선택된 영역에 대응하는 문자, 숫자, 그림에 관련된 음성이 출력되도록 하는 학습 단말기를 제공함으로써 학습 효과를 높일 수 있는 학습 단말기를 제공하는 것이다.Accordingly, the present invention has been made to solve the above-mentioned conventional problems, and an object of the present invention is to select a specific area of an image in which a plurality of letters, numbers, pictures, etc. are arranged, and then select a letter, number, It is to provide a learning terminal that can enhance the learning effect by providing a learning terminal for outputting a voice related to a picture.
본 발명의 다른 목적은, 학습 단말기에서 사용자들에게 제공되는 학습 컨텐츠를 사용자들이 용이하게 만들 수 있도록 하는 학습 컨텐츠 생성방법을 제공하는 것이다.Another object of the present invention is to provide a learning content generation method that enables users to easily create learning content provided to users in a learning terminal.
본 발명의 또 다른 목적은, 문자, 숫자, 그림 등이 배열된 이미지의 크기나 모양 등의 제한을 받지 않고 이미지를 이용한 학습 컨텐츠를 만들 수 있도록 하는 학습 컨텐츠 생성방법을 제공하는 것이다. Still another object of the present invention is to provide a learning content generation method that enables to create learning content using an image without being limited by the size or shape of an image in which letters, numbers, pictures, and the like are arranged.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 실시예에 따른 학습 컨텐츠 생성방법은, 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 위한 학습 컨텐츠 생성방법에 있어서, (a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에 대하여 상기 이미지에 배열된 각 아이템에 대응되는 영역을 설정하는 단계와; (b)상기 (a)단계에서 설정된 각 영역에 대응하는 아이템과 관련된 학습자료를 각 영역에 대응시키는 단계와; (c)상기 (b)단계에서 각 영역에 대응된 학습자료들을 이용하여 하나의 학습 컨텐츠를 생성하는 단계; 그리고 (d)생성된 학습 컨텐츠와 상기 이미지자료와의 대응관계를 표시하여 저장하는 단계를 포함하여 구성되고, 상기 (d)단계는 (d1)상기 이미지자료에 하나의 식별정보를 할당하는 단계와; (d2)상기 (c)단계에서 생성된 학습 컨텐츠의 이름을 생성하여 저장하는 단계; 그리고 (d3)상기 (d1)단계에서 할당된 식별정보와 상기 (d2)단계에서 생성된 학습 컨텐츠의 이름 사이의 대응관계를 저장하는 단계를 포함하여 구성될 수 있다.Learning content generation method according to an embodiment of the present invention for achieving the above object, generation of learning content for the learning terminal outputs the learning material corresponding to the selected item of the plurality of items arranged on one image A method comprising the steps of: (a) setting an area corresponding to each item arranged in an image with respect to image data consisting of one image arranged with a plurality of items; (b) mapping the learning material associated with the item corresponding to each area set in step (a) to each area; (c) generating one learning content using the learning materials corresponding to each area in step (b); And (d) displaying and storing a corresponding relationship between the generated learning content and the image data, wherein step (d) comprises: (d1) assigning one piece of identification information to the image data; ; (d2) generating and storing a name of the learning content generated in step (c); And (d3) storing a correspondence between the identification information allocated in step (d1) and the name of the learning content generated in step (d2).
본 발명의 실시예에 따른 학습용 단말기는 복수의 아이템이 배열된 디지털 또는 아날로그 이미지가 표시되는 이미지 디스플레이부와; 상기 이미지 디스플레이부에 표시된 이미지 상에 가해지는 사용자의 터치입력을 감지하는 터치감지부와; 텍스트, 이미지, 또는 동영상의 데이터를 출력하는 화면출력부와; 음성 데이터를 출력하는 음성출력부; 그리고 상기 터치감지부에서 감지한 터치입력의 위치를 연산하여 상기 이미지에 배열된 복수의 아이템 중 연산된 터치입력의 위치에 대응하는 아이템과 관련된 학습자료를 출력하는 컨트롤러를 포함하여 구성되고, 상기 컨트롤러는 사용자로부터 하나의 디지털 또는 아날로그 이미지를 선택받고, 선택받은 이미지에 복수의 서로 다른 영역을 설정하여, 설정된 각 영역에 대응하는 학습자료를 입력받아, 선택받은 이미지에 대응하는 학습 컨텐츠를 생성할 수 있다.Learning terminal according to an embodiment of the present invention and the image display unit for displaying a digital or analog image arranged a plurality of items; A touch sensing unit sensing a user's touch input applied to the image displayed on the image display unit; A screen output unit configured to output data of a text, an image, or a video; A voice output unit for outputting voice data; And a controller configured to calculate a position of the touch input sensed by the touch sensing unit and output learning data associated with an item corresponding to the position of the calculated touch input among the plurality of items arranged in the image. The user may select one digital or analog image from the user, set a plurality of different areas in the selected image, receive the learning material corresponding to each set area, and generate the learning content corresponding to the selected image. have.
본 발명의 또 다른 실시예에 따른 학습파일 생성방법은 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 위한 학습파일 생성방법에 있어서, (a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에서 상기 각 아이템에 대하여, 미리 설정된 복수의 입력영역 중 대응하는 하나 이상의 입력영역의 선택을 수신하는 단계와; (b)상기 (a)단계에서 각 아이템에 대해 선택된 하나 이상의 입력영역에 대응하는 하나 이상의 학습자료 파일에 대한 지정을 수신하는 단계; 그리고 (c)각 입력영역과 학습자료 파일 사이의 대응관계 정보를 하나의 학습파일로 생성하는 단계를 포함하여 구성될 수 있다.According to another exemplary embodiment of the present invention, there is provided a learning file generating method for a learning terminal in which learning material corresponding to a selected item among a plurality of items arranged on one image is output. Receiving a selection of at least one corresponding input area from among a plurality of preset input areas for each item in the image material consisting of one image in which items of? (b) receiving a designation of one or more learning material files corresponding to one or more input areas selected for each item in step (a); And (c) generating the corresponding relationship information between each input area and the learning data file into one learning file.
본 발명의 또 다른 실시예에 따른 학습 방법은 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 이용한 학습 방법에서, (A) 선택된 학습파일을 실행하는 단계와; (B) 미리 설정된 복수의 입력영역 중 어느 하나에서 사용자 입력을 감지하는 단계와; (C) 상기 학습파일로부터 사용자 입력이 감지된 입력영역에 대응하여 지정된 하나 이상의 학습자료 파일을 검색하는 단계; 그리고 (D) 상기 검색된 학습자료 파일에 대응하는 하나 이상의 학습 자료를 출력하는 단계를 포함하여 구성될 수 있다.The learning method according to another embodiment of the present invention is a learning method using a learning terminal that outputs a learning material corresponding to a selected item among a plurality of items arranged on one image, (A) executing the selected learning file. Steps; (B) detecting a user input in any one of a plurality of preset input areas; (C) retrieving one or more designated learning material files corresponding to the input area where a user input is detected from the learning file; And (D) outputting one or more learning materials corresponding to the searched learning material files.
본 발명의 또 다른 실시예에 따른 컴퓨터 판독 가능 기록 매체는, 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기에 설치되어, 상기 단말기로 하여금 (1) 하나의 학습파일을 선택받는 단계와; (2) 선택된 학습파일을 해석하여 학습파일 내에서 미리 설정된 각 입력영역에 대응하는 학습자료명을 독출하는 단계와; (3) 사용자 입력이 감지되면, 사용자 입력이 감지된 입력영역에 대응하는 학습자료명을 검색하는 단계와; (4) 검색된 학습자료명으로 상기 단말기에 저장된 데이터에서 대응하는 학습자료 파일을 검색하는 단계; 그리고 (5) 검색된 학습자료 파일을 재생하는 단계를 포함하여 수행할 수 있다.A computer-readable recording medium according to another embodiment of the present invention is installed in a learning terminal that outputs learning material corresponding to a selected item among a plurality of items arranged on one image, and causes the terminal to (1) Receiving a learning file; (2) interpreting the selected learning file and reading a learning material name corresponding to each preset input area in the learning file; (3) if the user input is detected, searching for a learning material name corresponding to the input area where the user input is detected; (4) searching for a corresponding learning material file in the data stored in the terminal with the found learning material name; And (5) playing the searched learning material file.
이상에서 상세히 설명한 바와 같이 본 발명에 의한 학습 단말기, 학습 컨텐츠 생성방법, 학습 방법 및 그 기록 매체에 의하면 다음과 같은 효과를 기대할 수 있다.As described in detail above, according to the learning terminal, the learning content generation method, the learning method, and the recording medium according to the present invention, the following effects can be expected.
즉, 선택된 영역에 대응하는 문자, 숫자, 그림에 관련된 음성이 출력되도록 하는 학습 단말기를 제공함으로써 학습 효과를 높일 수 있다는 장점이 있다. That is, there is an advantage that the learning effect can be enhanced by providing a learning terminal for outputting voices related to letters, numbers, and pictures corresponding to the selected area.
또한 본 발명에 의한 학습 단말기, 학습 컨텐츠 생성방법, 및 그 기록 매체에 의하면 학습 단말기에서 사용자들에게 제공되는 학습 컨텐츠를 사용자들이 용이하게 만들 수 있도록 함으로써 보다 다양한 범위의 학습을 수행할 수 있다는 장점이 있다. In addition, according to the learning terminal, the learning content generating method, and the recording medium according to the present invention, the learning terminal provided to the user in the learning terminal can be easily made by the user, thereby enabling the user to perform a wider range of learning. have.
본 발명에 의한 학습 단말기, 학습 컨텐츠 생성방법, 및 그 기록 매체에 의하면 문자, 숫자, 그림 등이 배열된 이미지의 크기나 모양 등의 제한을 받지 않고 이미지를 이용한 학습 컨텐츠를 만들 수 있으므로, 다양한 컨텐츠를 활용할 수 있다는 이점이 있다. According to the learning terminal, the learning content generation method, and the recording medium according to the present invention, since the learning content using the image can be made without being limited by the size or shape of the image in which letters, numbers, pictures, etc. are arranged, various contents There is an advantage that can be utilized.
도 1a 내지 1c는 본 발명의 실시예에 따른 학습용 단말기를 도시한 사시도.1A to 1C are perspective views illustrating a learning terminal according to an embodiment of the present invention.
도 1d는 본 발명의 다른 실시예에 따른 학습용 단말기를 도시한 사시도.Figure 1d is a perspective view showing a learning terminal according to another embodiment of the present invention.
도 2a는 본 발명의 실시예에 따른 학습용 단말기의 구성을 개략적으로 도시한 블럭도.Figure 2a is a block diagram schematically showing the configuration of a learning terminal according to an embodiment of the present invention.
도 2b는 본 발명의 실시예에 따른 학습용 단말기의 학습 컨텐츠 생성을 위한 컴퓨터의 구성을 도시한 블럭도. Figure 2b is a block diagram showing the configuration of a computer for generating learning content of the learning terminal according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법을 단계적으로 도시한 흐름도. 3 is a flowchart illustrating a method of generating learning content according to an exemplary embodiment of the present invention.
도 4a는 도 3에 도시된 학습 컨텐츠 생성 방법의 제100 단계를 수행하기 위한 제1실시예를 단계적으로 도시한 흐름도.FIG. 4A is a flowchart illustrating a first embodiment for performing step 100 of the method of generating learning content shown in FIG. 3; FIG.
도 4b는 아날로그 이미지에 대한 상기 제100 단계의 제1실시예를 보다 구체적으로 도시한 흐름도. Fig. 4b is a flow chart showing more specifically the first embodiment of the 100th step for the analog image.
도 4c 및 4d는 아날로그 이미지에 대한 상기 제100 단계의 제1실시예에 의하여 영역을 설정하는 경우의 화면 예시도.4C and 4D illustrate screens in the case of setting an area according to the first embodiment of the 100th step for an analog image.
도 5a는 도 3에 도시된 학습 컨텐츠 생성 방법의 제100 단계를 수행하기 위한 제2실시예를 단계적으로 도시한 흐름도. FIG. 5A is a flowchart illustrating a second embodiment for performing step 100 of the method of generating learning contents shown in FIG. 3; FIG.
도 5b 및 도 5c는 각각 디지털 이미지와 아날로그 이미지에 대한 상기 제100 단계의 제2실시예를 보다 구체적으로 도시한 흐름도.5B and 5C are flowcharts illustrating in more detail a second embodiment of the 100th step for digital and analog images, respectively;
도 5d는 도 5a에 도시된 상기 제100 단계의 제2실시예에 의하여 영역을 설정하는 경우의 화면 예시도.FIG. 5D is a screen example of setting an area according to the second embodiment of the 100th step shown in FIG. 5A.
도 6a는 도 3에 도시된 학습 컨텐츠 생성 방법의 제200 단계를 수행하기 위한 제1실시예를 단계적으로 도시한 흐름도.FIG. 6A is a flowchart illustrating a first embodiment for performing step 200 of the method for generating learning contents shown in FIG. 3; FIG.
도 6b는 도 6a에 도시된 제200 단계의 제1실시예에 의하여 학습자료를 할당하는 경우의 화면 예시도. FIG. 6B is an exemplary view of a screen in the case of allocating learning material according to the first embodiment of step 200 shown in FIG. 6A;
도 7a는 도 3에 도시된 학습 컨텐츠 생성 방법의 제200 단계를 수행하기 위한 제2실시예를 단계적으로 도시한 흐름도.FIG. 7A is a flowchart illustrating a second embodiment for performing step 200 of the method of generating learning content shown in FIG. 3; FIG.
도 7b는 도 7a에 도시된 제200 단계의 제2실시예에 의하여 학습자료를 할당하는 경우의 화면 예시도. FIG. 7B illustrates an example of a screen for allocating learning material according to the second embodiment of step 200 of FIG. 7A.
도 8은 도 3에 도시된 학습 컨텐츠 생성 방법의 제400 단계의 보다 구체적인 실시예를 도시한 흐름도. 8 is a flowchart illustrating a more specific embodiment of step 400 of the method of generating learning content illustrated in FIG. 3.
도 9a은 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법에서 이미지 자료를 생성하는 방법을 단계적으로 도시한 흐름도.9A is a flowchart illustrating a method of generating image data in a method of generating learning content according to an embodiment of the present invention.
도 9b는 도 9a에 도시된 이미지 자료 생성 방법에 의하여 이미지 자료와 학습 컨텐츠를 생성하는 경우의 화면 예시도.FIG. 9B is a screen example of generating image data and learning content by the image data generating method shown in FIG. 9A; FIG.
도 10는 본 발명의 실시예에 의하여 생성된 학습 컨텐츠를 이용한 학습 방법을 단계적으로 도시한 흐름도. 10 is a flowchart illustrating a learning method using learning contents generated by an embodiment of the present invention step by step.
도 11은 본 발명의 또 다른 실시예에 의한 학습파일 생성 방법을 단계적으로 도시한 흐름도. 11 is a flowchart illustrating a method of generating a training file according to another embodiment of the present invention in a stepwise manner.
도 12는 도 11에 도시된 학습파일 생성방법에 의해 생성된 학습 파일의 일실시예를 도시한 도면. 12 is a diagram illustrating an embodiment of a training file generated by the training file generating method shown in FIG.
도 13은 본 발명의 또 다른 실시예에 의한 학습 방법을 단계적으로 도시한 흐름도. 13 is a flowchart illustrating a learning method step by step according to another embodiment of the present invention.
<부호의 설명><Description of the code>
100:학습용 단말기 10:화면출력부100: learning terminal 10: screen output unit
11:음성출력부 15:컨트롤러11: Audio output unit 15: Controller
16:이미지 디스플레이부 17:터치감지부16: Image display unit 17: Touch detection unit
18:저장부 19:연결부18: storage 19: connection
200:컴퓨터 210:인터페이스부200: computer 210: interface unit
220:제어부 230:디스플레이부220: control unit 230: display unit
240:입력부 250:음성입력부240: input unit 250: voice input unit
260:TTS변환부 270:저장부260: TTS converter 270: storage
이하에서는 상기한 바와 같은 본 발명에 의한 학습 단말기, 학습 컨텐츠 생성방법, 학습 방법 및 그 기록 매체의 실시예를 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, an embodiment of a learning terminal, a learning content generating method, a learning method, and a recording medium according to the present invention as described above will be described in detail with reference to the accompanying drawings.
도 1a 내지 1c는 본 발명의 실시예에 의한 학습용 단말기를 도시한 사시도이다.1A to 1C are perspective views illustrating a learning terminal according to an embodiment of the present invention.
도 1a에 도시된 바와 같이, 본 발명의 실시예에 의한 학습용 단말기(100)는 화면출력부(10)가 구비된다. 상기 화면출력부(10)는 LCD(Liquid Crystal Display) 등의 표시수단으로 구성되어 단말기의 동작에 대응하는 화면을 출력한다. As shown in Figure 1a, the learning terminal 100 according to an embodiment of the present invention is provided with a screen output unit (10). The screen output unit 10 is configured with display means such as an LCD (Liquid Crystal Display) to output a screen corresponding to the operation of the terminal.
그리고 상기 학습용 단말기(100)에는 음성출력부(11)가 구비된다. 상기 음성출력부(11)는 단말기의 동작에 따라 저장된 오디오 데이터를 출력하는 스피커수단이다. 본 발명의 또 다른 실시예에서, 상기 음성 출력부(11)에서는 상기 화면 출력부(10)에 표시되는 이미지 데이터와 관련된 오디오 데이터가 출력될 수 있다.In addition, the learning terminal 100 is provided with a voice output unit 11. The voice output unit 11 is a speaker means for outputting the stored audio data according to the operation of the terminal. In another embodiment of the present invention, the audio output unit 11 may output audio data related to the image data displayed on the screen output unit 10.
또한 상기 학습용 단말기(100)에는 사용자로부터 명령이나 데이터를 입력받기 위한 터치스크린(12)이 구비된다. 상기 터치스크린(12)은 LCD 등 디스플레이 수단의 전면에 터치패널을 구성하여 형성된다. 상기 터치스크린(12)에는 다양한 화면이 디스플레이될 수 있고, 그 화면의 일측을 사용자가 스타일러스팬(13) 등으로 터치하여 데이터나 명령을 입력할 수 있다.In addition, the learning terminal 100 is provided with a touch screen 12 for receiving a command or data from the user. The touch screen 12 is formed by forming a touch panel on the front of the display means such as LCD. Various screens may be displayed on the touch screen 12, and a user may input data or commands by touching one side of the screen with the stylus fan 13 or the like.
특히 상기 터치스크린(12)에는 복수의 문자, 숫자 또는 그림 등이 배열된 이미지가 디스플레이 될 수 있다. 예를 들어 도면에 도시된 바와 같이 알파벳이 배열된 이미지가 디스플레이될 수도 있다. 본 발명의 또 다른 실시예에서, 상기 스크린(12)은 기설정된 복수의 입력영역으로 구획된다. 상기 복수의 입력영역의 각 입력영역은 미리 설정된 일정한 크기 및 위치를 갖는다. In particular, the touch screen 12 may display an image in which a plurality of letters, numbers, or pictures are arranged. For example, an image in which alphabets are arranged may be displayed as shown in the figure. In another embodiment of the present invention, the screen 12 is partitioned into a plurality of preset input areas. Each input area of the plurality of input areas has a predetermined predetermined size and position.
상기 학습용 단말기(100)에서는 상기 터치스크린(12)에 사용자의 학습을 위하여 복수의 문자, 숫자 또는 그림 등이 배열된 이미지 자료(I)가 디스플레이된다. 본 발명의 또 다른 실시예에서, 상기 이미지 자료(I)의 각 아이템들은 상기 터치스크린(12)의 복수의 입력영역 중 적어도 하나에 대응하는 위치에 배열된다. The learning terminal 100 displays image data I on which the plurality of letters, numbers, or pictures are arranged for the user's learning on the touch screen 12. In another embodiment of the present invention, each item of the image material I is arranged at a position corresponding to at least one of the plurality of input areas of the touch screen 12.
여기서 상기 터치스크린(12)을 통해 디스플레이되는 상기 이미지 자료(I)는 상기 학습용 단말기(100)에 저장된 디지털 이미지에 해당한다. 상기 이미지 자료(I)에 배열된 문자, 숫자, 그림 중 어느 하나를 사용자가 상기 스타일러스팬(13)이나 손으로 터치하면 선택된 문자나 숫자, 그림과 관련된 학습 자료가 상기 화면출력부(10)나 상기 음성출력부(11)를 통해 출력된다. The image data I displayed through the touch screen 12 corresponds to a digital image stored in the learning terminal 100. When the user touches any one of the letters, numbers, and pictures arranged in the image material I with the stylus fan 13 or the hand, the learning materials related to the selected letters, numbers, or pictures are displayed on the screen output unit 10 or the like. It is output through the voice output unit 11.
예를 들어, 사용자가 상기 이미지 자료(I)에 배열된 복수의 알파벳 중, 알파벳 A를 선택한 경우, 상기 음성출력부(11)에서는 알파벳 A의 발음에 해당하는 'ei'나 알파벳 A로 시작하는 영어단어 중 어느 하나의 발음이 출력되도록 할 수 있다. 그리고 상기 화면출력부(10)에는 상기 음성출력부(11)에서 출력되는 발음에 관련된 단어나 그림 등이 함께 출력될 수 있다. For example, when the user selects the letter A among the plurality of letters arranged in the image material I, the voice output unit 11 starts with 'ei' or letter A corresponding to the pronunciation of the letter A. The pronunciation of any one of the English words may be output. The screen output unit 10 may also output words or pictures related to the pronunciation output from the voice output unit 11.
이와 같은 방식으로 상기 학습용 단말기(100)를 통해서 사용자들은 이미지 자료(I)에 배열된 단어나 문자, 숫자, 그림, 구구단 등을 학습할 수 있다. In this manner, the user can learn words, letters, numbers, pictures, multiplication tables, etc. arranged in the image material I through the learning terminal 100.
또한 상기 학습용 단말기(100)는 도 1a에 도시된 바와 같은 실시예 외에도 여러가지 실시예로 구현될 수 있다. 도 1b에 도시된 바와 같이, 상기 학습용 단말기(100)의 다른 실시예도 상기 화면출력부(10)와 음성출력부(11)를 포함한다. 그리고 이미지 자료(I)가 하단에 디스플레이되는데, 이 실시예에서 상기 이미지 자료(I)는 아날로그 이미지로 구비된다. 즉, 상기 이미지 자료(I)는 인쇄물이나 사용자가 직접 그린 이미지가 될 수 있다. 따라서 상기 학습용 단말기(100)는 이와 같은 아날로그 이미지를 고정하거나 지지할 수 있는 기구적 수단을 더 포함할 수 있다. In addition, the learning terminal 100 may be implemented in various embodiments in addition to the embodiment shown in Figure 1a. As shown in FIG. 1B, another embodiment of the learning terminal 100 also includes the screen output unit 10 and the voice output unit 11. And image material I is displayed at the bottom, in this embodiment the image material I is provided as an analog image. That is, the image data I may be a printed matter or an image drawn by a user. Therefore, the learning terminal 100 may further include mechanical means for fixing or supporting such an analog image.
한편 도 1b에 도시된 학습용 단말기(100)에는 아날로그 이미지로 구성되는 상기 이미지 자료(I)의 특정 영역에 대한 사용자의 터치 입력을 감지할 수 있도록 하는 수단으로서 무선신호송신수단(23)이 구성된다. 상기 무선신호송신수단(23)에는 그 일단에 압력을 감지하는 접촉인지부가 구비되고, 접촉인지부에 압력이 감지되면 적외선 신호와 초음파 신호를 송출하는 무선신호송신부가 구비된다. 그에 따라 사용자가 상기 무선신호송신수단(23)을 이용하여 상기 이미지 자료(I) 상의 특정 부분을 접촉하면, 상기 무선신호송신수단(23)에서 적외선 신호와 초음파 신호가 송출된다. 그리고 상기 학습용 단말기(100)에 소정 간격으로 배열된 두 개의 초음파수신센서(S1)와 적외선수신센서(S2)에서는 상기 무선신호송신수단(23)에서 송출된 신호를 감지한다. Meanwhile, the learning terminal 100 illustrated in FIG. 1B includes a wireless signal transmitting means 23 as a means for detecting a user's touch input on a specific region of the image material I composed of an analog image. . The wireless signal transmission means 23 is provided with a contact recognition unit for sensing pressure at one end thereof, and a wireless signal transmission unit for transmitting infrared signals and ultrasonic signals when pressure is detected at the contact recognition unit. Accordingly, when the user touches a specific portion on the image material I using the wireless signal transmitting means 23, the infrared signal and the ultrasonic signal are transmitted by the wireless signal transmitting means 23. In addition, the two ultrasonic receiving sensors S1 and the infrared receiving sensor S2 arranged at predetermined intervals on the learning terminal 100 detect the signal transmitted from the wireless signal transmitting means 23.
상기 학습용 단말기(100)는 상기 적외선수신센서(S2)에서 적외선 신호를 수신한 시점으로부터 두 개의 초음파수신센서(S1)에서 각각 초음파 신호를 수신하기까지 소요된 시간을 이용하여 상기 무선신호송신수단(23)이 신호를 송출한 위치와 상기 두 개의 초음파수신센서(S1) 사이의 각각의 거리를 연산한다. The learning terminal 100 uses the time required for receiving the ultrasonic signals from the two ultrasonic receiving sensors S1 from the time when the infrared signal is received by the infrared receiving sensor S2. 23) calculates respective distances between the position at which the signal is sent and the two ultrasonic receiving sensors S1.
즉, 초음파가 도달하는 시간은 거리에 비례하므로 두 개의 초음파수신센서(S1)에 초음파가 도달한 시간을 이용하여 상기 무선신호송신수단(23)과 초음파수신센서(S1) 사이의 거리를 각각 연산한다. 그리고 연산된 두 거리값과, 두 개의 초음파수신센서(S1) 사이의 거리값을 이용하면 상기 무선신호송신수단(23)이 상기 이미지 자료(I)를 터치한 부분의 좌표가 연산될 수 있다. 그에 따라 상기 학습용 단말기(100)는 사용자가 상기 이미지 자료(I) 상에 터치입력한 위치의 좌표를 알 수 있고, 그에 따라 해당 좌표에 배열된 문자, 숫자, 그림 등의 아이템에 대응하는 음성 자료나 텍스트, 이미지 등을 상기 음성출력부(11)와 상기 화면출력부(10)를 통해 출력할 수 있다.That is, since the time that the ultrasonic wave reaches is proportional to the distance, the distance between the wireless signal transmitting means 23 and the ultrasonic wave receiving sensor S1 is calculated using the time when the ultrasonic wave reaches the two ultrasonic receiving sensors S1. do. If the calculated distance value and the distance value between the two ultrasonic receiving sensors S1 are used, the coordinates of the portion where the wireless signal transmitting means 23 touches the image material I may be calculated. Accordingly, the learning terminal 100 can know the coordinates of the position touched by the user on the image data I, and accordingly voice data corresponding to items such as letters, numbers, and pictures arranged at the corresponding coordinates Or text, images, etc. may be output through the voice output unit 11 and the screen output unit 10.
이와 같은 실시예에서는 문자, 숫자, 그림 등이 배열되는 이미지 자료(I)의 크기나 모양 등의 제한을 덜 받기 때문에 사용자가 직접 이미지 자료를 손으로 그려서 만들거나, 기존에 갖고 있던 인쇄물 등을 활용하여 새로운 이미지 자료를 만들어서 사용할 수 있다. In such an embodiment, since the size, shape, etc. of the image data (I) in which letters, numbers, and pictures are arranged are less limited, the user directly draws the image data, or utilizes a printed material that he / she has. Can be used to create new image material.
또한 학습용 단말기(100)는 도 1c에 도시된 바와 같은 실시예로 구현될 수도 있다. 상기 학습용 단말기(100)에는 화면출력부(10)와 음성출력부(11)가 구비된다. In addition, the learning terminal 100 may be implemented in an embodiment as shown in FIG. 1C. The learning terminal 100 includes a screen output unit 10 and a voice output unit 11.
그리고 상기 학습용 단말기(100)는 사용자의 손(33)이나 스타일러스 펜 등에 의한 터치입력을 받을 수 있도록 터치패널(32)이 전면에 구비된다. 상기 터치패널(32)은 투명하게 형성됨으로써 상기 터치패널(32)의 후면에 설치될 이미지 자료(I)가 상기 터치패널(32)의 전면에서 보일 수 있도록 한다. In addition, the learning terminal 100 is provided with a touch panel 32 on the front to receive a touch input by a user's hand 33 or a stylus pen. The touch panel 32 is formed to be transparent so that the image material I to be installed on the rear of the touch panel 32 can be seen from the front of the touch panel 32.
그리고 인쇄물 등의 아날로그 이미지가 이미지 자료(I)로서 상기 학습용 단말기(100)에서 디스플레이될 수 있도록 하기 위하여 삽입슬롯(35)이 구비될 수 있다. 상기 삽입슬롯(35)을 통하여 상기 이미지 자료(I)를 상기 학습용 단말기(100)에 설치하면 상기 터치패널(32)의 후면에 상기 이미지 자료(I)가 위치하도록 한다. 다만 삽입슬롯(35)이 구성은 하나의 실시예에 불과하고, 상기 이미지 자료(I)가 상기 터치패널(32)의 후면에 고정될 수 있는 어떠한 구조라도 상기 학습용 단말기(100)가 가질 수 있다. An insertion slot 35 may be provided to enable an analog image such as a printed matter to be displayed on the learning terminal 100 as image material I. When the image material I is installed in the learning terminal 100 through the insertion slot 35, the image material I is positioned on the rear surface of the touch panel 32. However, the configuration of the insertion slot 35 is only one embodiment, and the learning terminal 100 may have any structure in which the image material I may be fixed to the rear surface of the touch panel 32. .
나아가 도 1d에 도시된 바와 같이, 본 발명의 또 다른 실시예에 의한 학습용 단말기(100)는 화면출력부(10)와 음성출력부(11)가 구비된다. 그리고 상기 학습용 단말기(100)에는 사용자의 손이나 다른 수단에 의해 압력이 가해지면 통전되는 복수의 스위치(S)가 매트릭스 형태로 배열되는 패널을 포함한다. 상기 패널 상에는 이미지 자료(I)가 그 전면에 고정될 수 있다. Furthermore, as shown in Figure 1d, the learning terminal 100 according to another embodiment of the present invention is provided with a screen output unit 10 and a voice output unit (11). In addition, the learning terminal 100 includes a panel in which a plurality of switches S that are energized when a pressure is applied by a user's hand or other means are arranged in a matrix form. On the panel image material I can be fixed in front of it.
이때 상기 복수의 스위치(S)는 예를 들어 도전성 금속이 코팅된 두 개의 필름층, 또는 두 개의 도전성 금속 필름을 포함하여 구성될 수 있고, 나아가 키 매트릭스 형태의 전자기판(PCB)을 포함하여 구성될 수도 있다. 이때 상기 패널 상의 이미지 자료(I)의 특정 영역에 압력이 가해지면, 두 개의 필름층에 접점이 형성되면서 전기가 흐르게 되는 방식으로 구동할 수 있다. 여기서 상기 스위치(S)는 도전성 금속이 코팅된 두 필름층에 미리 정해진 복수의 입력영역 각각을 지시한다. In this case, the plurality of switches S may include, for example, two film layers coated with a conductive metal, or two conductive metal films, and further include an electromagnetic plate (PCB) in the form of a key matrix. May be In this case, when pressure is applied to a specific region of the image material I on the panel, the contact may be formed on the two film layers, and the driving may be performed in a manner in which electricity flows. Herein, the switch S indicates each of a plurality of predetermined input regions on the two film layers coated with the conductive metal.
사용자가 상기 이미지 자료(I)의 특정 영역에 압력을 가하면, 압력이 가해진 부분에 해당하는 입력영역에 대응하는 학습자료들이 상기 화면출력부(10) 또는 상기 음성출력부(11)에서 출력된다. 예를 들어 알파벳 A를 입력하면, 알파벳 A로 시작되는 단어와 해당 단어의 발음이 상기 화면출력부(10)와 상기 음성출력부(11)에서 출력될 수 있다. When the user applies pressure to a specific area of the image material I, the learning materials corresponding to the input area corresponding to the portion to which the pressure is applied are output from the screen output unit 10 or the voice output unit 11. For example, when the alphabet A is input, a word starting with the alphabet A and a pronunciation of the word may be output from the screen output unit 10 and the voice output unit 11.
위에서 도 1a 내지 1d를 참조하여 설명한 본 발명에 따른 학습용 단말기(100)에서 디지털 이미지 또는 아날로그 이미지 등으로 구성되는 이미지 자료(I)는 사용자에 의해 직접 만들어질 수 있다. 예를 들어, 디지털 이미지는 복수의 이미지 파일을 합성하여 제작 가능하고, 아날로그 이미지는 스스로 그리거나 다른 이미지를 복사하거나 오려 붙이는 등의 방식으로 자유롭게 만들어질 수 있다. 이는 후술할 본 발명의 실시예에서 상기 학습용 단말기(100)의 복수의 입력영역 각각에 대해 수행되는 명령을 사용자가 자유롭게 편집 가능하기 때문인데, 이에 따라 상기 학습용 단말기(100)는 사용자에 의해 자유롭게 만들어진 이미지 자료(I)의 크기나, 이미지 자료에 포함된 아이템의 내용, 위치 등에 구애받지 않고 그에 대응하는 적절한 학습자료가 상기 학습용 단말기(100)에서 제공될 수 있게 된다. In the learning terminal 100 according to the present invention described above with reference to FIGS. 1A to 1D, the image material I composed of a digital image or an analog image may be directly made by a user. For example, a digital image may be produced by synthesizing a plurality of image files, and an analog image may be freely created by drawing itself or copying or pasting another image. This is because a user can freely edit a command performed on each of a plurality of input areas of the learning terminal 100 in the embodiment of the present invention described below. Accordingly, the learning terminal 100 is freely made by the user. Regardless of the size of the image material I, the contents, the position of the item included in the image material, or the like, appropriate learning materials corresponding thereto may be provided in the learning terminal 100.
도 1a 내지 1d 참조하여 설명한 바와 같은 학습용 단말기(100)의 보다 구체적인 구성을 도 2a를 참조하여 설명한다. 도 2a는 본 발명의 실시예에 의한 학습용 단말기의 구성을 개략적으로 도시한 블럭도이다.A more specific configuration of the learning terminal 100 as described with reference to FIGS. 1A to 1D will be described with reference to FIG. 2A. 2A is a block diagram schematically illustrating a configuration of a learning terminal according to an embodiment of the present invention.
도 2a에서 보는 바와 같이, 본 발명의 실시예에 의한 학습용 단말기(100)는 단말기의 전체적인 제어를 담당하는 컨트롤러(15)를 포함한다. 그리고 도 1a 내지 도 1d에서 본 바와 같이 화면출력부(10)와 음성출력부(11)를 포함한다. 상기 화면출력부(10) 및/또는 상기 음성출력부(11)를 통하여 사용자에게 학습시키고자 하는 학습 자료들을 이미지나 텍스트, 오디오로 출력한다.As shown in Figure 2a, the learning terminal 100 according to an embodiment of the present invention includes a controller 15 for the overall control of the terminal. 1A to 1D, the screen output unit 10 and the audio output unit 11 are included. Through the screen output unit 10 and / or the voice output unit 11, learning materials to be learned by the user are output as images, texts, and audio.
또한 상기 학습용 단말기(100)에는 이미지 디스플레이부(16)가 포함된다. 상기 이미지 디스플레이부(16)는 복수의 문자, 숫자, 그림 등이 배열된 아날로그 또는 디지털 이미지 자료가 상기 학습용 단말기(100)에 디스플레이되도록 하는 수단으로서, 예를 들어, 도 1a의 터치스크린과 같은 전자적 수단이 될 수도 있으나, 도 1b 또는 1c를 참조하여 설명한 실시예에서와 같이 단순히 아날로그 이미지를 고정하거나 지지하기 위한 수단으로 구성될 수도 있다. 또한 도 1d를 참조하여 설명한 또 다른 실시예에서와 같이 아날로그 이미지를 고정하면서, 동시에 매트릭스 형태의 입력영역을 포함하여 사용자 입력을 감지할 수 있는 수단으로 구비될 수도 있다. In addition, the learning terminal 100 includes an image display unit 16. The image display unit 16 is a means for displaying analog or digital image data in which a plurality of letters, numbers, pictures, and the like are arranged on the learning terminal 100. For example, the image display unit 16 may be an electronic device such as the touch screen of FIG. It may be a means, but may be configured as a means for simply fixing or supporting the analog image as in the embodiment described with reference to FIG. 1B or 1C. Also, as in another embodiment described with reference to FIG. 1D, the analog image may be fixed, and at the same time, a means for sensing a user input including a matrix-type input area may be provided.
그리고 상기 학습용 단말기(100)에는 터치감지부(17)가 포함된다. 상기 터치감지부(17)는 이미지 자료(I) 상에서 이루어지는 사용자의 선택을 감지하기 위한 수단으로서, 도 1a 내지 도 1c에서 살펴본 바와 같이 다양한 수단으로 구비될 수 있다. 즉, 도 1a에서 본 바와 같이 디지털 이미지를 출력하는 터치 스크린이 될 수도 있고, 도 1b에서 본 바와 같이 아날로그 이미지 상에서 무선신호를 송출하는 무선신호송신수단과, 상기 무선신호송신수단에서 송출된 무선신호를 수신하는 센서수단을 포함할 수 있다. 또는 도 1c에서 본 바와 같이 아날로그 이미지 위에 구비되는 터치패널이 될 수도 있다. 나아가 도 1d에서 본 바와 같이 아날로그 이미지 후면에 구비되는 도전성 금속 필름을 이용한 스위치 수단이 될 수도 있다. In addition, the learning terminal 100 includes a touch sensing unit 17. The touch sensing unit 17 is a means for detecting a user's selection on the image material I, and may be provided by various means as described with reference to FIGS. 1A to 1C. That is, it may be a touch screen which outputs a digital image as shown in FIG. 1A, and a wireless signal transmitting means for transmitting a radio signal on an analog image as shown in FIG. 1B, and a radio signal transmitted by the radio signal transmitting means. It may include a sensor means for receiving. Alternatively, the touch panel may be provided on the analog image as shown in FIG. 1C. Furthermore, as shown in FIG. 1D, the switch may be a switch using a conductive metal film provided on the rear surface of the analog image.
여기서 상기 컨트롤러(15)는 상기 터치감지부(17)에서 사용자 입력을 감지할 수 있는 전체 영역을 미리 정해진 매트릭스 형태의 복수의 입력영역으로 구분하도록 설정된다. 상기 복수의 입력영역 각각은 그 크기와 위치가 미리 설정된다. 그리고 각각의 입력영역에는 이를 구분할 수 있는 고유의 식별자가 할당되어, 상기 컨트롤러(15)가 각 입력영역을 구분할 수 있도록 한다. The controller 15 is set to divide the entire area in which the touch sensing unit 17 can detect a user input into a plurality of input areas in a predetermined matrix form. Each of the plurality of input areas is preset in size and position. Each input area is assigned a unique identifier to distinguish it, so that the controller 15 can distinguish each input area.
이와 같은 상기 입력영역은 상기 학습용 단말기(100) 제조시 디폴트로 지정되며, 사용자가 필요에 따라 위치나 크기를 변경하여 재설정할 수도 있다.The input area is designated as a default when the learning terminal 100 is manufactured, and the user may reset the input area by changing a position or size as necessary.
상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I) 상에서 사용자의 터치 입력이 발생하면 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 터치 입력을 감지할 수 있다. 그리고 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 감지한 사용자의 터치 입력이 일어난 위치가 상기 복수의 입력영역 중 어느 영역에 해당하는지를 검출한다. When a user's touch input occurs on the image material I displayed on the image display unit 16, the controller 15 may sense the touch input using the touch sensing unit 17. The controller 15 detects which of the plurality of input areas a position where a touch input of the user sensed using the touch sensor 17 corresponds to.
상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I) 상에서 사용자의 터치 입력이 발생하면 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 터치 입력을 감지할 수 있다. 그리고 상기 컨트롤러(15)는 상기 터치감지부(17)를 이용하여 감지한 사용자의 터치 입력이 일어난 위치가 상기 복수의 입력영역 중 어느 영역에 해당하는지를 검출한다. When a user's touch input occurs on the image material I displayed on the image display unit 16, the controller 15 may sense the touch input using the touch sensing unit 17. The controller 15 detects which of the plurality of input areas a position where a touch input of the user sensed using the touch sensor 17 corresponds to.
한편 상기 학습용 단말기(100)에는 저장부(18)가 구비된다. 상기 저장부(18)에는 학습 자료가 저장된다. 즉, 상기 이미지 디스플레이부(16)에 디스플레이된 이미지 자료(I)에 배열된 복수의 문자, 숫자, 그림 등의 아이템 중 하나의 아이템이 선택되고, 이를 상기 컨트롤러(15)가 상기 터치감지부(17)를 통해 감지하면 상기 컨트롤러(15)는 상기 저장부(18)에 저장되어 있는 학습 자료 중 선택된 아이템에 대응하는 학습 자료를 상기 화면출력부(10)나 상기 음성출력부(11)를 통해 출력한다. 따라서 상기 저장부(18)에는 상기 화면출력부(10)나 상기 음성출력부(11)로 출력될 오디오, 비디오, 텍스트, 이미지 등의 학습 자료가 저장된다. On the other hand, the learning terminal 100 is provided with a storage unit 18. The storage unit 18 stores learning materials. That is, one item among a plurality of items such as letters, numbers, pictures, and the like arranged on the image material I displayed on the image display unit 16 is selected, and the controller 15 determines that the touch sensing unit ( The controller 15 detects the learning data corresponding to the selected item among the learning materials stored in the storage 18 through the screen output unit 10 or the voice output unit 11. Output Therefore, the storage unit 18 stores learning materials such as audio, video, text, and image to be output to the screen output unit 10 or the voice output unit 11.
여기서 상기 학습자료는 상기 이미지 자료(I)에 배열되는 아이템들에 대한 이미지, 비디오, 오디오, 텍스트 파일 등이 될 수 있다. 이와 같은 학습자료를 상기 학습용 단말기(100) 사용자들이 보다 용이하게 획득 가능하도록 하기 위하여 웹사이트를 이용하여 다양한 학습자료들이 다운로드 가능하게 제공될 수 있으며, 사용자들이 직접 생성한 학습자료를 웹사이트로 업로드 가능하게 하여 사용자들간 학습자료 공유가 원활하도록 할 수 있다. 이를 위하여 상기 학습용 단말기(100)는 직접 또는 컴퓨터 등의 장치를 통해 네트워크에 연결되어 학습자료를 제공받을 수 있다. 사용자들은 스스로 제작한 오디오, 이미지, 비디오 파일 등을 상기 네트워크를 통해 웹사이트에 업로드할 수 있다. 또한 이와 같이 사업자나 사용자들이 학습자료를 온라인에 업로드 한 후 타 사용자들이 이를 다운로드 받으면 소정의 수수료가 학습자료를 업로드한 사용자에게 지불되도록 할 수도 있다. Here, the learning material may be an image, video, audio, text file, etc. for the items arranged in the image material (I). In order to facilitate the acquisition of such learning materials by the user of the learning terminal 100, various learning materials may be provided to be downloaded by using the website, and the learning materials generated by the users are uploaded to the website. This can facilitate the sharing of learning materials among users. To this end, the learning terminal 100 may be connected to a network directly or through a device such as a computer to receive learning materials. Users can upload their own audio, image, video files, etc. to the website via the network. In addition, if a business or user uploads the learning materials online and other users download them, a predetermined fee may be paid to the user who uploaded the learning materials.
이를 위하여 상기 학습용 단말기(100)에는 연결부(19)가 구비될 수 있다. 상기 연결부(19)는 상기 학습용 단말기(100)가 컴퓨터나 다른 장치와 연결될 수 있도록 하는 통신 인터페이스 수단이다. 이는 컴퓨터나 다른 장치로부터 학습 자료 등의 데이터를 다운로드하기 위하여 제공될 수 있다.To this end, the learning terminal 100 may be provided with a connection unit 19. The connection unit 19 is a communication interface means for allowing the learning terminal 100 to be connected to a computer or another device. This may be provided for downloading data such as learning material from a computer or other device.
또한 상기 연결부(19)에는 학습용 단말기(100)에 선택적으로 연결가능한 외부저장매체가 연결될 수도 있다. 그리하여 사용자는 자신이 원하는 학습자료 파일이나 후술할 학습파일이 저장된 상기 외부저장매체를 상기 학습용 단말기(100)에 연결하여, 외부저장매체에 저장된 학습자료 파일이나 학습파일이 상기 학습용 단말기(100)에서 활용될 수 있도록 한다. In addition, the connection unit 19 may be connected to an external storage medium that can be selectively connected to the learning terminal 100. Thus, the user connects the external storage medium storing the desired learning material file or the following learning file to the learning terminal 100 so that the learning material file or the learning file stored in the external storage medium is stored in the learning terminal 100. To be used.
이하에서는 상기 학습용 단말기(100)가 연결되는 컴퓨터의 구성을 개략적으로 설명한다. 도 2b는 본 발명의 실시예에 의한 학습용 단말기의 학습 컨텐츠 생성을 위한 컴퓨터의 구성을 도시한 블럭도이다.Hereinafter, a configuration of a computer to which the learning terminal 100 is connected will be described. Figure 2b is a block diagram showing the configuration of a computer for generating learning content of the learning terminal according to an embodiment of the present invention.
도 2b에 도시된 바와 같이, 상기 학습용 단말기(100)는 상기 연결부(19)를 통해 컴퓨터(200)의 인터페이스부(210)에 연결된다. 여기서 상기 컴퓨터(200)는 일반적인 퍼스널 컴퓨터와 같은 정보처리장치이다. As shown in FIG. 2B, the learning terminal 100 is connected to the interface unit 210 of the computer 200 through the connection unit 19. The computer 200 is an information processing device such as a general personal computer.
상기 컴퓨터(200)에는 운영체제에 따라 상기 컴퓨터(200)를 전반적으로 제어하는 제어부(220)와 상기 컴퓨터(200)의 동작의 결과를 출력하는 디스플레이부(230)와, 상기 컴퓨터(200)로 사용자의 명령이나 데이터를 입력하기 위한 입력부(240)가 구비된다. 상기 디스플레이부(230)는 LCD 모니터 등이 될 수 있고, 상기 입력부(240)는 키보드나 마우스 등의 통상적인 입력수단이 될 수 있다. The computer 200 includes a control unit 220 for overall control of the computer 200 according to an operating system, a display unit 230 for outputting a result of the operation of the computer 200, and a user to the computer 200. An input unit 240 for inputting a command or data is provided. The display unit 230 may be an LCD monitor or the like, and the input unit 240 may be a conventional input means such as a keyboard or a mouse.
그리고 상기 컴퓨터(200)에는 음성입력부(250)가 구비될 수 있다. 상기 음성입력부(250)는 통상적인 마이크 수단으로서, 사용자가 입력하고자 하는 소리를 감지하여 디지털 오디오 신호로 변환하여주는 역할을 한다. 또한 상기 컴퓨터(200)에는 TTS(Text-To-Speech)변환부(260)가 구비될 수 있다. 상기 TTS변환부(260)는 상기 입력부(240)를 통해 사용자가 텍스트를 입력하면, 이를 해당 텍스트의 발음에 해당하는 오디오 신호로 변환하는 역할을 한다. In addition, the voice input unit 250 may be provided in the computer 200. The voice input unit 250 is a conventional microphone means, and detects a sound to be input by the user and converts it into a digital audio signal. In addition, the computer 200 may be provided with a text-to-speech (TTS) converter 260. When the user inputs text through the input unit 240, the TTS converter 260 converts the text into an audio signal corresponding to the pronunciation of the text.
또한 상기 컴퓨터(200)에는 저장부(270)가 구비된다. 상기 저장부(270)에는 상기 음성입력부(250)나 상기 TTS변환부(260)에서 생성된 오디오 신호가 저장되고, 후술할 학습 컨텐츠 생성 방법에 의하여 생성된 데이터 등이 저장된다.In addition, the computer 200 is provided with a storage unit 270. The storage unit 270 stores the audio signal generated by the voice input unit 250 or the TTS converter 260, and stores data generated by a method of generating learning content, which will be described later.
위와 같은 상기 컴퓨터(200)를 이용하여 사용자는 오디오, 텍스트, 또는 비디오 자료 등을 포함하는 학습 자료를 이용하여 복수의 아이템이 배열된 이미지 자료(I)에 대응하는 학습 컨텐츠를 생성할 수 있고, 이를 상기 인터페이스부(210)를 통해 상기 단말기(100)로 다운로드 시킬 수 있다.By using the computer 200 as described above, a user may generate learning content corresponding to the image material I having a plurality of items arranged using learning materials including audio, text, or video materials. This may be downloaded to the terminal 100 through the interface unit 210.
이하에서는, 위에서 설명한 바와 같은 상기 학습용 단말기(100)를 이용하여 사용자들에게 복수의 아이템이 배열된 이미지 자료(I) 기반의 학습 수행이 가능하도록 하기 위한 학습 컨텐츠를 생성하는 방법을 설명한다. 즉 상기 학습용 단말기(100)를 통하여 제공되는 학습 컨텐츠를 생성하는 방법을 설명하는데, 이와 같은 학습 컨텐츠는 상기 학습용 단말기(100)에서 직접 생성할 수도 있고, 상기 컴퓨터(200)를 이용하여 생성한 후 상기 학습용 단말기(100)로 다운로드할 수도 있다. Hereinafter, a method of generating learning content for enabling a user to perform learning based on image data (I) having a plurality of items arranged using the learning terminal 100 as described above will be described. That is, a method of generating learning content provided through the learning terminal 100 will be described. Such learning content may be directly generated by the learning terminal 100 or generated using the computer 200. It may be downloaded to the learning terminal 100.
도 3은 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법을 단계적으로 도시한 흐름도이다. 도 3에 도시된 바와 같이 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법은, 특정 이미지 자료(I)에 배열된 복수의 아이템 각각에 대응하는 영역을 상기 이미지 자료(I)상에 설정하는 S100 단계로부터 시작된다. 3 is a flowchart illustrating a method of generating learning content according to an exemplary embodiment of the present invention. As shown in FIG. 3, in the method for generating learning content according to an embodiment of the present invention, step S100 of setting an area corresponding to each of a plurality of items arranged in a specific image material I on the image material I is performed. Starts from.
S100 단계는 이미지 자료(I)에 배열된 각각의 아이템이 위치하는 영역을 각각 별도의 영역으로 설정함으로써 이루어지는데, 이미지 자료(I) 상에 특정 아이템이 배열된 위치에 해당하는 2차원의 좌표 영역을 해당 아이템에 대응하는 영역으로 하여 각 좌표 영역을 저장한다. 예를 들어 100x100의 좌표를 가진 이미지 자료(I)에 대하여 좌표 (0, 0)으로부터 좌표(50, 100)까지의 좌표 영역을 하나의 아이템에 대응하는 영역으로 설정하고, 좌표(50, 100)으로부터 좌표(100, 100)까지의 영역을 다른 하나의 아이템에 대응하는 영역으로 설정함으로써, 각 아이템에 대응하는 좌표 영역을 설정한다. The step S100 is performed by setting the area where each item arranged in the image material I as a separate area, and the two-dimensional coordinate area corresponding to the position where the specific item is arranged on the image material I. Each coordinate region is stored as a region corresponding to the item. For example, for an image data I having a coordinate of 100x100, a coordinate region from coordinates (0, 0) to coordinates (50, 100) is set as an area corresponding to one item, and coordinates (50, 100) By setting the area from to to the coordinates 100 and 100 as the area corresponding to the other item, the coordinate area corresponding to each item is set.
여기서 상기 S100 단계는, 상기 이미지 자료(I)가 아날로그 이미지로 구성되었는지 또는 디지털 이미지에 해당하는지 여부에 따라 달리 수행될 수 있고, 또한 상기 이미지 자료(I) 상의 아이템 배열 방식 등에 따라서도 달리 수행될 수 있다. 이는 추후 다른 도면을 참조하여 보다 구체적으로 설명한다. In this case, the step S100 may be performed differently depending on whether the image material I is configured as an analog image or a digital image, and may also be performed differently depending on an item arrangement method on the image material I and the like. Can be. This will be described in more detail later with reference to other drawings.
그리고나서, 설정된 각 영역에 대응하는 아이템에 관련된 학습자료를 각 영역에 대응시키는 단계(S200)가 수행된다. 상기 S 200 단계는 특정 영역에 대응되는 아이템과 관련된 학습자료를 각 영역마다 지정함으로써 이루어지는데, 여기서 학습자료는 음성이나 음악 등의 오디오 자료 및/또는 텍스트나 이미지와 같은 비디오 자료가 될 수 있다. 즉 예를 들어, 도 1a에서 볼 수 있는 바와 같이 상기 이미지 자료(I)에 배열된 복수의 알파벳 아이템들 각각에 좌표 영역이 설정되고, 알파벳 A에 대응하는 좌표 영역을 사용자가 선택하였을 때 출력될 학습자료, 예를 들어 도면에 도시된 바와 같이 알파벳 A로 시작하는 영어단어 'Apple'을 알파벳 A에 대응하는 좌표 영역에 대한 학습자료로서 할당할 수 있다. 나머지 알파벳들에 대응하는 좌표 영역 각각에 대해서도 각 알파벳과 관련된 학습자료들이 할당된다.Then, the step (S200) of mapping the learning material related to the item corresponding to each set area to each area is performed. The step S 200 is performed by designating the learning material related to the item corresponding to the specific area for each area. The learning material may be audio material such as voice or music and / or video material such as text or image. That is, for example, as shown in FIG. 1A, a coordinate region is set in each of the plurality of alphabet items arranged in the image material I, and is output when the user selects a coordinate region corresponding to the alphabet A. FIG. Learning materials, for example, as shown in the drawing, the English word 'Apple' starting with the letter A may be assigned as the learning material for the coordinate region corresponding to the letter A. The learning materials associated with each alphabet are also assigned to each of the coordinate regions corresponding to the remaining alphabets.
여기서 각 영역에 학습자료를 할당함에 있어서, 오디오 자료는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 미리 저장된 자료들이 될 수도 있고, 사용자가 녹음하거나, TTS변환을 이용하여 새로 생성한 자료가 될 수도 있다. 사용자가 오디오 자료를 새로 생성하기 위하여 도 2b에 도시된 바와 같이 상기 컴퓨터(200)에는 음성입력부(250) 및/또는 TTS변환부(260)가 구비될 수 있다. 만약 상기 학습용 단말기(100)에도 음성입력부나 TTS변환부와 같은 수단이 구비된다면 상기 학습용 단말기(100)를 통해서도 각 아이템에 대응하는 영역에 오디오 자료를 할당할 수 있다. Here, in allocating the learning material to each area, the audio material may be materials stored in the learning terminal 100 or the computer 200 in advance, or the user may record or newly create data using the TTS conversion. May be As illustrated in FIG. 2B, the computer 200 may be provided with a voice input unit 250 and / or a TTS converter 260 to generate a new audio material. If the learning terminal 100 also includes means such as a voice input unit or a TTS converting unit, audio material may be allocated to an area corresponding to each item through the learning terminal 100.
또한 비디오 학습 자료 역시 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 미리 저장된 자료들이 될 수도 있고, 사용자가 새로 생성하거나 인터넷 등의 네트워크를 통해 다운로드 받은 디지털 이미지 등이 될 수도 있다. 또한 사용자가 직접 입력한 텍스트도 학습 자료로서 각 영역에 할당될 수 있다. In addition, the video learning material may also be materials stored in advance in the learning terminal 100 or the computer 200, or may be a digital image newly created by the user or downloaded through a network such as the Internet. In addition, text directly input by a user may be assigned to each area as a learning material.
그리고 위와 같이 이미지 자료의 각 아이템들에 대응하는 좌표 영역이 설정되고, 각 좌표영역에 관련 학습자료가 할당되면, 각각의 학습자료와, 각 좌표 영역의 범위, 학습자료와 각 영역 사이의 대응관계를 하나의 학습 컨텐츠로 하여 저장한다(S300). 따라서 상기 학습 컨텐츠는, 이미지 자료(I)에 배열된 각각의 아이템에 대응하는 좌표 영역의 범위와, 각 영역에 대응하는 오디오 및/또는 비디오 학습 자료와, 각 영역과 학습자료 사이의 대응관계를 포함하는 데이터의 모음이 된다. When the coordinate regions corresponding to the items of the image data are set as above, and the relevant learning materials are allocated to each of the coordinate regions, each learning material, the range of each coordinate area, the correspondence relationship between the learning material and each area Is stored as one learning content (S300). Accordingly, the learning content may include a range of coordinate areas corresponding to each item arranged in the image material I, audio and / or video learning materials corresponding to each area, and a correspondence relationship between each area and the learning material. It is a collection of data that it contains.
그 후, 이와 같이 생성된 학습 컨텐츠는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 저장되는데(S400), 저장되는 학습 컨텐츠가 어떤 이미지 자료(I)와 대응하는지, 그 대응관계가 표시된다. 예를 들어 상기 이미지 자료(I)가 디지털 이미지인 경우, 상기 학습 컨텐츠에 상기 이미지 자료(I)가 함께 저장될 수 있으나, 상기 이미지 자료(I)가 아날로그 이미지인 경우에는 저장되는 학습 컨텐츠가 어떤 이미지 자료(I)에 대응하는지 여부가 표시된다. 여기서 상기 S 400 단계 또한 추후 보다 상세하게 설명한다. Thereafter, the generated learning content is stored in the learning terminal 100 or the computer 200 (S400), which image material I corresponds to the stored learning content, and its corresponding relationship is displayed. . For example, when the image material I is a digital image, the image material I may be stored together in the learning content. However, when the image material I is an analog image, the learning content is stored. It is indicated whether or not it corresponds to the image material (I). Here, step S 400 will also be described in more detail later.
이하에서는 상기 S 100 단계를 수행하는 보다 구체적인 방법을 설명한다. 도 4a 는 도 3에 도시된 학습 컨텐츠 생성 방법의 S100 단계를 수행하기 위한 제1실시예를 단계적으로 도시한 흐름도이고, 4b는 아날로그 이미지에 대한 상기 S100 단계의 제1실시예를 보다 구체적으로 도시한 흐름도이며, 도 4c 및 4d는 아날로그 이미지에 대한 상기 S100 단계의 제1실시예에 의하여 영역을 설정하는 경우의 화면 예시도이다. 또한 도 5a는 도 3에 도시된 학습 컨텐츠 생성 방법의 S100 단계를 수행하기 위한 제2실시예를 단계적으로 도시한 흐름도이고, 도 5b 및 도 5c는 각각 디지털 이미지와 아날로그 이미지에 대한 상기 S100 단계의 제2실시예를 보다 구체적으로 도시한 흐름도이며, 도 5d는 도 5a에 도시된 상기 S100 단계의 제2실시예에 의하여 영역을 설정하는 경우의 화면 예시도이다.Hereinafter, a more specific method of performing the step S 100 will be described. FIG. 4A is a flowchart illustrating a first embodiment for performing step S100 of the method of generating learning content illustrated in FIG. 3, and FIG. 4B illustrates a first embodiment of the step S100 for an analog image in more detail. 4C and 4D are diagrams illustrating screens when an area is set according to the first embodiment of step S100 for an analog image. FIG. 5A is a flowchart illustrating a second embodiment for performing step S100 of the method of generating learning content illustrated in FIG. 3, and FIGS. 5B and 5C are diagrams illustrating steps S100 of digital and analog images, respectively. FIG. 5D is a flowchart illustrating a second embodiment in more detail, and FIG. 5D is a screen example of setting an area according to the second embodiment of step S100 shown in FIG. 5A.
우선 도 4a와 도 5a에 도시된 바와 같이, 도 3의 S100 단계는 여러가지 실시예로 수행될 수 있다. 그 중 첫 번째 실시예는 도 4a에서 보는 바와 같이 미리 정해진 복수의 영역 분할 방식이 제공되는 단계로부터 시작된다(S101). 즉, 상기 학습용 단말기(100)의 컨트롤러(15)나 상기 컴퓨터(200)의 제어부(220)는 미리 설정된 복수의 영역 분할 방식 중 어느 하나를 제공할 수 있다. First, as shown in FIGS. 4A and 5A, step S100 of FIG. 3 may be performed in various embodiments. The first embodiment of the method starts from the step of providing a plurality of predetermined region division schemes as shown in FIG. 4A (S101). That is, the controller 15 of the learning terminal 100 or the controller 220 of the computer 200 may provide any one of a plurality of region division schemes set in advance.
예를 들어 사각형의 이미지 자료(I)를 가로 3등분, 세로 3등분으로 분할하는 방식과, 가로 4등분, 세로 4등분으로 분할하는 방식 등 2가지의 영역 분할 방식이 미리 설정되어 있다면 상기 컨트롤러(15)나 상기 제어부(220)는 두 가지 방식을 모두 사용자에게 제공하여, 이 중 어느 하나를 사용자가 선택하도록 한다. 그에 따라 사용자는 학습 컨텐츠를 생성하는데 사용하는 이미지 자료(I)가 가로 3등분, 세로 3등분으로 분할된 각각의 영역에 아이템이 배열된 모양으로 구성된다면, 제공된 두 가지 방식 중 가로 3등분, 세로 3등분으로 영역을 분할하는 방식을 선택할 수 있도록 한다. 여기서 영역 분할 방식을 비교적 단순한 두 가지 방식만이 제공되는 것으로 예시하여 설명하였으나, 실제로는 매우 다양한 방식으로 각 영역이 설정될 수 있도록 여러 가지 다양한 영역 분할 방식을 제공하도록 할 수 있다. For example, if two area division methods, such as a method of dividing a rectangular image material (I) into three horizontal and three vertical sections, and a four and four horizontal sections, are previously set, the controller ( 15) or the controller 220 provides both methods to the user, so that the user selects either of them. Accordingly, if the image material (I) used to generate the learning content is composed of items arranged in respective regions divided into three quarters and three quarters, the user can arrange three sections horizontally and vertically. Allows you to choose how to divide the area into three parts. Here, the region division scheme has been described with only two relatively simple schemes provided, but in practice, various region division schemes may be provided so that each region may be set in a wide variety of ways.
그리고 사용자는 위와 같이 복수로 제공되는 영역 분할 방식 중 어느 하나를 선택한다(S102). 그리고 선택된 방식에 따라 분할된 각 영역은 각 아이템에 대응하는 영역으로 설정된다(S103). In operation S102, the user selects any one of the region division schemes provided in plurality. Each divided area according to the selected method is set as an area corresponding to each item (S103).
예를 들어, 사용자가 이미지 자료(I)를 가로 2등분, 세로 2등분으로 분할하고자 하여, 그에 대응하는 영역 분할 방식을 선택하면, 이미지 자료(I)의 각 좌표들은 가로 2등분, 세로 2등분된 4개 그룹으로 구분되도록 설정된다.For example, if the user wants to divide the image data I into two horizontal and two vertical portions, and selects a region division method corresponding thereto, each coordinate of the image data I is divided into two horizontal and two vertical portions. It is set to be divided into four groups.
한편 이와 같이 도 4a를 참조하여 설명한 S100 단계의 제1실시예는 상기 이미지 자료(I)가 디지털 이미지인 경우와, 아날로그 이미지인 경우에 모두 구현가능하다. 특히 상기 이미지 자료(I)가 아날로그 이미지에 해당하는 경우에, 제1실시예는 도 4b에 도시된 바와 같이 보다 구체적인 단계를 거쳐 수행된다. Meanwhile, the first embodiment of step S100 described with reference to FIG. 4A may be implemented both when the image data I is a digital image and when it is an analog image. In particular, in the case where the image material I corresponds to an analog image, the first embodiment is performed through more specific steps as shown in FIG. 4B.
즉, 미리 정해진 복수의 영역분할 방식이 제공되고(S111), 사용자는 아날로그 이미지의 아이템 배열에 대응하는 하나의 영역 분할 방식을 선택한다(S112). 예를 들어, 사용자가 학습 컨텐츠 생성에 사용하고자 하는 아날로그 이미지의 아이템 배열이 가로 5열, 세로 5열에 해당하는 경우, 사용자는 도 4c에 도시된 바와 같이 상기 S111 단계에서 제공된 복수의 영역분할 방식 중 가로 5등분, 세로 5등분에 해당하는 모양의 분할 방식을 선택한다. That is, a plurality of predetermined area division schemes are provided (S111), and the user selects one area division scheme corresponding to the arrangement of items of the analog image (S112). For example, when the item arrangement of the analog image that the user intends to use to generate the learning content corresponds to 5 columns and 5 columns, the user may perform one of the plurality of region division methods provided in step S111 as shown in FIG. 4C. Select the division method of the shape that corresponds to 5 horizontal divisions and 5 vertical divisions.
그리고 사용자가 학습 컨텐츠 생성에 사용하고자 하는 아날로그 이미지의 가로, 세로 길이를 입력할 수 있도록 한다(S113). 상기 S113 단계에서 사용자는 실제 아날로그 이미지의 가로, 세로 길이를 입력하여, 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에서 실제 이미지에 대응하는 전체 좌표 영역을 생성할 수 있도록 한다. In addition, the user may input the horizontal and vertical lengths of the analog image to be used for generating the learning content (S113). In step S113, the user inputs the horizontal and vertical lengths of the actual analog image, so that the learning terminal 100 or the computer 200 can generate the entire coordinate region corresponding to the actual image.
그리고 S114 단계에서는 사용자로부터 입력받은 아날로그 이미지 크기에 대응하는 전체 영역에 상기 S112 단계에서 선택된 영역 분할 방식을 적용하여 전체 영역에서 분할된 각 영역의 크기와 위치를 연산한다. 예를 들어, 도 4c에서와 같이 가로 50cm x 세로 50cm의 아날로그 이미지를 이미지 자료(I)로 하여 학습 컨텐츠를 생성하는 경우, 가로 5등분, 세로 5등분의 영역 분할 방식을 선택하면, 각각 가로 10cm x 세로 10cm의 25개 영역이 각각 아이템에 대응하는 영역으로 계산된다. In operation S114, the area division method selected in operation S112 is applied to the entire area corresponding to the analog image size input from the user to calculate the size and position of each area divided in the entire area. For example, when the learning content is generated using an analog image of 50 cm x 50 cm as the image material (I) as shown in FIG. Twenty-five areas of 10 cm length are calculated as areas corresponding to each item.
그리고 이와 같이 연산된 각 영역의 크기 및 위치 정보에 따라 분할된 각 영역을 이미지 자료에 배열된 각 아이템에 대응하는 영역으로 설정된다(S115).Then, the divided regions are set as regions corresponding to each item arranged in the image data according to the size and position information of each region calculated as described above (S115).
한편 이때, 상기 S111 단계와 상기 S112 단계에서, 미리 정해진 복수의 영역 분할 방식을 제공하고, 이 중 하나를 사용자가 선택하는 과정은, 도 4d에 도시된 바와 같이, 이미지 자료의 가로와 세로 분할 횟수를 직접 입력하는 방식으로 제공될 수도 있다. 그에 따라 사용자가 선택한 분할 횟수에 맞춰 분할된 사각형 이미지가 도 4c에 도시된 바와 같이 디스플레이될 수 있다. In this case, in the step S111 and the step S112, a process of providing a plurality of predetermined region division methods, and the user selecting one of them, as shown in FIG. 4D, is the number of horizontal and vertical divisions of image data. It may be provided by directly inputting. Accordingly, the quadrangular image divided according to the number of divisions selected by the user may be displayed as shown in FIG. 4C.
이와 같이 이미지 자료(I)에 배열된 각 아이템에 대응하는 좌표 영역이 설정된 후에는 도 4c에 도시된 바와 같이 설정된 영역 중 어느 하나를 선택하여 음성 자료나 텍스트 자료를 대응시키는 단계가 진행된다.After the coordinate region corresponding to each item arranged in the image material I is set as described above, a step of selecting one of the set regions as shown in FIG. 4C to correspond to the voice data or the text data is performed.
한편 도 5a에 도시된 바와 같이 상기 S100 단계의 제2실시예는, 상기 컴퓨터(200)의 상기 디스플레이부(230) 또는 상기 학습용 단말기(100)의 상기 화면출력부(10)에 사용자가 생성하고자 하는 학습 컨텐츠에 대응하는 이미지 자료(I)의 디지털 샘플 이미지가 디스플레이되는 단계(S151)로부터 시작된다(S151).On the other hand, as shown in Figure 5a the second embodiment of the step S100, the user wants to create on the display unit 230 of the computer 200 or the screen output unit 10 of the learning terminal 100 The digital sample image of the image material I corresponding to the learning content is displayed starts at step S151 (S151).
예를 들어 사용자가 디지털 이미지를 이미지 자료(I)로 선택하여 그에 대한 학습 컨텐츠를 생성하고자 한다면, 그 디지털 샘플 이미지는 이미지 자료(I)로 사용될 디지털 이미지 그 자체이거나 이를 축소한 것이 될 수 있다.For example, if a user selects a digital image as the image material I and generates learning content thereon, the digital sample image may be the digital image itself to be used as the image material I or reduced.
한편 이미지 자료(I)로 사용하고자 하는 이미지가 아날로그 이미지에 해당하는 경우, 즉 도 1b나 도 1c에 도시된 바와 같은 학습용 단말기(100)에서와 같이 아날로그 이미지가 이미지 자료(I)로 사용되는 경우, 디지털 샘플 이미지는 아날로그 이미지를 스캔하거나 촬영하여 디지털 데이터로 전환한 것을 의미한다. 즉 이미지 자료(I)로 사용하고자 하는 아날로그 이미지와 동일한 모양을 갖는 디지털 이미지가 디지털 샘플 이미지가 될 수 있다.On the other hand, when the image to be used as the image material (I) corresponds to the analog image, that is, when the analog image is used as the image material (I) as in the learning terminal 100 as shown in Fig. 1b or 1c For example, a digital sample image refers to an analog image that is scanned or photographed and converted into digital data. That is, the digital sample image having the same shape as the analog image to be used as the image material I may be a digital sample image.
그리고 상기 S151 단계에서 디지털 샘플 이미지가 디스플레이되면, 사용자는 디지털 샘플 이미지에 나타난 복수의 아이템들을 육안으로 확인하면서, 아이템이 배열된 상태에 따라 각 아이템에 대응하는 영역을 드래그(Drag)하여 선택한다(S152). When the digital sample image is displayed in step S151, the user visually checks a plurality of items shown in the digital sample image and drags and selects an area corresponding to each item according to the arrangement of the items ( S152).
그에 따라 드래그 입력으로 선택된 각 영역은 각 아이템에 대응하는 영역으로 설정된다(S153).Accordingly, each area selected by the drag input is set as an area corresponding to each item (S153).
도 5a에 도시된 바와 같은, 상기 S100 단계의 제2실시예는, 이미 설명한 바와 같이 이미지 자료(I)가 디지털 이미지인 경우와 아날로그 이미지인 경우에 따라 달리 수행될 수 있는데, 도 5b에 도시된 것처럼 이미지 자료(I)가 디지털 이미지에 해당하는 경우에는, 미리 저장된 디지털 이미지 중 어느 하나가 선택되는 단계(S161)가 수행된다.As shown in FIG. 5A, the second embodiment of step S100 may be performed differently according to the case where the image data I is a digital image and an analog image, as described above. If the image data I corresponds to the digital image as described above, step S161 of selecting one of the pre-stored digital images is performed.
상기 학습용 단말기(100)에서 학습 컨텐츠 생성 방법을 제공하는 경우에는 상기 학습용 단말기(100)에 저장되어 있는 디지털 이미지 중 하나를 선택하여 그에 대응하는 학습 컨텐츠를 생성할 수 있고, 상기 컴퓨터(200)에서 학습 컨텐츠 생성 방법이 제공되는 경우, 상기 컴퓨터(200)에 저장된 디지털 이미지 중 어느 하나를 선택하여 그에 대응하는 학습 컨텐츠를 생성하고, 이를 상기 학습용 단말기(100)로 다운로드 되도록 할 수 있다.When the learning terminal 100 provides a method for generating learning content, one of the digital images stored in the learning terminal 100 may be selected to generate corresponding learning content, and the computer 200 may generate the learning content corresponding thereto. When a learning content generation method is provided, one of the digital images stored in the computer 200 may be selected to generate learning content corresponding thereto, and downloaded to the learning terminal 100.
상기 S161 단계에서 저장된 디지털 이미지 중 하나가 선택되는 경우, 상기 컴퓨터(200)의 디스플레이부(230) 또는 상기 학습용 단말기(100)의 화면출력부(10)에는 선택된 디지털 이미지의 샘플 이미지가 디스플레이된다(S162). 이때 상기 샘플 이미지는 선택된 디지털 이미지 그대로이거나, 이를 확대 또는 축소한 것 등이 될 수 있다.When one of the digital images stored in step S161 is selected, a sample image of the selected digital image is displayed on the display unit 230 of the computer 200 or the screen output unit 10 of the learning terminal 100 ( S162). In this case, the sample image may be the selected digital image as it is, or an enlargement or reduction thereof.
그리고 S162 단계에서 디스플레이된 샘플 이미지의 일부 영역을 사용자가 드래그 입력으로 선택한다. 여기서 사용자는 이미지 자료(I)로서 선택한 하나의 디지털 이미지상에 배열된 복수의 아이템들 중 어느 하나의 아이템이 배열된 영역을 적절히 선택할 수 있다(S163). 특히 이와 같은 실시예에서는, 아이템이 일정하게 정렬된 상태로 배열되지 않은 경우에도 각 아이템에 대응하는 각 영역을 자유롭게 선택할 수 있다. In operation S162, the user selects a partial area of the sample image displayed as the drag input. Here, the user can appropriately select a region in which any one item among the plurality of items arranged on one digital image selected as the image material I is arranged (S163). In particular, in such an embodiment, even if the items are not arranged in a uniformly arranged state, each area corresponding to each item can be freely selected.
위와 같이 각 아이템에 대응하는 영역이 드래그입력으로 선택될 때마다 상기 학습용 단말기(100)의 컨트롤러(15) 또는 상기 컴퓨터(200)의 상기 제어부(220)는 선택된 영역의 크기와 위치를 연산하여 저장한다(S164). 그에 따라 사용자가 드래그 입력으로 선택한 각 영역이 아이템에 대응하는 영역으로 설정된다(S165). Whenever a region corresponding to each item is selected as a drag input, the controller 15 of the learning terminal 100 or the controller 220 of the computer 200 calculates and stores the size and position of the selected region. (S164). Accordingly, each region selected by the user through the drag input is set as an region corresponding to the item (S165).
한편 이미지 자료(I)로서 아날로그 이미지가 사용되는 경우, 아날로그 이미지에 대응하는 학습 컨텐츠를 생성하기 위해서는 도 5c에 도시된 바와 같이, 아날로그 이미지에 대한 디지털 이미지 샘플을 생성하여(S171), 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 저장하고 이를 디스플레이(S172)하는 단계가 수행된다. 아날로그 이미지에 대한 디지털 이미지 샘플을 생성하는 과정은, 아날로그 이미지를 디지털 카메라로 촬영하거나 스캔하여 생성한 디지털 이미지에서 아날로그 이미지에 대응하지 않는 불필요한 부분만 잘라내는 과정 등을 거쳐 이루어질 수 있다.On the other hand, when the analog image is used as the image material (I), in order to generate the learning content corresponding to the analog image, as shown in Figure 5c, by generating a digital image sample for the analog image (S171), the learning terminal 100 or the computer 200 to store and display it (S172) is performed. The process of generating a digital image sample for the analog image may be performed by cutting out an unnecessary portion of the digital image generated by photographing or scanning the analog image with a digital camera and not corresponding to the analog image.
그 후 사용자로부터 상기 S172 단계에서 디스플레이된 디지털 이미지 샘플에 대응하는 아날로그 이미지의 크기를 입력받을 수 있다(S173). 즉 아날로그 이미지의 가로, 세로 길이를 입력받아, 상기 컴퓨터(200) 또는 상기 학습용 단말기(100)에서 아날로그 이미지의 전체 면적을 알 수 있도록 한다.Thereafter, the user may receive the size of the analog image corresponding to the digital image sample displayed in step S172 (S173). That is, the horizontal and vertical lengths of the analog images are input, so that the computer 200 or the learning terminal 100 knows the total area of the analog image.
또한 S174 단계에서는 사용자로부터 상기 S172 단계에서 디스플레이된 디지털 이미지 샘플상에서 특정 영역에 대한 드래그 입력을 받아 상기 디지털 이미지 샘플의 일부 영역을 선택받는다. In operation S174, the user receives a drag input for a specific area on the digital image sample displayed in operation S172 to select a partial region of the digital image sample.
그리고 상기 S174 단계에서 선택된 디지털 이미지 샘플의 일부 영역에 대응하는 실제 아날로그 이미지의 크기 및 위치정보를 연산하여 저장한다(S175). 즉, 상기 S173 단계에서 입력받은 실제 아날로그 이미지의 가로, 세로 길이를 이용하여, 선택된 영역의 크기 및 위치를 연산한다. 디지털 이미지 샘플의 가로, 세로 길이의 비율은 실제 아날로그 이미지의 가로, 세로 길이 비율과 동일하거나 미세한 오차만 있을 것이므로, 디지털 이미지 샘플의 일부 영역을 선택하면 선택된 영역의 크기와 위치를 이용하면 실제 아날로그 이미지 상에서 대응하는 영역의 크기와 위치가 연산될 수 있다. In operation S175, the size and position information of the actual analog image corresponding to the partial region of the digital image sample selected in operation S174 may be calculated and stored. That is, the size and position of the selected area are calculated by using the horizontal and vertical lengths of the actual analog image input in step S173. Since the ratio of the width and height of the digital image sample will be the same as or slightly smaller than the ratio of the width and height of the actual analog image, selecting some areas of the digital image sample will give the actual analog image the size and position of the selected area. The size and position of the corresponding region in the image may be calculated.
그에 따라 저장된 각 영역을 아날로그 이미지에 배열된 각 아이템에 대응하는 영역으로 설정된다(S176).Accordingly, each stored area is set as an area corresponding to each item arranged in the analog image (S176).
이와 같은 방법에 의하면 아이템이 일정하게 배열된 경우가 아니라도, 각 아이템에 대응하는 영역을 쉽게 설정할 수 있고, 서로 다른 크기의 아날로그 이미지에 대한 학습 컨텐츠도 생성 가능하다. 다만 일정한 크기의 아날로그 이미지에 대응하는 학습 컨텐츠만을 생성하는 경우에는 이미지의 크기를 입력받는 S173 단계는 수행되지 않아도 된다.According to this method, even if the items are not arranged regularly, the area corresponding to each item can be easily set, and learning contents for analog images of different sizes can be generated. However, when generating only the learning content corresponding to the analog image of a certain size, step S173 for receiving the size of the image does not need to be performed.
위에서 설명한 바와 같은 제2실시예로 상기 S100 단계를 수행하는 경우의 예를 도 5d를 참조하여 살펴보면, 상기 컴퓨터(200)의 상기 디스플레이부(230) 또는 상기 학습용 단말기(100)의 상기 화면출력부(10)의 일부에는 상기 이미지 자료(I)의 디지털 이미지 샘플이 디스플레이된다. 그에 따라 사용자는 디스플레이된 디지털 이미지 샘플의 특정 영역을 마우스로 드래그하거나 터치 드래그하여 선택한다. 도면에 도시된 바와 같이 여러 아이템이 불규칙적으로 배열된 디지털 이미지 샘플 상에서 특정 아이템에 대응하는 영역만을 선택적으로 설정할 수 있다. An example of performing the step S100 according to the second embodiment as described above will be described with reference to FIG. 5D. The screen output unit of the display unit 230 or the learning terminal 100 of the computer 200 is described. In part of (10), a digital image sample of the image material I is displayed. Accordingly, the user selects by dragging or touch dragging a specific area of the displayed digital image sample. As shown in the drawing, only an area corresponding to a specific item may be selectively set on a digital image sample in which several items are irregularly arranged.
이때 상기 이미지 자료(I)가 아날로그 이미지인 경우, 사용자가 실제 아날로그 이미지의 크기를 입력할 수 있도록 이미지의 가로, 세로 길이를 입력할 수 있는 사용자 인터페이스가 함께 제공될 수 있다.In this case, when the image data I is an analog image, a user interface for inputting the horizontal and vertical lengths of the image may be provided together so that the user may input the size of the actual analog image.
사용자가 선택한 영역은 상기 이미지 자료(I) 상의 아이템에 대응되는 영역으로 설정되고, 그에 대응하는 음성이나 텍스트 등의 학습자료를 입력할 수 있다. 즉 사용자는 특정 영역을 선택하고 그에 대응하는 학습자료를 입력하는 과정을 반복적으로 수행할 수 있다. The area selected by the user may be set as an area corresponding to the item on the image material I, and input learning material such as voice or text corresponding thereto. That is, the user may repeatedly select a specific area and input a corresponding learning material.
한편 도 3을 참조하여 설명한 학습 컨텐츠 생성 방법의 S200 단계를 보다 구체적으로 살펴본다. 도 6a 및 도 7a는 각각 도 3에 도시된 학습 컨텐츠 생성 방법의 S200 단계를 수행하기 위한 제1실시예와 제2실시예를 단계적으로 도시한 흐름도이고, 도 6b 및 도 7b는 각각 도 6a 및 도 7a에 도시된 S200 단계의 제1실시예와 제2실시예에 의하여 학습자료를 할당하는 경우의 화면 예시도이다.Meanwhile, the step S200 of the method for generating learning content described with reference to FIG. 3 will be described in more detail. 6A and 7A are flowcharts illustrating a first embodiment and a second embodiment step by step for performing step S200 of the method for generating learning content illustrated in FIG. 3, respectively. FIGS. 6B and 7B are FIGS. 6A and 7B, respectively. 7A is a screen diagram illustrating an example of allocating learning material according to the first and second embodiments of step S200 shown in FIG. 7A.
우선, 도 6a에 도시된 바와 같이 상기 이미지 자료(I) 상에 설정된 복수의 영역에 대응하는 각 아이템에 대한 학습자료를 할당하는 과정은, 하나의 영역을 선택하여(S210), 선택된 영역에 대응하는 아이템과 관련된 음성자료를 입력하거나, 저장된 음성자료 중 하나를 선택하여 선택된 영역에 대응시킨다(S220). 또한 상기 S220 단계에서는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)가 TTS 변환 기능을 제공하는 경우에 한하여, 텍스트로 음성자료를 입력할 수도 있다.First, as shown in FIG. 6A, the process of allocating the learning materials for each item corresponding to the plurality of areas set on the image material I includes selecting one area (S210) and corresponding to the selected area. Input the audio data associated with the item or select one of the stored voice data to correspond to the selected area (S220). In addition, in step S220, only when the learning terminal 100 or the computer 200 provides a TTS conversion function, voice data may be input as text.
그리고 선택된 영역에 대응하는 아이템과 관련된 텍스트 자료를 입력하여 상기 학습용 단말기(100)를 이용한 학습 시에 상기 학습용 단말기(100)에서 선택된 아이템과 관련된 텍스트가 디스플레이되도록 할 수도 있다(S230). 상기 S220 단계와 상기 S230 단계는 모두 수행될 수도 있고, 그 중 하나만 선택적으로 수행될 수도 있다. 또한 학습자료는 음성자료나 텍스트자료 외에도 이미지자료나 동영상자료가 될 수도 있고, 이들 각 자료를 사용자가 선택적으로 입력할 수도 있다. In operation S230, text related to an item selected by the learning terminal 100 may be displayed when the text data related to the item corresponding to the selected area is input by using the learning terminal 100. Both the step S220 and the step S230 may be performed, or only one of them may be selectively performed. In addition, the learning material may be image data or video data, in addition to audio data or text data, and each of these data may be selectively input by the user.
그리고 설정된 모든 영역에 대한 음성자료나, 텍스트 자료 등의 학습자료 입력이 모두 완료되면(S240), 각 영역에 대한 학습자료 입력과 관련된 상기 S200 단계의 수행은 완료된다. 그러나 모든 영역에 대한 학습자료 입력이 완료되지 않으면, 다시 특정 영역을 선택하여 해당 영역에 대응하는 아이템과 관련된 학습자료를 입력하는 과정이 반복된다. When the input of learning materials such as voice data or text data for all areas is completed (S240), the execution of the step S200 related to the input of learning materials for each area is completed. However, if the input of the learning materials for all areas is not completed, the process of selecting a specific area again and inputting the learning materials related to the item corresponding to the area is repeated.
도 6a를 참조하여 설명한 S200 단계의 제1실시예에 따라 하나의 이미지 자료(I)에 대하여 설정된 각 영역에 학습자료를 할당하는 예를 도 6b를 참조하여 설명하면, 상기 컴퓨터(200)에서 학습 컨텐츠를 생성하는 경우에는 상기 컴퓨터(200)의 상기 디스플레이부(230)에, 또는 상기 학습용 단말기(100)에서 학습 컨텐츠를 생성하는 경우에는 상기 화면출력부(10)에 이미지 자료(I)에 설정된 복수의 영역이 디스플레이된다. 위에서 이미 설명한 바와 같이, 미리 정해진 복수의 영역 분할 방식에 따라 분할된 복수의 영역이 개략적으로 표시되거나, 디지털 이미지 샘플 상에 사용자가 각각 드래그 입력으로 결정한 각 영역이 표시된다. Referring to FIG. 6B, an example of allocating learning materials to each area set for one image material I according to the first embodiment of step S200 described with reference to FIG. 6A will be described. In the case of generating the content, the display unit 230 of the computer 200, or in the case of generating the learning content in the learning terminal 100, is set in the image material I in the screen output unit 10. A plurality of areas is displayed. As described above, a plurality of regions divided according to a plurality of predetermined region division schemes are schematically displayed, or each region determined by a drag input by the user is displayed on the digital image sample.
설정된 영역 중 어느 하나를 사용자가 선택하면, 해당 영역에 대응하는 아이템과 관련된 학습자료를 입력하거나 선택할 수 있도록 하는 사용자 인터페이스가 제공된다. 예를 들어 음성 데이터를 직접 녹음하여 입력하거나, 미리 저장된 음성 데이터를 선택하거나, 텍스트 입력 후 TTS 변환하여 음성 데이터를 생성함으로써 선택된 영역에 대응하는 음성자료를 입력할 수 있다.When a user selects one of the set areas, a user interface for inputting or selecting learning materials related to an item corresponding to the corresponding area is provided. For example, voice data corresponding to the selected area may be input by directly recording and inputting voice data, selecting prestored voice data, or generating text data by performing TTS conversion after text input.
또한 선택된 영역에 대응하는 아이템과 관련된 텍스트 자료를 입력할 수 있다.Also, text data related to an item corresponding to the selected area may be input.
예를 들어, 표시된 복수의 영역 중 사용자가 선택한 영역에 대응하는 상기 이미지 자료(I)의 아이템이 한글 자음 'ㅅ'인 경우, 즉, 상기 이미지 자료(I)의 선택된 영역에 대응하는 위치의 아이템이 'ㅅ'인 경우, 음성자료로서 'ㅅ'의 발음 '시옷'이나 'ㅅ'을 초성으로 갖는 단어 '사자'의 발음을 포함하는 음성데이터가 학습자료로서 해당 영역에 할당될 수 있다. For example, when the item of the image material I corresponding to the area selected by the user among the plurality of displayed areas is a Korean consonant 'ㅅ', that is, the item at the position corresponding to the selected area of the image material I In the case of 'ㅅ', the voice data including the pronunciation of the word 'lion' or the word 'lion' with the initial consonant of 'ㅅ' as the voice material may be allocated to the corresponding area as the learning material.
그리고 텍스트자료로서 '시옷'이나 '사자'가 할당될 수 있고, 사자와 관련된 이미지가 학습자료로서 해당 영역에 할당될 수도 있다. In addition, 'textured' or 'lion' may be assigned as text data, and an image related to a lion may be assigned to the corresponding area as learning data.
또한 도 7a에 도시된 바와 같은 S200 단계의 제2실시예 또한 설정된 영역 중 하나의 영역이 선택되는 단계(S250)로부터 시작된다. In addition, the second embodiment of step S200 as shown in FIG. 7A also starts from step S250 in which one area of the set area is selected.
그리고 상기 S250 단계에서 선택된 영역에 대하여 사용자는 제1입력에 대응하는 제1학습자료를 입력할 수 있다(S260). 여기서 상기 제1입력은 복수의 입력 방식 중 어느 하나를 의미한다. 상기 학습용 단말기(100)는 이미 설명한 바와 같이 사용자의 터치입력을 감지하여 터치입력이 감지된 영역에 대응하는 아이템과 관련된 학습자료를 출력하도록 동작하는데, 이때 특정 영역 내에서의 터치입력은 다양한 방식으로 수행될 수 있다. 특정 영역 내에서 짧은 한 번의 터치 입력만이 감지될 수도 있고, 일정시간 이상의 긴 한 번의 터치 입력이 감지될 수도 있으며, 일정시간 내에 두 번의 터치 입력이 감지될 수도 있다. 또한 특정 영역 내에서 특정 방향으로 입력되는 터치입력이 감지될 수도 있고, 특정 형상에 대응하는 모양으로 입력되는 터치 입력이 감지될 수도 있다. 즉 상기 학습용 단말기(100)의 상기 컨트롤러(15)는 상기 터치감지부(17)에서 입력되는 신호의 패턴을 인식하여, 입력 패턴에 따라 터치 입력을 서로 다른 명령으로 인식할 수 있다. 그에 따라 상기 컨트롤러(15)는 미리 정해진 패턴의 제1입력, 제2입력 등을 서로 다른 명령으로 인식할 수 있도록 미리 프로그래밍 될 수 있다. In operation S260, the user may input first learning data corresponding to the first input with respect to the area selected in operation S250. The first input means any one of a plurality of input methods. As described above, the learning terminal 100 detects a user's touch input and outputs learning data related to an item corresponding to an area where the touch input is detected. Can be performed. Only one short touch input may be detected within a specific area, one long touch input over a predetermined time may be detected, and two touch inputs may be detected within a predetermined time. In addition, a touch input input in a specific direction within a specific area may be detected, or a touch input input in a shape corresponding to a specific shape may be detected. That is, the controller 15 of the learning terminal 100 may recognize a pattern of a signal input from the touch sensing unit 17 and recognize a touch input as a different command according to the input pattern. Accordingly, the controller 15 may be preprogrammed to recognize the first input, the second input, and the like of the predetermined pattern as different commands.
따라서 상기 S260 단계에서 상기 제1입력은 다양한 터치입력 패턴 중 미리 정해진 어느 하나의 입력 패턴에 대응하는 터치입력으로서, 예를 들어 일정시간 내에 특정 영역을 한번 터치하는 동작이 될 수 있다. 그리고 상기 S250 단계에서 선택된 특정 영역 내에서 상기 제1입력이 감지되었을 때 출력될 학습자료가 상기 S260 단계에서 입력된다. 여기서 학습자료는 음성자료가 될 수도 있고, 이미지, 텍스트, 동영상 등의 자료가 될 수도 있다.Accordingly, in operation S260, the first input may be a touch input corresponding to one predetermined input pattern among various touch input patterns, and may be an operation of touching a specific region once within a predetermined time. In addition, the learning data to be output when the first input is detected in the specific region selected in step S250 is input in step S260. Here, the learning material may be a voice material or may be a material such as an image, text, or video.
그리고 S270 단계에서는 제2입력에 대응하는 또 다른 학습자료가 입력되는 단계가 수행된다. 상기 제2입력 또한 다양한 터치입력 패턴 중 미리 정해진 어느 하나의 입력 패턴에 대응하는 터치입력으로서 상기 제1입력과 다른 패턴의 하나의 터치입력으로 미리 설정된다. 그리고 상기 제2입력에 대응하여 입력되는 학습자료 또한 상기 제1입력에 대응하여 입력된 제1학습자료와 구별되는 다른 학습자료이다. 예를 들어, 제1학습자료가 음성자료이면, 제2학습자료는 텍스트자료가 될 수 있다. 이와 같이 각각의 영역에 대하여 제1입력과 제2입력에 대응하는 학습자료가 모두 지정됨으로써 상기 S200 단계가 수행된다. In operation S270, another learning material corresponding to the second input is input. The second input may also be preset as a touch input corresponding to any one input pattern among various touch input patterns as one touch input having a pattern different from the first input. In addition, the learning data input corresponding to the second input is another learning material which is distinguished from the first learning data input corresponding to the first input. For example, if the first learning material is a voice material, the second learning material may be text data. In this way, the step S200 is performed by designating both learning materials corresponding to the first input and the second input for each area.
이와 같은 S200 단계의 제2실시예에 따르면, 도 7b에 도시된 바와 같이 설정된 복수의 영역이 디스플레이되고, 사용자는 그 중 어느 하나를 선택할 수 있다. 여기서 복수의 영역이 디스플레이될 때에는 도 6b에 도시된 바와 같이 각 영역의 상대적인 위치와 크기만이 개략적으로 표시될 수도 있고, 도 7b에 도시된 바와 같이 상기 이미지 자료(I)에 대한 디지털 이미지 샘플 상에 분할된 각 영역이 표시될 수도 있다. According to the second embodiment of the step S200, a plurality of areas set as shown in Figure 7b is displayed, the user can select any one of them. Here, when a plurality of regions are displayed, only relative positions and sizes of each region may be schematically displayed as illustrated in FIG. 6B, and as shown in FIG. 7B, a digital image sample image for the image material I may be displayed. Each divided area may be displayed.
그리고 이와 같이 표시된 복수의 영역 중 어느 하나를 사용자가 선택하면, 선택된 영역에 대응하는 아이템 'ㅅ'과 관련된 학습자료를 입력받는다. 이때 학습자료는 입력방식에 따라 따로 입력된다. 즉, 해당 영역을 한번 짧게 터치하였을 때 출력될 학습자료로서 음성데이터 '시옷'과 텍스트 데이터 '시옷'이 할당될 수 있고, 해당 영역을 길게 한번 터치하였을 때 출력될 학습자료가 따로 할당될 수 있다. 또한 해당 영역을 짧게 두 번 터치하였을 때 출력될 학습자료가 별도로 할당될 수도 있다. 그에 따라 복수의 영역 각각에 대하여 이와 같이 학습자료를 모두 할당하면 이를 저장하여 학습 컨텐츠를 생성할 수 있게 된다. When the user selects any one of the plurality of displayed regions, the learning material related to the item 'ㅅ' corresponding to the selected region is received. At this time, learning materials are input separately according to the input method. That is, the voice data 'siot' and the text data 'siot' may be allocated as the learning data to be output when the corresponding area is touched briefly, and the learning data to be output when the corresponding area is touched once long may be allocated separately. . In addition, the learning material to be output when the user touches the area twice twice may be separately allocated. Accordingly, when all the learning materials are allocated to each of the plurality of regions, the learning contents can be generated by storing them.
한편 도 8은 도 3에 도시된 학습 컨텐츠 생성 방법의 S400 단계의 보다 실시예를 도시한 흐름도이다. 도 8을 참조하여 도 3에 도시된 학습 컨텐츠 생성 방법에서 학습 컨텐츠를 이미지 자료(I)와의 대응관계를 표시하여 저장하는 과정을 설명한다. Meanwhile, FIG. 8 is a flowchart illustrating a more exemplary embodiment of step S400 of the method of generating learning content illustrated in FIG. 3. Referring to FIG. 8, a process of displaying and storing a corresponding relationship with the image material I in the learning content generating method illustrated in FIG. 3 will be described.
우선, 위에서 설명한 바와 같이, 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법에 의하여 생성되는 학습 컨텐츠는 이미지 자료(I)를 기반으로 한다. 즉, 사용자가 단말기(100) 상에 표시되는 이미지 자료(I)에 배열된 복수의 아이템 중 어느 하나를 선택하였을 때 해당 아이템에 대응하는 학습자료가 출력되도록 하는 학습 컨텐츠를 생성하기 위해서는 먼저 특정한 이미지 자료(I)가 선택되어야 한다. 따라서 생성되는 각각의 학습 컨텐츠들은 하나의 이미지 자료(I)와 대응된다. 이를 위하여 생성되는 각각의 학습 컨텐츠에는 각각의 이미지 자료(I)와의 대응관계가 표시된다.First, as described above, the learning content generated by the learning content generating method according to an embodiment of the present invention is based on the image material (I). That is, when a user selects any one of a plurality of items arranged in the image material I displayed on the terminal 100, in order to generate the learning content for outputting the learning material corresponding to the item, a specific image is first generated. Data (I) should be selected. Thus, each of the generated learning contents corresponds to one image material (I). For each learning content generated for this purpose, a correspondence with each image material I is displayed.
S410 단계에서는 우선 생성하고자 하는 학습 컨텐츠에 대응하는 이미지 자료(I)에 식별정보가 할당된다. 예를 들어, 상기 이미지 자료(I)가 디지털 이미지에 해당하는 경우에는 디지털 이미지에 이미 할당된 파일명을 그대로 식별정보로서 할당하거나 새로운 파일명을 할당함으로써 S410 단계가 수행된다. In operation S410, first, identification information is allocated to the image material I corresponding to the learning content to be generated. For example, when the image data I corresponds to a digital image, step S410 is performed by allocating a file name already assigned to the digital image as identification information or allocating a new file name.
한편 상기 이미지 자료(I)가 아날로그 이미지에 해당하는 경우에는 아날로그 이미지에 번호나 문자, 패턴 중 적어도 하나로 구성되는 식별정보를 부여한다. 예를 들어, 특정 아날로그 이미지에 대응하는 학습 컨텐츠를 생성하고자 하는 경우, 아날로그 이미지에 식별번호를 부여하거나, 또는 아날로그 이미지의 특정위치에 표시될 수 있는 식별패턴을 부여할 수 있다. On the other hand, when the image data I corresponds to an analog image, identification information including at least one of a number, a letter, and a pattern is assigned to the analog image. For example, when generating learning content corresponding to a specific analog image, an identification number may be assigned to the analog image, or an identification pattern that may be displayed at a specific position of the analog image may be assigned.
아날로그 이미지에 식별패턴을 부여하는 경우에는 상기 학습용 단말기(100)에는 이와 같은 식별패턴을 인식할 수 있는 패턴인식수단을 별도로 배치하고, 아날로그 이미지를 상기 학습용 단말기(100)에 설치하였을 때 상기 패턴인식수단의 위치에 대응하는 위치에 상기 식별패턴이 위치하여 상기 패턴인식수단이 식별패턴을 독출할 수 있도록 한다. 예를 들어, 상기 식별패턴은 미리 정해진 위치에 그려진 복수의 사각형의 일부를 검정색으로, 나머지를 흰색으로 표시하여 생성할 수 있다. 사각형이 4개인 경우, 4개의 사각형 모두를 흰색으로 표시한 경우부터, 사각형 모두를 검정색으로 표시한 경우까지 모두 24개, 즉 16개의 서로 다른 경우의 수를 나타낼 수 있다. 이 경우 상기 S410 단계에서는 식별패턴의 이미지를 화면에 출력하여, 화면에 출력된 식별패턴과 동일한 패턴을 사용자가 직접 아날로그 이미지의 특정 영역에 표시할 수 있도록 한다. When the identification pattern is assigned to the analog image, a pattern recognition means for recognizing the identification pattern is separately disposed on the learning terminal 100, and the pattern recognition when the analog image is installed in the learning terminal 100. The identification pattern is located at a position corresponding to the position of the means so that the pattern recognition means can read the identification pattern. For example, the identification pattern may be generated by displaying a portion of the plurality of squares drawn at a predetermined position in black and the others in white. In the case of four squares, the number of two or four , that is, 16 different cases may be represented from the case where all four rectangles are displayed in white, to the case where all the rectangles are displayed in black. In this case, in step S410, the image of the identification pattern is output on the screen, so that the user can directly display the same pattern as the identification pattern output on the screen in a specific area of the analog image.
이와 같이 S410 단계에서 상기 이미지 자료(I)에 식별정보가 할당된 후, 생성할 학습 컨텐츠의 명칭이 결정되면(S420), 결정된 명칭으로 학습 컨텐츠를 생성하여 저장한다(S430). 상기 학습 컨텐츠의 명칭은 사용자로부터 입력받거나 자동으로 결정된다. 상기 이미지 자료(I)에 할당된 식별정보와 관련된 명칭으로 결정될 수 있다. 여기서 상기 학습 컨텐츠에는 상기 이미지 자료(I) 상에 설정된 각 영역의 위치, 각 영역에 대응되는 학습자료들, 각각의 영역과 학습자료들 사이의 대응관계가 모두 포함된다. 즉, 상기 이미지 자료(I)에 배열된 각 아이템에 대응하는 영역 정보와, 음성, 텍스트, 이미지, 동영상 등의 학습자료들과, 이들의 대응관계가 함께 저장된다. As such, after identification information is assigned to the image data I in step S410, when the name of the learning content to be generated is determined (S420), the learning content is generated and stored under the determined name (S430). The name of the learning content is input from the user or automatically determined. It may be determined by a name associated with the identification information assigned to the image material (I). In this case, the learning content includes a location of each area set on the image material I, learning materials corresponding to each area, and a corresponding relationship between each area and the learning materials. That is, area information corresponding to each item arranged in the image data I, learning materials such as voice, text, image, and video, and their corresponding relations are stored together.
그리고 상기 이미지 자료(I)와 상기 학습 컨텐츠 사이의 대응관계가 저장된다(S440). 즉, 특정 학습 컨텐츠가 어떤 이미지 자료(I)를 기반으로 한 것인지 여부를 학습 컨텐츠와 함께 저장한다. 이를 위하여 상기 이미지 자료(I)에 할당된 식별정보와 상기 학습 컨텐츠의 명칭 사이의 대응관계를 저장한다. 다만 상기 S440 단계는 필수적으로 수행되어야 하는 단계는 아니다. 예를 들어 상기 이미지 자료(I)에 할당된 식별정보를 그에 대응하는 학습 컨텐츠의 명칭으로 그대로 사용하는 경우 별도의 대응관계를 저장할 필요는 없다.The correspondence between the image data I and the learning content is stored (S440). That is, it stores with the learning content whether the specific learning content is based on what image material (I). For this purpose, the correspondence between the identification information assigned to the image data I and the name of the learning content is stored. However, the step S440 is not necessarily a step to be performed. For example, if the identification information allocated to the image material I is used as the name of the learning content corresponding thereto, there is no need to store a separate correspondence relationship.
한편 위에서 상기 이미지 자료(I)가 디지털 이미지인 경우, 상기 이미지 자료(I)는 별도의 식별정보 없이 상기 학습 컨텐츠 내에 함께 저장될 수도 있다.On the other hand, when the image material (I) is a digital image from above, the image material (I) may be stored together in the learning content without additional identification information.
도 9a은 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법에서 이미지 자료를 생성하는 방법을 단계적으로 도시한 흐름도이고, 도 9b는 도 9a에 도시된 이미지 자료 생성 방법에 의하여 이미지 자료와 학습 컨텐츠를 생성하는 경우의 화면 예시도이다. FIG. 9A is a flowchart illustrating a method of generating image data in a method of generating learning content according to an embodiment of the present invention. FIG. 9B is a diagram illustrating image data and learning content generated by the method of generating image data shown in FIG. 9A. The screen is an example of the case.
도 9a에 도시된 바와 같은 이미지 자료를 생성하는 방법의 하나의 예는, 상기 이미지 자료(I)로서 디지털 이미지를 사용하는 경우에 한정된다. 또한 이는 본 발명의 실시예에서 부가적으로 수행될 수 있는 이미지 자료 생성 방법의 일실시예에 불과하고 다른 방식에 의해서도 이미지 자료가 생성될 수 있다.One example of a method of generating image material as shown in FIG. 9A is limited to the case of using a digital image as the image material I. In addition, this is only one embodiment of the image data generating method that can be additionally performed in the embodiment of the present invention and image data may be generated by other methods.
도면에 도시된 바와 같이, 이미지 자료 생성을 위한 일실시예는 미리 정해진 복수의 영역 분할 방식이 제공되는 단계로부터 시작된다(S500). 이미지 자료(I) 생성 이전에 먼저 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 미리 정해져 있는 여러가지 영역 분할 방식이 사용자에게 제공되고, 제공된 방식 중 어느 하나를 사용자로부터 선택받는다(S510). As shown in the figure, an embodiment for generating image data starts with the step of providing a plurality of predetermined region division schemes (S500). Prior to generation of the image data I, various region division schemes predetermined in the learning terminal 100 or the computer 200 are provided to the user, and any one of the provided schemes is selected by the user (S510).
선택된 방식에 따라 분할된 각 영역이 화면에 표시되고, 사용자는 표시된 화면에서 하나의 영역을 선택하여 해당 영역에 표시될 아이템의 이미지를 선택한다(S520). Each divided area is displayed on the screen according to the selected method, and the user selects one area on the displayed screen to select an image of an item to be displayed on the corresponding area (S520).
즉, 도 9b에 도시된 바와 같이, 사용자가 미리 정해진 복수의 영역 분할 방식 중 가로 4분할, 세로 4분할 방식을 선택한 경우, 화면 일측에는 그와 같이 분할된 영역의 이미지가 도시되고, 사용자는 분할된 16개의 영역을 순차적으로 선택하여 해당 영역에 디스플레이될 아이템의 이미지를 선택할 수 있다. That is, as illustrated in FIG. 9B, when the user selects a horizontal 4-split or vertical 4-split scheme among a plurality of predetermined region division schemes, an image of the divided regions is shown on one side of the screen, and the user divides the screen. The selected 16 areas may be sequentially selected to select an image of an item to be displayed in the corresponding area.
그리고 모든 영역에 표시될 아이템이 선택되면(S530), 각 영역에 표시되는 아이템 이미지가 배열된 하나의 이미지 자료(I)를 생성하고 저장한다(S540).When items to be displayed in all areas are selected (S530), one image data I in which item images displayed in each area are arranged is generated and stored (S540).
이와 같은 방식에 의하여 이미지를 생성하는 경우, 도 9b에 도시된 바와 같이 이미지를 생성함과 동시에, 아이템이 배열되는 각 영역을 도 3의 S100 단계의 수행에 의하여 설정된 영역으로 할 수 있고, 각 영역에 아이템 이미지를 배열함과 동시에 해당 영역에 대응하는 학습 자료를 함께 대응시킬 수 있으므로, 이미지 생성, 영역 설정, 학습자료 할당을 위한 각 단계가 병렬적으로 동시에 수행될 수 있다. When the image is generated in this manner, as shown in FIG. 9B, each region where the items are arranged may be set as the region set by performing step S100 of FIG. By arranging the item images at the same time, the corresponding learning materials corresponding to the corresponding areas can be matched together, so that each step for image generation, area setting, and learning material allocation can be performed in parallel at the same time.
위와 같이 설명한 본 발명에 의한 학습 컨텐츠 생성 방법의 실시예는 이미 설명한 바와 같이 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에서 모두 수행될 수 있고, 이를 위하여 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에는 각각 화면 디스플레이를 위한 디스플레이 수단, 사용자로부터 명령이나 데이터를 입력받기 위한 입력수단 등을 포함한다. 도 2b에 도시된 바와 같은 컴퓨터(200)의 구성에 의하여 학습 컨텐츠가 생성되고 도 2a에 도시된 바와 같은 구성을 갖는 학습용 단말기(100)로 생성된 학습 컨텐츠가 다운로드 되는 경우, 상기 학습용 단말기(100)에 학습 컨텐츠 생성을 위한 구성을 추가하지 않아도 된다는 이점이 있다.Embodiments of the method for generating learning content according to the present invention as described above may be performed in the learning terminal 100 or the computer 200 as described above, and for this purpose, the learning terminal 100 or the computer ( 200 includes display means for screen display, input means for receiving a command or data from a user, and the like. When learning content is generated by the configuration of the computer 200 as shown in FIG. 2B and the learning content generated by the learning terminal 100 having the configuration as shown in FIG. 2A is downloaded, the learning terminal 100 is downloaded. ), There is no need to add a configuration for generating learning content.
본 발명에 의한 학습 컨텐츠 생성 방법의 실시예를 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에서 수행하기 위하여는 상기 학습용 단말기(100) 또는 상기 컴퓨터(200)에 학습 컨텐츠 생성 프로그램이 저장되고, 이를 상기 컨트롤러(15) 또는 상기 제어부(230)가 실행할 수 있다. In order to perform an embodiment of the method of generating learning content according to the present invention in the learning terminal 100 or the computer 200, a learning content generating program is stored in the learning terminal 100 or the computer 200. The controller 15 or the controller 230 may execute this.
상기 컴퓨터(200)에서 학습 컨텐츠를 생성하는 경우, 상기 컴퓨터(200)에 통신모듈이 구비된다면, 통신모듈을 이용하여 사용자가 인터넷에 접속할 수 있고, 학습 컨텐츠 생성에 필요한 각종 이미지 및 음성 자료들을 용이하게 획득할 수 있다는 장점도 있다. 이 경우, 상기 학습용 단말기(100)에서 이용되는 학습 컨텐츠의 공유를 위한 인터넷 서버를 제공하면, 다수의 이용자가 각자 자체 제작한 학습 컨텐츠를 서로 업로드 및 다운로드 함으로써, 개개의 이용자는 매우 다양한 학습 컨텐츠를 활용할 수도 있다. 상기 인터넷 서버에서는 학습 컨텐츠 생성을 위한 각종 아이템을 제공할 수도 있다. In the case of generating the learning content in the computer 200, if the computer 200 is provided with a communication module, the user can access the Internet using the communication module, and various image and audio materials necessary for generating the learning content can be easily There is also an advantage that can be obtained easily. In this case, if an Internet server for sharing the learning content used in the learning terminal 100 is provided, a plurality of users upload and download their own self-produced learning content to each other, so that each user can learn a wide variety of learning content. It can also be used. The internet server may provide various items for generating learning content.
한편 이하에서는 위와 같이 생성된 학습 컨텐츠를 이용한 학습 방법을 설명한다. 도 10는 본 발명의 실시예에 의하여 생성된 학습 컨텐츠를 이용한 학습 방법을 단계적으로 도시한 흐름도이다. On the other hand, the following describes a learning method using the generated learning content as described above. 10 is a flowchart illustrating a learning method using learning content generated by an embodiment of the present invention in stages.
도 10에 도시된 바와 같이 도 3을 참조하여 설명한 본 발명의 실시예에 의한 학습 컨텐츠 생성 방법에 의해 생성된 학습 컨텐츠를 이용한 학습 방법은 사용자로부터 특정 이미지 자료(I)를 선택받아 이를 디스플레이(S900)하는 단계로부터 시작된다.As shown in FIG. 10, in the learning method using the learning content generated by the learning content generation method according to the embodiment of the present invention described with reference to FIG. 3, a specific image material I is selected by the user and displayed (S900). Is begun.
상기 이미지 자료(I)가 디지털 이미지인 경우, 사용자가 상기 학습용 단말기(100)에 저장된 하나 이상의 이미지 자료(I) 중 어느 하나를 선택하고, 선택된 이미지 자료(I)가 디스플레이됨으로써 수행될 수 있다. 반면에 상기 이미지 자료(I)가 아날로그 이미지인 경우, 사용자가 특정 아날로그 이미지를 선택하여 이를 상기 학습용 단말기(100)에 설치함으로써 수행될 수 있다. 아날로그 이미지의 경우, 상기 학습용 단말기(100)에 저장된 각 아이템의 설정 영역과 실제 아날로그 이미지의 해당 영역이 대응되어야 하므로, 상기 아날로그 이미지를 상기 학습용 단말기(100)의 특정 기준점에 맞추어 설치할 수 있도록 한다. 예를 들어, 도 1b에 도시된 바와 같은 단말기에서는 상기 두 개의 초음파수신센서(S1) 사이에 기준점을 표시하여 사용자가 상기 아날로그 이미지의 상측 변의 중심을 맞출 수 있도록 할 수 있다.When the image material I is a digital image, the user may select one of the one or more image materials I stored in the learning terminal 100, and the selected image material I may be displayed. On the other hand, when the image data I is an analog image, the user may select a specific analog image and install it on the learning terminal 100. In the case of the analog image, since the setting area of each item stored in the learning terminal 100 and the corresponding area of the actual analog image must correspond, the analog image can be installed according to a specific reference point of the learning terminal 100. For example, the terminal as shown in FIG. 1B may display a reference point between the two ultrasonic receiving sensors S1 to allow the user to center the upper side of the analog image.
그리고 위와 같이 선택된 이미지 자료(I)가 디스플레이되면 상기 학습용 단말기(100)의 컨트롤러(15)는 저장된 학습 컨텐츠 중 상기 이미지 자료(I)에 대응하는 학습 컨텐츠를 검색한다(S910). 상기 이미지 자료(I)가 디지털 이미지인 경우에는 선택된 디지털 이미지에 대응하는 학습 컨텐츠를 상기 컨트롤러(15) 인식할 수 있으나, 아날로그 이미지인 경우에는 사용자로부터 대응되는 학습 컨텐츠를 선택받거나, 또는 아날로그 이미지의 특정 영역에 표시된 식별정보를 독출하여 그에 대응하는 학습 컨텐츠를 검색할 수 있다.When the selected image material I is displayed as described above, the controller 15 of the learning terminal 100 searches for learning content corresponding to the image material I among the stored learning content (S910). When the image data I is a digital image, the controller 15 may recognize the learning content corresponding to the selected digital image. In the case of the analog image, the corresponding learning content is selected by the user, The identification information displayed in the specific area may be read and the learning content corresponding thereto may be searched for.
그리고 대응되는 학습 컨텐츠가 검색되면, 사용자의 터치 입력에 대기한다(S920). 사용자가 상기 이미지 자료(I)의 특정 영역에 터치 입력을 가하면(S930), 상기 학습 컨텐츠에 포함된 각 영역과 학습자료 사이의 대응관계를 이용하여, 해당 영역에 대응하는 아이템과 관련된 학습자료를 검색한다(S940). 즉, 상기 학습 컨텐츠에는 복수의 학습자료와, 각 영역과 학습자료 사이의 대응관계가 모두 포함되므로, 사용자의 터치 입력이 감지된 영역에 대응하는 학습자료를 검색할 수 있다.When the corresponding learning content is found, the user waits for a user's touch input (S920). When the user applies a touch input to a specific area of the image material I (S930), using the correspondence between each area included in the learning content and the learning material, the learning material related to the item corresponding to the corresponding area is displayed. Search (S940). That is, since the learning content includes all of the plurality of learning materials and the corresponding relationship between each area and the learning material, the learning content corresponding to the area where the user's touch input is sensed can be searched.
그리고 검색된 학습자료를 출력함으로써(S950), 사용자가 선택한 아이템에 대한 음성, 텍스트 등의 학습이 가능하도록 한다. And by outputting the searched learning material (S950), it is possible to learn the voice, text, etc. for the item selected by the user.
이때 이미 설명한 바와 같이 상기 학습 컨텐츠 생성 방법의 실시예에서, 복수의 입력 패턴 각각에 대응하는 서로 다른 학습자료를 각각의 영역에 할당한 경우에는 상기 컨트롤러(15)가 사용자의 터치입력 위치 뿐 아니라 터치입력 패턴까지 산출하여 터치 입력 패턴에 대응하는 학습자료를 출력할 수도 있다. As described above, in the embodiment of the learning content generation method, when different learning materials corresponding to each of the plurality of input patterns are allocated to each area, the controller 15 touches not only the touch input position of the user but also the touch. The learning pattern corresponding to the touch input pattern may be output by calculating the input pattern.
도 11은 본 발명의 또 다른 실시예에 의한 학습파일 생성 방법을 단계적으로 도시한 흐름도이고, 도 12는 도 11에 도시된 학습파일 생성방법에 의해 생성된 학습 파일의 일실시예를 도시한 도면이다. FIG. 11 is a flowchart illustrating a method of generating a training file according to another embodiment of the present invention. FIG. 12 is a diagram illustrating an example of a training file generated by the training file generating method of FIG. 11. to be.
상기 학습파일은, 상기 터치감지부(17)가 사용자 입력을 감지할 수 있는 전체 영역 중 미리 설정된 복수의 입력영역 각각에 대해 해당 입력영역으로 사용자 입력이 감지되었을 때 수행되도록 할당된 각 명령과의 대응관계를 포함하는 데이터 파일이다. 즉, 상기 학습파일은 복수의 입력영역에 대해 할당된 명령과, 해당 명령에 대응하여 상기 학습용 단말기(100)에서 출력될 학습자료 사이의 대응관계를 나타내는 데이터를 포함한다.The learning file may be assigned to each command assigned to be executed when a user input is detected as a corresponding input area for each of a plurality of preset input areas among all areas in which the touch sensing unit 17 can detect a user input. Data file containing the mapping. That is, the learning file includes data representing a correspondence relationship between a command allocated to a plurality of input areas and the learning material to be output from the learning terminal 100 in response to the command.
이와 같은 학습파일 생성 방법은, 도 11에 도시된 바와 같이, 상기 터치감지부(17)가 사용자 입력을 감지할 수 있는 전체 영역 중 미리 설정된 복수의 입력영역 각각에 대응하는 하나 이상의 명령을 할당하는 S1100 단계로부터 시작된다. 상기 S1100 단계는 미리 설정된 입력영역 하나 하나에 대하여 그에 대응하는 명령을 할당함으로써 수행된다. 예를 들어, 도 1d에 도시된 바와 같이 5행 4열의 20개의 입력영역이 미리 설정되는 경우, 제1행에 포함된 네 개의 입력영역에 제1명령을 할당하고, 제2행에 포함되는 네 개의 입력영역에 제2명령을 할당할 수 있다. 즉 각각의 입력영역에 모두 서로 다른 명령을 할당해야하는 것은 아니고, 복수의 입력영역에 동일한 명령을 할당할 수도 있다. 또한 모든 입력영역에 반드시 명령을 할당해야하는 것은 아니고, 일부에만 명령을 할당할 수도 있다.As illustrated in FIG. 11, in the learning file generation method, the touch sensing unit 17 allocates one or more commands corresponding to each of a plurality of preset input areas among all areas in which the touch sensing unit 17 can detect a user input. It starts from step S1100. The step S1100 is performed by allocating a command corresponding to each preset input area. For example, as shown in FIG. 1D, when 20 input areas of 5 rows and 4 columns are preset, the first command is allocated to the four input areas included in the first row, and the four commands included in the second row. The second command may be allocated to two input areas. That is, it is not necessary to allocate different commands to each input area, but the same command may be allocated to a plurality of input areas. In addition, it is not necessary to assign a command to all input areas, and a command may be assigned to only some of them.
그리고 S1110 단계에서는 각각의 명령에 대응하여 출력될 학습 자료를 지정함으로써 수행된다. 즉, 예를 들어 하나의 명령에 대응하여 출력될 오디오, 비디오, 텍스트 또는 이미지 데이터를 지정한다. 도 1d에 도시된 바와 같이 5행 4열의 20개의 입력영역이 미리 설정되고, 제1행에 포함된 네 개의 입력영역에 제1명령을 할당하고, 제2행에 포함되는 네 개의 입력영역에 제2명령을, 제3항에 제3명령, 제4항에 제4명령, 그리고 제5항에 제5명령을 각각 할당한 경우, 제1명령에 대응하는 학습 자료 파일을 하나 이상 지정할 수 있다. 이에 따르면, 제1행에 포함된 네 개의 입력영역 중 어느 하나에 사용자 입력이 감지되면, 지정된 학습자료 파일이 출력되도록 할 수 있다.In operation S1110, the training data to be output corresponding to each command is designated. That is, for example, audio, video, text, or image data to be output is designated in response to one command. As shown in FIG. 1D, 20 input regions of 5 rows and 4 columns are preset, and a first command is assigned to four input regions included in the first row, and four input regions included in the second row are assigned. When two instructions are assigned to the third instruction in paragraph 3, the fourth instruction in clause 4, and the fifth instruction in clause 5, one or more learning material files corresponding to the first instruction can be designated. According to this, when a user input is detected in any one of the four input areas included in the first row, the designated learning data file may be output.
그리고 S1120 단계에서는 S1100 단계와 S1110 단계에서, 각각의 입력영역에 대응하여 할당된 명령과, 각 명령에 대응하는 학습자료 파일명이 포함된 하나의 학습파일을 생성한다.In operation S1120, in operation S1100 and S1110, one learning file including a command allocated to each input area and a learning material file name corresponding to each command is generated.
그에 따라 상기 S1120 단계에서 생성되는 학습파일은, 각각의 입력영역과 각 명령 사이의 대응관계, 그리고 각각의 명령과 학습자료 파일명 사이의 대응관계를 포함한다. 예를 들어 상기 학습파일은 마이크로소프트 오피스 액셀 등의 응용프로그램으로 생성되는 액셀파일과 같이 매트릭스를 포함하고, 매트릭스의 각 요소가 미리 설정된 입력영역을 각각 대표하여, 각 입력영역에 대응하는 명령의 명칭이 매트릭스에 각각 기입되고, 명령의 명칭과 출력될 파일의 대응관계 리스트를 포함한다. Accordingly, the learning file generated in step S1120 includes a corresponding relationship between each input area and each command, and a corresponding relationship between each command and the learning data file name. For example, the learning file includes a matrix, such as an Excel file generated by an application program such as Microsoft Office Excel, and each element of the matrix represents a preset input area, and the name of a command corresponding to each input area. Each of these matrices is written, and contains the name of the command and a list of correspondences of the files to be output.
예를 들어, 도 12에 도시된 바와 같이, 기설정된 입력영역이 10행 8열로 총 80개인 경우, 상기 학습파일은 10행 8열의 매트릭스를 포함하고, 매트릭스의 각 영역에는 각각의 명령의 명칭이 기입된다. 즉, 매트릭스의 좌측 상단 4개의 입력영역에는 모두 동일한 명령 A가 할당된다. 그리고 명령 A는 오디오 파일 a.mp3를 출력하도록 하는 명령이 된다. 따라서 이와 같은 경우, 사용자가 복수의 입력영역 중 어느 하나의 영역에 사용자 입력이 감지된 경우, 명령 A에 대응하여 오디오 파일 a.mp3가 출력되도록 한다. 다만, 각 매트릭스에는 학습자료 파일명이 직접 기재될 수도 있다. 다만, 도 12에서는 각각의 명령에 하나의 학습자료 파일만이 대응되는 것으로 기재되어 있으나, 하나의 명령에 대하여 복수의 학습자료 파일이 지정되도록 할 수도 있다. 예를 들어, 하나의 음성 파일과 하나의 이미지 파일이 하나의 명령에 대응하여 지정되도록 할 수도 있다. For example, as shown in FIG. 12, when there are 80 preset input areas in total of 10 rows and 8 columns, the learning file includes a matrix of 10 rows and 8 columns, and each region of the matrix has a name of each command. Is written. That is, the same command A is assigned to all four input regions in the upper left corner of the matrix. Command A is a command to output the audio file a.mp3. Therefore, in this case, when the user detects a user input in any one of the plurality of input areas, the audio file a.mp3 is output in response to the command A. FIG. However, the learning material file name may be directly written in each matrix. In FIG. 12, only one learning material file corresponds to each command, but a plurality of learning material files may be designated for one command. For example, one voice file and one image file may be designated in correspondence to one command.
이와 같은 학습파일은 즉, 상기 학습용 단말기(100)의 터치감지부(17)의 각 입력영역과 상기 이미지 자료(I)에 배열된 각 아이템들과 관련된 학습자료 파일들의 대응관계를 정해주는 역할을 한다. 이를 위해 상기 컨트롤러(15)는 도 12에 도시된 바와 같은 학습파일에 포함된 데이터를 해석하여 상기 터치감지부(17)의 각 입력영역에 사용자 입력이 감지되었을 때 해당 입력영역에 대응하는 학습자료 파일을 검색하여 출력하는 응용프로그램을 실행할 수 있다. Such a learning file serves to determine a correspondence relationship between each input area of the touch sensing unit 17 of the learning terminal 100 and the learning data files associated with each item arranged in the image material I. do. To this end, the controller 15 interprets the data included in the learning file as shown in FIG. 12, and when the user input is detected in each input area of the touch sensing unit 17, the learning material corresponding to the corresponding input area. You can run an application that retrieves and prints files.
따라서 사용자는 상기 학습용 단말기(100)에 디스플레이된 이미지 자료(I)에 대응하는 학습파일을 상기 응용프로그램으로 실행하여 상기 이미지 자료(I)에 배열된 아이템에 관련된 적절한 학습 자료가 출력될 수 있도록 한다.Therefore, the user executes the learning file corresponding to the image material I displayed on the learning terminal 100 with the application program so that appropriate learning material related to the items arranged in the image material I can be output. .
즉, 사용자는 상기 학습파일을 생성할 때, 상기 이미지 자료(I)가 상기 학습용 단말기(100)에 설치된 상태에서, 상기 이미지 자료(I)에 배열된 아이템 각각이 상기 복수의 입력영역 중 어느 입력영역에 대응하는 위치에 배치되는지를 살핀 후, 특정 아이템에 대응하는 위치의 입력영역에는 해당 아이템과 관련된 학습 자료를 출력하는 명령이 할당되도록 한다.That is, when the user generates the learning file, each item arranged in the image material I is input to any one of the plurality of input areas while the image material I is installed in the learning terminal 100. After checking whether it is arranged at a location corresponding to the area, a command for outputting learning data related to the item is allocated to the input area at the location corresponding to the specific item.
이때 상기 학습파일은, 위에서 설명한 바와 같이 컴퓨터 등에서 액셀 등의 문서 편집 프로그램으로 생성하여 상기 학습용 단말기(100)로 다운로드할 수 있고, 별도의 전용 프로그램으로도 생성할 수 있다. 또한 상기 학습용 단말기(100)에서 직접 생성할 수도 있다. In this case, as described above, the learning file may be generated by a document editing program such as an Excel program on a computer, downloaded to the learning terminal 100, or may be generated as a separate dedicated program. In addition, the learning terminal 100 may be generated directly.
상기 학습용 단말기(100)에서 직접 상기 학습파일을 생성하는 경우, 각각의 입력영역을 사용자가 직접 선택한 후, 상기 화면출력부(10)에서 상기 저장부(18)에 저장된 파일들의 리스트를 제공받아 이 중 하나 이상의 파일을 선택하는 방식으로, 각 입력영역에 대응하는 파일을 할당할 수도 있다. 또한 상기 학습용 단말기(100)에서 직접 상기 학습파일을 생성하는 경우, 각각의 입력영역을 사용자가 직접 선택한 후, 해당 입력영역 선택 시 출력될 음성 파일을 사용자가 직접 녹음하여 저장하는 방식으로 학습파일을 생성할 수도 있다. When the learning file is generated directly by the learning terminal 100, after the user directly selects each input area, the screen output unit 10 receives a list of files stored in the storage unit 18. By selecting one or more of the files, a file corresponding to each input area may be allocated. In addition, when the learning file is directly generated by the learning terminal 100, the user directly selects each input area and then records and stores the voice file to be output when the corresponding input area is selected. You can also create
이때 상기 컨트롤러(15)에 의해 실행됨으로써, 학습파일에 포함된 데이터를 해석하여 상기 터치감지부(17)의 각 입력영역에 사용자 입력이 감지되었을 때 해당 입력영역에 대응하는 학습자료 파일을 검색하여 출력하는 응용프로그램은, 다른 방식으로 동작할 수도 있다. 즉, 터치감지부(17)의 특정 입력영역에서 사용자 입력이 감지되면, 해당 입력영역에 대응하는 학습자료 파일을 검색하여 출력하는 동작을 역으로 하여, 먼저 특정 입력영역에 대응하는 학습자료 파일을 출력한 후, 그에 대응하는 입력영역을 사용자가 맞게 선택하는지 여부를 감시하여 결과를 출력하는 방식으로 동작할 수도 있다. 나아가 사용자에게 서로 동일한 학습자료가 출력되도록 설정된 모든 입력영역을 찾아 입력하도록 하거나 입력영역을 순차적으로 선택하여 특정 단어를 만들도록 하는 등 상기 터치감지부(17)의 복수의 입력영역과 그에 대응하는 학습자료를 활용하여 할 수 있는 가능한 학습방법을 다양하게 제공할 수 있다.In this case, the controller 15 executes the data, and analyzes the data included in the learning file to search for the learning data file corresponding to the input area when a user input is detected in each input area of the touch sensing unit 17. The outputting application may operate in other ways. That is, when a user input is detected in a specific input area of the touch sensing unit 17, the operation of searching for and outputting a learning material file corresponding to the input area is reversed. After outputting, it may be operated by monitoring whether the user selects a corresponding input area accordingly and outputting the result. Further, a plurality of input areas of the touch sensing unit 17 and corresponding learning are provided, such as finding and inputting all input areas set to output the same learning material to the user, or sequentially selecting the input areas to make a specific word. It can provide a variety of possible learning methods that can be used with the material.
도 11에 도시된 바와 같은 방법에 의하여 학습파일을 생성하는 경우, 서로 다른 이미지 자료(I)에 대하여, 이미지 자료(I)에 배열된 각 아이템의 위치 및 각 아이템의 의미에 따라 그에 대응하는 학습자료를 적절히 할당할 수 있기 때문에 상기 학습용 단말기(100)의 활용도가 넓어질 수 있다. When the learning file is generated by the method as shown in FIG. 11, with respect to different image data I, the corresponding learning according to the position of each item arranged in the image material I and the meaning of each item corresponding thereto. Since the data can be properly allocated, the utilization of the learning terminal 100 can be widened.
위에서 설명한 바와 같이 각 입력영역에 대응하는 명령과 학습자료 파일을 할당하여 그 대응관계를 별도의 학습파일로 저장하는 방법에 의하면, 이미지 자료(I)의 크기나, 이미지 자료(I)에 배열된 아이템들의 위치가 서로 다르더라도, 이미지 자료에 포함된 아이템과 관련된 학습자료가 출력될 수 있도록 입력영역과 그에 대응되는 학습자료를 지정할 수 있기 때문에, 이미지 자료의 크기나 아이템 배열 위치의 제약을 받지 않는다는 이점이 있다. As described above, according to the method of allocating a command and a training data file corresponding to each input area and storing the corresponding relationship as a separate training file, the size of the image data I or the data is arranged in the image data I. Even if the items are different from each other, the input area and corresponding learning materials can be designated so that learning materials related to the items included in the image data can be output. There is an advantage.
이하에서는 도 13을 참조하여 본 발명의 실시예에 의한 학습용 단말기(100)를 이용한 학습방법을 보다 구체적으로 설명한다. 도 13은 본 발명의 또 다른 실시예에 의한 학습 방법을 단계적으로 도시한 흐름도이다.Hereinafter, a learning method using the learning terminal 100 according to an embodiment of the present invention will be described in more detail with reference to FIG. 13. 13 is a flowchart illustrating a learning method step by step according to another embodiment of the present invention.
도 13에 도시된 바와 같이, 본 발명의 또 다른 실시예에 의한 학습방법은 우선 상기 학습용 단말기(100)에 이미지 자료(I)가 디스플레이되는 S1300 단계로부터 시작된다. 도 1a 내지 1d에 도시된 바와 같이 본 발명의 실시예에 의한 학습용 단말기(100)에서는 이미지 자료(I)의 교체가 가능할 뿐 아니라, 상기 학습파일에 의하여 상기 터치감지부(17)의 각 입력영역에 대응하여 수행되는 명령의 변경이 가능하기 때문에, 상기 S1300 단계에서 다양한 이미지 자료(I)의 교체가 가능하다. 그리고 이미 설명한 바와 같이 상기 학습용 단말기(100)의 사용자 입력의 감지 방법에 따라 디지털 이미지 또는 아날로그 이미지로 표시될 수 있다. As shown in FIG. 13, the learning method according to another embodiment of the present invention starts from step S1300 in which image material I is displayed on the learning terminal 100. As shown in FIGS. 1A to 1D, in the learning terminal 100 according to the embodiment of the present invention, not only the image material I can be replaced, but also the respective input areas of the touch sensing unit 17 by the learning file. Since it is possible to change the command to be performed corresponding to the, in step S1300 it is possible to replace the various image data (I). As described above, the image may be displayed as a digital image or an analog image according to a sensing method of a user input of the learning terminal 100.
또한 위와 같이 이미지 자료(I)가 상기 학습용 단말기(100)에 표시된 후에는 표시된 이미지 자료(I)에 대응하는 학습파일을 실행하는 S1310 단계가 수행된다. S1310 단계에서 학습파일이 실행되면, 상기 컨트롤러(15)는 학습파일에 포함된 데이터를 해석하여 각각의 입력영역에 대응하는 명령과, 각 명령에 대응하는 학습자료 파일 사이의 대응관계를 검출한다. In addition, after the image material I is displayed on the learning terminal 100 as described above, step S1310 of executing the learning file corresponding to the displayed image material I is performed. When the learning file is executed in step S1310, the controller 15 analyzes the data included in the learning file and detects a correspondence between a command corresponding to each input area and a learning material file corresponding to each command.
그리고 S1320 단계에서 특정 입력영역에 대한 사용자의 입력이 감지되면, 상기 학습파일로부터 해당 입력영역에 대응하는 명령이 무엇인지 검출하여, 해당 명령에 대응하는 학습자료를 상기 화면출력부(10)나 음성출력부(11)로 출력하는 S1330 단계를 수행한다.In operation S1320, when a user's input to a specific input area is detected, a command corresponding to the input area is detected from the learning file, and the learning data corresponding to the command is output to the screen output unit 10 or the voice. S1330 to output to the output unit 11 is performed.
즉, 결과적으로는 사용자가 상기 학습용 단말기(100)에서 상기 이미지 자료(I)에 배열된 복수의 아이템 중 특정 아이템을 선택하면, 해당 아이템의 위치에 대응하는 특정 입력영역으로의 사용자 입력이 상기 터치감지부(17)에서 감지되고, 상기 컨트롤러(15)는 현재 실행되고 있는 학습파일의 내용에 기초하여, 사용자의 입력이 감지된 입력영역에 대응하는 명령을 실행한다. 이때 사용자 입력이 감지된 입력영역에 대응하는 명령은, 해당 입력영역에 대응하여 미리 학습파일에 그 파일명이 저장된 학습자료 파일을 상기 저장부(18)에서 검색하여 상기 화면출력부(10)나 상기 음성출력부(11)로 출력하는 것이다. That is, as a result, when the user selects a specific item among the plurality of items arranged in the image material I in the learning terminal 100, the user input to the specific input area corresponding to the position of the item is touched. The controller 15 sensed by the sensing unit 17 and the controller 15 executes a command corresponding to the input area where the user's input is sensed based on the contents of the learning file currently being executed. In this case, the command corresponding to the input area in which the user input is detected may be searched in the storage unit 18 for the learning data file whose file name is stored in the learning file in advance in correspondence with the corresponding input area. It is output to the voice output unit 11.
이에 따르면, 현재 실행 중인 학습파일에 따라 동일한 입력영역에 대한 사용자 입력도 서로 다른 명령으로 인식되고 수행될 수 있기 때문에, 다양한 이미지 자료(I)를 이용한 학습이 가능해진다. According to this, since the user input for the same input area may be recognized and performed by different commands according to the currently executing learning file, learning using various image data I is possible.
본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

Claims (19)

  1. 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 위한 학습 컨텐츠 생성방법에 있어서,In the learning content generation method for a learning terminal that outputs the learning material corresponding to the selected item of the plurality of items arranged on one image,
    (a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에 대하여 상기 이미지에 배열된 각 아이템에 대응되는 영역을 설정하는 단계와;(a) setting an area corresponding to each item arranged in the image with respect to the image data consisting of one image arranged with a plurality of items;
    (b)상기 (a)단계에서 설정된 각 영역에 대응하는 아이템과 관련된 학습자료를 각 영역에 대응시키는 단계와; (b) mapping the learning material associated with the item corresponding to each area set in step (a) to each area;
    (c)상기 (b)단계에서 각 영역에 대응된 학습자료들을 이용하여 하나의 학습 컨텐츠를 생성하는 단계; 그리고 (c) generating one learning content using the learning materials corresponding to each area in step (b); And
    (d)생성된 학습 컨텐츠와 상기 이미지자료와의 대응관계를 표시하여 저장하는 단계를 포함하여 구성되고,(d) displaying and storing a corresponding relationship between the generated learning content and the image data, and
    상기 (d)단계는,In step (d),
    (d1)상기 이미지자료에 하나의 식별정보를 할당하는 단계와;(d1) assigning one piece of identification information to the image data;
    (d2)상기 (c)단계에서 생성된 학습 컨텐츠의 이름을 생성하여 저장하는 단계;그리고(d2) generating and storing a name of the learning content generated in step (c); and
    (d3)상기 (d1)단계에서 할당된 식별정보와 상기 (d2)단계에서 생성된 학습 컨텐츠의 이름 사이의 대응관계를 저장하는 단계를 포함하여 구성됨을 특징으로 하는 학습 컨텐츠 생성방법. and (d3) storing a corresponding relationship between the identification information allocated in the step (d1) and the name of the learning content generated in the step (d2).
  2. 청구항 1에 있어서,The method according to claim 1,
    상기 (a)단계는,In step (a),
    (a11)미리 정해진 복수의 영역 분할 방식을 제공하는 단계와;(a11) providing a plurality of predetermined region division schemes;
    (a12)제공된 복수의 영역 분할 방식 중 어느 하나를 선택받는 단계와; (a12) receiving one of a plurality of region division schemes provided;
    (a13)선택된 방식에 따라 분할된 각 영역의 크기 및 위치를 연산하는 단계; 그리고(a13) calculating the size and position of each divided region according to the selected method; And
    (a14)연산된 영역을 상기 이미지에 배열된 각 아이템에 대응되는 영역으로 설정하는 단계를 포함하여 구성됨을 특징으로 하는 학습 컨텐츠 생성방법. and (a14) setting the calculated region to a region corresponding to each item arranged in the image.
  3. 청구항 2에 있어서,The method according to claim 2,
    상기 이미지가 아날로그 이미지인 경우,If the image is an analog image,
    상기 (a)단계는,In step (a),
    (a15)상기 (a13)단계의 수행 이전에 상기 아날로그 이미지의 가로, 세로 길이를 입력받는 단계를 더 포함하고,(a15) further comprising receiving a horizontal and vertical length of the analog image before performing the step (a13),
    상기 (a14)단계에서는 상기 (a15)단계에서 입력받은 이미지의 가로, 세로 길이를 이용하여 각 영역의 크기 및 위치를 연산하는 것을 특징으로 하는 학습 컨텐츠 생성방법. In the step (a14), the learning content generation method, characterized in that for calculating the size and position of each area using the horizontal and vertical length of the image input in the step (a15).
  4. 청구항 1에 있어서,The method according to claim 1,
    상기 (a)단계는,In step (a),
    (a21)상기 이미지의 디지털 샘플을 디스플레이하는 단계와;(a21) displaying digital samples of the image;
    (a22)상기 디지털 샘플의 일부 영역을 선택받는 단계와;(a22) receiving a partial region of the digital sample;
    (a23)선택된 영역의 크기 및 위치를 연산하는 단계; 그리고(a23) calculating a size and a position of the selected area; And
    (a24)연산된 영역을 상기 이미지에 배열된 각 아이템에 대응되는 영역으로 설정하는 단계를 포함하여 수행됨을 특징으로 하는 학습 컨텐츠 생성방법. and (a24) setting the calculated region to an area corresponding to each item arranged in the image.
  5. 청구항 4에 있어서,The method according to claim 4,
    상기 이미지가 아날로그 이미지인 경우,If the image is an analog image,
    상기 (a)단계는,In step (a),
    (a25)상기 (a23)단계의 수행 이전에 상기 아날로그 이미지의 가로, 세로 길이를 입력받는 단계를 더 포함하고,(a25) further comprising receiving the horizontal and vertical lengths of the analog image before performing the step (a23),
    상기 (a24)단계에서는 상기 (a25)단계에서 입력받은 이미지의 가로, 세로 길이를 이용하여 각 영역의 크기 및 위치를 연산하는 것을 특징으로 하는 학습 컨텐츠 생성방법. In the step (a24), the learning content generation method, characterized in that for calculating the size and position of each area using the horizontal and vertical length of the image input in the step (a25).
  6. 청구항 1에 있어서, The method according to claim 1,
    상기 (b)단계의 상기 학습자료는 The learning material of step (b)
    아이템과 관련된 음성자료, 텍스트자료, 이미지자료, 및 동영상자료 중 적어도 하나를 포함하는 것을 특징으로 하는 학습 컨텐츠 생성방법.Learning content generation method comprising at least one of audio data, text data, image data, and video data associated with the item.
  7. 청구항 6에 있어서,The method according to claim 6,
    상기 음성자료는,The voice data,
    텍스트로 입력된 자료를 TTS(Text-To-Speech) 변환하여 생성함을 특징으로 하는 학습 컨텐츠 생성방법. Learning content generation method, characterized in that for generating the text-to-speech (TTS) conversion of the input material in the text.
  8. 청구항 1에 있어서, The method according to claim 1,
    상기 (b)단계는, Step (b),
    상기 (a)단계에서 설정된 각 영역에 대하여, 미리 정해진 복수의 입력 패턴 각각에 대응하는 서로 다른 학습자료를 입력함으로써 이루어짐을 특징으로 하는 학습 컨텐츠 생성방법.Learning content generation method, characterized in that for each area set in step (a), by inputting different learning materials corresponding to each of a plurality of predetermined input patterns.
  9. 청구항 1에 있어서,The method according to claim 1,
    상기 (c)단계에서 생성되는 학습 컨텐츠는, The learning content generated in step (c),
    상기 (a)단계에서 설정된 각 영역정보와, 상기 (b)단계에서 대응된 각 학습자료, 그리고 각 영역과 학습자료 사이의 대응관계를 포함함을 특징으로 하는 학습 컨텐츠 생성방법. And a corresponding relationship between each area information set in step (a), each learning material corresponding to step (b), and each area and learning material.
  10. 청구항 1 내지 청구항 9 중 어느 하나의 학습 컨텐츠 생성방법을 수행하는 컴퓨터 판독 가능 기록 매체. A computer-readable recording medium for performing the method for generating learning contents according to any one of claims 1 to 9.
  11. 복수의 아이템이 배열된 디지털 또는 아날로그 이미지가 표시되는 이미지 디스플레이부와;An image display unit displaying a digital or analog image in which a plurality of items are arranged;
    상기 이미지 디스플레이부에 표시된 이미지 상에 가해지는 사용자의 터치입력을 감지하는 터치감지부와;A touch sensing unit sensing a user's touch input applied to the image displayed on the image display unit;
    텍스트, 이미지, 또는 동영상의 데이터를 출력하는 화면출력부와;A screen output unit configured to output data of a text, an image, or a video;
    음성 데이터를 출력하는 음성출력부; 그리고A voice output unit for outputting voice data; And
    상기 터치감지부에서 감지한 터치입력의 위치를 연산하여 상기 이미지에 배열된 복수의 아이템 중 연산된 터치입력의 위치에 대응하는 아이템과 관련된 학습자료를 출력하는 컨트롤러를 포함하여 구성되고, Comprising a controller for calculating the position of the touch input detected by the touch sensing unit and outputs the learning material associated with the item corresponding to the position of the calculated touch input of the plurality of items arranged in the image,
    상기 컨트롤러는The controller
    사용자로부터 하나의 디지털 또는 아날로그 이미지를 선택받고, 선택받은 이미지에 복수의 서로 다른 영역을 설정하여, 설정된 각 영역에 대응하는 학습자료를 입력받아, 선택받은 이미지에 대응하는 학습 컨텐츠를 생성함을 특징으로 하는 학습용 단말기.One digital or analog image is selected by the user, and a plurality of different areas are set in the selected image to receive learning data corresponding to each set area, and generate learning content corresponding to the selected image. Learning terminal.
  12. 청구항 11에 있어서, The method according to claim 11,
    상기 컨트롤러는, The controller,
    미리 설정된 복수의 입력영역 중 각각의 입력영역과 하나 이상의 학습자료 사이의 대응관계 정보를 포함하는 학습파일을 해석하여 각 입력영역에 대응하는 학습자료명을 검색하는 응용프로그램에 따라, 터치입력이 감지된 입력영역에 대응하는 학습자료를 검색하여 출력하는 것을 특징으로 하는 학습용 단말기. A touch input is detected according to an application program for retrieving a learning file name corresponding to each input area by analyzing a learning file including corresponding relationship information between each input area and one or more learning materials among a plurality of preset input areas. Learning terminal, characterized in that for searching and outputting the learning material corresponding to the input area.
  13. 청구항 11에 있어서,The method according to claim 11,
    상기 터치감지부는, The touch sensing unit,
    상기 복수의 입력영역에 대응하는 복수의 접점을 갖는 두 개의 도전성 금속 필름을 포함하여 구성됨을 특징으로 하는 학습용 단말기. Learning terminal comprising a two conductive metal film having a plurality of contacts corresponding to the plurality of input areas.
  14. 청구항 11에 있어서,The method according to claim 11,
    상기 학습용 단말기는,The learning terminal,
    타 장치로부터 학습자료와 학습파일을 다운로드 받는 연결부를 더 포함하여 구성됨을 특징으로 하는 학습용 단말기. Learning terminal characterized in that it further comprises a connection for downloading the learning material and learning files from other devices.
  15. 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 위한 학습파일 생성방법에 있어서,In the learning file generation method for a learning terminal that outputs the learning material corresponding to the selected item of the plurality of items arranged on one image,
    (a)복수의 아이템이 배열된 하나의 이미지로 구성되는 이미지자료에서 상기 각 아이템에 대하여, 미리 설정된 복수의 입력영역 중 대응하는 하나 이상의 입력영역의 선택을 수신하는 단계와;(a) receiving a selection of a corresponding one or more input areas among a plurality of preset input areas for each item in the image data consisting of one image in which a plurality of items are arranged;
    (b)상기 (a)단계에서 각 아이템에 대해 선택된 하나 이상의 입력영역에 대응하는 하나 이상의 학습자료 파일에 대한 지정을 수신하는 단계; 그리고(b) receiving a designation of one or more learning material files corresponding to one or more input areas selected for each item in step (a); And
    (c)각 입력영역과 학습자료 파일 사이의 대응관계 정보를 하나의 학습파일로 생성하는 단계를 포함하여 구성되는 것을 학습파일 생성방법. and (c) generating the corresponding relationship information between each input area and the learning data file into one learning file.
  16. 청구항 15에 있어서,The method according to claim 15,
    상기 (b)단계는,Step (b),
    (b1) 상기 (a)단계에서 각 아이템에 대해 선택된 하나 이상의 입력영역에 대응하는 하나의 명령을 각각 할당하는 단계; 그리고 (b1) allocating one command corresponding to one or more input areas selected for each item in step (a); And
    (b2) 할당된 각 명령에 대응하여 출력될 하나 이상의 학습자료 파일을 지정하는 단계를 포함하는 것을 특징으로 하는 학습파일 생성방법. (b2) specifying one or more learning material files to be output in correspondence with each assigned command.
  17. 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기를 이용한 학습 방법에 있어서, In the learning method using a learning terminal that outputs the learning material corresponding to the selected item of the plurality of items arranged on one image,
    (A) 선택된 학습파일을 실행하는 단계와; (A) executing the selected learning file;
    (B) 미리 설정된 복수의 입력영역 중 어느 하나에서 사용자 입력을 감지하는 단계와;(B) detecting a user input in any one of a plurality of preset input areas;
    (C) 상기 학습파일로부터 사용자 입력이 감지된 입력영역에 대응하여 지정된 하나 이상의 학습자료 파일을 검색하는 단계; 그리고(C) retrieving one or more designated learning material files corresponding to the input area where a user input is detected from the learning file; And
    (D) 상기 검색된 학습자료 파일에 대응하는 하나 이상의 학습 자료를 출력하는 단계를 포함하여 구성된 것을 특징으로 하는 학습 방법. And (D) outputting one or more learning materials corresponding to the searched learning material files.
  18. 청구항 17에 있어서,The method according to claim 17,
    상기 학습자료는,The learning material,
    아이템과 관련된 음성자료, 텍스트자료, 이미지자료, 및 동영상자료 중 적어도 하나를 포함하는 것을 특징으로 하는 학습 방법. A learning method comprising at least one of audio data, text data, image data, and video data related to an item.
  19. 하나의 이미지상에 배열된 복수의 아이템 중 선택된 아이템에 대응하는 학습 자료가 출력되는 학습 단말기에 설치되어, 상기 단말기로 하여금It is installed in the learning terminal that outputs the learning material corresponding to the selected item of the plurality of items arranged on one image, the terminal
    (1) 하나의 학습파일을 선택받는 단계와;(1) receiving a learning file;
    (2) 선택된 학습파일을 해석하여 학습파일 내에서 미리 설정된 각 입력영역에 대응하는 학습자료명을 독출하는 단계와;(2) interpreting the selected learning file and reading a learning material name corresponding to each preset input area in the learning file;
    (3) 사용자 입력이 감지되면, 사용자 입력이 감지된 입력영역에 대응하는 학습자료명을 검색하는 단계와;(3) if the user input is detected, searching for a learning material name corresponding to the input area where the user input is detected;
    (4) 검색된 학습자료명으로 상기 단말기에 저장된 데이터에서 대응하는 학습자료 파일을 검색하는 단계; 그리고 (4) searching for a corresponding learning material file in the data stored in the terminal with the found learning material name; And
    (5) 검색된 학습자료 파일을 재생하는 단계를 포함하여 수행하도록 하는 것을 특징으로 하는 컴퓨터 판독 가능 기록매체.(5) a computer-readable recording medium, characterized in that for performing the searched learning data file.
PCT/KR2010/009220 2010-02-19 2010-12-22 Study terminal, learning contents generation method, study method, and recording medium thereof WO2011102600A2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020100015298A KR101000463B1 (en) 2010-02-19 2010-02-19 Apparatus for leaning and method for creating learning contents for children
KR10-2010-0015298 2010-02-19
KR1020100095897A KR101060281B1 (en) 2010-10-01 2010-10-01 Apparatus for leaning for children, method for creating learning file, method for learning and storage media for storing program therefor
KR10-2010-0095897 2010-10-01

Publications (2)

Publication Number Publication Date
WO2011102600A2 true WO2011102600A2 (en) 2011-08-25
WO2011102600A3 WO2011102600A3 (en) 2011-11-03

Family

ID=44483434

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/009220 WO2011102600A2 (en) 2010-02-19 2010-12-22 Study terminal, learning contents generation method, study method, and recording medium thereof

Country Status (1)

Country Link
WO (1) WO2011102600A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016089130A1 (en) * 2014-12-04 2016-06-09 주식회사 와이비엠솔루션 Content reproduction system and reproduction method using electronic pen

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960018667U (en) * 1994-11-02 1996-06-19 조영하 Infant Intelligence Learning Equipment
KR200202226Y1 (en) * 2000-05-30 2000-11-15 박종국 E-learner
KR20010078529A (en) * 2000-01-13 2001-08-21 김옥평 Educational aid for children
KR20040083562A (en) * 2003-03-22 2004-10-06 이상협 A dialog learning device of Non-touchable the charge transfer sensor method
KR20060009476A (en) * 2004-07-23 2006-02-01 황명삼 The thing to teach the child
KR20060065958A (en) * 2004-12-11 2006-06-15 주식회사 팬택앤큐리텔 Mobile communication terminal having function of writing study and method thereof
KR100631158B1 (en) * 2006-04-25 2006-10-04 자프린트닷컴 주식회사 Multimedia digital cood printing apparatus and printing method
KR20090097484A (en) * 2008-03-11 2009-09-16 배강원 System and method for language training using multi expression sentence image, recording medium and language study book therefor
KR20100012789A (en) * 2009-01-06 2010-02-08 (주)시누스 Apparatus for early childhood education using wireless signal
KR20100014018A (en) * 2008-08-01 2010-02-10 주식회사대교 Mobile device for electronical studying and electronical studying method using that

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960018667U (en) * 1994-11-02 1996-06-19 조영하 Infant Intelligence Learning Equipment
KR20010078529A (en) * 2000-01-13 2001-08-21 김옥평 Educational aid for children
KR200202226Y1 (en) * 2000-05-30 2000-11-15 박종국 E-learner
KR20040083562A (en) * 2003-03-22 2004-10-06 이상협 A dialog learning device of Non-touchable the charge transfer sensor method
KR20060009476A (en) * 2004-07-23 2006-02-01 황명삼 The thing to teach the child
KR20060065958A (en) * 2004-12-11 2006-06-15 주식회사 팬택앤큐리텔 Mobile communication terminal having function of writing study and method thereof
KR100631158B1 (en) * 2006-04-25 2006-10-04 자프린트닷컴 주식회사 Multimedia digital cood printing apparatus and printing method
KR20090097484A (en) * 2008-03-11 2009-09-16 배강원 System and method for language training using multi expression sentence image, recording medium and language study book therefor
KR20100014018A (en) * 2008-08-01 2010-02-10 주식회사대교 Mobile device for electronical studying and electronical studying method using that
KR20100012789A (en) * 2009-01-06 2010-02-08 (주)시누스 Apparatus for early childhood education using wireless signal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016089130A1 (en) * 2014-12-04 2016-06-09 주식회사 와이비엠솔루션 Content reproduction system and reproduction method using electronic pen

Also Published As

Publication number Publication date
WO2011102600A3 (en) 2011-11-03

Similar Documents

Publication Publication Date Title
WO2017082519A1 (en) User terminal device for recommending response message and method therefor
EP2872971A1 (en) User interface apparatus and method for user terminal
WO2016093518A1 (en) Method and apparatus for arranging objects according to content of background image
WO2011102689A2 (en) Multilingual key input apparatus and method thereof
WO2013151347A1 (en) Apparatus and method for inputting characters
WO2016043482A1 (en) Method of styling content and touch screen device for styling content
WO2014098528A1 (en) Text-enlargement display method
WO2019093819A1 (en) Electronic device and operation method therefor
WO2014035199A1 (en) User interface apparatus in a user terminal and method for supporting the same
WO2020162709A1 (en) Electronic device for providing graphic data based on voice and operating method thereof
WO2016129923A1 (en) Display device, display method and computer-readable recording medium
EP3019932A1 (en) Method for displaying and electronic device thereof
WO2013180407A1 (en) Method for digitizing paper documents by using transparent display or device having air gesture function and beam screen function and system therefor
WO2014027818A2 (en) Electronic device for displaying touch region to be shown and method thereof
WO2019139367A1 (en) Display device and method for touch interface
WO2015182811A1 (en) Apparatus and method for providing user interface
WO2015072803A1 (en) Terminal and method for controlling terminal
WO2019112235A1 (en) Electronic apparatus, control method thereof, and computer readable recording medium
WO2019039739A1 (en) Display apparatus and control method thereof
EP3087752A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2019135553A1 (en) Electronic device, control method thereof, and computer readable recording medium
WO2015088196A1 (en) Subtitle editing apparatus and subtitle editing method
WO2014069815A1 (en) Display apparatus for studying mask and method for displaying studying mask
WO2015142031A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2011102600A2 (en) Study terminal, learning contents generation method, study method, and recording medium thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10846238

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: COMMUNICATION NOT DELIVERED. NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 26.10.2012)

122 Ep: pct application non-entry in european phase

Ref document number: 10846238

Country of ref document: EP

Kind code of ref document: A2