WO2016167517A1 - Method for making emotional e-book using complex functions of terminal - Google Patents

Method for making emotional e-book using complex functions of terminal Download PDF

Info

Publication number
WO2016167517A1
WO2016167517A1 PCT/KR2016/003751 KR2016003751W WO2016167517A1 WO 2016167517 A1 WO2016167517 A1 WO 2016167517A1 KR 2016003751 W KR2016003751 W KR 2016003751W WO 2016167517 A1 WO2016167517 A1 WO 2016167517A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
interface device
unit
user interface
display
Prior art date
Application number
PCT/KR2016/003751
Other languages
French (fr)
Korean (ko)
Inventor
라호준
Original Assignee
라호준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라호준 filed Critical 라호준
Publication of WO2016167517A1 publication Critical patent/WO2016167517A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention provides a technology for implementing a visual, tactile and emotional user interface of a paper book through e-books driven by a touch device, a tilt sensor, a speaker capable of detecting sound, and a humidity device equipped with a humidity measuring device. to be.
  • Microphones on smartphones and tablets are used to collect not only the voice but also the surrounding sounds.
  • the technology of collecting and analyzing sounds can be divided into two types. Among them, the volume analysis technology is applied to increase the call quality of smartphones by increasing the sound of speaking and listening according to the ambient noise.
  • Another technology is the direction analysis of sound, which is usually applied to home appliances by detecting the direction of sound using the time difference of sound transmitted to two or more microphones.
  • the present invention includes a device as an e-book reader such as a smart phone and a smart tablet incorporating a humidity measuring sensor.
  • the problem to be solved by the present invention is the experience of providing the physical characteristics of the paper book by using the display touch interface technology of the terminal, the tilt detection method for the direction of gravity, the collection and analysis technology of the ambient sound, the humidity measurement method comprehensively Feeling that feeling is to embody in the north.
  • the present invention implements the characteristics of the paper book in North Korea by measuring the humidity of the device and the effect of turning the pages by several pages according to the humidity to affect the extent of the pages in combination with the above solutions. .
  • the present invention utilizes the touch interface method of the display unit in the interface device to experience the elastic effect of the paper book, which is experienced in a paper book, when the pages of the book's corners are pulled out of the book in the opposite direction to the pulled direction. .
  • the present invention uses a tilt detection method of the interface device to effect the page turning by gravity when the book is held by the hand.
  • the present invention uses a method of influencing the page turning by analyzing the strength and direction of the sound collected by the microphone of the device to effect the effect of a paper book that turns the page when the wind blows.
  • the present invention combines the above means to implement a natural page effect of an irregular number of pages of a paper book, and sets and implements a detailed situation of an interface.
  • Ebooks are often considered more convenient than paper books in terms of movement and search.
  • one of the fundamental reasons people are reluctant to buy e-books is that they cannot provide the emotional user experience that only paper books have.
  • the emotional experiences of people reading paper books are embodied in e-books to enhance the user experience of e-books.
  • FIG. 1 is a diagram illustrating a configuration of a user interface device having a touch interface unit, a tilt detector, a sound collector, and a humidity collector according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating information for determining a touch by a touch interface unit according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating a reference line for setting a position of a layering setting region in a user interface device according to an embodiment.
  • FIG. 4 is a diagram illustrating an example of setting a position of a layering setting region in a user interface device according to an embodiment.
  • FIG. 5 is a diagram illustrating another example of setting a position of a layering setting region in a user interface device according to an embodiment.
  • FIG. 6 is a diagram illustrating an example of considering a value detected by a tilt detection unit in a user interface device according to an embodiment.
  • FIG. 7 is a diagram illustrating an example in which a sound collector collects sound according to a direction and a volume in a user interface device according to an embodiment.
  • FIG. 8 is a diagram illustrating an example in which a humidity collector collects humidity in a user interface device according to an exemplary embodiment.
  • FIG. 9 is a front view illustrating an example in which a user interface device senses a touch and controls information to display a result on a display.
  • FIG. 10 is a later part of a flowchart illustrating an example in which a user interface device senses a touch and controls the information to display a result on a display.
  • FIG. 11 is a flowchart illustrating an example of detecting an inclination and controlling the information of the user interface device to display a result on a display.
  • FIG. 12 is a flowchart illustrating an example in which a user interface device detects and analyzes sound, controls its information, and displays a result on a display.
  • FIG. 13 is a flowchart illustrating an example in which a user interface device senses humidity, controls information, and displays a result on a display.
  • FIG. 14 is a diagram illustrating an example of a portable terminal having a touch interface unit, a display unit, a tilt detector, a sound collector, and a humidity collector according to an embodiment.
  • FIG. 14 is a diagram illustrating an example of a portable terminal having a touch interface unit, a display unit, a tilt detector, a sound collector, and a humidity collector according to an embodiment.
  • the portable terminal displays an animation of turning a page over to a display unit located below the touch interface unit, and displays a main body 1410 including all other components required for the present invention, a home button, and a camera. It can be seen that the general configuration provided.
  • FIG. 1 is a diagram illustrating a configuration of a user interface device having a touch interface unit, a tilt detector, a sound collector, and a humidity collector according to an exemplary embodiment.
  • the user interface device 100 includes a touch interface unit 110, a controller 120, a tilt detector 130, a sound collector 140, a humidity collector 150, and a storage 160. And a display unit 170.
  • the touch interface unit 110 may include at least one, or at least one, of an ordinary film type electric film sensor that electrically changes a change in pressure, voltage, or both in response to a physical change applied from the outside. Can be used to detect physical changes.
  • the controller 120 determines at least one of a physical change range and a physical change direction. In this case, whether the tilt detection unit 130, the sound collecting unit 140 and the humidity collecting unit 150 is operated by the touch interface unit 110 may be controlled.
  • FIG. 2 is a diagram illustrating information determined by a touch interface unit according to an exemplary embodiment.
  • the controller 120 may determine a moving direction 210, a moving speed 220, a pressure 230, and the like collected by the touch interface unit 110.
  • the touch interface unit 110 and the display unit 170 may be seen as a bundle to match the touch and the display.
  • the tilt detector 130 may detect a degree of inclination of the user interface device 100.
  • the sound collector 140 collects sounds around the user interface device 110.
  • the humidity collector 150 collects humidity around the user interface device 110.
  • the storage unit 160 stores an operating system, application programs corresponding to layers, and storage data for controlling the overall operation of the user interface device 100.
  • the touch interface 110, the tilt detector 130, the sound collector 140, and the humidity collector 150 may control the operation of other units. For example, when the preset application is driven, the touch interface unit 110 controls the tilt detector 130, the sound collector 140, and the humidity collector 150 to be operated, or the touch interface unit 110 is operated. When a touch is detected, an interface using the tilt detector 130, the sound collector 140, and the humidity collector 150 may be serviced.
  • the touch interface 110 detects a touch in the preset layering setting area 210
  • the touch interface 110 detects a physical change of the touch
  • the controller determines the detected information, and according to the result, the display 170 displays the touch interface unit.
  • Layers may be hierarchically displayed in an area matching the layered setting area 210 of 110.
  • the hierarchically displayed layer may be each page of a book when the e-book app is executed, as well as all applications that can be displayed in a so-called card type interface that displays and stacks information hierarchically.
  • FIG. 3 is a diagram illustrating a reference line for setting a position of a layering setting region in a user interface device according to an embodiment.
  • the touch interface unit 110 may check the left or right direction to be displayed on the display unit 170 by using reference lines having X and Y axes.
  • the baseline can be made anywhere on X and Y.
  • the touch interface unit 110 may set a preset range as a layering setting area based on a predetermined reference line, or set an edge such as e-book expressed on the display unit 170 as a layering setting area. It may be.
  • FIG. 4 is a diagram illustrating an example of setting a position of a layering setting area 430 in a user interface device according to an exemplary embodiment.
  • the touch interface unit 110 selects a layer corresponding to the highest layer among the selected plurality of layers.
  • the touch interface unit 110 may select a layer having the largest area touched among the plurality of selected layers.
  • the movement direction 410 is distributed on the right side based on the Y axis of FIG. 3.
  • the control unit presses a layer of each page on a portion of the display unit 170 that matches the layering setting area 430.
  • Pages that display the animations that are heard or heard, and at the same time have a value of a layer selected in the layering setting area 430 and released by moving on the left side of the display unit 170 corresponding to a portion except the layering setting area 430. From this, you can display animations that move sequentially to the left.
  • the two animations on the left and the right may be undivided ones or may be divided into two parts and adjusted to be naturally connected to each page unit.
  • the layout in the entire display of the layered setup area 430 may be four separate individual directions, including right, left, top, bottom, or any valid optional combination of directions, each The operation method according to the four-way corner may be applied by adjusting the method according to the right arrangement of the layered setting area 430 in a direction that is adapted to each arrangement.
  • FIG. 5 is a diagram illustrating another example of setting a position of a layering setting region in a user interface device according to an embodiment.
  • the size of the left display surface excluding the layering setting area 420 may be a preset size or may be changed according to the number of layers that the layering setting area 430 has.
  • the touch interface unit 110 detects a physical change in a predetermined pressure, a moving direction, and a moving speed in a touched state as shown in FIG. 5, the layered setting area extends from the touch position 510 to the outside of the touch interface unit. It may be set to 520.
  • the outer edge of the layered setting area 520 may consider the moving direction 410 and the moving speed 420 including the right detected by the touch interface unit 110 as shown in FIG. 4, and the touch interface unit Consider the movement direction and the movement speed including the left side of 110.
  • FIG. 6 is a diagram illustrating an example of considering a value detected by a tilt detection unit in a user interface device according to an embodiment.
  • inclination information considering the gravitational direction 640 detected by the tilt detection unit 630 included in the user interface device 100 may be touched in the layered setting area 620 of the touch interface unit 110. It may be controlled so as to affect the information of the left layer other than the position 610 selected so as to display the animation on which the corresponding pages are skipped on the display unit 170. Meanwhile, even when no touch is applied, the information of the tilt may cause the display unit 170 to display an animation of turning pages.
  • FIG. 7 is a diagram illustrating an example in which a sound collector collects sound according to a direction and a volume in a user interface device according to an embodiment.
  • the sound outside the interface device 100 detected by the sound collector 730 is analyzed by the controller as the volume and the position of the sound, and is included in the layering setting area 720 of the touch interface 110. It may be controlled to operate on information of the left layer other than the touch position 710 and to display an animation of turning pages corresponding to the display unit 170. Meanwhile, even when no touch is applied, the sound volume and the position information of the sound may be controlled to display an animation of turning the pages on the display unit 170.
  • FIG. 8 is a diagram illustrating an example in which a humidity collector collects humidity in a user interface device according to an exemplary embodiment.
  • the ambient humidity information of the interface device 100 detected by the humidity collecting unit 830 is scrolled by selecting a touch location 810 of the layered setting area 820 of the touch interface 110.
  • the weight may affect the extent to which the page of the animation displayed on the display unit 170 is skipped less or more than the scroll selection.
  • the humidity information may affect the degree to which the pages of the animation are skipped.
  • the physical change detected by the touch interface unit 110 is holding the book in the hand and bounces the edges with the fingers to open the bookshelf. It may provide a visual repulsion when it is turned over, provide an intuitive visual experience and feel of flipping through the bookshelf by gripping the book and sliding the thumb, holding the book in your hand and supporting a portion of the edge with your thumb. And use the snaps on the wrist to flip through pages at once, or to flip through the book down to give the experience and the feeling of turning a large number of pages, or to break through the pages that are not well separated.
  • the present invention embodies the unique experience that the paper book provides to the user and the unique sensibility felt in the book based on the interaction between the hand and the surrounding natural environment in real time.
  • the controller 120 may control the overall operation of the user interface device 100.
  • the controller 120 may perform some of the functions of the touch interface 110, the tilt detector 130, the sound collector 140, and the humidity collector 150. You can also assign processing functions.
  • the control unit 120, the touch interface unit 110, the tilt detection unit 130, the sound collecting unit 140, and the humidity collecting unit 150 are illustrated separately to explain each function. Accordingly, the controller 120 may include at least one processor configured to perform a part of each of the functions of the touch interface 110, the tilt detector 130, the sound collector 140, and the humidity collector 150. It may include.
  • FIG. 9 is a front view illustrating an example in which a user interface device senses a touch and controls information to display a result on a display.
  • the user interface device 100 checks whether a touch interface unit is touched.
  • step 910 if a touch of the touch interface unit is detected, the user interface device 100 measures a physical change of the touch interface unit in step 912.
  • the user interface device 100 determines whether the measured information is greater than or equal to a preset value.
  • step 914 If the physical change of the touch interface unit is smaller than the preset value in step 914, the user interface device returns to step 910.
  • the user interface apparatus 100 sets a portion of the touch interface unit as a layered setting region in step 916 based on the preset reference line of the touch interface unit.
  • the user interface device 100 may set an outer layer of the touch interface unit as a layering setting region starting from the touched position.
  • the user interface device 100 hierarchically displays layers through a display unit that matches the layered setting area.
  • the user interface device 100 detects whether a touch is applied to the layered setting region. In this case, when the touch sensed in the layering setting area selects a plurality of layers, the user interface device 100 selects a layer corresponding to the highest layer among the selected plurality of layers.
  • the user interface device 100 enters H. However, according to the user's setting, the user may directly enter step 922.
  • FIG. 13 is a flowchart illustrating an example in which a user interface device senses humidity, controls information, and displays a result on a display.
  • step 13 when the humidity collector is activated in step 1310, when the humidity is collected in step 1312, the humidity information is measured in step 1314, and the humidity information is greater than the preset value in step 1316.
  • the user interface device 100 obtains a weight for displaying an animation on the display more accurately in step 1318, or if the humidity information is greater than or equal to a preset value in step 1316, the user interface device 100 reads 1318.
  • step S the weight is obtained to display the animation on the display part less accurately, and the process returns to R of FIG.
  • the user interface device 100 ends the algorithm of FIG. 13 and returns to R of FIG. 9.
  • the UI apparatus 100 returning to R of FIG. 9 displays an animation in which a corner of a page is pressed or heard in a display unit that matches the layered setting region.
  • the user interface device 100 may display the animation more accurately or less accurately by applying the weight obtained in operation 1318 or 1320 of FIG. 13.
  • the user interface device 100 enters G1 when the tilt detector is activated, or enters S1 when the sound collector is activated, or both the tilt detector and the sound collector.
  • G1 and S1 can be entered in parallel at the same time. However, depending on the user's setting, you may enter A directly.
  • FIG. 11 is a flowchart illustrating an example of detecting an inclination and controlling the information of the user interface device to display a result on a display.
  • the user interface device 100 When the user interface device 100 enters G1 of FIG. 11 from G1 of FIG. 9, the user interface device 100 enters step 1110.
  • step 1110 If the user interface device 100 detects the tilt in step 1110, if the tilt size information is measured in step 1112, if the information is determined in step 1114 and is greater than or equal to the preset value, the display unit in step 1116. In step 1118, a weighting value for displaying an animation is obtained, and the direction of entry into the algorithm of FIG. 11 is determined, and the process returns to F of FIG.
  • step 1110 If the slope is not detected in step 1110 or the value determined in step 1114 is smaller than the preset value, the user interface device 100 ends the algorithm of FIG. 11 and returns to F of FIG. 9.
  • FIG. 12 is a flowchart illustrating an example in which a user interface device detects and analyzes sound, controls its information, and displays a result on a display.
  • step 1210 when the user interface device 100 collects the sound in step 1210, when the sound size and the sound direction information are measured in step 1212, when the information is determined in step 1214, the sound volume is greater than or equal to the preset value.
  • step 1216 when the information is determined and the sound direction is within the preset range value, a weighting value for displaying the animation on the display is obtained faster in step 1218, and the direction of entry into the algorithm of FIG. 12 is determined in step 1220. And return to F of FIG.
  • step 1210 If the loudness is not detected in step 1210, the value determined in step 1214 is smaller than the preset value, or the value determined in step 1216 is larger than the preset value, the user interface device 110 terminates the algorithm of FIG. 11. The process then returns to F in FIG. 9.
  • FIG. 10 is a later part of a flowchart illustrating an example in which a user interface device senses a touch and controls the information to display a result on a display.
  • the user interface device 100 may display the pressure of the scroll, or the direction and speed of the scroll, or the pressure, the direction, and the speed of the scroll, which are started without disconnection from the touch detected in the layering setting area of operation 920 of FIG. 9. If the three measurements are measured, and the information measured in step 1012 is greater than or equal to the preset value, in step 1014, the user interface device 100 displays an animation in which the page is turned over on the display unit that matches the portion other than the layered setting area. do. In this case, the user interface device 100 confirms that the algorithm has passed through H and R of FIG. 9 in step 1014, and may display the animation more accurately or less accurately using the weighting values obtained in steps 1318 or 1320 of FIG. 13.
  • the animation may be displayed more quickly by using one of the weighting values for displaying the animation faster on the display obtained in steps 1116 and 1218 of FIG. 11 or by accumulating both.
  • the animation displayed on the display unit matched with the layered setting region of step 922 of FIG. 9 may be displayed more quickly.
  • the user interface device 100 may start the algorithm from the start step of FIG. 11 when the layering setting area is not activated by the touch. In this case, the user interface device 100 enters H of FIG. 11. However, depending on the user's setting, it may immediately enter step 1110.
  • the user interface device 100 When the user interface device 100 enters H of FIG. 13 through H of FIG. 11, when the humidity collecting unit is activated in operation 1310, when humidity is collected in operation 1312, humidity information is measured in operation 1314. If the humidity information is greater than or equal to the preset value in step 1316, the user interface device 100 obtains a weight for displaying an animation on the display more accurately in step 1318, or the humidity information is set in step 1316. If greater than or equal to, the user interface device 100 obtains a weight for displaying the animation on the display part less accurately in step 1318, and returns to R of FIG. In this case, when the humidity collecting unit is not activated in step 1310 or when the humidity is not collected in step 1314, the user interface device 100 ends the algorithm of FIG. 13 and returns to R of FIG. 11.
  • step 1110 when the user interface device 100 returns to R of FIG. 11 and detects the tilt in step 1110, when the tilt size information is measured in step 1112, the information is determined in step 1114 to be greater than or equal to the preset value.
  • step 1116 a weighting value for displaying the animation is displayed on the display faster. However, depending on the user's setting, it may go directly to step 1120.
  • the user interface device 100 may terminate the algorithm of FIG. 11.
  • step 1214 When the user interface device 100 enters S2 of FIG. 12 from S2 of FIG. 11, when sound is collected in step 1210, when the loudness and sound direction information is measured in step 1212, the information is determined in step 1214. If the sound volume is greater than or equal to the preset value, the information is determined in step 1216. If the sound direction is less than or equal to the preset value, the weighted value for displaying the animation on the display is obtained faster in step 1218. In step 1222, the approaching direction of the algorithm is determined, and in step 1222, the page is displayed on the display unit matching the non-layered setting area. At this time, the user interface device 100 confirms that the algorithm has gone through the steps of FIG. 13 through H and R of FIG.
  • the user interface device 110 ends the algorithm of FIG. 12. Return to G2 in FIG.
  • the user interface device 100 may start from the start step in FIG. 12 when the layering setting area is not activated by the touch. In this case, it enters H of FIG. However, according to the user's setting, it may directly enter step 2110.
  • the user interface device 100 When the user interface device 100 enters H of FIG. 13 through H of FIG. 12, when the humidity collecting unit is activated in operation 1310, when humidity is collected in operation 1312, humidity information is measured in operation 1314. If the humidity information is greater than or equal to the preset value in step 1316, the user interface device 100 obtains a weight for displaying an animation on the display more accurately in step 1318, or the humidity information is set in step 1316. If greater than or equal to, the user interface device 100 obtains a weight for displaying the animation on the display part less accurately in step 1318, and returns to R of FIG. In this case, when the humidity collecting unit is not activated in step 1310 or when the humidity is not collected in step 1314, the user interface device 100 ends the algorithm of FIG. 13 and returns to step R of FIG. 12 without obtaining a weight. .
  • step 1210 When the sound is collected in step 1210, when the loudness and sound direction information is measured in step 1212, when the information is determined in step 1214, and the sound size is greater than or equal to the preset value, the information is determined in step 1216. If the sound direction is less than or equal to the preset value, a weighting value for displaying the animation on the display part is obtained faster in step 1218, and the entry direction of the algorithm is determined in step 1220 to enter G2 of FIG. . However, depending on the user's setting, it may directly enter step 1222.
  • the user interface device 100 ends the algorithm of FIG. 12. Can also be.
  • the user interface device 100 enters the G2 of FIG. 11 from the G2 of FIG. 12, when the tilt is detected in step 1110, when the tilt size information is measured in step 1112, the information is determined in step 1114 and is preset. If the value is greater than or equal to the value, in operation 1116, a weighted value for displaying the animation is displayed on the display faster. In operation 1120, the page is displayed on the display that matches the part other than the layered setting area. At this time, the user interface device 100 confirms that the algorithm has gone through the steps of FIG. 13 through H and R of FIG. 12, and more accurately or less accurately displays the animation using the weighting values obtained in steps 1318 or 1320 of FIG. Alternatively, the animation may be displayed more quickly by using one of the weighting values for displaying the animation faster on the display obtained in steps 1218 and 1116 of FIG. 12 or by accumulating both. .
  • step 1110 If the tilt is not detected in step 1110 or the value determined in step 1114 is smaller than the preset value, the user interface device 100 ends the algorithm of FIG. 11 and returns to S2 of FIG. 12.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided is a method using a user interface apparatus having a touch interface unit, a tilt detection unit, a sound collection unit, and a humidity collection unit. According to an embodiment of the present invention, the user interface apparatus detects a touch and the direction and speed of the touch by the touch interface unit, detects a tilt of the apparatus by the tilt detection unit, collects sounds around the apparatus by the sound collection unit, and collects the humidity around the apparatus by the humidity collection unit, so as to display a page turning animation on a display unit, which is matched to the value of the layer corresponding to a touched layer, when a touch applied to a layering configuration area has a value equal to or greater than a specified value. Here, the detected tilt, sound, and humidity affect the relationship between the value of a touch on the touch interface and the value of an animation on the display unit within the range between predetermined values.

Description

[규칙 제26조에 의한 보정 21.06.2016] 단말기의 복합적 기능을 이용한 감성형 이북의 제작 방법[Revision 21.06.2016] according to Rule 26. Method for producing emotional e-books using complex functions of terminal
본 발명은 터치해 조작하는 디스플레이, 기울기 감지 장치, 소리를 감지 할 수 있는 스피커, 습도 측정 장치를 갖춘 단말 장치에서 구동되는 이북을 통해 종이책이 가진 시각적, 촉각적, 감성적 사용자 인터페이스를 구현하는 기술이다.The present invention provides a technology for implementing a visual, tactile and emotional user interface of a paper book through e-books driven by a touch device, a tilt sensor, a speaker capable of detecting sound, and a humidity device equipped with a humidity measuring device. to be.
스마트 폰, 스마트 태블릿, 이북 리더 등 다양한 단말기의 발전과 급속한 확대는 이북의 확대를 가져 오고 있다. The development and rapid expansion of various terminals such as smart phones, smart tablets, and e-book readers have led to the expansion of e-books.
현대의 디스플레이 기술은 보다 자연색에 가까운 칼라를 지원하게 되었으며 보다 작은 화면 안에 보다 많은 픽셀을 집어넣을 수 있게 집적화 되었다. 또한 전자기 유도 방식과 압력 감지 방식의 두 가지 기술의 개별 혹은 그 둘의 조합을 통한 터치 인터페이스 기술이 개발되어 쓰이고 있다. 그리고 디스플레이에 표시되는 정보의 레이어와 터치 인터페이스를 조합해 마치 종이책의 페이지를 넘기는 듯한 인터페이스 방법에 대한 선행 기술이 연구되어 있다. 한편 기존에도 디스플레이는 기능 상 파손되지 않을 만큼의 약간의 휘어짐을 가질 수는 있었으나 근래에는 소재 기술의 발달로 보다 자유로운 휘어짐을 가진 플렉시블 디스플레이를 장착한 단말기가 보편적으로 광범위하게 도입되고 있다. 이와 같은 산업 기술의 발달과 그 균등한 혜택들은 본 발명의 효과에도 긍정적인 영향을 미칠 수 있다.Modern display technologies now support colors closer to natural colors and are integrated to fit more pixels into a smaller screen. In addition, touch interface technology has been developed and used, either individually or in combination of two technologies, electromagnetic induction and pressure sensing. In addition, prior art has been researched on an interface method that combines a layer of information displayed on a display and a touch interface as if turning a page of a paper book. On the other hand, in the past, the display may have a slight deflection that is not damaged due to its function, but recently, a terminal equipped with a flexible display having a more free bending has been widely introduced due to the development of material technology. The development of such industrial technologies and their equivalent benefits can also have a positive effect on the effects of the present invention.
많은 스마트 폰과 스마트 태블릿은 기기의 기울기 감지 방법을 기본으로 내장하고 있다. 이 방법들은 가속도 센서, 자이로 센서, 지자기 센서 등을 독자적으로 작동 시키거나 혹은 그것들을 조합하여 기울기를 검출한다. 기울기를 검출해 마치 종이책의 페이지를 넘기는 듯한 인터페이스 방법에 대한 선행 기술이 연구되어 있다.Many smartphones and smart tablets have a built-in method for detecting device tilt. These methods operate independently of the acceleration sensor, gyro sensor, geomagnetic sensor, or a combination of these to detect tilt. Prior art has been researched on an interface method that detects a tilt and turns a page of a paper book.
스마트 폰과 스마트 태블릿에 장착된 마이크는 목소리 뿐 아닌 주위의 소리를 채집하는데 쓰이고 있다. 소리를 채집한 뒤 분석하는 기술은 두 가지로 구분할 수 있다. 그 중 음량 분석 기술은 주위 소음의 따라 듣고 말하는 말소리를 크게 해 스마트 폰 등의 통화 품질을 높이는 데 응용되고 있다. 또 다른 기술은 소리의 방향 분석 기술로 통상 두 개 이상의 마이크에 전달되는 소리의 시간차를 이용해 소리의 방향을 탐지하며 가전제품에 응용되고 있다.Microphones on smartphones and tablets are used to collect not only the voice but also the surrounding sounds. The technology of collecting and analyzing sounds can be divided into two types. Among them, the volume analysis technology is applied to increase the call quality of smartphones by increasing the sound of speaking and listening according to the ambient noise. Another technology is the direction analysis of sound, which is usually applied to home appliances by detecting the direction of sound using the time difference of sound transmitted to two or more microphones.
현대의 스마트 폰과 스마트 태블릿등의 기기는 다양한 센서를 경쟁적으로 내장하고 있으며 센서 기술은 더 집적화 및 고도화 되고 있다. 본 발명은 스마트폰과 스마트 태블릿 등의 이북 리더로서의 기기가 습도 측정 센서를 내장하는 것을 포함한다.Devices such as modern smartphones and smart tablets have a variety of sensors competitively embedded, and sensor technology is becoming more integrated and advanced. The present invention includes a device as an e-book reader such as a smart phone and a smart tablet incorporating a humidity measuring sensor.
본 발명이 해결하고자 하는 과제는 단말기의 디스플레이 터치 인터페이스 기술과 중력 방향에 대한 기울기 감지 방법, 주변음의 채집 및 분석 기술, 습도 측정 방법을 종합적으로 이용해 종이책이 가진 물리적 특성이 제공하는 경험과 그로인해 느껴지는 감성을 이북에서 구현하는 것이다.The problem to be solved by the present invention is the experience of providing the physical characteristics of the paper book by using the display touch interface technology of the terminal, the tilt detection method for the direction of gravity, the collection and analysis technology of the ambient sound, the humidity measurement method comprehensively Feeling that feeling is to embody in the north.
본 발명은 습도에 따라 페이지가 여러장 씩 붙어서 넘어가는 효과를 기기의 습도를 측정해 위의 해결 수단들과 조합해 페이지들이 넘어가는 정도에 영향을 미치도록 해 종이 책의 특성을 이북에서 구현한다.The present invention implements the characteristics of the paper book in North Korea by measuring the humidity of the device and the effect of turning the pages by several pages according to the humidity to affect the extent of the pages in combination with the above solutions. .
본 발명은 종이책에서 경험되는, 손으로 책의 모서리 부분 페이지들을 책의 바깥을 향해 당겼다 놓으면 당긴 방향과 반대 방향으로 페이지가 넘어가는 종이책의 탄성 효과를 인터페이스 장치에서 디스플레이부의 터치 인터페이스 방법을 이용한다.The present invention utilizes the touch interface method of the display unit in the interface device to experience the elastic effect of the paper book, which is experienced in a paper book, when the pages of the book's corners are pulled out of the book in the opposite direction to the pulled direction. .
본 발명은 책을 손으로 잡고 기울이면 중력에 의해 페이지들이 넘어가는 효과를 인터페이스 장치의 기울기의 감지 방법을 이용한다.The present invention uses a tilt detection method of the interface device to effect the page turning by gravity when the book is held by the hand.
본 발명은 바람이 불어오면 페이지가 넘어가는 종이 책의 효과를 기기의 마이크를 이용해 채집한 소리의 세기와 방향을 분석해 페이지가 넘어가는 데에 영향을 미치는 방법을 이용한다.The present invention uses a method of influencing the page turning by analyzing the strength and direction of the sound collected by the microphone of the device to effect the effect of a paper book that turns the page when the wind blows.
본 발명은 종이책이 가진 불규칙한 수의 페이지가 넘어가는 자연스러운 페이지 효과를 위의 수단들을 종합해 인터페이스의 세분화된 상황을 설정해 구현한다.The present invention combines the above means to implement a natural page effect of an irregular number of pages of a paper book, and sets and implements a detailed situation of an interface.
흔히 이북은 이동과 검색 등에서 종이책에 비해 더 편리하다고 여겨진다. 하지만 사람들이 이북의 구매를 꺼리는 근본적인 이유 중 하나는 종이책만이 가진 감성적인 사용자 경험을 이북이 제공할 수 없기 때문이다. 이에 종이책을 읽는 사람들이 실생활에서 느끼는 감성적 느낌을 이북에서 구현해 이북의 사용자 경험을 증대시킨다. Ebooks are often considered more convenient than paper books in terms of movement and search. However, one of the fundamental reasons people are reluctant to buy e-books is that they cannot provide the emotional user experience that only paper books have. In this way, the emotional experiences of people reading paper books are embodied in e-books to enhance the user experience of e-books.
도 1은 실시예에 따른 터치 인터페이스부, 기울기 감지부, 소리 채집부, 습도 채집부를 가지는 사용자 인터페이스 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of a user interface device having a touch interface unit, a tilt detector, a sound collector, and a humidity collector according to an exemplary embodiment.
도 2는 실시예에 따른 터치 인터페이스부가 터치를 판단하는 정보를 도시한 도면이다.2 is a diagram illustrating information for determining a touch by a touch interface unit according to an exemplary embodiment.
도 3은 실시예에 따른 사용자 인터페이스 장치에서 계층화 설정 영역의 위치를 설정하기 위한 기준선을 도시한 도면이다.3 is a diagram illustrating a reference line for setting a position of a layering setting region in a user interface device according to an embodiment.
도 4는 실시예에 따른 사용자 인터페이스 장치에서 계층화 설정 영역의 위치를 설정하는 예를 도시한 도면이다.4 is a diagram illustrating an example of setting a position of a layering setting region in a user interface device according to an embodiment.
도 5는 실시예에 따른 사용자 인터페이스 장치에서 계층화 설정 영역의 위치를 설정하는 다른 예를 도시한 도면이다.5 is a diagram illustrating another example of setting a position of a layering setting region in a user interface device according to an embodiment.
도 6은 실시예에 따른 사용자 인터페이스 장치에서 기울기 감지부가 탐지한 값을 고려하는 예를 도시한 도면이다.6 is a diagram illustrating an example of considering a value detected by a tilt detection unit in a user interface device according to an embodiment.
도 7은 실시예에 따른 사용자 인터페이스 장치에서 소리 채집부가 방향과 음량에 따른 소리를 채집한 값을 고려하는 예를 도시한 도면이다.FIG. 7 is a diagram illustrating an example in which a sound collector collects sound according to a direction and a volume in a user interface device according to an embodiment.
도 8은 실시예에 따른 사용자 인터페이스 장치에서 습도 채집부가 습도를 채집한 값을 고려하는 예를 도시한 도면이다.FIG. 8 is a diagram illustrating an example in which a humidity collector collects humidity in a user interface device according to an exemplary embodiment.
도 9는 실시예에 따른 사용자 인터페이스 장치에서 터치를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도의 앞부분이다.FIG. 9 is a front view illustrating an example in which a user interface device senses a touch and controls information to display a result on a display. Referring to FIG.
도 10은 실시예에 따른 사용자 인터페이스 장치에서 터치를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도의 뒷부분이다.10 is a later part of a flowchart illustrating an example in which a user interface device senses a touch and controls the information to display a result on a display.
도 11은 실시예에 따른 사용자 인터페이스 장치에서 기울기를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도이다.11 is a flowchart illustrating an example of detecting an inclination and controlling the information of the user interface device to display a result on a display.
도 12는 실시예에 따른 사용자 인터페이스 장치에서 소리를 감지하고 분석해 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도이다.12 is a flowchart illustrating an example in which a user interface device detects and analyzes sound, controls its information, and displays a result on a display.
도 13은 실시예에 따른 사용자 인터페이스 장치에서 습도를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도이다.FIG. 13 is a flowchart illustrating an example in which a user interface device senses humidity, controls information, and displays a result on a display.
도 14는 실시예에 따른 터치 인터페이스부, 디스플레이부, 기울기 감지부, 소리 채집부, 습도 채집부를 가지는 휴대용 단말의 일 예를 도시한 도면이다.14 is a diagram illustrating an example of a portable terminal having a touch interface unit, a display unit, a tilt detector, a sound collector, and a humidity collector according to an embodiment.
도 14는 실시예에 따른 터치 인터페이스부, 디스플레이부, 기울기 감지부, 소리 채집부, 습도 채집부를 가지는 휴대용 단말의 일 예를 도시한 도면이다.14 is a diagram illustrating an example of a portable terminal having a touch interface unit, a display unit, a tilt detector, a sound collector, and a humidity collector according to an embodiment.
도 14를 참조하면, 휴대용 단말은 터치 인터페이스부의 아래에 위치한 디스플레이부에 페이지가 넘어가는 애니메이션을 디스플레이하고 있고, 본 발명에 필요한 다른 모든 구성물과 통상의 홈 버튼과 카메라를 내장한 본체(1410)를 구비하는 일반적인 구성임을 알 수 있다. Referring to FIG. 14, the portable terminal displays an animation of turning a page over to a display unit located below the touch interface unit, and displays a main body 1410 including all other components required for the present invention, a home button, and a camera. It can be seen that the general configuration provided.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention. In the following description of the present invention, if it is determined that detailed descriptions of related well-known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to intention or custom of a user or an operator. Therefore, the definition should be made based on the contents throughout the specification.
도 1은 실시예에 따른 터치 인터페이스부, 기울기 감지부, 소리 채집부, 습도 채집부를 가지는 사용자 인터페이스 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of a user interface device having a touch interface unit, a tilt detector, a sound collector, and a humidity collector according to an exemplary embodiment.
도 1을 참조하면 사용자 인터페이스 장치(100)는 터치 인터페이스 부(110), 제어부(120), 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150), 저장부(160) 및 디스플레이부(170)를 모두 포함한다.Referring to FIG. 1, the user interface device 100 includes a touch interface unit 110, a controller 120, a tilt detector 130, a sound collector 140, a humidity collector 150, and a storage 160. And a display unit 170.
터치 인터페이스부(110)는 외부에서 가해지는 물리적 변화에 상응하여 압력이나 전압 혹은 둘 모두의 변화를 전기적으로 바꿔주는 통상의 필름형태의 필름 센서(Electric Film Sensor)를 적어도 각각 하나 혹은 통합된 하나 이상 이용해서 물리적 변화를 감지할 수 있다.The touch interface unit 110 may include at least one, or at least one, of an ordinary film type electric film sensor that electrically changes a change in pressure, voltage, or both in response to a physical change applied from the outside. Can be used to detect physical changes.
제어부(120)는 터치 인터페이스부(110)가 물리적 변화를 감지하면 물리적 변화 범위 및 물리적 변화 방향 중에서 적어도 하나를 판단한다. 이때, 기울기 감지부(130)와 소리 채집부(140)와 습도 채집부(150)는 터치 인터페이스부(110)에 의해 동작 여부가 제어 될 수도 있다.If the touch interface unit 110 detects a physical change, the controller 120 determines at least one of a physical change range and a physical change direction. In this case, whether the tilt detection unit 130, the sound collecting unit 140 and the humidity collecting unit 150 is operated by the touch interface unit 110 may be controlled.
도 2는 실시예에 따른 터치 인터페이스부가 판단하는 정보를 도시한 도면이다.2 is a diagram illustrating information determined by a touch interface unit according to an exemplary embodiment.
도 2를 참조하면, 제어부(120)는 터치 인터페이스부(110)가 채집한 이동 방향(210), 이동 속도(220), 압력(230) 등을 판단할 수 있다. 한편 터치 인터페이스부(110)와 디스플레이부(170)는 터치와 디스플레이가 매칭이 되도록 하는 한 묶음임을 알 수 있다.Referring to FIG. 2, the controller 120 may determine a moving direction 210, a moving speed 220, a pressure 230, and the like collected by the touch interface unit 110. On the other hand, the touch interface unit 110 and the display unit 170 may be seen as a bundle to match the touch and the display.
기울기 감지부(130)는 사용자 인터페이스 장치(100)의 기울어진 정도를 감지할 수 있다.The tilt detector 130 may detect a degree of inclination of the user interface device 100.
소리 채집부(140)는 사용자 인터페이스 장치(110) 주위의 소리를 채집한다.The sound collector 140 collects sounds around the user interface device 110.
습도 채집부(150)는 사용자 인터페이스 장치(110) 주위의 습도를 채집한다.The humidity collector 150 collects humidity around the user interface device 110.
저장부(160)는 사용자 인터페이스 장치(100)의 전반적인 동작을 제어하기 위한 운영체제, 레이어들에 해당하는 응용 프로그램 및 저장용 데이터를 저장한다.The storage unit 160 stores an operating system, application programs corresponding to layers, and storage data for controlling the overall operation of the user interface device 100.
터치 인터페이스부(110), 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150)는 각각 다른 부의 동작 여부를 제어할 수도 있다. 예를 들어 기설정된 어플리케이션이 구동될 때 터치 인터페이스부(110)는 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150)가 동작되도록 제어하거나, 터치 인터페이스부(110)는 터치가 감지되면 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150)를 이용한 인터페이스가 서비스 되도록 할 수 있다.The touch interface 110, the tilt detector 130, the sound collector 140, and the humidity collector 150 may control the operation of other units. For example, when the preset application is driven, the touch interface unit 110 controls the tilt detector 130, the sound collector 140, and the humidity collector 150 to be operated, or the touch interface unit 110 is operated. When a touch is detected, an interface using the tilt detector 130, the sound collector 140, and the humidity collector 150 may be serviced.
터치 인터페이스부(110)는 기설정된 계층화 설정 영역(210)에 터치가 감지되면 터치의 물리적 변화를 감지하고, 제어부는 감지된 정보를 판단하고, 그 결과에 따라 디스플레이부(170)는 터치 인터페이스부(110)의 계층화 설정 영역(210)과 매칭되는 영역에 레이어들을 계층적으로 표시할 수 있다.When the touch interface 110 detects a touch in the preset layering setting area 210, the touch interface 110 detects a physical change of the touch, and the controller determines the detected information, and according to the result, the display 170 displays the touch interface unit. Layers may be hierarchically displayed in an area matching the layered setting area 210 of 110.
이때, 계층적으로 표시되는 레이어는, 이북 앱을 실행하는 경우 책의 각 페이지들이 가능하며, 이뿐만 아니라 정보를 계층적으로 쌓아 표시하는 이른바 카드형 인터페이스로 표시 가능한 모든 어플리케이션이 가능하다.In this case, the hierarchically displayed layer may be each page of a book when the e-book app is executed, as well as all applications that can be displayed in a so-called card type interface that displays and stacks information hierarchically.
도 3은 실시예에 따른 사용자 인터페이스 장치에서 계층화 설정 영역의 위치를 설정하기 위한 기준선을 도시한 도면이다. 3 is a diagram illustrating a reference line for setting a position of a layering setting region in a user interface device according to an embodiment.
도 3을 참조하면, 터치 인터페이스부(110)는 X, Y를 축으로 하는 기준선을 이용해서 디스플레이부(170)에 표현될 왼쪽이나 오른쪽의 방향을 확인할 수 있다. 하지만, 기준선은 X, Y 상의 어느 위치에서도 만들어 질 수 있다. Referring to FIG. 3, the touch interface unit 110 may check the left or right direction to be displayed on the display unit 170 by using reference lines having X and Y axes. However, the baseline can be made anywhere on X and Y.
터치 인터페이스부(110)는 위의 방법을 이용해, 기설정된 기준선을 기준으로 미리 설정 된 범위를 계층화 설정 영역으로 설정할 수도 있고, 디스플레이부(170)에 표현된 이북 등의 모서리를 계층화 설정 영역으로 설정할 수도 있다.Using the above method, the touch interface unit 110 may set a preset range as a layering setting area based on a predetermined reference line, or set an edge such as e-book expressed on the display unit 170 as a layering setting area. It may be.
도 4는 실시예에 따른 사용자 인터페이스 장치에서 계층화 설정 영역(430)의 위치를 설정하는 예를 도시한 도면이다. 4 is a diagram illustrating an example of setting a position of a layering setting area 430 in a user interface device according to an exemplary embodiment.
도 4를 참조하면, 터치 인터페이스부(110)는 계층화 설정 영역(430)에 감지된 터치가 다수의 계층을 선택하는 경우, 선택된 다수의 계층 중에서 가장 상위 계층에 대응하는 레이어를 선택한다. 또는 터치 인터페이스부(110)는 계층화 설정 영역(430)에 감지된 터치가 다수의 계층을 선택할 경우, 선택된 다수의 계층 중에서 터치된 면적이 가장 넓은 레이어를 선택할 수도 있다.Referring to FIG. 4, when the touch detected in the layering setting area 430 selects a plurality of layers, the touch interface unit 110 selects a layer corresponding to the highest layer among the selected plurality of layers. Alternatively, when the touch sensed by the layering setting area 430 selects a plurality of layers, the touch interface unit 110 may select a layer having the largest area touched among the plurality of selected layers.
도 3과 도 4를 참조하면, 터치 인터페이스부(110)에 감지된 터치와 이어지는 물리적 이동 방향(410)을 판단한 결과 이동 방향(410)이 도 3의 Y축을 기준으로 오른쪽에 분포한다. 이때 해당 부분에 터치와 이어지는 스크롤이 가해져 제어부가 이동 방향(410)을 오른쪽 혹은 왼쪽으로 판단하면 제어부는 계층화 설정 영역(430)과 매치 되는 디스플레이부(170)의 부분에는 각각의 페이지의 층이 눌리거나 들리는 애니메이션을 표시하고, 동시에 계층화 설정 영역(430)을 제외한 부분과 대응하는 디스플레이부(170)의 왼쪽 면에는 계층화 설정 영역(430)에서 선택되었다가 이동에 의해 해제된 레이어의 값을 가진 페이지부터 순차적으로 왼쪽 방향으로 넘어가는 애니메이션을 표시하도록 할 수 있다. 이때, 왼쪽과 오른쪽의 두 개의 애니메이션은 나눠지지 않은 하나일 수도 있고 두 부분으로 나뉘어져 각 페이지 단위로 자연스럽게 이어지도록 조정 할 수도 있다.3 and 4, as a result of determining the physical movement direction 410 following the touch detected by the touch interface unit 110, the movement direction 410 is distributed on the right side based on the Y axis of FIG. 3. In this case, if a touch followed by a scroll is applied to the control unit and the control unit determines the moving direction 410 to the right or the left, the control unit presses a layer of each page on a portion of the display unit 170 that matches the layering setting area 430. Pages that display the animations that are heard or heard, and at the same time have a value of a layer selected in the layering setting area 430 and released by moving on the left side of the display unit 170 corresponding to a portion except the layering setting area 430. From this, you can display animations that move sequentially to the left. At this time, the two animations on the left and the right may be undivided ones or may be divided into two parts and adjusted to be naturally connected to each page unit.
한 편, 도 3과 도 4를 참조하면, 계층화 설정 영역(430)의 전체 디스플레이에서의 배치는 오른쪽, 왼쪽, 상단, 하단을 포함한 4방향의 개별이거나 방향들의 유효한 선택적 조합을 사용할 수 있으며, 각 4방향 모서리에 따른 작동 방식은 계층화 설정 영역(430)의 오른쪽 배치에 따른 방식을 각 배치에 맞춘 방향으로 조정해 적용할 수 있다.On the other hand, referring to Figures 3 and 4, the layout in the entire display of the layered setup area 430 may be four separate individual directions, including right, left, top, bottom, or any valid optional combination of directions, each The operation method according to the four-way corner may be applied by adjusting the method according to the right arrangement of the layered setting area 430 in a direction that is adapted to each arrangement.
도 5는 실시예에 따른 사용자 인터페이스 장치에서 계층화 설정 영역의 위치를 설정하는 다른 예를 도시한 도면이다.5 is a diagram illustrating another example of setting a position of a layering setting region in a user interface device according to an embodiment.
도 4와 도 5를 참조하면, 계층화 설정 영역(420)을 제외한 왼쪽 표시 면의 크기는 기설정된 크기일 수도 있고, 계층화 설정 영역(430)이 가질 레이어 수에 따라 변경될 수도 있다. 또한, 도 5와 같이 터치된 상태에서 터치 인터페이스부(110)가 기설정된 압력, 이동 방향, 이동 속도 이상의 물리적 변화를 감지하면, 터치 위치(510)를 시작으로 터치 인터페이스부의 외곽까지를 계층화 설정 영역(520)으로 설정할 수도 있다.4 and 5, the size of the left display surface excluding the layering setting area 420 may be a preset size or may be changed according to the number of layers that the layering setting area 430 has. In addition, when the touch interface unit 110 detects a physical change in a predetermined pressure, a moving direction, and a moving speed in a touched state as shown in FIG. 5, the layered setting area extends from the touch position 510 to the outside of the touch interface unit. It may be set to 520.
이때, 계층화 설정 영역(520)의 끝 위치인 외곽은 도 4와 같이 터치 인터페이스부(110)가 탐지한 오른쪽이 포함된 이동 방향(410)과 이동 속도(420)를 고려할 수도 있고, 터치 인터페이스부(110)의 왼쪽이 포함된 이동 방향과 이동 속도를 고려할 수도 있다.In this case, the outer edge of the layered setting area 520 may consider the moving direction 410 and the moving speed 420 including the right detected by the touch interface unit 110 as shown in FIG. 4, and the touch interface unit Consider the movement direction and the movement speed including the left side of 110.
도 6은 실시예에 따른 사용자 인터페이스 장치에서 기울기 감지부가 탐지한 값을 고려하는 예를 도시한 도면이다.6 is a diagram illustrating an example of considering a value detected by a tilt detection unit in a user interface device according to an embodiment.
도 6을 참조하면, 사용자 인터페이스 장치(100)에 내장 된 기울기 감지부(630)가 감지한 중력 방향(640)을 고려한 기울기의 정보는 터치 인터페이스부(110)의 계층화 설정 영역(620) 중 터치 위치(610)로 선택 된 이외의 왼 쪽 레이어가 가지는 정보에 영향을 미치도록 해, 해당하는 페이지들이 넘어가는 애니메이션을 디스플레이부(170)에 표시하도록 제어될 수 있다. 한편, 터치가 가해지지 않은 상태에서도 기울기의 정보는 페이지들을 넘기는 애니메이션을 디스플레이부(170)에 표시하도록 할 수 있다.Referring to FIG. 6, inclination information considering the gravitational direction 640 detected by the tilt detection unit 630 included in the user interface device 100 may be touched in the layered setting area 620 of the touch interface unit 110. It may be controlled so as to affect the information of the left layer other than the position 610 selected so as to display the animation on which the corresponding pages are skipped on the display unit 170. Meanwhile, even when no touch is applied, the information of the tilt may cause the display unit 170 to display an animation of turning pages.
도 7은 실시예에 따른 사용자 인터페이스 장치에서 소리 채집부가 방향과 음량에 따른 소리를 채집한 값을 고려하는 예를 도시한 도면이다.FIG. 7 is a diagram illustrating an example in which a sound collector collects sound according to a direction and a volume in a user interface device according to an embodiment.
도 7을 참조하면, 소리 채집부(730)가 감지한 인터페이스 장치(100) 외부의 소리는 제어부에서 소리의 크기와 소리의 위치로 분석되어 터치 인터페이스부(110)의 계층화 설정 영역(720) 중 터치 위치(710)로 선택 된 이외의 왼 쪽 레이어가 가진 정보에 작동하도록 해 해당하는 페이지들을 넘기는 애니메이션을 디스플레이부(170)에 표시 하도록 제어될 수 있다. 한편, 터치가 가해지지 않은 상태에서도 소리의 크기와 소리의 위치 정보는 페이지들을 넘기는 애니메이션을 디스플레이부(170)에 표시하도록 제어될 수 있다.Referring to FIG. 7, the sound outside the interface device 100 detected by the sound collector 730 is analyzed by the controller as the volume and the position of the sound, and is included in the layering setting area 720 of the touch interface 110. It may be controlled to operate on information of the left layer other than the touch position 710 and to display an animation of turning pages corresponding to the display unit 170. Meanwhile, even when no touch is applied, the sound volume and the position information of the sound may be controlled to display an animation of turning the pages on the display unit 170.
도 8는 실시예에 따른 사용자 인터페이스 장치에서 습도 채집부가 습도를 채집한 값을 고려하는 예를 도시한 도면이다.FIG. 8 is a diagram illustrating an example in which a humidity collector collects humidity in a user interface device according to an exemplary embodiment.
도 8을 참조하면, 습도 채집부(830)가 감지한 인터페이스 장치(100)의 주변 습도 정보는 터치 인터페이스(110)의 계층화 설정 영역(820) 중 터치 위치(810)를 선택해 스크롤 이동이 일어날 경우 가중치를 부여해 디스플레이부(170)에 표시되는 애니메이션의 페이지가 스크롤에 의한 선택의 해제에 의한 것 보다 더 적게 혹은 더 많이 넘어가도록 하는 정도에 영향을 미칠 수 있다. 한편, 터치가 가해지지 않은 상태에서도 기울기 감지부나 소리 채집부에 의해 페이지 넘김 효과가 작동하는 경우 습도 정보는 애니메이션의 페이지가 더 적게 혹은 더 많이 넘어가는 정도에 영향을 미칠 수 있다.Referring to FIG. 8, when the ambient humidity information of the interface device 100 detected by the humidity collecting unit 830 is scrolled by selecting a touch location 810 of the layered setting area 820 of the touch interface 110. The weight may affect the extent to which the page of the animation displayed on the display unit 170 is skipped less or more than the scroll selection. On the other hand, when the page turning effect is activated by the tilt detector or the sound collector even when no touch is applied, the humidity information may affect the degree to which the pages of the animation are skipped.
도 5부터 도 8까지를 통해 확인 할 수 있듯이, 본 발명이 책을 보는 어플리케이션에 적용되는 경우, 터치 인터페이스부(110)에 감지된 물리적 변화는 책을 손에 쥐고 손가락으로 모서리 부분을 튕겨 책장을 넘길 때의 반발력을 시각적으로 제공할 수도 있고, 책을 파지하고 엄지손가락의 미끄러짐을 통해 책장을 넘기는 직관적인 시각적 경험과 느낌을 제공할 수도 있으며, 책을 손에 들고 모서리의 일부를 엄지손가락으로 지탱하고 손목의 스냅을 이용해 페이지들을 한 번에 많이 넘기거나, 그 상태로 책을 아래로 늘어뜨려 많은 양의 페이지들을 넘기는 경험과 그에 따른 느낌을 제공할 수도 있으며, 잘 분리되지 않는 페이지들 사이로 입으로 바람을 불어 페이지를 분리해 넘기거나, 주위의 바람이 불어와 페이지가 넘어가는 경험을 제공할 수도 있으며, 이상의 효과들의 조합 방법에 습도 채집 정보에 의한 제어를 조합해, 마치 습도가 높으면 페이지들이 붙어 손가락으로 헤아리기 어려워져 한 번에 여러 페이지가 넘어가기도 하듯이, 사용자가 의도한 것 보다 더 적게 혹은 많이 페이지가 넘어가도록 해 실제 책의 페이지를 넘길 때와 같은 의도되지 않은 실수를 만들어 낼 수 있다. 결과적으로 본 발명은 종이책이 손과 주위의 자연 환경과의 상호작용을 토대로 실시간으로 변화하는 물리적 특성을 띄며 사용자에게 제공하는 독특한 경험과 그것에서 느껴지는 특이한 감성을 이북에서 구현한다.As can be seen through Figures 5 to 8, when the present invention is applied to a book viewing application, the physical change detected by the touch interface unit 110 is holding the book in the hand and bounces the edges with the fingers to open the bookshelf. It may provide a visual repulsion when it is turned over, provide an intuitive visual experience and feel of flipping through the bookshelf by gripping the book and sliding the thumb, holding the book in your hand and supporting a portion of the edge with your thumb. And use the snaps on the wrist to flip through pages at once, or to flip through the book down to give the experience and the feeling of turning a large number of pages, or to break through the pages that are not well separated. You can blow the page apart or provide an experience where the surrounding wind blows and the page turns, Combining the control of humidity gathering information with the combination method of the effects on the screen, it is as if pages are stuck when the humidity is high, and it becomes difficult to count with fingers. Can be used to create unintended mistakes, such as turning pages in real books. As a result, the present invention embodies the unique experience that the paper book provides to the user and the unique sensibility felt in the book based on the interaction between the hand and the surrounding natural environment in real time.
제어부(120)는 사용자 인터페이스 장치(100)의 전반적인 동작을 제어할 수 있다. 그리고, 제어부(120)는 터치 인터페이스부(110), 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150)의 기능의 일부를 수행할 수도 있고, 각각의 부에 더 많은 처리 기능을 할당할 수도 있다. 제어부(120), 터치 인터페이스부(110), 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150)를 구분하여 도시한 것은 각 기능들을 구별하여 설명하기 위함이다. 따라서 제어부(120)는 터치 인터페이스부(110), 기울기 감지부(130), 소리 채집부(140), 습도 채집부(150) 각각의 기능의 일부를 수행하도록 구성된(configured) 적어도 하나의 프로세서를 포함할 수 있다.The controller 120 may control the overall operation of the user interface device 100. The controller 120 may perform some of the functions of the touch interface 110, the tilt detector 130, the sound collector 140, and the humidity collector 150. You can also assign processing functions. The control unit 120, the touch interface unit 110, the tilt detection unit 130, the sound collecting unit 140, and the humidity collecting unit 150 are illustrated separately to explain each function. Accordingly, the controller 120 may include at least one processor configured to perform a part of each of the functions of the touch interface 110, the tilt detector 130, the sound collector 140, and the humidity collector 150. It may include.
이하, 상기와 같이 구성된 본 발명에 따른 디스플레이를 이용한 사용자 인터페이스 방법을 아래에서 도면을 참조하여 설명한다.Hereinafter, a user interface method using a display according to the present invention configured as described above will be described with reference to the drawings.
도 9는 실시예에 따른 사용자 인터페이스 장치에서 터치를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도의 앞부분이다.FIG. 9 is a front view illustrating an example in which a user interface device senses a touch and controls information to display a result on a display. Referring to FIG.
도 9를 참조하면 사용자 인터페이스 장치(100)는 910단계에서 터치 인터페이스부의 터치 여부를 확인한다.Referring to FIG. 9, in operation 910, the user interface device 100 checks whether a touch interface unit is touched.
910단계의 확인결과 터치 인터페이스부의 터치가 감지되면, 사용자 인터페이스 장치(100)는 912단계에서 터치 인터페이스부의 물리적 변화를 측정한다.As a result of checking in step 910, if a touch of the touch interface unit is detected, the user interface device 100 measures a physical change of the touch interface unit in step 912.
그리고, 사용자 인터페이스 장치(100)는 914단계에서 측정된 정보가 기설정된 값 이상인지 판단한다.In operation 914, the user interface device 100 determines whether the measured information is greater than or equal to a preset value.
914단계의 판단결과 터치 인터페이스부의 물리적 변화가 기설정된 값보다 작으면, 사용자 인터페이스 장치는 910단계로 돌아간다.If the physical change of the touch interface unit is smaller than the preset value in step 914, the user interface device returns to step 910.
914단계의 확인결과 터치 인터페이스부의 물리적 변화가 기설정된 값 이상이면, 사용자 인터페이스 장치(100)는 터치 인터페이스부의 기설정된 기준선을 기준으로 916단계에서 터치 인터페이스부의 일부를 계층화 설정 영역으로 설정한다.If the physical change of the touch interface unit is equal to or greater than the preset value in step 914, the user interface apparatus 100 sets a portion of the touch interface unit as a layered setting region in step 916 based on the preset reference line of the touch interface unit.
이때, 사용자 인터페이스 장치(100)는 터치된 위치를 시작으로 터치 인터페이스부의 외곽까지를 계층화 설정 영역으로 설정할 수 있다.In this case, the user interface device 100 may set an outer layer of the touch interface unit as a layering setting region starting from the touched position.
그리고, 사용자 인터페이스 장치(100)는 918단계에서 계층화 설정 영역과 매치되는 디스플레이부를 통해 레이어들을 계층적으로 표시한다.In operation 918, the user interface device 100 hierarchically displays layers through a display unit that matches the layered setting area.
그리고, 사용자 인터페이스 장치(100)는 920단계에서 계층화 설정 영역에 터치가 되는지 감지한다. 이때, 사용자 인터페이스 장치(100)는 계층화 설정 영역에 감지된 터치가 다수의 계층을 선택하는 경우, 선택된 다수의 계층 중에서 가장 상위 계층에 대응하는 레이어를 선택한다. In operation 920, the user interface device 100 detects whether a touch is applied to the layered setting region. In this case, when the touch sensed in the layering setting area selects a plurality of layers, the user interface device 100 selects a layer corresponding to the highest layer among the selected plurality of layers.
그리고, 사용자 인터페이스 장치(100)는 H로 진입한다. 단, 사용자의 설정에 따라 곧바로 922단계로 진입할 수 있다.Then, the user interface device 100 enters H. However, according to the user's setting, the user may directly enter step 922.
도 13은 실시예에 따른 사용자 인터페이스 장치에서 습도를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도이다.FIG. 13 is a flowchart illustrating an example in which a user interface device senses humidity, controls information, and displays a result on a display.
도 13의 H로 진입한 경우, 1310단계에서 습도 채집부가 활성화 상태인 경우, 1312단계에서 습도를 채집한 경우, 1314단계에서 습도 정보가 측정되고, 1316단계에서 습도 정보가 기설정 값 보다 크거나 같은 경우 사용자 인터페이스 장치(100)는 1318단계에서 디스플레이부에 애니메이션을 더 정확히 디스플레이 할 수 있는 가중치를 얻거나, 1316단계에서 습도 정보가 기설정 값 보다 크거나 같은 경우 사용자 인터페이스 장치(100)는 1318단계에서 디스플레이부에 애니메이션을 덜 정확히 디스플레이 할 수 있는 가중치를 얻고, R을 통해 도 9의 R로 복귀한다. 이때, 1310단계에서 습도 채집부가 활성화 되어 있지 않거나, 1312단계에서 습도가 채집되지 않을 경우 사용자 인터페이스 장치(100)는 도 13의 알고리즘을 종료하고 도 9의 R로 복귀한다.13, when the humidity collector is activated in step 1310, when the humidity is collected in step 1312, the humidity information is measured in step 1314, and the humidity information is greater than the preset value in step 1316. In the same case, the user interface device 100 obtains a weight for displaying an animation on the display more accurately in step 1318, or if the humidity information is greater than or equal to a preset value in step 1316, the user interface device 100 reads 1318. In step S, the weight is obtained to display the animation on the display part less accurately, and the process returns to R of FIG. In this case, when the humidity collecting unit is not activated in step 1310 or when the humidity is not collected in step 1312, the user interface device 100 ends the algorithm of FIG. 13 and returns to R of FIG. 9.
그리고, 도 9의 R로 복귀한 사용자 인터페이스 장치(100)는 922단계에서 계층화 설정 영역에 매치되는 디스플레이부에 페이지의 모서리가 눌리거나 들리는 애니메이션을 디스플레이 한다. 이때, 사용자 인터페이스 장치(100)는 도 13의 1318단계나 1320단계에서 얻은 가중치를 적용해 애니메이션을 더 정확히 혹은 덜 정확히 표시할 수 있다.In operation 922, the UI apparatus 100 returning to R of FIG. 9 displays an animation in which a corner of a page is pressed or heard in a display unit that matches the layered setting region. In this case, the user interface device 100 may display the animation more accurately or less accurately by applying the weight obtained in operation 1318 or 1320 of FIG. 13.
그리고, 사용자 인터페이스 장치(100)는 사용자의 설정에 따라, 924단계에서 기울기 감지부가 활성화 상태인 경우 G1으로 진입하거나, 소리 채집부가 활성화 상태인 경우 S1으로 진입하거나, 기울기 감지부와 소리 채집부 둘 다 활성화 상태인 경우 동시에 병렬로 G1과 S1으로 진입할 수 있다. 단, 사용자의 설정에 따라 곧바로 A로 진입할 수 도 있다.In operation 924, the user interface device 100 enters G1 when the tilt detector is activated, or enters S1 when the sound collector is activated, or both the tilt detector and the sound collector. In the active state, G1 and S1 can be entered in parallel at the same time. However, depending on the user's setting, you may enter A directly.
도 11은 실시예에 따른 사용자 인터페이스 장치에서 기울기를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도이다.11 is a flowchart illustrating an example of detecting an inclination and controlling the information of the user interface device to display a result on a display.
사용자 인터페이스 장치(100)가 도 9의 G1으로부터 도 11의 G1으로 진입한 경우 1110단계로 진입한다. When the user interface device 100 enters G1 of FIG. 11 from G1 of FIG. 9, the user interface device 100 enters step 1110.
그리고, 사용자 인터페이스 장치(100)가 1110단계에서 기울기를 감지한 경우, 1112단계에서 기울기 크기 정보를 측정한 경우, 1114단계에서 정보가 판단되어 기설정 값 보다 크거나 같을 경우, 1116단계에서 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값을 얻고, 1118단계에서 도 11의 알고리즘에의 진입방향이 판단되어 F를 통해 도9의 F로 복귀한다.If the user interface device 100 detects the tilt in step 1110, if the tilt size information is measured in step 1112, if the information is determined in step 1114 and is greater than or equal to the preset value, the display unit in step 1116. In step 1118, a weighting value for displaying an animation is obtained, and the direction of entry into the algorithm of FIG. 11 is determined, and the process returns to F of FIG.
만약, 1110단계에서 기울기가 감지되지 않거나 1114단계에서 판단한 값이 기설정 값 보다 작을 경우 사용자 인터페이스 장치(100)는 도 11의 알고리즘을 종료하고 도 9의 F로 복귀한다.If the slope is not detected in step 1110 or the value determined in step 1114 is smaller than the preset value, the user interface device 100 ends the algorithm of FIG. 11 and returns to F of FIG. 9.
도 12는 실시예에 따른 사용자 인터페이스 장치에서 소리를 감지하고 분석해 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도이다.12 is a flowchart illustrating an example in which a user interface device detects and analyzes sound, controls its information, and displays a result on a display.
사용자 인터페이스 장치(100)가 도 9의 S1으로부터 도 12의 S1으로 진입한 경우 1210단계로 진입한다.When the user interface device 100 enters S1 of FIG. 12 from S1 of FIG. 9, the user interface device 100 enters step 1210.
그리고, 사용자 인터페이스 장치(100)는 1210단계에서 소리를 채집한 경우, 1212단계에서 소리크기, 소리 방향 정보를 측정한 경우, 1214단계에서 정보가 판단되어 소리 크기가 기설정 값 보다 크거나 같을 경우, 1216단계에서 정보가 판단되어 소리 방향이 기설정 범위 값 이내인 같을 경우, 1218의 단계에서 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값을 얻고, 1220단계에서 도 12의 알고리즘에의 진입방향이 판단되어 F를 통해 도9의 F로 복귀한다. In addition, when the user interface device 100 collects the sound in step 1210, when the sound size and the sound direction information are measured in step 1212, when the information is determined in step 1214, the sound volume is greater than or equal to the preset value. In step 1216, when the information is determined and the sound direction is within the preset range value, a weighting value for displaying the animation on the display is obtained faster in step 1218, and the direction of entry into the algorithm of FIG. 12 is determined in step 1220. And return to F of FIG.
만약, 1210단계에서 소리 크기가 감지되지 않거나, 1214단계에서 판단한 값이 기설정 값 보다 작거나, 1216단계에서 판단한 값이 기설정 값보다 클 경우 사용자 인터페이스 장치(110)는 도 11의 알고리즘을 종료하고 도 9의 F로 복귀한다.If the loudness is not detected in step 1210, the value determined in step 1214 is smaller than the preset value, or the value determined in step 1216 is larger than the preset value, the user interface device 110 terminates the algorithm of FIG. 11. The process then returns to F in FIG. 9.
사용자 인터페이스 장치(100)는 도 9의 F로 복귀한 경우 도 9의 A를 통해 도 10으로 진입한다.When the user interface device 100 returns to F of FIG. 9, the user interface device 100 enters FIG. 10 through A of FIG. 9.
도 10은 실시예에 따른 사용자 인터페이스 장치에서 터치를 감지하고 그 정보를 제어해 디스플레이에 결과를 표시하는 예를 도시한 흐름도의 뒷부분이다.10 is a later part of a flowchart illustrating an example in which a user interface device senses a touch and controls the information to display a result on a display.
1010단계에서 사용자 인터페이스 장치(100)는 도 9의 920단계의 계층화 설정 영역에서 감지된 터치로부터 끊어짐 없이 시작된 스크롤의 압력, 혹은 스크롤의 방향과 속도의 두 가지, 혹은 스크롤의 압력과 방향과 속도의 세 가지를 측정 하고, 1012단계에서 측정된 정보가 기설정 값 보다 크거나 같으면, 1014단계에서 사용자 인터페이스 장치(100)는 계층화 설정 영역이 아닌 부분에 매칭되는 디스플레이부에 페이지가 넘어가는 애니메이션을 디스플레이 한다. 이때, 사용자 인터페이스 장치(100)는 1014단계에서 알고리즘이 도 9의 H와 R을 거친 것을 확인해, 도 13의 1318단계나 1320단계에서 얻은 가중값을 이용해 애니메이션을 더 정확히 혹은 덜 정확히 표시할 수 도 있고, 도 11의 1116단계와 도 12의 1218단계에서 얻은 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값들 중 하나를 이용하거나 혹은 둘 다를 누적한 뒤 이용해 애니메이션을 더 빠르게 디스플레이할 수 도 있다. 또한 이때, 도 9의 922단계의 계층화 설정 영역과 매치 되는 디스플레이부에 표시중인 애니메이션도 더 빠르게 디스플레이 할 수 있다.In operation 1010, the user interface device 100 may display the pressure of the scroll, or the direction and speed of the scroll, or the pressure, the direction, and the speed of the scroll, which are started without disconnection from the touch detected in the layering setting area of operation 920 of FIG. 9. If the three measurements are measured, and the information measured in step 1012 is greater than or equal to the preset value, in step 1014, the user interface device 100 displays an animation in which the page is turned over on the display unit that matches the portion other than the layered setting area. do. In this case, the user interface device 100 confirms that the algorithm has passed through H and R of FIG. 9 in step 1014, and may display the animation more accurately or less accurately using the weighting values obtained in steps 1318 or 1320 of FIG. 13. For example, the animation may be displayed more quickly by using one of the weighting values for displaying the animation faster on the display obtained in steps 1116 and 1218 of FIG. 11 or by accumulating both. In this case, the animation displayed on the display unit matched with the layered setting region of step 922 of FIG. 9 may be displayed more quickly.
사용자 인터페이스 장치(100)는 터치에 의해 계층화 설정 영역이 활성화 되지 않은 경우, 도 11에서 시작단계로부터 알고리즘을 시작할 수 있다. 이 경우 사용자 인터페이스 장치(100)는 도 11의 H로 진입한다. 단, 사용자의 설정에 따라 곧바로 1110단계로 진입할 수 도 있다.The user interface device 100 may start the algorithm from the start step of FIG. 11 when the layering setting area is not activated by the touch. In this case, the user interface device 100 enters H of FIG. 11. However, depending on the user's setting, it may immediately enter step 1110.
사용자 인터페이스 장치(100)는 도 11의 H를 거쳐 도 13의 H로 진입한 경우, 1310단계에서 습도 채집부가 활성화 상태인 경우, 1312단계에서 습도를 채집한 경우, 1314단계에서 습도 정보가 측정되고, 1316단계에서 습도 정보가 기설정 값 보다 크거나 같은 경우 사용자 인터페이스 장치(100)는 1318단계에서 디스플레이부에 애니메이션을 더 정확히 디스플레이 할 수 있는 가중치를 얻거나, 1316단계에서 습도 정보가 기설정 값 보다 크거나 같은 경우 사용자 인터페이스 장치(100)는 1318단계에서 디스플레이부에 애니메이션을 덜 정확히 디스플레이 할 수 있는 가중치를 얻고, R을 통해 도 11의 R로 복귀한다. 이때, 1310단계에서 습도 채집부가 활성화 되어 있지 않거나, 1314단계에서 습도가 채집 되지 않을 경우 사용자 인터페이스 장치(100)는 도 13의 알고리즘을 종료하고 도 11의 R로 복귀한다.When the user interface device 100 enters H of FIG. 13 through H of FIG. 11, when the humidity collecting unit is activated in operation 1310, when humidity is collected in operation 1312, humidity information is measured in operation 1314. If the humidity information is greater than or equal to the preset value in step 1316, the user interface device 100 obtains a weight for displaying an animation on the display more accurately in step 1318, or the humidity information is set in step 1316. If greater than or equal to, the user interface device 100 obtains a weight for displaying the animation on the display part less accurately in step 1318, and returns to R of FIG. In this case, when the humidity collecting unit is not activated in step 1310 or when the humidity is not collected in step 1314, the user interface device 100 ends the algorithm of FIG. 13 and returns to R of FIG. 11.
그리고, 도 11의 R로 복귀한 사용자 인터페이스 장치(100)가 1110단계에서 기울기를 감지한 경우, 1112단계에서 기울기 크기 정보를 측정한 경우, 1114단계에서 정보가 판단되어 기설정 값 보다 크거나 같을 경우, 1116단계에서 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값을 얻고, 1118단계에서 알고리즘의 진입방향이 판단되어 S2를 통해 도 12의 S2로 진입한다. 단, 사용자의 설정에 따라 곧바로 1120단계로 진입할 수 도 있다.11, when the user interface device 100 returns to R of FIG. 11 and detects the tilt in step 1110, when the tilt size information is measured in step 1112, the information is determined in step 1114 to be greater than or equal to the preset value. In step 1116, a weighting value for displaying the animation is displayed on the display faster. However, depending on the user's setting, it may go directly to step 1120.
만약, 1110단계에서 기울기가 감지되지 않거나 1114단계에서 판단한 값이 기설정 값 보다 작을 경우 사용자 인터페이스 장치(100)는 도 11의 알고리즘을 종료 할 수 도 있다.If the slope is not detected in step 1110 or the value determined in step 1114 is smaller than the preset value, the user interface device 100 may terminate the algorithm of FIG. 11.
사용자 인터페이스 장치(100)가 도 11의 S2으로부터 도 12의 S2로 진입한 경우, 1210단계에서 소리를 채집한 경우, 1212단계에서 소리크기, 소리 방향 정보를 측정한 경우, 1214단계에서 정보가 판단되어 소리크기가 기설정 값 보다 크거나 같을 경우, 1216단계에서 정보가 판단되어 소리방향이 기설정 값 보다 작거나 같을 경우, 1218의 단계에서 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값을 얻고, 1220단계에서 알고리즘의 진입방향이 판단되어 1222단계에서 계층화 설정 영역과 아닌 부분에 매칭되는 디스플레이부에 페이지가 넘어가는 애니메이션을 디스플레이 한다. 이 때, 사용자 인터페이스 장치(100)는 알고리즘이 도 11의 H와 R을 통해 도 13의 단계들을 거친 것을 확인해, 도 13의 1318단계나 1320단계에서 얻은 가중값을 이용해 애니메이션을 더 정확히 혹은 덜 정확히 표시할 수 도 있고, 도 11의 1116단계와 도 12의 1218단계에서 얻은 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값들 중 하나를 이용하거나 혹은 둘 다를 누적한 뒤 이용해 가중값들 중 하나를 이용하거나 혹은 둘 다를 누적한 뒤 이용해 애니메이션을 더 빠르게 디스플레이할 수 도 있다.When the user interface device 100 enters S2 of FIG. 12 from S2 of FIG. 11, when sound is collected in step 1210, when the loudness and sound direction information is measured in step 1212, the information is determined in step 1214. If the sound volume is greater than or equal to the preset value, the information is determined in step 1216. If the sound direction is less than or equal to the preset value, the weighted value for displaying the animation on the display is obtained faster in step 1218. In step 1222, the approaching direction of the algorithm is determined, and in step 1222, the page is displayed on the display unit matching the non-layered setting area. At this time, the user interface device 100 confirms that the algorithm has gone through the steps of FIG. 13 through H and R of FIG. 11 to display the animation more accurately or less accurately using the weighting values obtained in steps 1318 or 1320 of FIG. In addition, one of the weighted values used to display the animation faster on the display obtained in steps 1116 and 1218 of FIG. You can also accumulate everything and use it to display animation faster.
만약, 1210단계에서 소리가 채집되지 않거나, 1214단계에서 판단한 값이 기설정 값 보다 작거나, 1216단계에서 판단한 값이 기설정 값보다 클 경우 사용자 인터페이스 장치(110)는 도 12의 알고리즘을 종료하고 도 11의 G2로 복귀한다.If the sound is not collected in step 1210, the value determined in step 1214 is smaller than the preset value, or the value determined in step 1216 is larger than the preset value, the user interface device 110 ends the algorithm of FIG. 12. Return to G2 in FIG.
사용자 인터페이스 장치(100)는 터치에 의해 계층화 설정 영역이 활성화 되지 않은 경우, 도 12에서 시작단계로부터 시작할 수 있다. 이 경우 도 12의 H로 진입한다. 단, 사용자의 설정에 따라 곧바로 2110단계로 진입할 수 있다.The user interface device 100 may start from the start step in FIG. 12 when the layering setting area is not activated by the touch. In this case, it enters H of FIG. However, according to the user's setting, it may directly enter step 2110.
사용자 인터페이스 장치(100)는 도 12의 H를 거쳐 도 13의 H로 진입한 경우, 1310단계에서 습도 채집부가 활성화 상태인 경우, 1312단계에서 습도를 채집한 경우, 1314단계에서 습도 정보가 측정되고, 1316단계에서 습도 정보가 기설정 값 보다 크거나 같은 경우 사용자 인터페이스 장치(100)는 1318단계에서 디스플레이부에 애니메이션을 더 정확히 디스플레이 할 수 있는 가중치를 얻거나, 1316단계에서 습도 정보가 기설정 값 보다 크거나 같은 경우 사용자 인터페이스 장치(100)는 1318단계에서 디스플레이부에 애니메이션을 덜 정확히 디스플레이 할 수 있는 가중치를 얻고, R을 통해 도 12의 R로 복귀한다. 이때, 1310단계에서 습도 채집부가 활성화 되어 있지 않거나, 1314단계에서 습도가 채집되지 않을 경우 사용자 인터페이스 장치(100)는 도 13의 알고리즘을 종료하고 가중치를 얻지 않은 상태로 도 12의 R 단계로 복귀한다.When the user interface device 100 enters H of FIG. 13 through H of FIG. 12, when the humidity collecting unit is activated in operation 1310, when humidity is collected in operation 1312, humidity information is measured in operation 1314. If the humidity information is greater than or equal to the preset value in step 1316, the user interface device 100 obtains a weight for displaying an animation on the display more accurately in step 1318, or the humidity information is set in step 1316. If greater than or equal to, the user interface device 100 obtains a weight for displaying the animation on the display part less accurately in step 1318, and returns to R of FIG. In this case, when the humidity collecting unit is not activated in step 1310 or when the humidity is not collected in step 1314, the user interface device 100 ends the algorithm of FIG. 13 and returns to step R of FIG. 12 without obtaining a weight. .
그리고, 1210단계에서 소리를 채집한 경우, 1212단계에서 소리크기, 소리 방향 정보를 측정한 경우, 1214단계에서 정보가 판단되어 소리크기가 기설정 값 보다 크거나 같을 경우, 1216단계에서 정보가 판단되어 소리방향이 기설정 값 보다 작거나 같을 경우, 1218의 단계에서 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값을 얻고, 1220단계에서 알고리즘의 진입방향이 판단되어 G2를 통해 도 11의 G2로 진입한다. 단, 사용자의 설정에 따라 곧바로 1222단계로 진입할 수 있다.When the sound is collected in step 1210, when the loudness and sound direction information is measured in step 1212, when the information is determined in step 1214, and the sound size is greater than or equal to the preset value, the information is determined in step 1216. If the sound direction is less than or equal to the preset value, a weighting value for displaying the animation on the display part is obtained faster in step 1218, and the entry direction of the algorithm is determined in step 1220 to enter G2 of FIG. . However, depending on the user's setting, it may directly enter step 1222.
만약, 1210단계에서 소리가 채집되지 않거나, 1214단계에서 판단한 값이 기설정 값 보다 작거나, 1216단계에서 판단한 값이 기설정 값보다 클 경우 사용자 인터페이스 장치(100)는 도 12의 알고리즘을 종료할 수 도 있다.If the sound is not collected in step 1210, or the value determined in step 1214 is smaller than the preset value or the value determined in step 1216 is larger than the preset value, the user interface device 100 ends the algorithm of FIG. 12. Can also be.
사용자 인터페이스 장치(100)가 도 12의 G2으로부터 도 11의 G2로 진입한 경우, 1110단계에서 기울기를 감지한 경우, 1112단계에서 기울기 크기 정보를 측정한 경우, 1114단계에서 정보가 판단되어 기설정 값 보다 크거나 같을 경우, 1116단계에서 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값을 얻고, 1120단계에서 계층화 설정 영역과 아닌 부분에 매칭되는 디스플레이부에 페이지가 넘어가는 애니메이션을 디스플레이 한다. 이 때, 사용자 인터페이스 장치(100)는 알고리즘이 도 12의 H와 R을 통해 도 13의 단계들을 거친 것을 확인해, 도 13의 1318단계나 1320단계에서 얻은 가중값을 이용해 애니메이션을 더 정확히 혹은 덜 정확히 표시할 수 도 있고, 도 12의 1218단계와 도 11의 1116단계에서 얻은 디스플레이부에 애니메이션을 더 빠르게 표시하는 가중값들 중 하나를 이용하거나 혹은 둘 다를 누적한 뒤 이용해 애니메이션을 더 빠르게 디스플레이할 수 도 있다.When the user interface device 100 enters the G2 of FIG. 11 from the G2 of FIG. 12, when the tilt is detected in step 1110, when the tilt size information is measured in step 1112, the information is determined in step 1114 and is preset. If the value is greater than or equal to the value, in operation 1116, a weighted value for displaying the animation is displayed on the display faster. In operation 1120, the page is displayed on the display that matches the part other than the layered setting area. At this time, the user interface device 100 confirms that the algorithm has gone through the steps of FIG. 13 through H and R of FIG. 12, and more accurately or less accurately displays the animation using the weighting values obtained in steps 1318 or 1320 of FIG. Alternatively, the animation may be displayed more quickly by using one of the weighting values for displaying the animation faster on the display obtained in steps 1218 and 1116 of FIG. 12 or by accumulating both. .
만약, 1110단계에서 기울기가 감지되지 않거나 1114단계에서 판단한 값이 기설정 값 보다 작을 경우 사용자 인터페이스 장치(100)는 도 11의 알고리즘을 종료하고 도 12의 S2로 복귀한다.If the tilt is not detected in step 1110 or the value determined in step 1114 is smaller than the preset value, the user interface device 100 ends the algorithm of FIG. 11 and returns to S2 of FIG. 12.
통상의 종이책을 이루는 종이의 넓고 얇으며, 탄성을 가지며, 휘어졌다 복원하는 물리적 특성에 기인하고, 또한 일반적으로 같은 크기의 종이들을 한 쪽으로 제책하는 것에서 유발되는 종이책만의 고유한 물리적 특성중 하나는, 페이지를 넘기기 위해 책의 페이지가 층층이 쌓인 모서리를 손으로 넘기려는 방향과 반대 방향으로 당겼다 놓는 일을 행했을 때, 손이 느끼는 유효한 일로써의 반발력을 탄성의 형태로 보유한 것이다. 이와 더불어 종이책은 종이가 가진 매끄러운 정도와 주위의 습도 등의 물리적 조건에 의해, 많은 경우 페이지가 넘어 갈 때 의도와는 달리 불규칙하게 한 장이 아닌 여러 장이 넘어 가는 특성을 가진다. 또한 보통 엄지손가락을 이용해 책의 모서리를 넘기며 책의 내용을 빠르게 훑어보는 경우에는 책과 개별 페이지의 무게의 상이함과 각각의 중력과의 관계, 불규칙한 기압과 바람등에 의해 페이지의 넘김을 한 장씩 혹은 여러 장 씩 정확히 통제하기 어렵다. 손에 반발력을 유발한다는 점과 페이지를 정확히 한 장 씩 넘기는 데 정신적이고도 물리적인 노력을 들여야 한다는 두 가지 종이책의 특성은 종이책을 읽는 사람으로 하여금 손을 통해 전해지는 물리적 긴장감과 더불어 페이지를 넘길 때 경험되는 우연이라는 두 가지의 물리적이며 정신적인 경험들의 복합적인 경험과 그로부터 야기되는 감성을 제공한다.Among the unique physical properties of the paper book, which are due to the wide, thin, elastic, flexed and restored physical properties of the paper making up the conventional paper book, and generally caused by binding paper of the same size to one side One is to hold in the form of elasticity the effective repulsive force felt by the hand when the pages of the book are pulled and released in the opposite direction to the hand turning over the stacked corners to turn the pages. In addition, due to physical conditions, such as the smoothness of paper and the humidity of the surroundings, a paper book has a characteristic in which many pages are irregularly crossed instead of one when the pages are flipped. Also, if you quickly flip through the book's contents with your thumb, you can flip through the pages by the difference between the weight of the book and individual pages, the relationship between each gravity, irregular air pressure, and wind. It is difficult to control precisely by chapter. The two characteristics of paper books that cause repulsion in the hands and that it takes mental and physical effort to turn pages exactly one by one are that the readers of the paper book, along with the physical tension that passes through the hands, It provides a complex experience of two physical and mental experiences and the emotions that arise from it.

Claims (2)

  1. 종이 책의 경험을 전자책에서 모사하고자 할 때, 디스플레이부는, 인터페이스 장치에 내장 된 습도 채집부가 감지한 인터페이스 장치 주변의 습도 정보를 기준으로, 덜 정확히 혹은 더 정확히 페이지가 넘어가는 애니메이션을 표시하는 사용자 인터페이스 방법(방법1).When attempting to simulate the experience of a paper book in an e-book, the display unit displays an animation of page flipping less accurately or more accurately based on humidity information around the interface device detected by the humidity collector built into the interface device. Interface method (method 1).
  2. 종이 책의 경험을 전자책에서 모사하고자 할 때, 청구항1의 방법1을 반드시 포함한 상태에 한해서,When attempting to simulate the experience of a paper book in an e-book, only when the method 1 of claim 1 is included.
    디스플레이부는, 인터페이스 장치에 내장 된 소리 채집부가 감지한 소리를 제어부에서 분석한 소리의 크기와 소리의 위치 정보를 기준으로, 터치 인터페이스부의 계층화 설정 영역 중 터치 위치로 선택 된 이외의 왼 쪽 레이어에 해당하는 페이지들을 넘기는 애니메이션을 표시 하거나, 스크롤이 진행될 때 선택이 해제된 레이어들에 대응하는 현재 표시되고 있는 페이지가 넘어가는 애니메이션을 더 빠르게 표시하는 사용자 인터페이스 방법(방법2),The display unit corresponds to the left layer other than the touch position selected from the layering setting areas of the touch interface unit based on the sound volume and sound position information analyzed by the controller by analyzing the sound detected by the sound collector built in the interface device. A user interface method (method 2) for displaying an animation of turning over pages, or displaying an animation of turning over a currently displayed page corresponding to layers deselected as scrolling progresses.
    외부에서 가해지는 물리력에 상응하여 압력이나 전압 혹은 두 가지 모두를 측정 할 수 있는 터치 인터페이스 부; 상기 터치 인터페이스부가 터치되면 정보를 나타내는 디스플레이 부; 및 상기 터치 인터페이스의 기 설정된 계층화 설정 영역에 터치가 감지되면 터치된 계층에 대응하는 레이어를 상기 디스플레이부에 계층적으로 표시하고, 터치와 이어지는 스크롤이 진행되어 터치 인터페이스에서 측정 된 값이 기 설정된 압력 혹은 이동 방향, 이동 속도 이상인 경우 상기 터치 인터페이스부의 일부를 계층화 설정 영역으로 설정하고, 상기 계층화 설정 영역에 대응하는 상기 디스플레이부를 통해 레이어들을 계층적으로 표시하는 터치 인터페이스부를 가진 인터페이스 장치를 사용 하는 방법(방법3), A touch interface unit capable of measuring pressure, voltage, or both in response to external force applied thereto; A display unit which displays information when the touch interface unit is touched; And when a touch is detected in a preset layering setting area of the touch interface, a layer corresponding to the touched layer is hierarchically displayed on the display unit, and scrolling subsequent to the touch is performed so that a value measured in the touch interface is set to a preset pressure. Or a method of using an interface device having a touch interface unit configured to set a part of the touch interface unit as a layered setting area and display layers hierarchically through the display unit corresponding to the layered setting area when the moving direction and the moving speed are higher than each other. Method 3),
    디스플레이부는, 인터페이스 장치에 내장 된 기울기 감지부가 감지한 기울기의 정보를 기준으로, 터치 인터페이스부의 계층화 설정 영역 중 터치 위치로 선택 된 이외의 왼 쪽 레이어에 해당하는 페이지들이 넘어가는 애니메이션을 표시 하거나, 스크롤이 진행될 때 선택이 해제된 레이어들에 대응하는 페이지가 넘어가는 애니메이션을 더 빠르게 표시하는 방법(방법4),The display unit displays or scrolls an animation in which pages corresponding to the left layer other than the touch position selected in the layering setting area of the touch interface unit are skipped or scrolled based on the tilt information detected by the tilt detection unit built in the interface device. In this method, a method of displaying an animation in which a page corresponding to deselected layers is displayed more quickly (method 4),
    이상의 방법2와 방법3과 방법4를 모두 포함시켜, 페이지가 넘어가는데 종합적인 가중치를 주어 표시하는 사용자 인터페이스 방법.A user interface method including all of the above-described methods 2, 3, and 4 and giving a total weight to the page turning.
PCT/KR2016/003751 2015-04-12 2016-04-10 Method for making emotional e-book using complex functions of terminal WO2016167517A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0051377 2015-04-12
KR1020150051377A KR20150079501A (en) 2015-04-12 2015-04-12 Methode For Making Emotion-Effective E-Book By Complexing Fuctions In Mobile Terminal

Publications (1)

Publication Number Publication Date
WO2016167517A1 true WO2016167517A1 (en) 2016-10-20

Family

ID=53791782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/003751 WO2016167517A1 (en) 2015-04-12 2016-04-10 Method for making emotional e-book using complex functions of terminal

Country Status (2)

Country Link
KR (1) KR20150079501A (en)
WO (1) WO2016167517A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499899B1 (en) * 2015-12-10 2023-02-15 주식회사 엘지유플러스 Operation method of devices for e-book reader, application and devices for e-book reader
KR20200112368A (en) 2019-03-22 2020-10-05 신영선 System for manufacturing E-book

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282866A (en) * 1998-03-31 1999-10-15 Sharp Corp Electronic book display and recording medium readable by computer
KR20110119407A (en) * 2010-04-27 2011-11-02 엘지전자 주식회사 Mobile terminal and control method thereof
KR20120034541A (en) * 2010-10-01 2012-04-12 삼성전자주식회사 Apparatus and method for turning e-book pages in portable terminal
KR20120043862A (en) * 2010-10-27 2012-05-07 한국과학기술연구원 Electronic book apparatus and user interface providing method of the same
KR20120084467A (en) * 2011-01-20 2012-07-30 삼성전자주식회사 Method for changing page in e-book reader and device thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282866A (en) * 1998-03-31 1999-10-15 Sharp Corp Electronic book display and recording medium readable by computer
KR20110119407A (en) * 2010-04-27 2011-11-02 엘지전자 주식회사 Mobile terminal and control method thereof
KR20120034541A (en) * 2010-10-01 2012-04-12 삼성전자주식회사 Apparatus and method for turning e-book pages in portable terminal
KR20120043862A (en) * 2010-10-27 2012-05-07 한국과학기술연구원 Electronic book apparatus and user interface providing method of the same
KR20120084467A (en) * 2011-01-20 2012-07-30 삼성전자주식회사 Method for changing page in e-book reader and device thereof

Also Published As

Publication number Publication date
KR20150079501A (en) 2015-07-08

Similar Documents

Publication Publication Date Title
US10048758B2 (en) Haptic feedback for interactions with foldable-bendable displays
WO2009108029A2 (en) Device and method to display fingerboard of mobile virtual guitar
WO2016208808A1 (en) Display device
WO2016056703A1 (en) Portable device and method of controlling therefor
JP6184497B2 (en) Flexible device and control method thereof
JP2020038706A (en) Multi-functional hand-held device
WO2014204048A1 (en) Portable device and method for controlling the same
US8405682B2 (en) Mobile communication device and method for scaling data up/down on touch screen
US20130285922A1 (en) Systems and Methods for Managing the Display of Content on an Electronic Device
WO2016080559A1 (en) Foldable display device capable of fixing screen by means of folding display and method for controlling the foldable display device
WO2015160034A1 (en) Flexible touch sensitive display device and control method thereof
US10514796B2 (en) Electronic apparatus
US20130285921A1 (en) Systems and Methods for a Rollable Illumination Device
CN101866238A (en) Information processing apparatus, information processing method, and program
JP7331245B2 (en) Target position adjustment method and electronic device
CN103176744B (en) A kind of display equipment and its information processing method
WO2021169850A1 (en) Working current self-checking circuit and method, and electronic device
WO2015194709A1 (en) Portable display device and method of controlling therefor
CN102232289B (en) Portable terminal device, image display method used for same, and recording medium to record program for same
WO2016167517A1 (en) Method for making emotional e-book using complex functions of terminal
CN106569647A (en) Mobile terminal and mobile terminal control method
US9092198B2 (en) Electronic device, operation control method, and storage medium storing operation control program
WO2014133217A1 (en) Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
KR20170052196A (en) Electronic Device And Operating Method Thereof
EP2618325A1 (en) Information processing terminal, and screen control device and method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16780240

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16780240

Country of ref document: EP

Kind code of ref document: A1