WO2023128671A1 - Method, device, and system for providing digital comics - Google Patents

Method, device, and system for providing digital comics Download PDF

Info

Publication number
WO2023128671A1
WO2023128671A1 PCT/KR2022/021644 KR2022021644W WO2023128671A1 WO 2023128671 A1 WO2023128671 A1 WO 2023128671A1 KR 2022021644 W KR2022021644 W KR 2022021644W WO 2023128671 A1 WO2023128671 A1 WO 2023128671A1
Authority
WO
WIPO (PCT)
Prior art keywords
cut
region
area
sequence
digital
Prior art date
Application number
PCT/KR2022/021644
Other languages
French (fr)
Korean (ko)
Inventor
김정태
Original Assignee
김정태
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김정태 filed Critical 김정태
Publication of WO2023128671A1 publication Critical patent/WO2023128671A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • the present disclosure relates to a method, apparatus, and system for providing digital cartoons. More particularly, it relates to a method, apparatus, and system for providing digital cartoons capable of effectively displaying digital cartoons obtained on the basis of printed cartoons through a small display device.
  • a method using a scanner may be exemplified.
  • digital data corresponding to each page of the printed cartoon can be obtained, and a digital cartoon can be generated by appropriately processing it.
  • the line of sight in digital cartoons is more complicated than the line of sight in webtoons. Therefore, when digital comics are displayed on a small display device, readability may be lower than that of webtoons.
  • FIG. 2 when a page of a digital cartoon is simply reduced to fit the size of a mobile phone display, relatively large blanks appear on the display of a small display device. In particular, more blank spaces appear at the top and bottom of the display compared to the left and right sides of the display. Also, as the page size of digital comics is reduced, readability deteriorates.
  • the present disclosure has been made in accordance with the above-mentioned needs, and the problem to be solved by the present disclosure is to efficiently display digital cartoons based on printed cartoons even on a small display device and to maintain continuity between cut regions. It is to provide a provision method, apparatus and system.
  • a method for providing digital cartoons includes obtaining page images from digital cartoons based on printed cartoons; rearranging the acquired page images along a reference direction; detecting at least one cut region for each of the rearranged page images and a sequence region excluding a blank space at an edge of the page image; allocating sequential numbers to the one or more detected cut regions according to the flow of the reader's gaze; adjusting the size of the detected sequence region according to the size of a display of a user terminal; emphasizing a cut region corresponding to a current sequence based on the assigned sequence number when a display switching event occurs; and moving a position of a sequence region including the highlighted cut region such that a reference point of the highlighted cut region is positioned at a reference point of the display, wherein the at least one cut region is one of an independent cut region and a non-independent cut region. contains more than
  • a digital cartoon based on a printed cartoon is displayed based on a sequence area, but the location of the sequence area is moved so that the reference point of the cut area corresponding to the current sequence is located at the reference point of the display.
  • Complex line of sight can be simplified similarly to the line of sight in webtoons.
  • digital cartoons are displayed based on sequence areas, but as the position of the sequence areas is moved, the cut areas corresponding to the current sequence are directly or relatively highlighted and displayed, so that continuity between cut areas is maintained. This can increase the user's satisfaction and improve the user's readability.
  • the cut region corresponding to the current order when relatively emphasized, the amount of information on the remaining regions except for the cut region of the current order is reduced, so resources of the display device can be efficiently utilized.
  • FIG. 1 is a diagram illustrating a comparison between a gaze flow in a digital cartoon obtained based on a printed cartoon and a gaze flow in a conventional webtoon.
  • FIG. 2 is a diagram illustrating a comparison between a page of a digital cartoon obtained based on a printed cartoon and a page of the corresponding digital cartoon being reduced and displayed through a user terminal.
  • 3A and 3B are diagrams for explaining terms used in the present disclosure, and are diagrams illustrating page images of digital cartoons.
  • FIG. 4 is a diagram showing the configuration of a digital cartoon providing system according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram illustrating a configuration of a user terminal according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram showing the configuration of a digital cartoon providing device according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram for explaining methods of detecting a sequence region from a page image.
  • FIG. 8 is a diagram illustrating integrated page images constituting a digital cartoon.
  • FIG. 9 is a diagram illustrating a state in which the integrated page images shown in FIG. 8 are divided into two page images.
  • FIG. 10 is a diagram illustrating some page images among page images rearranged along a first direction.
  • FIG. 11 is a diagram illustrating images in which an image effect for reducing an amount of information is applied to a sequence region extracted from the first page image of FIG. 10 .
  • FIG. 12 to 28 are diagrams illustrating how the page images shown in FIG. 9 are displayed through a user terminal.
  • 29 is a flowchart illustrating a digital cartoon providing method according to an embodiment of the present disclosure.
  • 3A and 3B are diagrams for explaining terms used in the present disclosure, and are diagrams illustrating page images of digital cartoons.
  • a page image of a digital cartoon includes a page area 10, 10', a cut area 20, 21, 22, 23, 24, 25, 26, and a scene area 30, 30'. , sequence areas 40 and 40' and speech bubble areas 50 and 50'.
  • each area is exaggerated or reduced compared to actual areas for convenience of description.
  • the page areas 10 and 10' mean the entire area of the page image of the digital cartoon. That is, it can be understood that the size of the page image is the size of the page areas 10 and 10'.
  • the page areas 10 and 10' may include one or more cut areas 20, 21, 22, 23, 24, 25, and 26.
  • the cut regions 20, 21, 22, 23, 24, 25, and 26 are regions corresponding to cuts of printed comics.
  • a cut is the most basic unit in print comics and the smallest unit of a story. Cut contains content. Examples of content include pictures and fingerprints. The fingerprint may be arranged around the picture or inside a speech bubble arranged around the picture. Cuts and cuts can generally be distinguished by borders.
  • the shape of the edge may be a shape including one or more of a straight line, a curve, and a free curve.
  • the cut regions 20 , 21 , 22 , 23 , 24 , 25 , and 26 may include independent cut regions and non-independent cut regions.
  • the independent cut areas are connected to each other by a cut area 20 with an outline, a cut area 26 that can be distinguished by cut areas 24 and 25 without an outline but with outlines disposed around, and cartoon elements.
  • a cut area 20 with an outline a cut area 26 that can be distinguished by cut areas 24 and 25 without an outline but with outlines disposed around
  • cartoon elements may include cut regions that can be divided.
  • the cartoon element may be a picture, a speech bubble, or a fingerprint without a speech bubble.
  • a first example is a case where there is an outlier between two adjacent cut regions.
  • Existence of an outlier is a case where a small part (for example, hair or a hand of a person) of a picture included in one cut area invades an adjacent cut area.
  • a small part for example, hair or a hand of a person
  • FIG. 3B it can be seen that the curly hair of the person included in the cut area 26 invades the cut areas 24 and 25 disposed thereon. there is.
  • a second example is a case where two adjacent cut regions are connected by a word bubble, and fingerprints in the word bubble are not cut even when the two cut regions are divided.
  • a third example is a case in which two adjacent cut regions are connected by a speech bubble-free fingerprint. Specifically, it is a case where the two cut areas are connected by an onomatopoeia expressed in fingerprints (eg, 'smile') or a mimetic word expressed in fingerprints (eg, 'trude').
  • the cut area 20 with an outline is an area in which the ratio of straight lines is greater than or equal to a reference value among areas divided by continuous outlines, an area in which the radius of curvature of the outline is less than the reference value among areas divided by continuous outlines, or It can be understood as a region having a size greater than or equal to a reference value among regions divided by continuous outlines. Alternatively, it may be regarded as corresponding to the cut region 20, which is a region having a size greater than or equal to a reference value among regions divided by continuous outlines and a ratio of straight lines constituting the outline greater than or equal to the reference value.
  • the criterion for classifying the cut area 20 with the outline is not necessarily limited to the size, ratio of straight lines constituting the outline, and radius of curvature of the outline.
  • the cut area 26 that does not have an outline but can be distinguished by the cut areas 24 and 25 with an outline may be understood as a region including content among areas excluding areas distinguished by continuous outlines.
  • a virtual outline may be formed by connecting points having a contrast difference greater than a reference value, and a cut region 26 without an outline may be detected based on the virtual outline.
  • the non-independent cut area may include a cut area having a cut area therein, and cut areas connected to each other by cartoon elements but cannot be divided.
  • the cartoon element may be a picture, a speech bubble, or a fingerprint without a speech bubble.
  • the first example is when there are pictures placed across two or more cut areas.
  • the first example corresponds to the case where the body (body, head, arms, legs) of a person is arranged across two or more cut areas.
  • a second example is a case in which two or more adjacent cut areas are connected by one or more word balloons, and when the two or more cut areas are divided, fingerprints in the word balloon are cut.
  • two or more adjacent cut areas are connected by one or more word balloons, and when the two or more cut areas are divided, fingerprints in the word balloon are cut.
  • a third example is a case in which one cut area among two or more adjacent cut areas is a 'meaningless' cut area or a 'small size' cut area, but the cut area represents the passage of time.
  • a meaningless cut area a cut area in which only a background is arranged without a person can be taken as an example.
  • a fourth example is a case where there are 'subdivided cut areas' in the vertical direction within a paragraph in which a plurality of cut areas are arranged in the horizontal direction.
  • a fifth example is a case where there are 'subdivided cut areas' in left and right directions within a paragraph in which a plurality of cut areas are arranged in a vertical direction.
  • a sixth example is a case in which one or more cut regions having different heights exist within a paragraph in which a plurality of cut regions are arranged in a horizontal direction.
  • the non-independent cut areas may be understood to correspond to areas including cut areas that are connected to each other by cartoon elements but cannot be divided for readability of readers.
  • the scene areas 30 and 30 ′ refer to areas that the reader focuses on among the cut areas 20 , 21 , 22 , 23 , 24 , 25 , and 26 included in the page area 10 .
  • an independent cut area including an amount of information greater than or equal to a reference value or a non-independent cut area including an amount of information greater than or equal to a reference value may be determined as a scene area among independent cut areas and non-independent cut areas.
  • the non-independent cut area may be determined as the scene area 30 or 30' regardless of the amount of information of the independent cut area or the non-independent cut area.
  • 3A and 3B show cases in which non-independent cut areas are determined as scene areas 30 and 30'.
  • the sequence areas 40 and 40' refer to areas including all contents within the page areas 10 and 10'.
  • the sequence areas 40 and 40' refer to areas excluding top and bottom blanks and left and right blanks at the edges of the page areas 10 and 10'. Therefore, the sequence areas 40 and 40' have smaller sizes than the page areas 10 and 10'.
  • the outlines of the sequence areas 40 and 40' are the outlines of the page areas 10 and 10' among the outlines constituting one or more cut areas disposed along the outlines of the page areas 10 and 10'. Can be defined by nearby outlines.
  • the outlines of the sequence areas 40 and 40' are formed by four straight lines passing through the uppermost, lower, left, and right outermost points among the points constituting the content of the page areas 10 and 10'. can be defined by
  • the speech bubble areas 50 and 50' refer to areas where fingerprints or characters are disposed. In some cases, fingerprints or text may not be present in the speech bubble areas 50 and 50'.
  • the speech bubble areas 50 and 50' may be disposed inside the cut area 20 or may be disposed protruding from the outline of the cut area 20.
  • the speech bubble areas 50 and 50' protruding from the outline of the cut area 20 may invade the outline of an adjacent cut area.
  • the speech bubble areas 50 and 50' do not have a predetermined shape. Instead, most of the speech bubble areas 50 and 50' may have a different brightness or a different color compared to the surroundings of the speech bubble area 50. Accordingly, the speech bubble areas 50 and 50' may be detected through light-dark contrast or color contrast with the surroundings.
  • Optical Character Recognition OCR
  • Character data recognized in the speech bubble areas 50 and 50' may be stored and managed in a separate database other than a database in which digital cartoons are stored.
  • FIG. 4 is a diagram showing the configuration of a digital cartoon providing system according to an embodiment of the present disclosure.
  • a digital cartoon providing system includes a user terminal 100 and a digital cartoon providing device 200 .
  • the user terminal 100 provides identification information of the user terminal 100 to the digital cartoon providing device 200 and displays the digital cartoon provided from the digital cartoon providing device 200 .
  • the user terminal 100 may include a small display device such as a mobile phone. A more detailed description of the configuration of the user terminal 100 will be described later with reference to FIG. 5 .
  • the digital cartoon providing device 200 obtains identification information of the user terminal 100 and setting information related to the digital cartoon, and based on the obtained identification information and setting information, pre-stored digital cartoons are displayed in the user terminal 100. It is processed appropriately and provided to the user terminal 100 .
  • the digital cartoon providing apparatus 200 may process each page image of the digital cartoon for each reference region.
  • the reference area may be set to one of a cut area, a sequence area, and a page area.
  • the reference area may be directly set by the user.
  • the user may be differentially provided with information on the selectable reference area according to the amount of money the user has paid.
  • the reference area may be automatically set by the digital cartoon providing apparatus 200 in consideration of identification information of the user terminal 100 .
  • the reference area may be set to one of a cut area, a sequence area, and a page area, but may be changed according to each step when each page image of a digital cartoon is processed.
  • the digital cartoon providing device 200 may be a server for providing a digital cartoon service to the user terminal 100 .
  • a more detailed description of the configuration of the digital cartoon providing apparatus 200 will be described later with reference to FIG. 6 .
  • FIG. 5 is a diagram illustrating a configuration of a user terminal according to an embodiment of the present disclosure.
  • the user terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, and a control unit 180. and a power supply unit 190 and the like.
  • FIG. 5 The components shown in FIG. 5 are not essential to implement the user terminal 100, so the user terminal 100 described in this specification may have more or fewer components than the components illustrated above. there is.
  • the wireless communication unit 110 includes wireless communication between the user terminal 100 and a wireless communication system (not shown), and wireless communication between the user terminal 100 and other user terminals (not shown). It may include one or more components that enable communication or wireless communication between the user terminal 100 and an external server (not shown). In addition, the wireless communication unit 110 may include one or more components that connect the user terminal 100 to one or more networks. For example, the wireless communication unit 110 may include at least one of a broadcast receiver 111, mobile communication 112, wireless Internet 113, short-distance communication 114, and location information unit 115.
  • the input unit 120 may include a camera 121 or video input unit for inputting a video signal, a microphone 122 or audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user.
  • Examples of the user input unit 123 include a touch key and a mechanical key. Voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information within the user terminal 100, surrounding environment information surrounding the user terminal 100, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • Sensor G-sensor
  • gyroscope sensor gyroscope sensor
  • motion sensor motion sensor
  • RGB sensor infrared sensor
  • IR sensor infrared sensor
  • finger scan sensor ultrasonic sensor
  • information sensed by two or more sensors may be combined and utilized.
  • the output unit 150 is for generating an output related to sight, hearing or touch.
  • the output unit 150 may include one or more of a display unit 151, an audio output unit 152, a haptic tip unit 153, and a light output unit 154.
  • the display unit 151 may implement a touch screen by forming a mutual layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 providing an input interface between the user terminal 100 and the user and provide an output interface between the user terminal 100 and the user.
  • the interface unit 160 serves as a passage for various types of external devices connected to the user terminal 100 .
  • the interface unit 160 includes a wired/wireless headset port, an external charger port, a wired/wireless data part, a memory card port, and an identification module. It may include one or more of a port connecting provided devices, an audio input/output port, a video input/output port, and an earphone port.
  • the user terminal 100 may perform appropriate control related to the connected external device.
  • the memory 170 stores data supporting various functions of the user terminal 100 .
  • the memory 170 may store a plurality of application programs (application programs or applications) running in the user terminal 100 , data for operation of the user terminal 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs are on the user terminal 100 from the time of shipment for the basic functions of the user terminal 100 (eg, incoming call function, outgoing call function, message receiving function, message sending function) can exist Meanwhile, the application program may be stored in the memory 170, installed on the user terminal 100, and driven by the control unit 180 to perform an operation or function of the user terminal 100.
  • the control unit 180 controls overall operations of the user terminal 100 in addition to operations related to the application program.
  • the control unit 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 170.
  • controller 180 may control at least some of the components discussed in conjunction with FIG. 5 in order to drive an application program stored in the memory 170 . Furthermore, the controller 180 may combine and operate at least two or more of the components included in the user terminal 100 to drive the application program.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each component included in the user terminal 100 .
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • FIG. 6 is a diagram showing the configuration of a digital cartoon providing apparatus 200 according to an embodiment of the present disclosure.
  • the digital cartoon providing device 200 may include a region detection unit 210, a text recognition unit 220, an effect processing unit 230, a control unit 240, a database 250, and a communication unit 260.
  • a region detection unit 210 a text recognition unit 220
  • an effect processing unit 230 a control unit 240
  • a database 250 a database 260
  • a communication unit 260 a communication unit 260.
  • the database 250 stores various data necessary to service digital cartoons to the user terminal 100 .
  • the database 250 may include a first database 251 , a second database 252 and a third database 253 .
  • the first database 251 stores user information.
  • User information may include one or more of the user's ID, password, name, identification information of the user terminal 100, and setting information for digital cartoons.
  • the identification information of the user terminal 100 may include one or more of a serial number assigned to the device, a manufacturer of the device, and a name of the device, but is not necessarily limited to the examples. Also, such identification information may be collected from the user terminal 100 or may be directly provided by the user.
  • Setting information for digital cartoons may include various types of information related to a display method of digital cartoons. For example, information on a reference region applied to digital cartoons, the type and number of effects to be applied to the reference region, criteria for generating display switching events, and the like may be exemplified, but are not necessarily limited to the exemplified examples.
  • the display switching event occurs when a display switching command is received from the user, when the reference time is reached after displaying the reference area, or when the position of the reference area is moved by the display switching command, and a specific point of the reference image changes to a specific point on the display. This can happen when a point is reached.
  • a criterion for generating a display switching event may be set in advance, and the set content may be implemented to be changeable by a user.
  • the display switching command may include a voice command and a gesture command.
  • Gesture commands include Single Tab, Double Tab, Press, Deep Press, Pan, Swipe, Flick, Scroll and Can include drag.
  • the display change event may include a page image change event and a cut region change event.
  • a gesture command for generating a page image conversion event and a gesture command for generating a cut region conversion event may be set differently.
  • a gesture command for generating a page image conversion event and a gesture command for generating a cut region conversion event may not be distinguished and may be identically set.
  • the second database 252 stores digital comics corresponding to printed comics.
  • digital cartoons may be acquired by scanning a printed cartoon using a scanner or photographing a printed cartoon using a camera. At this time, scanning or shooting may be performed targeting a reference range of the printed cartoon.
  • the reference range may mean two consecutive pages that are shown when the printed comic book is opened, or may mean one page.
  • an integrated page image corresponding to two consecutive pages or a page image corresponding to one page may be obtained. If this process is repeated for one printed comic book, a digital comic consisting of a plurality of combined page images or a digital comic consisting only of a plurality of page images can be obtained.
  • one or more labels may be labeled on digital cartoons stored in the second database 252 .
  • the label may include a category label for classifying digital cartoon categories.
  • the category label may include a category label for available age, a category label for publication country, a category label for publication language, a category label for genre, and a category label for subject matter.
  • the label may include a gaze flow information label.
  • the gaze flow information label is a label indicating a cut region where the gaze flow starts in the page image.
  • Korea uses the left-side binding method of binding the left side of the book. Therefore, printed comics published in Korea turn pages from right to left. Therefore, when a print comic is opened, the viewpoint flow starts from the left page and moves to the right page. Also, within a page, the viewpoint flow starts from the upper left side of the corresponding page and proceeds in the order of the upper right side, lower left side, and left and right side. Accordingly, even in the page image of a digital cartoon, the viewpoint flow starts from the upper left side and proceeds in the order of the upper right side, the lower left side, and the lower right side.
  • Japan uses the right-side binding method of binding the book. Therefore, printed comics published in Japan turn pages from left to right. Therefore, when a print comic is opened, the viewpoint flow starts from the right page and moves to the left page. Further, within a page, the viewpoint flow starts from the upper right side of the corresponding page, and proceeds in the order of upper left side, lower right side, and lower left side. Accordingly, even in the page image of a digital cartoon, the viewpoint flow starts from the upper right side and proceeds in the order of upper left side, lower right side, and lower left side.
  • the overall direction of the flow of viewpoints and the starting position of the flow of viewpoints of printed comics are different depending on the country in which the printed comics were first published. Therefore, if the information of the cut region where the gaze flow starts is labeled on the digital cartoon as the gaze flow information label, it is not necessary to perform separate image processing to detect the location where the gaze flow starts in each page image, so it takes time for image processing. resources can be reduced.
  • digital cartoons may be labeled with more various types of labels. Also, labeling of digital cartoons may be performed manually or automatically.
  • the third database 253 stores text data recognized in the speech bubble area 50 of the page image.
  • the text data stored in the third database 253 may be displayed through the user terminal 100 after at least one of font, size, and effect is processed into a form suitable for the user terminal 100 .
  • Whether to process text data may be set in advance by a user of a digital cartoon service or a provider of a digital cartoon service, and set information may be implemented to be changeable.
  • the digital cartoon providing device 200 includes all of the first database 251 to the third database 253 has been described as an example, but one or more of them may be included in an external server (not shown). there is. In this case, the digital cartoon providing device 200 may acquire data required to provide a digital cartoon service by communicating with an external server.
  • the region detection unit 210 detects regions in each page image of the digital cartoon.
  • the region means one or more of the page region 10, the cut regions 20, 21, and 22, the scene region 30, the sequence region 40, and the speech bubble region 50 described above.
  • the region detection unit 210 detects a region of one page image as a target. Specifically, in the case of a digital cartoon composed of a plurality of page images, the region detection unit 210 detects a region for each page image.
  • the region detection unit 210 detects a region of the integrated page image as a target. Specifically, in the case of a digital cartoon composed of a plurality of combined page images, the region detection unit 210 detects a region for each combined page image. At this time, the area detector 210 first detects two consecutive page images from the integrated page image.
  • the detected page images may be rearranged along the reference direction.
  • the reference direction may be one of a first direction, a second direction, and a third direction.
  • the first direction means a vertical direction from top to bottom.
  • the second direction means a horizontal direction from left to right.
  • the third direction means a horizontal direction from right to left.
  • page images detected from the integrated page image may be rearranged in the second direction.
  • the region detection unit 210 detects an outline in the page image. Then, candidate regions are detected based on the feature information of the detected outline, and the detected candidate regions are determined as one of an independent cut region, a non-independent cut region, and a speech bubble region.
  • the region detection unit 210 checks whether there is a candidate region distinguished by an outline among candidate regions, compares the size of candidate regions, or checks whether candidate regions are connected by cartoon elements. , or whether candidate regions connected by cartoon elements can be separated.
  • the region detection unit 210 detects regions divided by continuous outlines among candidate regions. At this time, not only the outline dividing the cut area 20 but also the outline of the content may be detected in the area divided by the continuous outline. Accordingly, the area detector 210 detects, as the cut area 20 , only an area in which the ratio of straight lines included in the outline is greater than or equal to a reference value among the detected areas.
  • the area detector 210 also detects an area including content among areas other than the detected cut area 20 as a cut area (see 26 in FIG. 3B ). In this way, it is possible to prevent a situation in which the cut region 26 in which the outline is not defined is excluded from the detection target.
  • the area detector 210 may convert the page image into grayscale in order to detect the cut area 26 in which the outline is not defined. Next, a virtual outline is created by connecting points having a contrast difference from the surroundings greater than a reference value, and a cut area 26 is detected based on the virtual outline.
  • the area detector 210 may compare contrast or color between the candidate areas and the surrounding area. As a result, among the candidate regions, a candidate region whose contrast with the surroundings is greater than or equal to the reference value or a candidate region whose color contrast with the surroundings is greater than or equal to the criterion is detected as the speech bubble region 50 .
  • Optical character recognition may be performed on the detected speech bubble area 50 by the character recognition unit 220 to be described later.
  • the region detector 210 compares positions between candidate regions or determines whether candidate regions are connected by cartoon elements. Alternatively, it is possible to check whether candidate regions connected by cartoon elements are in a state in which they cannot be divided.
  • the area detection unit 210 detects the first cut area as a non-independent cut area.
  • the region detector 210 detects the candidate regions as non-independent cut regions.
  • the area detection unit 210 detects a scene area based on the detected cut areas. .
  • a cut area including an amount of information equal to or greater than a reference value may be detected as the scene area 30 .
  • the scene area 30 is an area that the reader focuses on in the page area 10, and is likely to contain a large amount of information about straight lines, curves, colors, and the like.
  • the scene region 30 may be determined as a non-independent cut region among the independent cut regions 20 and the non-independent cut regions 21, 22, and 23.
  • the area detector 210 After detecting the scene area 30 , the area detector 210 detects the sequence area 40 based on the cut areas disposed along the outline of the page area 10 among the detected cut areas. At this time, the sequence area 40 may be detected in various ways. Methods of detecting the sequence area 40 will be described later with reference to FIG. 7 .
  • Detection of the cut regions 20, 21, 22, and 23, detection of the scene region 30, detection of the speech bubble region 50, and detection of the sequence region 40 may be sequentially performed according to a predetermined order.
  • region detection is not necessarily performed in a predetermined order, and the region detection order may be changed in some cases, or different regions may be detected simultaneously.
  • the region detector 210 detects the cut regions 20, 21, 22, 23) are assigned sequential numbers according to the flow of the reader's gaze. For example, if Korea is the first publishing country of printed comics corresponding to digital comics, the flow of the reader's gaze within the printed comics page starts from the upper left side of the page, then moves to the upper right side, lower left side, and lower right side in that order. . Accordingly, the region detection unit 210 considers the positions of the cut regions 20, 21, 22, and 23 within the page image of the digital cartoon and assigns sequential numbers corresponding to the gaze flow.
  • sequential numbers may be newly allocated for each page image.
  • sequential numbers may be newly allocated for each two consecutive page images.
  • sequential numbers may be assigned to all page images included in digital cartoons.
  • information of a cut region disposed at a point where a reader's gaze flow starts may be labeled in a digital cartoon as a gaze flow information label.
  • the cut areas 20, 21, 22, and 23 and the scene area 30 have been separately described. However, this is for convenience of explanation, and it may be understood that the scene area 30 is a cut area that meets a specific criterion among cut areas detected in the page image. Therefore, in the following description, 'allocating sequential numbers to the cut areas 20, 21, 22, and 23' means that sequential numbers are assigned to the cut areas 20, 21, 22, and 23 and the scene area 30. It can mean becoming.
  • the area detection unit 210 may include an artificial intelligence model.
  • the artificial intelligence model can be trained in advance by using a large amount of page images as training data.
  • supervised learning or unsupervised learning may be used as a learning method.
  • labeling data in which page images are labeled with information about a cut area, a speech bubble area, a scene area, and a sequence area may be used as learning data.
  • unsupervised learning region detection can be performed on a large number of unlabeled page images, and then a human judges the accuracy of the region detection result and feeds back to the artificial intelligence model.
  • the text recognition unit 220 recognizes text by performing optical character recognition (OCR) on the speech bubble area 50 detected in the page image. Recognized text data may be stored in the third database 253 . The text data stored in the third database 253 may be later displayed through the user terminal 100 after at least one of font, size, and effect is processed into a form suitable for the user terminal 100 . According to another embodiment, voice data corresponding to text data may be provided to the user terminal 100 .
  • OCR optical character recognition
  • the effect processor 230 applies an image effect to one or more of the page image, a region detected from the page image, and text data recognized from the page image.
  • video effects include enlargement, reduction, position movement, appearing position, shaking, blurring, transparency adjustment, hiding, unhiding, and overlay.
  • 'position to appear' may be associated with a rearrangement direction of page areas. For example, if the position at which the page images appear is set to the lower side of the display of the user terminal 100, the page images may be rearranged in the first direction. As another example, if the position at which the page images appear is set to the right side of the display of the user terminal 100, the page images may be rearranged in the second direction. As another example, if the position where the page images appear is set to the left side of the display of the user terminal 100, the page images may be rearranged in the third direction.
  • the arrangement direction of the page images is determined based on the setting information related to the 'appearing position' has been described as an example, but the opposite is also possible. That is, if the arrangement direction of the page images is set to the first direction, the 'appearing position' of the area may be automatically set to appear at the bottom of the display.
  • the illustrated video effects may be applied alone or two or more video effects may be simultaneously applied.
  • the number and type of effects to be applied to a specific object may be directly set by the user, or may be automatically set according to at least one of the size, width, length, and amount of information of the object to which the video effect is applied.
  • the control unit 240 may connect and control each component constituting the digital cartoon providing device 200 .
  • the controller 240 may rearrange the page images constituting the digital cartoon according to a preset direction.
  • the controller 240 may detect a display change event.
  • the communication unit 260 performs wireless communication between the digital cartoon providing device 200 and the user terminal 100 .
  • the digital cartoon providing device 200 has been described with reference to FIG. 6 .
  • Some of the components shown in FIG. 6 may be configured to be included in the user terminal 100 .
  • one or more of the area detection unit 210 , the text recognition unit 220 , and the effect processing unit 230 may be included in the user terminal 100 .
  • FIG. 7 is a diagram for explaining methods of detecting a sequence region from a page image.
  • Shown on the left of FIG. 7 is a page image. Also, shown on the right side of FIG. 7 are sequence regions detected in the page image.
  • a page image includes a first to fourth cut area.
  • the first to fourth cut regions are displaced from each other.
  • the apparatus 200 for providing digital cartoons detects cut regions in a page image and then detects sequence regions based on the detected cut regions.
  • sequence regions based on the detected cut regions.
  • FIG. 7(A) shows a case in which a sequence region is detected while maintaining the existing positions of all cut regions detected in the page image.
  • FIG. 7(B) shows a sequence area based on the outermost outlines among the outlines constituting the center-aligned cut regions after centering them by horizontally moving the cut regions detected in the page image within the page region. The case where this is detected is shown.
  • the third cut region and the fourth cut region are arranged side by side with each other in the horizontal direction.
  • 'c' which is the total horizontal length including the horizontal length of the third cut region, the horizontal length of the fourth cut region, and the cut gap between the third and fourth cut regions
  • 'd1' which is the horizontal length of the remaining cut regions.
  • the first cut region and the second cut region are horizontally moved so as to be located on a vertical line passing through the center of the entire region including the third region and the fourth cut region.
  • FIG. 7(C) shows a state in which the first cut region and the second cut region having a horizontal length shorter than the horizontal length of the sequence region are enlarged to match the sequence region in the state of (B). At this time, the first cut region and the second cut region are simultaneously enlarged in the horizontal and vertical directions, within a range where the horizontal length of the first cut region and the horizontal length of the second cut region do not exceed the horizontal length of the sequence region. expands from
  • a digital cartoon to be described below is a digital cartoon composed of integrated page images obtained from a stamp-type printed cartoon as an example. Also, it is assumed that each integrated page image does not have a cut region disposed across two consecutive page images. Also, it is assumed that the posture of the user terminal 100 is a portrait mode among portrait mode and landscape mode.
  • FIG. 8 is a diagram illustrating integrated page images constituting a digital cartoon.
  • the digital cartoon includes a first integrated page image 6 and a second integrated page image 8 .
  • the first combined page image 6 includes a first page image 60 and a second page image 70 .
  • the second integrated page image 8 includes a third page image 80 and a fourth page image 90 .
  • the flow of the reader's gaze proceeds in the order of the first page 60, the second page 70, the third page 80, and the fourth page 90.
  • the region detection unit 210 detects page regions in each integrated page image 6 and 8 .
  • the region detector 210 may detect two consecutive page images 60 and 70 by dividing the combined page image 6 along a virtual vertical line passing through the center point of the horizontal length of the combined page image 6.
  • 9 shows a state in which a first integrated page image 6 is divided into a first page area 60 and a second page area 70, and a second combined page image 8 is divided into a third page image 80 and The image divided into the fourth page image 90 is shown.
  • the controller 240 rearranges the detected page images 60, 70, 80, and 90 along the reference direction.
  • the reference direction may be one of a first direction, a second direction, and a third direction.
  • 10 shows some page images 60 and 70 among page images rearranged along the first direction. Although only the first page image 60 and the second page image 70 are shown in FIG. 10, the third page image 80 and the fourth page image 90 follow the second page image 70. They are arranged sequentially along one direction. Also, referring to FIG. 10 , it can be seen that '60A' and '70A' are used as reference numerals to indicate the sequence area of the first page image 60 and the sequence area of the second page image 70, respectively. there is. Accordingly, although not shown in FIG. 10 , reference numerals for referring to the sequence area of the third page image 80 and the sequence area of the fourth page image 90 in the following description and drawings are '80A' and '80A'. '90A' may be used.
  • the region detection unit 210 detects regions of the rearranged page images. That is, at least one of a cut region, a scene region, a sequence region, and a speech bubble region is detected in each page image. In this case, region detection may be performed sequentially or concurrently, and a preferentially detected region may vary depending on the case. Referring to FIG. 10 , it can be seen that four independent cut regions 61 , 62 , 63 , and 64 and a sequence region 60A are detected in the first page image 60 . In addition, it can be seen that one independent cut region 71, one non-independent cut region 72, and a sequence region 70A are detected in the second page image 70. In the second page image, the dotted line representing the non-independent cut region 72 and the one-dot chain line representing the sequence region 70A are exaggerated compared to the actually detected non-independent cut region 72 and sequence region 70A.
  • the area detector 210 may detect the sequence area based on the methods described with reference to FIG. 7 .
  • the region detector 210 may detect the sequence region 60A while maintaining the original positions of all cut regions 61, 62, 63, and 64 detected in the first page image 60.
  • the region detector 210 may detect the sequence region 60A in a state in which the positions of the cut regions 61, 62, 63, and 64 are centered.
  • the region detection unit 210 detects the sequence region 60A with the positions of the cut regions 61, 62, 63, and 64 centered, and the effect processing unit 230 determines the size of some of the cut regions. can be enlarged to fit the sequence area.
  • the region detection unit 210 assigns a sequential number according to the line of sight to the cut region detected in each page image.
  • the line of sight starts from the first independent cut region 61 of the first page image 60, the second independent cut region 62, the third independent cut region 63, and the fourth independent cut.
  • the area 64 After proceeding to the area 64 , it proceeds to the first independent cut area 71 and the first non-independent cut area 72 of the second page image 70 . Accordingly, sequential numbers are assigned according to the above-mentioned order.
  • the effect processing unit 230 adjusts the size of the detected sequence regions 60A and 70A according to the display size of the user terminal 100 .
  • the effect processing unit 230 adjusts the size of each sequence area 60A or 70A so that the horizontal length of each sequence area 60A or 70A is equal to the horizontal length of the display of the user terminal 100 .
  • the horizontal and vertical lengths of the sequence regions 60A and 70A are adjusted at the same ratio. More specifically, if the horizontal length of each of the sequence regions 60A and 70A is longer than the horizontal length of the display, the effect processor 230 adjusts the horizontal length of each sequence region 60A and 70A to be equal to the horizontal length of the display. The overall size of the sequence regions 60A and 70A is reduced. If the horizontal length of each sequence area 60A or 70A is shorter than the horizontal length of the display, the effect processor 230 sets each sequence area ( 60A, 70A) enlarge the overall size.
  • the effect processing unit 230 adjusts the size of each sequence area 60A or 70A so that the vertical length of each sequence area 60A or 70A is equal to the vertical length of the display of the user terminal 100 .
  • the horizontal and vertical lengths of the sequence regions 60A and 70A are adjusted at the same ratio. More specifically, if the vertical length of each sequence area 60A, 70A is longer than the vertical length of the display, the effect processing unit 230 adjusts the vertical length of each sequence area 60A, 70A to be equal to the vertical length of the display. The overall size of the sequence regions 60A and 70A is reduced. If the vertical length of each sequence area 60A or 70A is shorter than the vertical length of the display, the effect processing unit 230 sets each sequence area to have the same vertical length as the vertical length of the display. 60A, 70A) enlarge the overall size.
  • each sequence region 60A or 70A is adjusted based on the horizontal length of each sequence region 60A or 70A and the horizontal length of the display.
  • the effect processing unit 230 directly or relatively emphasizes the cut region corresponding to the current sequence among the cut regions in the sequence region.
  • Methods for directly emphasizing the cut area corresponding to the current order include enlarging the cut area, emphasizing the outline of the cut area, emphasizing content included in the cut area, and changing the color of the cut area. method can be cited as an example.
  • a method of relatively emphasizing the cut region corresponding to the current sequence a method of reducing the amount of information in the entire sequence region and then overlapping the corresponding cut region before the reduced amount of information with the sequence region having the decreased amount of information may be exemplified.
  • a method for reducing the amount of information in the sequence area a method of applying one or more video effects selected from among a blur effect, a soft edge effect, a rounded corner effect, a transparency effect, and a crop effect to the sequence area may be exemplified.
  • a method of reducing the amount of information in the sequence region excluding the cut region corresponding to the current order may be exemplified. For example, by applying one or more video effects from blur effect, soft edge effect, rounded corner effect, transparency effect, and crop effect to the rest of the sequence area except for the cut area corresponding to the current sequence, corresponding to the current sequence. It is possible to obtain the effect of relatively emphasizing the cut area.
  • Another method of relatively emphasizing the cut region corresponding to the current order may include, for example, a method of covering regions other than the cut region corresponding to the current order in the sequence region. This method can be implemented using clip-path.
  • Clip path is one of the properties of CSS (Cascading Style Sheet) and is used when only a certain area of the original image is to be displayed.
  • the effect processing unit 230 moves the position of the sequence area so that the reference point of the corresponding cut area is located at the reference point of the display while emphasizing the cut area corresponding to the current sequence.
  • the reference point of the cut region corresponding to the current order may be the center of the corresponding cut region.
  • the reference point of the display may be the center of the display. According to the embodiment, whether to emphasize only the cut region or move the position of the sequence region as a whole while emphasizing the cut region may be set in advance, and the set information may be changed by a user and/or provider of a digital cartoon service. can be implemented to make it possible.
  • the position of the sequence region is moved so that the reference point of the highlighted cut region is located at the reference point of the display.
  • emphasis on the cut region in the current sequence may be made.
  • the emphasis on the cut region in the current order and the positional movement of the sequence region may be simultaneously performed without distinguishing the order.
  • FIG. 11 is a diagram illustrating images in which an image effect for reducing the amount of information is applied to the sequence area 60A extracted from the first page image 60 of FIG. 10 .
  • sequence area 60AA to which a blur effect is applied shows a sequence area 60AA to which a blur effect is applied. It can be seen that the sequence area 60AA to which the blur effect is applied is generally blurred compared to the sequence area 60A before the blur effect is applied.
  • sequence area 60AB shows a sequence area 60AB to which a soft edge effect is applied.
  • the sequence area 60AB to which the soft edge effect is applied is generally blurred compared to the sequence area 60A before the soft edge effect is applied.
  • the edge of the sequence area 60AB is more blurred than the center of the sequence area 60AB.
  • a soft edge effect is applied to sequence areas 60A, 70A, 80A, and 90A of each page area 60, 70, 80, and 90 shown in FIG. 9 will be described as an example.
  • the sequence areas to which the soft edge effect is applied may be distinguished by reference numerals '60AB', '70AB', '80AB', and '90AB', respectively.
  • the effect processing unit 230 is currently in the same cut area as the cut area corresponding to the current sequence among cut areas included in the sequence area with a reduced amount of information. Overlap the cut regions corresponding to the order. That is, the cut region in the current order in the sequence region before the amount of information is reduced is overlaid with the cut region in the current order in the sequence region in which the amount of information is reduced. Then, the position of the sequence area and the position of the cut area overlapping the sequence area are moved so that the center of the cut area corresponding to the current order is positioned at the center of the display. For a more detailed description of this, reference will be made to FIGS. 12 to 28 .
  • FIG. 12 to 28 are diagrams illustrating how the page images shown in FIG. 9 are displayed through the user terminal 100 .
  • the first independent cut region 61 in the sequence region 60A before the amount of information is reduced overlaps the sequence region 60AB in which the amount of information is reduced after being detected in the first page image 60. it can be seen that there is Also, it can be seen that the sequence area 60AB is moved so that the center of the overlapping first independent cut area 61 is positioned at the center of the display.
  • the second independent cut region 62 in the sequence region 60A before the amount of information is reduced is newly overlapped in the sequence region 60AB, and the overlapped second independent cut region ( The position of the sequence area 60AB is gradually moved so that the center of 62) is positioned at the center of the display. That is, the screen of FIG. 14 is displayed through the screen of FIG. 13 .
  • the first independent cut area 61 overlapping the sequence area 60AB is gradually blurred, but the first independent cut area 61 newly overlaps the sequence area 60AB. It can be seen that the two independent cut regions 62 become increasingly clear. When the center of the second independent cut region 62 reaches the center of the display, the screen of FIG. 14 is displayed.
  • the third independent cut region 63 in the sequence region 60A before the amount of information is reduced is newly overlapped in the sequence region 60AB, and the overlapped third independent cut region ( 63) is gradually moved so that the center of the sequence area 60AB is positioned at the center of the display. That is, the screen of FIG. 16 is displayed via the screen of FIG. 15 .
  • the second independent cut region 62 overlapping the sequence region 60AB is gradually blurred, but the second independent cut region 62 newly overlaps the sequence region 60AB. It can be seen that the 3 independent cut regions 63 gradually become clear. When the center of the third independent cut region 63 reaches the center of the display, the screen of FIG. 16 is displayed.
  • the fourth independent cut region 64 in the sequence region 60A before the amount of information is reduced is newly overlapped in the sequence region 60AB, and the overlapped fourth independent cut region ( The position of the sequence area 60AB is gradually moved so that the center of 64) is positioned at the center of the display. That is, the screen of FIG. 18 is displayed via the screen of FIG. 17 .
  • the third independent cut area 63 overlapping the sequence area 60AB is gradually blurred, but the second area newly overlapped with the sequence area 60AB. It can be seen that the 4 independent cut regions 64 gradually become clearer. When the center of the fourth independent cut region 64 reaches the center of the display, the screen of FIG. 18 is displayed.
  • the first independent cut area 71 in the second sequence area 70A before the amount of information is reduced overlaps the second sequence area 70AB in which the amount of information is reduced, and the overlapping occurs.
  • the positions of the first sequence area 60AB and the second sequence area 70AB are gradually moved together so that the center of the first independent cut area 71 is positioned at the center of the display. That is, the screen of FIG. 20 is displayed via the screen of FIG. 19 .
  • the fourth independent cut region 64 overlapping the first sequence region 60AB is gradually blurred, but instead the second sequence region It can be seen that the first independent cut region 71 newly overlapped on 70AB becomes gradually clearer.
  • the screen of FIG. 20 is displayed. Referring to FIG. 20 , it can be seen that the first sequence area 60AB has completely disappeared from the screen.
  • the first non-independent cut area 72 in the sequence area 70A before the amount of information is reduced is overlapped in the sequence area 70AB, and the overlapped first non-independent cut area 72 is overlapped.
  • the position of the sequence area 70AB is gradually moved so that the center of 72 is located at the center of the display. That is, the screen of FIG. 22 is displayed via the screen of FIG. 21 .
  • the first independent cut region 71 overlapping the sequence region 70AB is gradually blurred, but the newly overlapped first non-independent cut region ( 72) becomes increasingly clear.
  • the center of the first non-independent cut region 72 reaches the center of the display, the screen of FIG. 22 is displayed.
  • the first non-independent cut area 81 in the third sequence area 80A before the amount of information is reduced overlaps the third sequence area 80AB in which the amount of information is reduced,
  • the positions of the second sequence area 70AB and the third sequence area 80AB are gradually moved together so that the center of the overlapping first non-independent cut area 81 is positioned at the center of the display. That is, the screen of FIG. 24 is displayed via the screen of FIG. 23 .
  • the first non-independent cut region 72 overlapping the second sequence region 70AB gradually blurs, instead of the third sequence region 70AB. It can be seen that the first non-independent cut region 81 overlapping the region 80AB gradually becomes clear. When the center of the newly overlapped first non-independent cut region 81 reaches the center of the display, the screen of FIG. 24 is displayed.
  • the first non-independent cut area 91 in the fourth sequence area 90A before the information amount is reduced overlaps the fourth sequence area 90AB in which the amount of information is reduced,
  • the positions of the third sequence area 80AB and the fourth sequence area 90AB are gradually moved together so that the center of the overlapping first non-independent cut area 91 is positioned at the center of the display. That is, the screen of FIG. 26 is displayed via the screen of FIG. 25 .
  • the first non-independent cut region 81 overlapping the third sequence region 80AB is gradually blurred, but instead of the fourth sequence region It can be seen that the first non-independent cut region 91 overlapping the region 90AB gradually becomes clear.
  • the screen of FIG. 26 is displayed.
  • the second independent cut region 92 in the sequence region 90AB before the amount of information is reduced overlaps the sequence region 90AB, and the overlapped second independent cut region 92
  • the position of the sequence area 90AB is moved so that the center of ) is located at the center of the display. That is, the screen of FIG. 28 is displayed via the screen of FIG. 27 .
  • 29 is a flowchart illustrating a digital cartoon providing method according to an embodiment of the present disclosure.
  • the requested digital cartoon is searched in the second database 252 .
  • Step S510 includes obtaining a plurality of page images when the searched digital cartoon is a digital cartoon composed of a plurality of page images; A step of detecting two page images may be included.
  • the acquired page images are rearranged along the reference direction (S530).
  • the reference direction may be one of a first direction, a second direction, and a third direction.
  • the first direction means a vertical direction from top to bottom.
  • the second direction means a horizontal direction from left to right.
  • the third direction means a horizontal direction from right to left.
  • the reference direction may be determined based on a label labeled on the digital cartoon. Specifically, if a label for a country of first publication of the digital cartoon is labeled on the digital cartoon, the page images may be rearranged in the second direction or the third direction based on the corresponding label.
  • the reference direction may be set in advance by a digital cartoon service user or a digital cartoon service provider.
  • the step S530 may include a step of detecting a sequence region of a corresponding page image in a state where the existing positions of all cut regions detected in the page image are maintained (see (A) of FIG. 7 ). .
  • the step S530 may include detecting a sequence region of the corresponding page image in a state in which cut regions detected in the page image are aligned in the center (refer to (B) of FIG. 7 ).
  • step S530 a sequence region of the corresponding page image is detected in a state where the positions of the cut regions detected in the page image are centered, and cut regions having a horizontal length shorter than the horizontal length of the sequence region are detected.
  • a step of expanding the size to match the size of the sequence area may be included.
  • the size of the sequence areas is adjusted according to the size of the display of the user terminal 100 (S550).
  • the step S550 includes adjusting the size of the sequence area so that the horizontal length of the sequence area is equal to the horizontal length of the display of the user terminal 100 . In this case, the horizontal length and the vertical length of the sequence area may be adjusted at the same ratio.
  • the step S550 includes adjusting the size of the sequence area so that the vertical length of the sequence area is equal to the vertical length of the display of the user terminal 100 . In this case, the horizontal length and the vertical length of the sequence area may be adjusted at the same ratio.
  • the cut region corresponding to the current order is directly or relatively emphasized (S560).
  • Methods for directly emphasizing the cut area corresponding to the current order include enlarging the cut area, emphasizing the outline of the cut area, emphasizing content included in the cut area, and changing the color of the cut area. can be cited as an example.
  • a method of relatively emphasizing a cut region corresponding to the current order a method of reducing the amount of information in a sequence region and then overlapping the corresponding cut region with the sequence region having a reduced information amount may be exemplified.
  • a method of applying one or more video effects selected from among blur effect, soft edge effect, rounded corner effect, transparency effect, and cropping effect to the sequence area may be exemplified.
  • Another method of relatively emphasizing the cut area corresponding to the current order is clip-path.
  • step S560 when the cut region corresponding to the current order is directly emphasized, if the corresponding cut region is a scene region, a video effect for emphasizing that it is a scene region may be additionally applied. For example, if a corresponding cut region is enlarged to directly emphasize a cut region corresponding to the current sequence, a shaking effect may be added to the enlarged cut region to emphasize that the corresponding cut region is a sequence region. As another example, if a border of a specific color is displayed on the outline of the cut area corresponding to the current order to directly emphasize the cut area, a blinking effect may be added to the displayed border to emphasize that the corresponding cut area is a sequence area. .
  • the location of the sequence area is moved so that the reference point of the highlighted cut area is located at the reference point of the display (S570).
  • the reference point of the cut area may be the center point of the cut area
  • the reference point of the display may be the center point of the display.
  • the reference point of the cut area and the reference point of the display may be designated differently from those illustrated.
  • the reference point of the cut area may be the center point of the right side of the outline of the cut area
  • the reference point of the display may be the center point of the right side of the display.
  • steps S520 to S540 may proceed in the order of S530, S540, and S520, or may proceed in the order of S530, S520, and S540.
  • steps S560 and S570 may be reversed or may be performed simultaneously.
  • the performer of each step shown in FIG. 29 may be the digital cartoon providing device 200 .
  • the user terminal 100 may perform each of the steps shown in FIG. 29 .
  • the performer of some of the steps shown in FIG. 29 may be the digital cartoon providing apparatus 200, and the performer of the remaining steps may be the user terminal 100.
  • a module means a hardware component such as software or a Field Programmable Gate Array (FPGA) or Application Specific Integrated Circuit (ASIC), and the module performs certain roles.
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • a module is not meant to be limited to software or hardware.
  • a module may be configured to reside in an addressable storage medium and may be configured to execute one or more processors.
  • a module includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines. fields, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functionality provided in components and modules may be combined into fewer components and modules or further separated into additional components and modules.
  • the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by a processor, create program modules to perform operations of the disclosed embodiments.
  • the recording medium may be implemented as a computer-readable recording medium.
  • Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage, and the like.
  • ROM read only memory
  • RAM random access memory
  • magnetic tape magnetic tape
  • magnetic disk magnetic disk
  • flash memory optical data storage, and the like.
  • the computer-readable recording medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary storage medium' only means that it is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium and temporary It does not discriminate if it is saved as .
  • a 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a machine-readable recording medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices (eg eg between smartphones) or distributed online (eg downloaded or uploaded).
  • a part of a computer program product eg, a downloadable app
  • a device-readable recording medium such as a manufacturer's server, an application store server, or a relay server's memory. It can be stored or created temporarily.
  • the digital cartoon providing method, apparatus, and system as described above can be applied to a digital cartoon service field that provides digital cartoons based on printed cartoons to a display device.

Abstract

A method for providing digital comics, according to an embodiment of the present disclosure, comprises the steps of: acquiring page images from digital comics based on printed comics; rearranging acquired page images along a reference direction; detecting, in each of the rearranged page images, one or more cut regions and a sequence region, which is the region in each page image excluding the margin at the edges thereof; assigning sequential numbers to the one or more cut regions that have been detected, in accordance with the direction in which a reader's gaze flows; adjusting the size of the detected sequence region in accordance with the size of the display of a user terminal; when a display switching event occurs, highlighting a cut region corresponding to the current point in sequence based on the assigned sequential number; and shifting the position of the sequence region including the highlighted cut region such that the reference point of the highlighted cut region is positioned at the reference point of the display, wherein the one or more cut regions include one or more of an independent cut region and a non-independent cut region.

Description

디지털 만화 제공 방법, 장치 및 시스템Method, apparatus and system for providing digital cartoons
본 개시는 디지털 만화 제공 방법, 장치 및 시스템에 관한 것이다. 더욱 상세하게는 인쇄 만화를 기초로 획득된 디지털 만화를 소형 디스플레이 장치를 통해 효과적으로 디스플레이할 수 있는 디지털 만화 제공 방법, 장치 및 시스템에 관한 것이다. The present disclosure relates to a method, apparatus, and system for providing digital cartoons. More particularly, it relates to a method, apparatus, and system for providing digital cartoons capable of effectively displaying digital cartoons obtained on the basis of printed cartoons through a small display device.
인쇄물 형식의 출판이 주를 이루었던 출판 시장은 점차 디지털 형식의 출판으로 변화되고 있다. 이러한 흐름에 맞추어 기존에 인쇄물 형식으로 출판되었던 만화책이나 만화 잡지를 디지털 데이터로 변환하여 활용하려는 노력이 지속되고 있다. The publishing market, which was dominated by printed publications, is gradually changing to digital publications. In line with this trend, efforts are being made to convert comic books or magazines previously published in print format into digital data and utilize them.
인쇄 만화를 디지털 데이터로 변환하는 방법으로는 스캐너를 이용하는 방법을 예로 들 수 있다. 인쇄 만화의 각 페이지를 스캐너로 스캔하면 인쇄 만화의 각 페이지에 대응하는 디지털 데이터를 얻을 수 있으며, 이를 적절히 가공하여 디지털 만화를 생성할 수 있다. As a method of converting printed cartoons into digital data, a method using a scanner may be exemplified. When each page of the printed cartoon is scanned with a scanner, digital data corresponding to each page of the printed cartoon can be obtained, and a digital cartoon can be generated by appropriately processing it.
그러나 이러한 방식으로 획득된 디지털 만화는 개인용 컴퓨터 또는 전자책 리더기 등과 같이 비교적 디스플레이의 크기가 큰 디지털 장치를 통해 디스플레이될 때에는 별다른 문제가 없지만, 휴대전화와 같이 비교적 디스플레이의 크기가 작은 디지털 장치를 통해 디스플레이될 때에는 여러가지 문제가 발생한다. However, there is no particular problem when digital cartoons obtained in this way are displayed through a digital device with a relatively large display size, such as a personal computer or e-book reader, but are displayed through a digital device with a relatively small display size such as a mobile phone. When it does, several problems arise.
예를 들면, 도 1에 도시된 바와 같이, 디지털 만화에서의 시선 흐름은 웹툰에서의 시선 흐름에 비하여 복잡하다. 따라서 디지털 만화를 소형 디스플레이 장치를 통해 디스플레이 했을 때, 웹툰에 비하여 가독성이 떨어질 수 있다. 또한, 도 2에 도시된 바와 같이, 디지털 만화의 페이지를 휴대전화의 디스플레이의 크기에 맞추어 단순히 축소만 하는 경우, 소형 디스플레이 장치의 디스플레이에는 상대적으로 많은 여백이 나타나게 된다. 특히, 디스플레이의 상단과 하단에는 디스플레이의 좌우에 비하여 많은 여백이 나타나게 된다. 또한, 디지털 만화의 페이지의 크기가 축소됨에 따라, 가독성이 떨어진다. For example, as shown in FIG. 1 , the line of sight in digital cartoons is more complicated than the line of sight in webtoons. Therefore, when digital comics are displayed on a small display device, readability may be lower than that of webtoons. In addition, as shown in FIG. 2, when a page of a digital cartoon is simply reduced to fit the size of a mobile phone display, relatively large blanks appear on the display of a small display device. In particular, more blank spaces appear at the top and bottom of the display compared to the left and right sides of the display. Also, as the page size of digital comics is reduced, readability deteriorates.
이러한 문제를 해결하기 위하여 디지털 만화의 컷 영역들을 웹툰과 유사한 형식으로 재배치하는 방법이 제안되었다. 그러나 이러한 방식은 재배치된 컷 영역들로 인해 컷 영역들 간의 연속성이 유지되지 않는다는 단점이 있다. To solve this problem, a method of rearranging the cut areas of digital comics in a format similar to that of webtoons has been proposed. However, this method has a disadvantage in that continuity between cut regions is not maintained due to rearranged cut regions.
본 개시는 상술한 필요성에 따라 안출된 것으로, 본 개시가 해결하고자 하는 과제는 인쇄 만화에 기초한 디지털 만화를 소형 디스플레이 장치에서도 효율적으로 디스플레이할 수 있으며, 컷 영역들 간의 연속성을 유지시킬 수 있는 디지털 만화 제공 방법, 장치 및 시스템을 제공하는 것이다. The present disclosure has been made in accordance with the above-mentioned needs, and the problem to be solved by the present disclosure is to efficiently display digital cartoons based on printed cartoons even on a small display device and to maintain continuity between cut regions. It is to provide a provision method, apparatus and system.
본 개시가 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
상술한 과제를 해결하기 위하여, 본 개시의 일 실시 예에 따른 디지털 만화 제공 방법은, 인쇄 만화에 기초한 디지털 만화로부터 페이지 영상들을 획득하는 단계; 상기 획득된 페이지 영상들을 기준 방향을 따라 재배치하는 단계; 상기 재배치된 페이지 영상들마다 하나 이상의 컷 영역과, 페이지 영상의 가장자리에서 여백을 제외한 시퀀스 영역을 검출하는 단계; 상기 검출된 하나 이상의 컷 영역에 독자의 시선 흐름에 따른 순차 번호를 할당하는 단계; 상기 검출된 시퀀스 영역의 크기를 사용자 단말의 디스플레이의 크기에 맞추어 조절하는 단계; 표시 전환 이벤트가 발생하면, 상기 할당된 순차 번호에 기초하여 현재 순서에 해당하는 컷 영역을 강조하는 단계; 및 상기 강조된 컷 영역의 기준점이 상기 디스플레이의 기준점에 위치하도록 상기 강조된 컷 영역을 포함하는 시퀀스 영역의 위치를 이동시키는 단계를 포함하되, 상기 하나 이상의 컷 영역은 독립 컷 영역 및 비독립 컷 영역 중 하나 이상을 포함한다. In order to solve the above problems, a method for providing digital cartoons according to an embodiment of the present disclosure includes obtaining page images from digital cartoons based on printed cartoons; rearranging the acquired page images along a reference direction; detecting at least one cut region for each of the rearranged page images and a sequence region excluding a blank space at an edge of the page image; allocating sequential numbers to the one or more detected cut regions according to the flow of the reader's gaze; adjusting the size of the detected sequence region according to the size of a display of a user terminal; emphasizing a cut region corresponding to a current sequence based on the assigned sequence number when a display switching event occurs; and moving a position of a sequence region including the highlighted cut region such that a reference point of the highlighted cut region is positioned at a reference point of the display, wherein the at least one cut region is one of an independent cut region and a non-independent cut region. contains more than
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
본 개시의 실시 예들에 따르면, 인쇄 만화에 기초한 디지털 만화를 시퀀스 영역을 기준으로 디스플레이하되, 현재 순서에 해당하는 컷 영역의 기준점이 디스플레이의 기준점에 위치하도록 시퀀스 영역의 위치가 이동되므로, 인쇄 만화의 복잡한 시선 흐름을 웹툰의 시선 흐름과 유사하게 단순화할 수 있다. According to embodiments of the present disclosure, a digital cartoon based on a printed cartoon is displayed based on a sequence area, but the location of the sequence area is moved so that the reference point of the cut area corresponding to the current sequence is located at the reference point of the display. Complex line of sight can be simplified similarly to the line of sight in webtoons.
본 개시의 실시 예들에 따르면, 디지털 만화를 시퀀스 영역을 기준으로 디스플레이하되, 시퀀스 영역의 위치가 이동되면서 현재 순서에 해당하는 컷 영역이 직접 또는 상대적으로 강조되어 표시되므로, 컷 영역들 간의 연속성이 유지되어 사용자의 만족감을 높일 수 있으며, 사용자의 가독성을 향상시킬 수 있다. According to embodiments of the present disclosure, digital cartoons are displayed based on sequence areas, but as the position of the sequence areas is moved, the cut areas corresponding to the current sequence are directly or relatively highlighted and displayed, so that continuity between cut areas is maintained. This can increase the user's satisfaction and improve the user's readability.
본 개시의 실시 예들에 따르면, 현재 순서에 해당하는 컷 영역을 상대적으로 강조하는 경우, 현재 순서의 컷 영역을 제외한 나머지 영역들에 대한 정보량이 감소되므로, 디스플레이 장치의 자원을 효율적으로 활용할 수 있다. According to embodiments of the present disclosure, when the cut region corresponding to the current order is relatively emphasized, the amount of information on the remaining regions except for the cut region of the current order is reduced, so resources of the display device can be efficiently utilized.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 인쇄 만화를 기초로 획득된 디지털 만화에서의 시선 흐름과 종래 웹툰에서의 시선 흐름을 비교하여 도시한 도면이다. 1 is a diagram illustrating a comparison between a gaze flow in a digital cartoon obtained based on a printed cartoon and a gaze flow in a conventional webtoon.
도 2는 인쇄 만화를 기초로 획득된 디지털 만화의 페이지 및 해당 디지털 만화의 페이지가 축소되어 사용자 단말을 통해 표시된 모습을 비교하여 예시한 도면이다. 2 is a diagram illustrating a comparison between a page of a digital cartoon obtained based on a printed cartoon and a page of the corresponding digital cartoon being reduced and displayed through a user terminal.
도 3a 및 도 3b는 본 개시에서 사용되는 용어를 설명하기 위한 도면으로, 디지털 만화의 페이지 영상들을 예시한 도면들이다. 3A and 3B are diagrams for explaining terms used in the present disclosure, and are diagrams illustrating page images of digital cartoons.
도 4는 본 개시의 일 실시 예에 따른 디지털 만화 제공 시스템의 구성을 도시한 도면이다. 4 is a diagram showing the configuration of a digital cartoon providing system according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시 예에 따른 사용자 단말의 구성을 도시한 도면이다. 5 is a diagram illustrating a configuration of a user terminal according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시 예에 따른 디지털 만화 제공 장치의 구성을 도시한 도면이다. 6 is a diagram showing the configuration of a digital cartoon providing device according to an embodiment of the present disclosure.
도 7은 페이지 영상에서 시퀀스 영역을 검출하는 방법들을 설명하기 위한 도면이다. 7 is a diagram for explaining methods of detecting a sequence region from a page image.
도 8은 디지털 만화를 구성하는 통합 페이지 영상들을 예시한 도면이다. 8 is a diagram illustrating integrated page images constituting a digital cartoon.
도 9는 도 8에 도시된 통합 페이지 영상들이 각각 두 개의 페이지 영상들로 분할된 모습을 예시한 도면이다. FIG. 9 is a diagram illustrating a state in which the integrated page images shown in FIG. 8 are divided into two page images.
도 10은 제1 방향을 따라 재배치된 페이지 영상들 중에서 일부 페이지 영상들을 예시한 도면이다. 10 is a diagram illustrating some page images among page images rearranged along a first direction.
도 11은 도 10의 제1 페이지 영상에서 추출된 시퀀스 영역에 정보량 감소를 위한 영상 효과가 적용된 모습들을 예시한 도면이다. FIG. 11 is a diagram illustrating images in which an image effect for reducing an amount of information is applied to a sequence region extracted from the first page image of FIG. 10 .
도 12 내지 도 28은 도 9에 도시된 페이지 영상들이 사용자 단말을 통해 디스플레이되는 모습을 도시한 도면들이다. 12 to 28 are diagrams illustrating how the page images shown in FIG. 9 are displayed through a user terminal.
도 29는 본 개시의 일 실시 예에 따른 디지털 만화 제공 방법을 도시한 순서도이다. 29 is a flowchart illustrating a digital cartoon providing method according to an embodiment of the present disclosure.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 게시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present disclosure, and methods for achieving them, will become clear with reference to embodiments described below in detail in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present disclosure makes this disclosure complete, and those skilled in the art to which the present disclosure belongs It is provided to fully inform the scope of the invention, the present disclosure is only defined by the scope of the claims.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 출입문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. Terminology used in this specification is for describing embodiments and is not intended to limit the present disclosure. In this specification, the singular form also includes the plural form unless otherwise specified in the entry and exit phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements.
이하, 첨부된 도면들을 참조하여 본 개시의 실시 예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성요소를 나타낸다. Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. In the drawings, like reference numerals denote like elements.
먼저 본 개시에서 사용되는 용어에 대한 개략적인 설명을 한다. 용어의 설명은 본 개시의 이해를 돕기 위한 것이다. 따라서 본 개시의 상세한 설명에 있어서 명시적으로 한정하지 않는 한, 이하 설명되는 용어들이 본 개시의 기술적 사상을 한정하는 의미로 사용되는 것이 아님을 주의해야 한다. First, a brief description of terms used in the present disclosure will be given. The explanation of terms is intended to facilitate understanding of the present disclosure. Therefore, it should be noted that the terms described below are not used in the sense of limiting the technical spirit of the present disclosure, unless explicitly limited in the detailed description of the present disclosure.
도 3a 및 도 3b는 본 개시에서 사용되는 용어를 설명하기 위한 도면으로, 디지털 만화의 페이지 영상들을 예시한 도면이다. 3A and 3B are diagrams for explaining terms used in the present disclosure, and are diagrams illustrating page images of digital cartoons.
도 3a 및 도 3b를 참조하면, 디지털 만화의 페이지 영상은 페이지 영역(10, 10'), 컷 영역(20, 21, 22, 23, 24, 25, 26), 씬 영역(30, 30'), 시퀀스 영역(40, 40') 및 말풍선 영역(50, 50')을 포함한다. 도 3a 및 도 3b에서 각 영역들은 설명의 편의를 위하여, 실제 영역들에 비하여 과장되어 표시되거나 축소되어 표시되었다. Referring to FIGS. 3A and 3B, a page image of a digital cartoon includes a page area 10, 10', a cut area 20, 21, 22, 23, 24, 25, 26, and a scene area 30, 30'. , sequence areas 40 and 40' and speech bubble areas 50 and 50'. In FIGS. 3A and 3B , each area is exaggerated or reduced compared to actual areas for convenience of description.
페이지 영역(10, 10')은 디지털 만화의 페이지 영상의 전체 영역을 의미한다. 즉, 페이지 영상의 크기는 곧 페이지 영역(10, 10')의 크기인 것으로 이해될 수 있다. 페이지 영역(10, 10')은 하나 이상의 컷 영역(20, 21, 22, 23, 24, 25, 26)을 포함할 수 있다. The page areas 10 and 10' mean the entire area of the page image of the digital cartoon. That is, it can be understood that the size of the page image is the size of the page areas 10 and 10'. The page areas 10 and 10' may include one or more cut areas 20, 21, 22, 23, 24, 25, and 26.
컷 영역(20, 21, 22, 23, 24, 25, 26)은 인쇄 만화의 컷에 대응하는 영역이다. 컷은 인쇄 만화에서 가장 기본적인 단위이며, 이야기의 최소 단위이다. 컷은 콘텐츠를 포함한다. 콘텐츠로는 그림 및 지문을 예로 들 수 있다. 지문은 그림의 주변에 배치되거나, 그림의 주변에 배치된 말풍선의 내부에 배치될 수 있다. 컷과 컷은 일반적으로 테두리에 의해 구분될 수 있다. 테두리의 형상은 직선, 곡선 및 자유 곡선 중 하나 이상을 포함하는 형상일 수 있다. The cut regions 20, 21, 22, 23, 24, 25, and 26 are regions corresponding to cuts of printed comics. A cut is the most basic unit in print comics and the smallest unit of a story. Cut contains content. Examples of content include pictures and fingerprints. The fingerprint may be arranged around the picture or inside a speech bubble arranged around the picture. Cuts and cuts can generally be distinguished by borders. The shape of the edge may be a shape including one or more of a straight line, a curve, and a free curve.
실시 예에 따르면, 컷 영역(20, 21, 22, 23, 24, 25, 26)은 독립 컷 영역 및 비독립 컷 영역을 포함할 수 있다. According to an embodiment, the cut regions 20 , 21 , 22 , 23 , 24 , 25 , and 26 may include independent cut regions and non-independent cut regions.
독립 컷 영역은 외곽선이 있는 컷 영역(20), 외곽선은 없으나 주변에 배치되어 있는 외곽선이 있는 컷 영역(24, 25)에 의해 구분될 수 있는 컷 영역(26), 만화 요소에 의해 서로 연결되어 있으나 분할될 수 있는 컷 영역들을 포함할 수 있다. 여기서, 만화 요소란 그림, 말풍선, 말풍선이 없는 지문을 예로 들 수 있다. The independent cut areas are connected to each other by a cut area 20 with an outline, a cut area 26 that can be distinguished by cut areas 24 and 25 without an outline but with outlines disposed around, and cartoon elements. However, it may include cut regions that can be divided. Here, the cartoon element may be a picture, a speech bubble, or a fingerprint without a speech bubble.
만화 요소에 의해 서로 연결되어 있으나 분할될 수 있는 컷 영역들을 예시하면 다음과 같다. 첫 번째 예는, 인접한 두 컷 영역들 간에 아웃라이어(outlier)가 있는 경우이다. 아웃라이어가 존재한다는 것은 어느 하나의 컷 영역에 포함되어 있는 그림의 작은 부분(예를 들어, 인물의 머리카락이나 손)이 인접한 컷 영역을 침범하는 경우이다. 이와 관련하여, 도 3b의 24, 25, 26을 참조하면, 컷 영역(26)에 포함되어 있는 인물의 커리카락이 상부에 배치되어 있는 컷 영역들(24, 25)을 침범하고 있는 것을 알 수 있다. 두 번째 예는, 인접한 두 컷 영역들이 말풍선에 의해 연결되어 있으며, 두 컷 영역을 분할하더라도 말풍선 내의 지문이 잘리지 않는 경우이다. 인접한 두 컷 영역들이 말풍선에 의해 연결되어 있으며, 말풍선 내에 지문이 없는 경우도 두 번째 예에 해당하는 것으로 볼 수 있다. 세 번째 예는, 인접한 두 컷 영역들이 말풍선이 없는 지문에 의해 연결된 경우이다. 구체적으로, 지문으로 표현된 의성어(예를 들어, '와장창') 또는 지문으로 표현된 의태어(예를 들어, '터덜터덜')에 의해 두 컷 영역들이 연결된 경우이다. Examples of cut regions that are connected to each other by cartoon elements but can be divided are as follows. A first example is a case where there is an outlier between two adjacent cut regions. Existence of an outlier is a case where a small part (for example, hair or a hand of a person) of a picture included in one cut area invades an adjacent cut area. In this regard, referring to 24, 25, and 26 of FIG. 3B, it can be seen that the curly hair of the person included in the cut area 26 invades the cut areas 24 and 25 disposed thereon. there is. A second example is a case where two adjacent cut regions are connected by a word bubble, and fingerprints in the word bubble are not cut even when the two cut regions are divided. Two adjacent cut regions are connected by a speech bubble, and the case where there is no fingerprint in the speech bubble can also be regarded as corresponding to the second example. A third example is a case in which two adjacent cut regions are connected by a speech bubble-free fingerprint. Specifically, it is a case where the two cut areas are connected by an onomatopoeia expressed in fingerprints (eg, 'smile') or a mimetic word expressed in fingerprints (eg, 'trude').
한편, 외곽선이 있는 컷 영역(20)은 연속된 외곽선에 의해 구분되는 영역들 중에서 직선이 차지하는 비율이 기준치 이상인 영역, 연속된 외곽선에 의해 구분되는 영역들 중에서 외곽선의 곡률반경이 기준치 미만인 영역, 또는 연속된 외곽선에 의해 구분되는 영역들 중에서 크기가 기준치 이상인 영역인 것으로 이해될 수 있다. 또는, 연속된 외곽선에 의해 구분되는 영역들 중에서 크기가 기준치 이상이고, 외곽선을 구성하는 직선의 비율이 기준치 이상인 영역들인 컷 영역(20)에 해당하는 것으로 볼 수도 있다. 그러나 외곽선이 있는 컷 영역(20)을 구분하는 기준이 크기, 외곽선을 구성하는 직선의 비율, 외곽선의 곡률반경 등으로 반드시 한정되는 것은 아니다. On the other hand, the cut area 20 with an outline is an area in which the ratio of straight lines is greater than or equal to a reference value among areas divided by continuous outlines, an area in which the radius of curvature of the outline is less than the reference value among areas divided by continuous outlines, or It can be understood as a region having a size greater than or equal to a reference value among regions divided by continuous outlines. Alternatively, it may be regarded as corresponding to the cut region 20, which is a region having a size greater than or equal to a reference value among regions divided by continuous outlines and a ratio of straight lines constituting the outline greater than or equal to the reference value. However, the criterion for classifying the cut area 20 with the outline is not necessarily limited to the size, ratio of straight lines constituting the outline, and radius of curvature of the outline.
외곽선은 없으나 외곽선이 있는 컷 영역(24, 25)에 의해 구분될 수 있는 컷 영역(26)은 연속된 외곽선에 의해 구분되는 영역들을 제외한 영역들 중에서 콘텐츠를 포함하는 영역인 것으로 이해될 수 있다. 외곽선이 없는 컷 영역(26)의 경우, 해당 컷 영역(26)과 컷 영역(26)의 주변 간에는 명암의 차이가 높거나 색상의 차이가 높은 경우가 많다. 따라서 명암의 차이가 기준치 이상인 점들을 연결하여 가상의 외곽선을 형성하고, 가상의 외곽선에 근거하여 외곽선이 없는 컷 영역(26)을 검출할 수 있다. The cut area 26 that does not have an outline but can be distinguished by the cut areas 24 and 25 with an outline may be understood as a region including content among areas excluding areas distinguished by continuous outlines. In the case of the cut area 26 without an outline, there are many cases in which a difference in contrast or color between the corresponding cut area 26 and the periphery of the cut area 26 is high. Accordingly, a virtual outline may be formed by connecting points having a contrast difference greater than a reference value, and a cut region 26 without an outline may be detected based on the virtual outline.
비독립 컷 영역은 내부에 컷 영역이 존재하는 컷 영역, 만화 요소에 의해 서로 연결되어 있으나 분할될 수 없는 컷 영역들을 포함할 수 있다. 여기서, 만화 요소란 그림, 말풍선, 말풍선이 없는 지문을 예로 들 수 있다. The non-independent cut area may include a cut area having a cut area therein, and cut areas connected to each other by cartoon elements but cannot be divided. Here, the cartoon element may be a picture, a speech bubble, or a fingerprint without a speech bubble.
만화 요소에 의해 서로 연결되어 있으나 분할될 수 없는 컷 영역들을 예시하면 다음과 같다. 첫 번째 예는, 둘 이상의 컷 영역에 걸쳐서 배치된 그림이 있는 경우이다. 예를 들면, 앞서 설명한 아웃라이어(인물의 머리카락, 손)와는 다르게 인물의 몸체(몸통, 머리, 팔, 다리)가 둘 이상의 컷 영역에 걸쳐서 배치되어 있는 경우가 첫 번째 예에 해당한다. 두 번째 예는, 인접한 둘 이상의 컷 영역들이 하나 이상의 말풍선에 의해 연결되어 있으며, 둘 이상의 컷 영역들을 분할하는 경우, 말풍선 내의 지문이 잘리는 경우이다. 이와 관련하여, 도 3a의 21, 22, 23을 참조하면, 상단에 배치되어 있는 세 개의 컷 영역들(21, 22, 23)은 말풍선에 의해 서로 연결되어 있으며, 컷 영역들(21, 22, 23)을 분할하는 경우, 말풍선 내의 지문이 잘리는 것을 알 수 있다. 세 번째 예는, 인접한 둘 이상의 컷 영역들 중에서 하나의 컷 영역이 '의미가 없는' 컷 영역 또는 '크기가 작은' 컷 영역이기는 하나, 상기 컷 영역이 시간의 흐름을 나타내는 경우이다. 의미가 없는 컷 영역으로는 인물 없이 배경만 배치되어 있는 컷 영역을 예로 들 수 있다. 네 번째 예는, 복수의 컷 영역들이 가로 방향으로 배열되어 있는 단락 내에서 상하 방향으로 '다시 나뉜 컷 영역들'이 있는 경우이다. 다섯 번째 예는, 복수의 컷 영역들이 세로 방향으로 배열되어 있는 단락 내에서 좌우 방향으로 '다시 나뉜 컷 영역들'이 있는 경우 있다. 여섯 번째 예는, 복수의 컷 영역들이 가로 방향으로 배열된 단락 내에서 높이가 다른 하나 이상의 컷 영역이 존재하는 경우이다. Examples of cut regions that are connected to each other by cartoon elements but cannot be divided are as follows. The first example is when there are pictures placed across two or more cut areas. For example, unlike the previously described outliers (character's hair and hands), the first example corresponds to the case where the body (body, head, arms, legs) of a person is arranged across two or more cut areas. A second example is a case in which two or more adjacent cut areas are connected by one or more word balloons, and when the two or more cut areas are divided, fingerprints in the word balloon are cut. In this regard, referring to 21, 22, and 23 of FIG. 3A, the three cut regions 21, 22, and 23 disposed at the top are connected to each other by speech bubbles, and the cut regions 21, 22, 23), it can be seen that the fingerprint in the speech bubble is cut off. A third example is a case in which one cut area among two or more adjacent cut areas is a 'meaningless' cut area or a 'small size' cut area, but the cut area represents the passage of time. As an example of a meaningless cut area, a cut area in which only a background is arranged without a person can be taken as an example. A fourth example is a case where there are 'subdivided cut areas' in the vertical direction within a paragraph in which a plurality of cut areas are arranged in the horizontal direction. A fifth example is a case where there are 'subdivided cut areas' in left and right directions within a paragraph in which a plurality of cut areas are arranged in a vertical direction. A sixth example is a case in which one or more cut regions having different heights exist within a paragraph in which a plurality of cut regions are arranged in a horizontal direction.
즉, 상술한 예시들에 따르면, 비독립 컷 영역은 만화 요소에 의해 서로 연결되어 있으나, 독자의 가독성을 위해 분할될 수 없는 컷 영역들을 포함하는 영역에 대응하는 것으로 이해될 수 있다. That is, according to the examples described above, the non-independent cut areas may be understood to correspond to areas including cut areas that are connected to each other by cartoon elements but cannot be divided for readability of readers.
씬 영역(30, 30')은 페이지 영역(10) 내에 포함된 컷 영역들(20, 21, 22, 23, 24, 25, 26) 중에서 독자가 집중하여 보는 영역을 말한다. 일 실시 예에 따르면, 독립 컷 영역 및 비독립 컷 영역 중에서 기준치 이상의 정보량을 포함하는 독립 컷 영역, 또는 기준치 이상의 정보량을 포함하는 비독립 컷 영역이 씬 영역으로 결정될 수 있다. 다른 실시 예에 따르면, 독립 컷 영역 또는 비독립 컷 영역의 정보량과는 상관없이 비독립 컷 영역이 씬 영역(30, 30')으로 결정될 수 있다. 도 3a 및 도 3b는 비독립 컷 영역이 씬 영역(30, 30')으로 결정된 경우를 도시하고 있다. The scene areas 30 and 30 ′ refer to areas that the reader focuses on among the cut areas 20 , 21 , 22 , 23 , 24 , 25 , and 26 included in the page area 10 . According to an embodiment, an independent cut area including an amount of information greater than or equal to a reference value or a non-independent cut area including an amount of information greater than or equal to a reference value may be determined as a scene area among independent cut areas and non-independent cut areas. According to another embodiment, the non-independent cut area may be determined as the scene area 30 or 30' regardless of the amount of information of the independent cut area or the non-independent cut area. 3A and 3B show cases in which non-independent cut areas are determined as scene areas 30 and 30'.
시퀀스 영역(40, 40')은 페이지 영역(10, 10') 내의 모든 콘텐츠를 포함하는 영역을 말한다. 다시 말해, 시퀀스 영역(40, 40')은 페이지 영역(10, 10')의 가장자리에서 상하 여백 및 좌우 여백을 제외한 영역을 말한다. 때문에 시퀀스 영역(40, 40')은 페이지 영역(10, 10')보다 작은 크기를 갖는다. 예를 들어, 시퀀스 영역(40, 40')의 외곽선은 페이지 영역(10, 10')의 외곽선을 따라 배치된 하나 이상의 컷 영역들을 구성하는 외곽선들 중에서 페이지 영역(10, 10')의 외곽선에 가까운 외곽선들에 의해 정의될 수 있다. 다른 예로, 시퀀스 영역(40, 40')의 외곽선은, 페이지 영역(10, 10')의 콘테츠를 구성하는 점들 중에서 상, 하, 좌, 우의 최외곽에 위치한 점들을 각각 지나는 네 개의 직선에 의해 정의될 수 있다. The sequence areas 40 and 40' refer to areas including all contents within the page areas 10 and 10'. In other words, the sequence areas 40 and 40' refer to areas excluding top and bottom blanks and left and right blanks at the edges of the page areas 10 and 10'. Therefore, the sequence areas 40 and 40' have smaller sizes than the page areas 10 and 10'. For example, the outlines of the sequence areas 40 and 40' are the outlines of the page areas 10 and 10' among the outlines constituting one or more cut areas disposed along the outlines of the page areas 10 and 10'. Can be defined by nearby outlines. As another example, the outlines of the sequence areas 40 and 40' are formed by four straight lines passing through the uppermost, lower, left, and right outermost points among the points constituting the content of the page areas 10 and 10'. can be defined by
말풍선 영역(50, 50')은 지문 또는 문자가 배치되어 있는 영역을 말한다. 경우에 따라, 말풍선 영역(50, 50')에는 지문 또는 문자가 없을 수도 있다. 말풍선 영역(50, 50')은 컷 영역(20)의 내부에 배치될 수도 있고, 컷 영역(20)의 외곽선으로부터 돌출되어 배치될 수도 있다. 컷 영역(20)의 외곽선으로부터 돌출된 말풍선 영역(50, 50')은 인접한 컷 영역의 외곽선을 침범할 수도 있다. 말풍선 영역(50, 50')은 정해진 형상을 가지지는 않는다. 그 대신, 말풍선 영역(50, 50')은 거의 대부분 말풍선 영역(50)의 주변에 비하여 다른 명암 또는 다른 색상을 가질 수 있다. 따라서 말풍선 영역(50, 50')은 주변과의 명암 대비 또는 색상 대비를 통해 검출될 수 있다. 말풍선 영역(50, 50')에 대해서는 광학 문자 인식(Optical Character Recognition, OCR)이 수행될 수 있다. 말풍선 영역(50, 50')에서 인식된 문자 데이터는 디지털 만화가 저장된 데이터베이스가 아닌 별도의 데이터베이스에 저장되어 관리될 수 있다. The speech bubble areas 50 and 50' refer to areas where fingerprints or characters are disposed. In some cases, fingerprints or text may not be present in the speech bubble areas 50 and 50'. The speech bubble areas 50 and 50' may be disposed inside the cut area 20 or may be disposed protruding from the outline of the cut area 20. The speech bubble areas 50 and 50' protruding from the outline of the cut area 20 may invade the outline of an adjacent cut area. The speech bubble areas 50 and 50' do not have a predetermined shape. Instead, most of the speech bubble areas 50 and 50' may have a different brightness or a different color compared to the surroundings of the speech bubble area 50. Accordingly, the speech bubble areas 50 and 50' may be detected through light-dark contrast or color contrast with the surroundings. Optical Character Recognition (OCR) may be performed on the speech bubble regions 50 and 50'. Character data recognized in the speech bubble areas 50 and 50' may be stored and managed in a separate database other than a database in which digital cartoons are stored.
도 4는 본 개시의 일 실시 예에 따른 디지털 만화 제공 시스템의 구성을 도시한 도면이다. 4 is a diagram showing the configuration of a digital cartoon providing system according to an embodiment of the present disclosure.
도 4를 참조하면, 본 개시의 일 실시 예에 따른 디지털 만화 제공 시스템은 사용자 단말(100) 및 디지털 만화 제공 장치(200)를 포함한다. Referring to FIG. 4 , a digital cartoon providing system according to an embodiment of the present disclosure includes a user terminal 100 and a digital cartoon providing device 200 .
사용자 단말(100)은 사용자 단말(100)의 식별 정보를 디지털 만화 제공 장치(200)로 제공하고, 디지털 만화 제공 장치(200)로부터 제공받은 디지털 만화를 디스플레이한다. 사용자 단말(100)은 휴대전화와 같은 소형 디스플레이 장치를 포함할 수 있다. 사용자 단말(100)의 구성에 대한 보다 구체적인 설명은 도 5를 참조하여 후술하기로 한다. The user terminal 100 provides identification information of the user terminal 100 to the digital cartoon providing device 200 and displays the digital cartoon provided from the digital cartoon providing device 200 . The user terminal 100 may include a small display device such as a mobile phone. A more detailed description of the configuration of the user terminal 100 will be described later with reference to FIG. 5 .
디지털 만화 제공 장치(200)는 사용자 단말(100)의 식별 정보 및 디지털 만화와 관련된 설정 정보를 획득하고, 획득된 식별 정보 및 설정 정보를 기초로, 기 저장되어 있는 디지털 만화를 사용자 단말(100)에 적합하게 가공하여 사용자 단말(100)로 제공한다. The digital cartoon providing device 200 obtains identification information of the user terminal 100 and setting information related to the digital cartoon, and based on the obtained identification information and setting information, pre-stored digital cartoons are displayed in the user terminal 100. It is processed appropriately and provided to the user terminal 100 .
실시예에 따르면, 디지털 만화 제공 장치(200)는 디지털 만화의 각 페이지 영상을 기준 영역별로 가공할 수 있다. 기준 영역은 컷 영역, 시퀀스 영역 및 페이지 영역 중에서 하나로 설정될 수 있다. 일 예로, 기준 영역은 사용자가 직접 설정할 수 있다. 이때, 사용자는 자신이 결제한 금액에 따라, 선택 가능한 기준 영역에 대한 정보를 차등적으로 제공받을 수 있다. 다른 예로, 기준 영역은 디지털 만화 제공 장치(200)가 사용자 단말(100)의 식별 정보를 고려하여 자동으로 설정할 수도 있다. 기준 영역은 컷 영역, 시퀀스 영역 및 페이지 영역 중에서 하나로 설정될 수도 있지만, 디지털 만화의 각 페이지 영상이 가공될 때, 각 단계에 맞추어 변경될 수도 있다. According to the embodiment, the digital cartoon providing apparatus 200 may process each page image of the digital cartoon for each reference region. The reference area may be set to one of a cut area, a sequence area, and a page area. For example, the reference area may be directly set by the user. At this time, the user may be differentially provided with information on the selectable reference area according to the amount of money the user has paid. As another example, the reference area may be automatically set by the digital cartoon providing apparatus 200 in consideration of identification information of the user terminal 100 . The reference area may be set to one of a cut area, a sequence area, and a page area, but may be changed according to each step when each page image of a digital cartoon is processed.
디지털 만화 제공 장치(200)는 사용자 단말(100)로 디지털 만화를 서비스하기 위한 서버일 수 있다. 디지털 만화 제공 장치(200)의 구성에 대한 보다 구체적인 설명은 도 6을 참조하여 후술하기로 한다. The digital cartoon providing device 200 may be a server for providing a digital cartoon service to the user terminal 100 . A more detailed description of the configuration of the digital cartoon providing apparatus 200 will be described later with reference to FIG. 6 .
도 5는 본 개시의 일 실시 예에 따른 사용자 단말의 구성을 도시한 도면이다. 5 is a diagram illustrating a configuration of a user terminal according to an embodiment of the present disclosure.
도 5를 참조하면, 사용자 단말(100)은 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. Referring to FIG. 5 , the user terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, and a control unit 180. and a power supply unit 190 and the like.
도 5에 도시된 구성요소들은 사용자 단말(100)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 사용자 단말(100)은 위에 예시된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The components shown in FIG. 5 are not essential to implement the user terminal 100, so the user terminal 100 described in this specification may have more or fewer components than the components illustrated above. there is.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 사용자 단말(100)과 무선 통신 시스템(도시되지 않음) 간의 무선 통신, 사용자 단말(100)과 다른 사용자 단말(도시되지 않음) 간의 무선 통신, 또는 사용자 단말(100)과 외부 서버(도시되지 않음) 간의 무선 통신을 가능하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 사용자 단말(100)을 하나 이상의 네트워크에 연결하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 무선 통신부(110)는, 방송 수신부(111), 이동 통신(112), 무선 인터넷(113), 근거리 통신(114), 위치 정보부(115) 중 적어도 하나를 포함할 수 있다. More specifically, among the components, the wireless communication unit 110 includes wireless communication between the user terminal 100 and a wireless communication system (not shown), and wireless communication between the user terminal 100 and other user terminals (not shown). It may include one or more components that enable communication or wireless communication between the user terminal 100 and an external server (not shown). In addition, the wireless communication unit 110 may include one or more components that connect the user terminal 100 to one or more networks. For example, the wireless communication unit 110 may include at least one of a broadcast receiver 111, mobile communication 112, wireless Internet 113, short-distance communication 114, and location information unit 115.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(122) 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123)를 포함할 수 있다. 사용자 입력부(123)로는 터치키(touch key), 푸시키(mechanical key) 등을 예로 들 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다. The input unit 120 may include a camera 121 or video input unit for inputting a video signal, a microphone 122 or audio input unit for inputting an audio signal, and a user input unit 123 for receiving information from a user. Examples of the user input unit 123 include a touch key and a mechanical key. Voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
센싱부(140)는 사용자 단말(100) 내 정보, 사용자 단말(100)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서 (142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서 (gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor) 중에서 하나 이상을 포함할 수 있다. 예시된 센서들 중에서 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다. The sensing unit 140 may include one or more sensors for sensing at least one of information within the user terminal 100, surrounding environment information surrounding the user terminal 100, and user information. For example, the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. Sensor (G-sensor), gyroscope sensor (gyroscope sensor), motion sensor (motion sensor), RGB sensor, infrared sensor (IR sensor), finger scan sensor, ultrasonic sensor , and may include one or more of optical sensors. Among the illustrated sensors, information sensed by two or more sensors may be combined and utilized.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다. 출력부(150)는 디스플레이부(151), 음향 출력부(152), 햅팁부(153), 광 출력부(154) 중 하나 이상을 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은 사용자 단말(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 사용자 단말(100)과 사용자 사이의 출력 인터페이스를 제공할 수 있다. The output unit 150 is for generating an output related to sight, hearing or touch. The output unit 150 may include one or more of a display unit 151, an audio output unit 152, a haptic tip unit 153, and a light output unit 154. The display unit 151 may implement a touch screen by forming a mutual layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 providing an input interface between the user terminal 100 and the user and provide an output interface between the user terminal 100 and the user.
인터페이스부(160)는 사용자 단말(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(wired/wireless headset port), 외부 충전기 포트, 유/무선 데이터 포트(wired/wireless data part), 메모리 카드 포트(memory card port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 입출력 포트(Audio Input/Output port), 비디오 입출력 포트(Video Input/Output port), 이어폰 포트(earphone port) 중 하나 이상을 포함할 수 있다. 사용자 단말(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다. The interface unit 160 serves as a passage for various types of external devices connected to the user terminal 100 . The interface unit 160 includes a wired/wireless headset port, an external charger port, a wired/wireless data part, a memory card port, and an identification module. It may include one or more of a port connecting provided devices, an audio input/output port, a video input/output port, and an earphone port. In response to an external device being connected to the interface unit 160, the user terminal 100 may perform appropriate control related to the connected external device.
또한, 메모리(170)는 사용자 단말(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 사용자 단말(100)에서 구동되는 다수의 응용 프로그램(application program 또는 application), 사용자 단말(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 사용자 단말(100)의 기본적인 기능(예를 들어, 전화 착신 기능, 전화 발신 기능, 메시지 수신 기능, 메시지 발신 기능)을 위하여 출고 당시부터 사용자 단말(100) 상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 사용자 단말(100) 상에 설치되어, 제어부(180)에 의하여 상기 사용자 단말(100)의 동작 또는 기능을 수행하도록 구동될 수 있다. In addition, the memory 170 stores data supporting various functions of the user terminal 100 . The memory 170 may store a plurality of application programs (application programs or applications) running in the user terminal 100 , data for operation of the user terminal 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs are on the user terminal 100 from the time of shipment for the basic functions of the user terminal 100 (eg, incoming call function, outgoing call function, message receiving function, message sending function) can exist Meanwhile, the application program may be stored in the memory 170, installed on the user terminal 100, and driven by the control unit 180 to perform an operation or function of the user terminal 100.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 사용자 단말(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. The control unit 180 controls overall operations of the user terminal 100 in addition to operations related to the application program. The control unit 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 5와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 사용자 단말(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다. In addition, the controller 180 may control at least some of the components discussed in conjunction with FIG. 5 in order to drive an application program stored in the memory 170 . Furthermore, the controller 180 may combine and operate at least two or more of the components included in the user terminal 100 to drive the application program.
전원 공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 사용자 단말(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다. The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each component included in the user terminal 100 . The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
도 6은 본 개시의 일 실시 예에 따른 디지털 만화 제공 장치(200)의 구성을 도시한 도면이다. 6 is a diagram showing the configuration of a digital cartoon providing apparatus 200 according to an embodiment of the present disclosure.
도 6을 참조하면, 디지털 만화 제공 장치(200)는 영역 검출부(210), 문자 인식부(220), 효과 처리부(230), 제어부(240), 데이터베이스(250) 및 통신부(260)를 포함할 수 있다. Referring to FIG. 6 , the digital cartoon providing device 200 may include a region detection unit 210, a text recognition unit 220, an effect processing unit 230, a control unit 240, a database 250, and a communication unit 260. can
데이터베이스(250)는 사용자 단말(100)로 디지털 만화를 서비스하는데 필요한 각종 데이터를 저장한다. 데이터베이스(250)는 제1 데이터베이스(251), 제2 데이터베이스(252) 및 제3 데이터베이스(253)를 포함할 수 있다. The database 250 stores various data necessary to service digital cartoons to the user terminal 100 . The database 250 may include a first database 251 , a second database 252 and a third database 253 .
제1 데이터베이스(251)는 사용자 정보를 저장한다. 사용자 정보는 사용자의 아이디, 비밀번호, 이름, 사용자 단말(100)의 식별 정보, 및 디지털 만화에 대한 설정 정보 중 하나 이상을 포함할 수 있다. The first database 251 stores user information. User information may include one or more of the user's ID, password, name, identification information of the user terminal 100, and setting information for digital cartoons.
사용자 단말(100)의 식별 정보는 기기에 할당되어 있는 시리얼 넘버, 기기를 만든 제조사, 기기의 명칭 중 하나 이상을 포함할 수 있으나 예시된 것들로 반드시 한정되는 것은 아니다. 또한 이러한 식별 정보는 사용자 단말(100)로부터 수집될 수도 있고, 사용자로부터 직접 제공받을 수도 있다. The identification information of the user terminal 100 may include one or more of a serial number assigned to the device, a manufacturer of the device, and a name of the device, but is not necessarily limited to the examples. Also, such identification information may be collected from the user terminal 100 or may be directly provided by the user.
디지털 만화에 대한 설정 정보는 디지털 만화의 표시 방식과 관련된 각종 정보를 포함할 수 있다. 예를 들면, 디지털 만화에 적용되는 기준 영역에 대한 정보, 기준 영역에 적용할 효과의 종류 및 개수, 표시 전환 이벤트를 발생시키는 기준 등을 예로 들 수 있으나 예시된 것들로 반드시 한정되는 것은 아니다. Setting information for digital cartoons may include various types of information related to a display method of digital cartoons. For example, information on a reference region applied to digital cartoons, the type and number of effects to be applied to the reference region, criteria for generating display switching events, and the like may be exemplified, but are not necessarily limited to the exemplified examples.
표시 전환 이벤트는 사용자로부터 표시 전환 명령이 수신된 경우, 기준 영역을 표시한 후 기준 시간에 도달한 경우, 또는 표시 전환 명령에 의해 기준 영역의 위치가 이동됨에 따라 기준 영상의 특정 지점이 디스플레이의 특정 지점에 도달한 경우에 발생될 수 있다. 예시된 경우들 중에서 표시 전환 이벤트가 발생되는 기준은 사전에 설정될 수 있으며, 설정된 내용은 사용자에 의해 변경 가능하도록 구현될 수 있다. The display switching event occurs when a display switching command is received from the user, when the reference time is reached after displaying the reference area, or when the position of the reference area is moved by the display switching command, and a specific point of the reference image changes to a specific point on the display. This can happen when a point is reached. Among the exemplified cases, a criterion for generating a display switching event may be set in advance, and the set content may be implemented to be changeable by a user.
표시 전환 명령은 음성 명령 및 제스처 명령을 포함할 수 있다. 제스처 명령은 싱글 탭(Single Tab), 더블 탭(Double Tab), 프레스(Press), 딥 프레스(Deep Press), 팬(Pan), 스와이프(Swipe), 플릭(Flick), 스크롤(Scroll) 및 드래그(Drag)를 포함할 수 있다. The display switching command may include a voice command and a gesture command. Gesture commands include Single Tab, Double Tab, Press, Deep Press, Pan, Swipe, Flick, Scroll and Can include drag.
한편, 표시 전환 이벤트는 페이지 영상 전환 이벤트 및 컷 영역 전환 이벤트를 포함할 수 있다. 일 예로, 페이지 영상 전환 이벤트를 발생시키는 제스처 명령과 컷 영역 전환 이벤트를 발생시키는 제스처 명령은 서로 다르게 설정될 수 있다. 다른 예로, 페이지 영상 전환 이벤트를 발생시키는 제스처 명령과 컷 영역 전환 이벤트를 발생시키는 제스처 명령은 구분되지 않고, 동일하게 설정될 수도 있다.Meanwhile, the display change event may include a page image change event and a cut region change event. For example, a gesture command for generating a page image conversion event and a gesture command for generating a cut region conversion event may be set differently. As another example, a gesture command for generating a page image conversion event and a gesture command for generating a cut region conversion event may not be distinguished and may be identically set.
제2 데이터베이스(252)는 인쇄 만화에 대응하는 디지털 만화를 저장한다. 인쇄 만화를 기초로 디지털 만화를 획득하는 방법은 다양할 수 있다. 예를 들면, 스캐너를 이용하여 인쇄 만화를 스캔하거나, 카메라를 이용하여 인쇄 만화를 촬영함으로써, 디지털 만화를 획득할 수 있다. 이때, 스캔 또는 촬영은 인쇄 만화의 기준 범위를 대상으로 수행될 수 있다. 기준 범위는 인쇄 만화를 펼쳤을 때 보여지는 연속된 두 페이지를 의미할 수도 있고, 하나의 페이지를 의미할 수도 있다. 기준 범위를 대상으로 스캔 또는 촬영을 실시하면, 연속된 두 페이지에 대응하는 통합 페이지 영상 또는 하나의 페이지에 대응하는 페이지 영상을 얻을 수 있다. 한 권의 인쇄 만화를 대상으로 이러한 과정을 반복하면, 복수의 통합 페이지 영상들로 구성된 디지털 만화 또는 복수의 페이지 영상들로만 구성된 디지털 만화를 획득할 수 있다. The second database 252 stores digital comics corresponding to printed comics. There may be various methods of acquiring digital cartoons based on printed cartoons. For example, a digital cartoon may be acquired by scanning a printed cartoon using a scanner or photographing a printed cartoon using a camera. At this time, scanning or shooting may be performed targeting a reference range of the printed cartoon. The reference range may mean two consecutive pages that are shown when the printed comic book is opened, or may mean one page. When scanning or photographing is performed in the reference range, an integrated page image corresponding to two consecutive pages or a page image corresponding to one page may be obtained. If this process is repeated for one printed comic book, a digital comic consisting of a plurality of combined page images or a digital comic consisting only of a plurality of page images can be obtained.
실시 예에 따르면, 제2 데이터베이스(252)에 저장된 디지털 만화에는 하나 이상의 레이블이 레이블링될 수 있다. According to an embodiment, one or more labels may be labeled on digital cartoons stored in the second database 252 .
일 예로, 레이블은 디지털 만화의 카테고리를 분류하기 위한 카테고리 레이블을 포함할 수 있다. 카테고리 레이블은 이용 가능한 연령에 대한 카테고리 레이블, 출판 국가에 대한 카테고리 레이블, 출판 언어에 대한 카테고리 레이블, 장르에 대한 카테고리 레이블, 주제에 대한 카테고리 레이블을 포함할 수 있다. For example, the label may include a category label for classifying digital cartoon categories. The category label may include a category label for available age, a category label for publication country, a category label for publication language, a category label for genre, and a category label for subject matter.
다른 예로, 레이블은 시선 흐름 정보 레이블을 포함할 수 있다. 시선 흐름 정보 레이블은 페이지 영상에서 시선의 흐름이 시작되는 컷 영역을 알려주는 레이블이다. As another example, the label may include a gaze flow information label. The gaze flow information label is a label indicating a cut region where the gaze flow starts in the page image.
좀 더 구체적으로, 한국은 책의 왼쪽을 묶는 좌철 방식을 사용한다. 따라서 한국에서 출판된 인쇄 만화는 페이지를 오른쪽에서 왼쪽으로 넘기는 형태가 된다. 따라서 인쇄 만화를 펼쳤을 때 시점 흐름은 왼쪽 페이지에서부터 시작하여 오른쪽 페이지로 이동한다. 또한, 페이지 내에서는 해당 페이지의 좌상측부터 시점 흐름이 시작되어 우상측, 좌하측, 좌우측의 순서로 진행된다. 따라서, 디지털 만화의 페이지 영상에서도 좌상측부터 시점 흐름이 시작되어 우상측, 좌하측, 우하측의 순서로 진행된다. More specifically, Korea uses the left-side binding method of binding the left side of the book. Therefore, printed comics published in Korea turn pages from right to left. Therefore, when a print comic is opened, the viewpoint flow starts from the left page and moves to the right page. Also, within a page, the viewpoint flow starts from the upper left side of the corresponding page and proceeds in the order of the upper right side, lower left side, and left and right side. Accordingly, even in the page image of a digital cartoon, the viewpoint flow starts from the upper left side and proceeds in the order of the upper right side, the lower left side, and the lower right side.
이에 비하여, 일본은 책의 오른쪽을 묶는 우철 방식을 사용한다. 따라서 일본에서 출판된 인쇄 만화는 페이지를 왼쪽에서 오른쪽으로 넘기는 형태가 된다. 따라서 인쇄 만화를 펼쳤을 때 시점 흐름은 오른쪽 페이지에서부터 시작하여 왼쪽 페이지로 이동한다. 또한, 페이지 내에서는 해당 페이지의 우상측부터 시점 흐름이 시작되어, 좌상측, 우하측, 좌하측의 순서로 진행된다. 따라서, 디지털 만화의 페이지 영상에서도 우상측부터 시점 흐름이 시작되어 좌상측, 우하측, 좌하측의 순서로 진행된다. In contrast, Japan uses the right-side binding method of binding the book. Therefore, printed comics published in Japan turn pages from left to right. Therefore, when a print comic is opened, the viewpoint flow starts from the right page and moves to the left page. Further, within a page, the viewpoint flow starts from the upper right side of the corresponding page, and proceeds in the order of upper left side, lower right side, and lower left side. Accordingly, even in the page image of a digital cartoon, the viewpoint flow starts from the upper right side and proceeds in the order of upper left side, lower right side, and lower left side.
상술한 바와 같이, 인쇄 만화는 인쇄 만화가 최초 출판된 국가에 따라서, 전체적인 시점 흐름의 방향 및 시점 흐름의 시작 위치가 다르다. 따라서, 시선 흐름이 시작되는 컷 영역의 정보를 시선 흐름 정보 레이블로써 디지털 만화에 레이블링하면, 각 페이지 영상에서 시선 흐름이 시작되는 위치를 검출하기 위한 별도의 영상 처리를 하지 않아도 되므로, 영상 처리에 소요되는 리소스를 감소시킬 수 있다. As described above, the overall direction of the flow of viewpoints and the starting position of the flow of viewpoints of printed comics are different depending on the country in which the printed comics were first published. Therefore, if the information of the cut region where the gaze flow starts is labeled on the digital cartoon as the gaze flow information label, it is not necessary to perform separate image processing to detect the location where the gaze flow starts in each page image, so it takes time for image processing. resources can be reduced.
이상에서 예시한 것 외에도, 디지털 만화에는 더 다양한 종류의 레이블이 레이블링될 수 있음은 물론이다. 또한 디지털 만화에 대한 레이블링은 수동 방식 또는 자동 방식으로 이루어질 수 있다. In addition to what has been exemplified above, it goes without saying that digital cartoons may be labeled with more various types of labels. Also, labeling of digital cartoons may be performed manually or automatically.
제3 데이터베이스(253)는 페이지 영상의 말풍선 영역(50)에서 인식된 문자 데이터를 저장한다. 제3 데이터베이스(253)에 저장되어 있는 문자 데이터는 글꼴, 크기 및 효과 중 하나 이상이 사용자 단말(100)에 적합한 형태로 가공된 후, 사용자 단말(100)을 통해 디스플레이될 수 있다. 문자 데이터에 대한 가공 여부는 디지털 만화 서비스의 사용자 또는 디지털 만화 서비스의 제공자에 의해 사전에 설정될 수 있으며, 설정된 정보는 변경 가능하도록 구현될 수 있다. The third database 253 stores text data recognized in the speech bubble area 50 of the page image. The text data stored in the third database 253 may be displayed through the user terminal 100 after at least one of font, size, and effect is processed into a form suitable for the user terminal 100 . Whether to process text data may be set in advance by a user of a digital cartoon service or a provider of a digital cartoon service, and set information may be implemented to be changeable.
이상의 설명에서는 디지털 만화 제공 장치(200)가 제1 데이터베이스(251) 내지 제3 데이터베이스(253)를 모두 포함하는 경우를 예로 들어 설명하였지만, 이들 중 하나 이상은 외부 서버(도시되지 않음)에 포함될 수도 있다. 이 경우, 디지털 만화 제공 장치(200)는 외부 서버와 통신하여 디지털 만화 서비스를 제공하는데 필요한 데이터를 획득할 수 있다. In the above description, the case where the digital cartoon providing device 200 includes all of the first database 251 to the third database 253 has been described as an example, but one or more of them may be included in an external server (not shown). there is. In this case, the digital cartoon providing device 200 may acquire data required to provide a digital cartoon service by communicating with an external server.
영역 검출부(210)는 디지털 만화의 각 페이지 영상에서 영역을 검출한다. 여기서 영역이라 함은, 앞서 설명한 페이지 영역(10), 컷 영역(20, 21, 22), 씬 영역(30), 시퀀스 영역(40) 및 말풍선 영역(50) 중에서 하나 이상을 의미한다. The region detection unit 210 detects regions in each page image of the digital cartoon. Here, the region means one or more of the page region 10, the cut regions 20, 21, and 22, the scene region 30, the sequence region 40, and the speech bubble region 50 described above.
일 실시 예에 따르면, 영역 검출부(210)는 하나의 페이지 영상을 대상으로 영역을 검출한다. 구체적으로, 복수의 페이지 영상들로 구성된 디지털 만화의 경우, 영역 검출부(210)는 각각의 페이지 영상을 대상으로 영역을 검출한다. According to an embodiment, the region detection unit 210 detects a region of one page image as a target. Specifically, in the case of a digital cartoon composed of a plurality of page images, the region detection unit 210 detects a region for each page image.
다른 실시 예에 따르면, 영역 검출부(210)는 통합 페이지 영상을 대상으로 영역을 검출한다. 구체적으로, 복수의 통합 페이지 영상들로 구성된 디지털 만화의 경우, 영역 검출부(210)는 각각의 통합 페이지 영상을 대상으로 영역을 검출한다. 이때, 영역 검출부(210)는 통합 페이지 영상에서 연속된 두 개의 페이지 영상을 우선 검출한다. According to another embodiment, the region detection unit 210 detects a region of the integrated page image as a target. Specifically, in the case of a digital cartoon composed of a plurality of combined page images, the region detection unit 210 detects a region for each combined page image. At this time, the area detector 210 first detects two consecutive page images from the integrated page image.
검출된 페이지 영상들은 기준 방향을 따라 재배치될 수 있다. 기준 방향은 제1 방향, 제2 방향 및 제3 방향 중 하나일 수 있다. 제1 방향은 위에서 아래로의 수직 방향을 의미한다. 제2 방향은 왼쪽에서 오른쪽으로의 수평 방향을 의미한다. 제3 방향은 오른쪽에서 왼쪽으로의 수평 방향을 의미한다. 구체적으로, 최초 출판 국가가 한국인 인쇄 만화에 대응하는 디지털 만화의 경우, 통합 페이지 영상에서 검출된 페이지 영상들은 제2 방향으로 재배치될 수 있다. The detected page images may be rearranged along the reference direction. The reference direction may be one of a first direction, a second direction, and a third direction. The first direction means a vertical direction from top to bottom. The second direction means a horizontal direction from left to right. The third direction means a horizontal direction from right to left. Specifically, in the case of a digital comic corresponding to a printed comic whose first publication country is Korean, page images detected from the integrated page image may be rearranged in the second direction.
페이지 영상이 준비되면, 영역 검출부(210)는 페이지 영상에서 윤곽선을 검출한다. 그리고, 검출된 윤곽선의 특징 정보에 기초하여 후보 영역들을 검출하고, 검출된 후보 영역들을 독립 컷 영역, 비독립 컷 영역 및 말풍선 영역 중 하나로 결정한다. When the page image is prepared, the region detection unit 210 detects an outline in the page image. Then, candidate regions are detected based on the feature information of the detected outline, and the detected candidate regions are determined as one of an independent cut region, a non-independent cut region, and a speech bubble region.
독립 컷 영역을 검출하기 위하여, 영역 검출부(210)는 후보 영역들 중에서 외곽선에 의해 구분되는 후보 영역이 있는지를 확인하거나, 후보 영역들 간의 크기를 비교하거나, 후보 영역들이 만화 요소에 의해 연결되어 있는지를 확인하거나, 만화 요소에 의해 연결되어 있는 후보 영역들이 분리될 수 있는 상태인지를 확인할 수 있다. In order to detect the independent cut region, the region detection unit 210 checks whether there is a candidate region distinguished by an outline among candidate regions, compares the size of candidate regions, or checks whether candidate regions are connected by cartoon elements. , or whether candidate regions connected by cartoon elements can be separated.
일 예로, 영역 검출부(210)는 후보 영역들 중에서 연속된 외곽선에 의해 구분되는 영역을 검출한다. 이때, 연속된 외곽선에 의해 구분되는 영역에는 컷 영역(20)을 구분하는 외곽선뿐만 아니라 콘텐츠의 외곽선도 함께 검출될 수 있다. 따라서, 영역 검출부(210)는 검출된 영역들 중에서, 외곽선에 포함되어 있는 직선의 비율이 기준치 이상인 영역만 컷 영역(20)으로 검출한다. For example, the region detection unit 210 detects regions divided by continuous outlines among candidate regions. At this time, not only the outline dividing the cut area 20 but also the outline of the content may be detected in the area divided by the continuous outline. Accordingly, the area detector 210 detects, as the cut area 20 , only an area in which the ratio of straight lines included in the outline is greater than or equal to a reference value among the detected areas.
이후, 영역 검출부(210)는 검출된 컷 영역(20)을 제외한 영역들 중에서 콘텐츠를 포함하는 영역도 컷 영역(도 3b의 26 참조)으로 검출한다. 이와 같이 하면, 외곽선이 정의되어 있지 않은 컷 영역(26)이 검출 대상에서 제외되는 상황을 방지할 수 있다. Thereafter, the area detector 210 also detects an area including content among areas other than the detected cut area 20 as a cut area (see 26 in FIG. 3B ). In this way, it is possible to prevent a situation in which the cut region 26 in which the outline is not defined is excluded from the detection target.
다른 실시 예에 따르면, 영역 검출부(210)는 외곽선이 정의되어 있지 않은 컷 영역(26)을 검출하기 위하여, 페이지 영상을 회색조(grayscale)로 변환할 수 있다. 그 다음, 주변과의 명암 차이가 기준치 이상인 점들을 연결하여 가상의 외곽선을 생성하고, 가상의 외곽선에 근거하여 컷 영역(26)을 검출한다. According to another embodiment, the area detector 210 may convert the page image into grayscale in order to detect the cut area 26 in which the outline is not defined. Next, a virtual outline is created by connecting points having a contrast difference from the surroundings greater than a reference value, and a cut area 26 is detected based on the virtual outline.
말풍선 영역(50)을 검출하기 위하여, 영역 검출부(210)는 후보 영역들과 주변 영역 간의 명암이나 색상을 비교할 수 있다. 그 결과, 후보 영역들 중에서 주변과의 명암 대비가 기준치 이상인 후보 영역 또는 주변과의 색상 대비가 기준이 이상인 후보 영역을 말풍선 영역(50)으로 검출한다. 검출된 말풍선 영역(50)에 대해서는 후술될 문자 인식부(220)에 의해 광학 문자 인식이 수행될 수 있다. To detect the speech bubble area 50, the area detector 210 may compare contrast or color between the candidate areas and the surrounding area. As a result, among the candidate regions, a candidate region whose contrast with the surroundings is greater than or equal to the reference value or a candidate region whose color contrast with the surroundings is greater than or equal to the criterion is detected as the speech bubble region 50 . Optical character recognition may be performed on the detected speech bubble area 50 by the character recognition unit 220 to be described later.
비독립 컷 영역을 검출하기 위하여, 영역 검출부(210)는 비독립 컷 영역을 검출하기 위하여, 영역 검출부(210)는 후보 영역들 간의 위치를 비교하거나, 후보 영역들이 만화 요소에 의해 연결되어 있는지를 확인하거나, 만화 요소에 의해 연결되어 있는 후보 영역들이 분할될 수 없는 상태인지를 확인할 수 있다. In order to detect non-independent cut regions, the region detector 210 compares positions between candidate regions or determines whether candidate regions are connected by cartoon elements. Alternatively, it is possible to check whether candidate regions connected by cartoon elements are in a state in which they cannot be divided.
일 예로, 제1 컷 영역 내에 제2 컷 영역이 존재하는 경우, 영역 검출부(210)는 제1 컷 영역을 비독립 컷 영역으로 검출한다. For example, when a second cut area exists within the first cut area, the area detection unit 210 detects the first cut area as a non-independent cut area.
다른 예로, 서로 인접한 둘 이상의 후보 영역들이 만화 요소에 의해 연결되어 있으나 분리될 수 없는 상태인 경우, 영역 검출부(210)는 해당 후보 영역들을 비독립 컷 영역으로 검출한다. As another example, when two or more candidate regions adjacent to each other are connected by a cartoon element but cannot be separated, the region detector 210 detects the candidate regions as non-independent cut regions.
독립 컷 영역(20) 및/또는 비독립 컷 영역(21, 22, 23)을 포함하는 컷 영역의 검출이 완료되면, 영역 검출부(210)는 검출된 컷 영역들에 기초하여 씬 영역을 검출한다. 일 실시 예에 따르면, 씬 영역(30)은 검출된 컷 영역들마다 해당 컷 영역이 포함하는 정보량을 산출하였을 때, 기준치 이상의 정보량을 포함하는 컷 영역이 씬 영역(30)으로 검출될 수 있다. 왜냐하면, 씬 영역(30)은 페이지 영역(10)에서 독자가 집중하여 보는 영역이므로, 직선, 곡선, 색상 등에 대한 정보가 다량으로 포함된 상태일 가능성이 높기 때문이다. 다른 실시 예에 따르면, 씬 영역(30)은 독립 컷 영역(20) 및 비독립 컷 영역(21, 22, 23) 중에서 비독립 컷 영역으로 결정될 수도 있다. When the detection of the cut area including the independent cut area 20 and/or the non-independent cut areas 21, 22 and 23 is completed, the area detection unit 210 detects a scene area based on the detected cut areas. . According to an embodiment, when the amount of information included in each of the detected cut areas is calculated, a cut area including an amount of information equal to or greater than a reference value may be detected as the scene area 30 . This is because the scene area 30 is an area that the reader focuses on in the page area 10, and is likely to contain a large amount of information about straight lines, curves, colors, and the like. According to another embodiment, the scene region 30 may be determined as a non-independent cut region among the independent cut regions 20 and the non-independent cut regions 21, 22, and 23.
씬 영역(30)을 검출한 후, 영역 검출부(210)는 검출된 컷 영역들 중에서 페이지 영역(10)의 외곽선을 따라 배치되어 있는 컷 영역들에 기초하여 시퀀스 영역(40)을 검출한다. 이때, 시퀀스 영역(40)은 다양한 방법으로 검출될 수 있다. 시퀀스 영역(40)을 검출하는 방법들에 대해서는 도 7을 참조하여 후술하기로 한다. After detecting the scene area 30 , the area detector 210 detects the sequence area 40 based on the cut areas disposed along the outline of the page area 10 among the detected cut areas. At this time, the sequence area 40 may be detected in various ways. Methods of detecting the sequence area 40 will be described later with reference to FIG. 7 .
컷 영역(20, 21, 22, 23)의 검출, 씬 영역(30)의 검출, 말풍선 영역(50)의 검출 및 시퀀스 영역(40)의 검출은 미리 정해진 순서에 따라 차례로 이루어질 수 있다. 그러나 영역 검출이 반드시 정해진 순서대로 이루어지는 것은 아니며, 영역 검출 순서는 경우에 따라 변경될 수도 있고, 서로 다른 영역의 검출이 동시에 이루어질 수도 있다. Detection of the cut regions 20, 21, 22, and 23, detection of the scene region 30, detection of the speech bubble region 50, and detection of the sequence region 40 may be sequentially performed according to a predetermined order. However, region detection is not necessarily performed in a predetermined order, and the region detection order may be changed in some cases, or different regions may be detected simultaneously.
컷 영역(20, 21, 22, 23), 씬 영역(30), 시퀀스 영역(40) 및 말풍선 영역(50) 등의 영역 검출이 완료되면, 영역 검출부(210)는 컷 영역(20, 21, 22, 23)에 독자의 시선 흐름에 따른 순차 번호를 할당한다. 일 예로, 디지털 만화에 대응하는 인쇄 만화의 최초 출판 국가가 한국이라면, 인쇄 만화의 페이지 내에서 독자의 시선 흐름은 페이지의 좌상측부터 시작되어, 우상측, 좌하측, 우하측의 순서로 이동한다. 따라서 영역 검출부(210)는 디지털 만화의 페이지 영상 내에서 컷 영역(20, 21, 22, 23)의 위치를 고려하여, 시선 흐름에 대응하는 순차 번호를 할당한다. When detection of regions such as the cut regions 20, 21, 22, and 23, the scene region 30, the sequence region 40, and the speech bubble region 50 is completed, the region detector 210 detects the cut regions 20, 21, 22, 23) are assigned sequential numbers according to the flow of the reader's gaze. For example, if Korea is the first publishing country of printed comics corresponding to digital comics, the flow of the reader's gaze within the printed comics page starts from the upper left side of the page, then moves to the upper right side, lower left side, and lower right side in that order. . Accordingly, the region detection unit 210 considers the positions of the cut regions 20, 21, 22, and 23 within the page image of the digital cartoon and assigns sequential numbers corresponding to the gaze flow.
한편, 순차 번호는 페이지 영상마다 새롭게 할당될 수 있다. 다른 예로, 순차 번호는 연속된 두 페이지 영상마다 새롭게 할당될 수 있다. 또 다른 예로, 순차 번호는 디지털 만화에 포함되어 있는 페이지 영상들 전체를 대상으로 할당될 수 있다. Meanwhile, sequential numbers may be newly allocated for each page image. As another example, sequential numbers may be newly allocated for each two consecutive page images. As another example, sequential numbers may be assigned to all page images included in digital cartoons.
할당된 순차 번호들 중에서 독자의 시선 흐름이 시작되는 지점에 배치된 컷 영역의 정보는 시선 흐름 정보 레이블로서 디지털 만화에 레이블링될 수 있다. Among the assigned sequential numbers, information of a cut region disposed at a point where a reader's gaze flow starts may be labeled in a digital cartoon as a gaze flow information label.
이상의 설명에서는 페이지 영상에서 모든 영역들이 검출된 후에 컷 영역에 순차 번호가 할당되는 경우를 예로 들어 설명하였지만, 순차 번호는 씬 영역(30)의 검출이 완료된 후에 할당될 수도 있다. In the above description, the case in which sequential numbers are assigned to cut regions after all regions are detected in a page image has been described as an example, but sequential numbers may be assigned after detection of the scene region 30 is completed.
또한, 이상의 설명에서는 컷 영역(20, 21, 22, 23) 및 씬 영역(30)을 구분하여 설명하였다. 그러나 이는 설명의 편의를 위한 것으로, 씬 영역(30)은 페이지 영상에서 검출된 컷 영역들 중에서도 특정 기준에 부합하는 컷 영역인 것으로 이해될 수 있다. 따라서 이하의 설명에서 '컷 영역(20, 21, 22, 23)에 순차 번호를 할당한다'하는 것은 컷 영역(20, 21, 22, 23) 및 씬 영역(30)을 대상으로 순차 번호가 할당되는 것임을 의미할 수 있다. In addition, in the above description, the cut areas 20, 21, 22, and 23 and the scene area 30 have been separately described. However, this is for convenience of explanation, and it may be understood that the scene area 30 is a cut area that meets a specific criterion among cut areas detected in the page image. Therefore, in the following description, 'allocating sequential numbers to the cut areas 20, 21, 22, and 23' means that sequential numbers are assigned to the cut areas 20, 21, 22, and 23 and the scene area 30. It can mean becoming.
한편, 상술한 바와 같은 동작을 수행하기 위하여, 영역 검출부(210)는 인공지능 모델을 포함할 수 있다. 인공지능 모델은 대량의 페이지 영상을 학습데이터(training data)로 활용하여 사전에 학습될 수 있다. 학습 방법으로는 지도학습(Supervised Learning) 또는 비지도학습(Unsupervised Learning)이 사용될 수 있다. 지도학습의 경우, 컷 영역, 말풍선 영역, 씬 영역 및 시퀀스 영역에 대한 정보가 페이지 영상에 레이블링되어 있는 레이블링 데이터가 학습데이터로 활용될 수 있다. 비지도학습의 경우, 레이블이 없는 다량의 페이지 영상을 대상으로 영역 검출을 수행한 다음, 영역 검출 결과에 대한 정확도를 사람이 판단하여 인공지능 모델에 피드백하는 방식으로 진행될 수 있다. Meanwhile, in order to perform the above-described operation, the area detection unit 210 may include an artificial intelligence model. The artificial intelligence model can be trained in advance by using a large amount of page images as training data. As a learning method, supervised learning or unsupervised learning may be used. In the case of supervised learning, labeling data in which page images are labeled with information about a cut area, a speech bubble area, a scene area, and a sequence area may be used as learning data. In the case of unsupervised learning, region detection can be performed on a large number of unlabeled page images, and then a human judges the accuracy of the region detection result and feeds back to the artificial intelligence model.
문자 인식부(220)는 페이지 영상에서 검출된 말풍선 영역(50)을 대상으로 광학 문자 인식(Optical character recognition; OCR)을 수행하여 문자를 인식한다. 인식된 문자 데이터는 제3 데이터베이스(253)에 저장될 수 있다. 제3 데이터베이스(253)에 저장된 문자 데이터는 추후 글꼴, 크기 및 효과 중 하나 이상이 사용자 단말(100)에 적합한 형태로 가공된 후 사용자 단말(100)을 통해 디스플레이될 수 있다. 다른 실시 예에 따르면, 문자 데이터에 대응하는 음성 데이터가 사용자 단말(100)로 제공될 수도 있다. The text recognition unit 220 recognizes text by performing optical character recognition (OCR) on the speech bubble area 50 detected in the page image. Recognized text data may be stored in the third database 253 . The text data stored in the third database 253 may be later displayed through the user terminal 100 after at least one of font, size, and effect is processed into a form suitable for the user terminal 100 . According to another embodiment, voice data corresponding to text data may be provided to the user terminal 100 .
효과 처리부(230)는 페이지 영상, 페이지 영상에서 검출된 영역, 페이지 영상에서 인식된 문자 데이터 중 하나 이상에 대하여, 영상 효과를 적용한다. 영상 효과로는 확대, 축소, 위치 이동, 나타나는 위치, 흔들림, 블러링, 투명도 조절, 숨김 처리, 숨김 해제 및 오버레이를 예로 들 수 있다. The effect processor 230 applies an image effect to one or more of the page image, a region detected from the page image, and text data recognized from the page image. Examples of video effects include enlargement, reduction, position movement, appearing position, shaking, blurring, transparency adjustment, hiding, unhiding, and overlay.
예시된 효과들 중에서 '나타나는 위치'는 페이지 영역들의 재배치 방향과 연관될 수 있다. 일 예로, 페이지 영상들이 나타나는 위치가 사용자 단말(100)의 디스플레이의 아래쪽으로 설정된 상태라면, 페이지 영상들은 제1 방향으로 재배치될 수 있다. 다른 예로, 페이지 영상들이 나타나는 위치가 사용자 단말(100)의 디스플레이의 오른쪽으로 설정된 상태라면, 페이지 영상들은 제2 방향으로 재배치될 수 있다. 또 다른 예로, 페이지 영상들이 나타나는 위치가 사용자 단말(100)의 디스플레이의 왼쪽으로 설정된 상태라면, 페이지 영상들은 제3 방향으로 재배치될 수 있다. Among the exemplified effects, 'position to appear' may be associated with a rearrangement direction of page areas. For example, if the position at which the page images appear is set to the lower side of the display of the user terminal 100, the page images may be rearranged in the first direction. As another example, if the position at which the page images appear is set to the right side of the display of the user terminal 100, the page images may be rearranged in the second direction. As another example, if the position where the page images appear is set to the left side of the display of the user terminal 100, the page images may be rearranged in the third direction.
이상에서는 '나타나는 위치'와 관련된 설정 정보에 기초하여, 페이지 영상들의 배치 방향이 결정되는 경우를 예로 들었으나, 그 반대도 가능하다. 즉, 페이지 영상들의 배치 방향이 제1 방향으로 설정되어 있는 상태라면, 영역이 '나타나는 위치'는 디스플레이의 하단에서 나타나도록 자동으로 설정될 수 있다. In the foregoing, the case where the arrangement direction of the page images is determined based on the setting information related to the 'appearing position' has been described as an example, but the opposite is also possible. That is, if the arrangement direction of the page images is set to the first direction, the 'appearing position' of the area may be automatically set to appear at the bottom of the display.
실시 예에 따르면, 예시된 영상 효과들은 단독으로 적용될 수도 있으며, 둘 이상의 영상 효과가 동시에 적용될 수도 있다. 특정 대상에 대하여 적용할 효과의 개수 및 종류는 사용자에 의해 직접 설정될 수도 있고, 영상 효과가 적용되는 대상의 크기, 가로 길이, 세로 길이 및 정보량 중 적어도 하나에 따라 자동으로 설정될 수도 있다. According to an embodiment, the illustrated video effects may be applied alone or two or more video effects may be simultaneously applied. The number and type of effects to be applied to a specific object may be directly set by the user, or may be automatically set according to at least one of the size, width, length, and amount of information of the object to which the video effect is applied.
제어부(240)는 디지털 만화 제공 장치(200)를 구성하는 각 구성요소들을 연결하고, 제어할 수 있다. 일 예로, 제어부(240)는 디지털 만화를 구성하는 페이지 영상들을 미리 설정된 방향에 맞추어 재배치할 수 있다. 다른 예로, 제어부(240)는 표시 전환 이벤트를 검출할 수 있다. The control unit 240 may connect and control each component constituting the digital cartoon providing device 200 . For example, the controller 240 may rearrange the page images constituting the digital cartoon according to a preset direction. As another example, the controller 240 may detect a display change event.
통신부(260)는 디지털 만화 제공 장치(200)와 사용자 단말(100) 간의 무선 통신을 수행한다. The communication unit 260 performs wireless communication between the digital cartoon providing device 200 and the user terminal 100 .
이상, 도 6을 참조하여, 본 개시의 일 실시 예에 따른 디지털 만화 제공 장치(200)에 대해서 설명하였다. 도 6에 도시되어 있는 구성요소들 중에서 일부 구성요소들은 사용자 단말(100)에 포함되도록 구성될 수도 있다. 예를 들면, 영역 검출부(210), 문자 인식부(220) 및 효과 처리부(230) 중에서 하나 이상은 사용자 단말(100)에 포함되도록 구성될 수도 있다. In the above, the digital cartoon providing device 200 according to an embodiment of the present disclosure has been described with reference to FIG. 6 . Some of the components shown in FIG. 6 may be configured to be included in the user terminal 100 . For example, one or more of the area detection unit 210 , the text recognition unit 220 , and the effect processing unit 230 may be included in the user terminal 100 .
도 7은 페이지 영상에서 시퀀스 영역을 검출하는 방법들을 설명하기 위한 도면이다. 7 is a diagram for explaining methods of detecting a sequence region from a page image.
도 7의 왼쪽에 도시된 것은 페이지 영상이다. 그리고 도 7의 오른쪽에 도시된 것은 페이지 영상에서 검출된 시퀀스 영역들이다. Shown on the left of FIG. 7 is a page image. Also, shown on the right side of FIG. 7 are sequence regions detected in the page image.
도 7을 참조하면, 페이지 영상은 제1 컷 영역 내지 제4 컷 영역을 포함한다. 여기서, 제1 컷 영역 내지 제4 컷 영역이 서로 어긋나게 배치되어 있는 것을 알 수 있다. 이러한 페이지 영상을 휴대전화와 같은 사용자 단말(100)을 통해 그대로 디스플레이하는 경우, 페이지 영역(10)에 포함되어 있는 콘텐츠(즉, 제1 컷 영역 내지 제4 컷 영역)에 비하여, 상대적으로 많은 여백이 발생한다. Referring to FIG. 7 , a page image includes a first to fourth cut area. Here, it can be seen that the first to fourth cut regions are displaced from each other. When such a page image is displayed as it is through the user terminal 100 such as a mobile phone, a relatively large margin compared to the contents included in the page area 10 (ie, the first to fourth cut areas) this happens
본 개시의 일 실시 예에 따른 디지털 만화 제공 장치(200)는 페이지 영상에서 컷 영역들을 검출한 다음, 검출된 컷 영역들에 기초하여 시퀀스 영역을 검출한다. 이하, 시퀀스 영역을 검출하는 다양한 방법들에 대해서 설명한다. The apparatus 200 for providing digital cartoons according to an embodiment of the present disclosure detects cut regions in a page image and then detects sequence regions based on the detected cut regions. Hereinafter, various methods of detecting a sequence region will be described.
도 7의 (A)는 페이지 영상에서 검출된 모든 컷 영역들의 기존 위치를 유지한 상태에서 시퀀스 영역이 검출된 경우를 도시하고 있다. FIG. 7(A) shows a case in which a sequence region is detected while maintaining the existing positions of all cut regions detected in the page image.
도 7의 (B)는 페이지 영상에서 검출된 컷 영역들을 페이지 영역 내에서 수평 이동시켜 중앙 정렬한 후, 중앙 정렬된 컷 영역들을 구성하는 외곽선들 중에서 가장 최외곽에 위치한 외곽선들에 기초하여 시퀀스 영역이 검출된 경우를 도시하고 있다. 여기서, 제3 컷 영역과 제4 컷 영역은 가로 방향으로 서로 나란히 배치되어 있다. 그리고 제3 컷 영역의 가로 길이, 제4 컷 영역의 가로 길이 및 제3 컷 영역과 제4 컷 영역 사이의 컷 간격을 포함하는 전체 가로 길이인 'c'가 나머지 컷 영역들의 가로 길이인 'd1' 보다 길다. 따라서, 제3 컷 영역 및 제4 컷 영역은 중앙 정렬을 위한 수평 이동에서 제외된다. 그리고 제3 영역과 제4 컷 영역을 포함하는 전체 영역의 중심을 지나는 수직선 상에 위치하도록 제1 컷 영역과 제2 컷 영역이 수평 이동된다. 7(B) shows a sequence area based on the outermost outlines among the outlines constituting the center-aligned cut regions after centering them by horizontally moving the cut regions detected in the page image within the page region. The case where this is detected is shown. Here, the third cut region and the fourth cut region are arranged side by side with each other in the horizontal direction. In addition, 'c', which is the total horizontal length including the horizontal length of the third cut region, the horizontal length of the fourth cut region, and the cut gap between the third and fourth cut regions, is 'd1', which is the horizontal length of the remaining cut regions. ' is longer than Accordingly, the third cut area and the fourth cut area are excluded from horizontal movement for center alignment. The first cut region and the second cut region are horizontally moved so as to be located on a vertical line passing through the center of the entire region including the third region and the fourth cut region.
도 7의 (C)는 (B)의 상태에서, 시퀀스 영역의 가로 길이보다 짧은 가로 길이를 갖는 제1 컷 영역과 제2 컷 영역이 시퀀스 영역에 맞추어 확대된 모습을 도시하고 있다. 이 때, 제1 컷 영역과 제2 컷 영역은 가로 방향 및 세로 방향으로 동시에 확대되되, 제1 컷 영역의 가로 길이 및 제2 컷 영역의 가로 길이가 시퀀스 영역의 가로 길이를 초과하지 않는 범위 내에서 확대된다. 7(C) shows a state in which the first cut region and the second cut region having a horizontal length shorter than the horizontal length of the sequence region are enlarged to match the sequence region in the state of (B). At this time, the first cut region and the second cut region are simultaneously enlarged in the horizontal and vertical directions, within a range where the horizontal length of the first cut region and the horizontal length of the second cut region do not exceed the horizontal length of the sequence region. expands from
다음으로, 도 8 내지 도 28을 참조하여, 사용자 단말(100)로 디지털 만화가 제공되는 전반적인 과정에 대해 설명하기로 한다. 설명에 앞서, 이하에서 설명될 디지털 만화는 우철 방식의 인쇄 만화로부터 획득된 통합 페이지 영상들로 구성된 디지털 만화인 경우를 예로 들어 설명하기로 한다. 또한, 각각의 통합 페이지 영상에는 연속된 두 페이지 영상에 걸쳐 배치되어 있는 컷 영역이 없는 경우를 가정한다. 그리고 사용자 단말(100)의 자세는 인물 모드(Portrait mode) 및 풍경 모드(Landscape mode) 중에서 인물 모드인 경우를 가정한다. Next, with reference to FIGS. 8 to 28 , the overall process of providing digital cartoons to the user terminal 100 will be described. Prior to the description, a case in which a digital cartoon to be described below is a digital cartoon composed of integrated page images obtained from a stamp-type printed cartoon will be described as an example. Also, it is assumed that each integrated page image does not have a cut region disposed across two consecutive page images. Also, it is assumed that the posture of the user terminal 100 is a portrait mode among portrait mode and landscape mode.
도 8은 디지털 만화를 구성하는 통합 페이지 영상들을 예시한 도면이다. 8 is a diagram illustrating integrated page images constituting a digital cartoon.
도 8을 참조하면, 디지털 만화는 제1 통합 페이지 영상(6)과 제2 통합 페이지 영상(8)을 포함한다. 제1 통합 페이지 영상(6)은 제1 페이지 영상(60)과 제2 페이지 영상(70)을 포함한다. 제2 통합 페이지 영상(8)은 제3 페이지 영상(80)과 제4 페이지 영상(90)을 포함한다. 이때, 독자의 시선 흐름은 제1 페이지(60), 제2 페이지(70), 제3 페이지(80) 및 제4 페이지(90) 순서로 진행된다. Referring to FIG. 8 , the digital cartoon includes a first integrated page image 6 and a second integrated page image 8 . The first combined page image 6 includes a first page image 60 and a second page image 70 . The second integrated page image 8 includes a third page image 80 and a fourth page image 90 . At this time, the flow of the reader's gaze proceeds in the order of the first page 60, the second page 70, the third page 80, and the fourth page 90.
영역 검출부(210)는 각 통합 페이지 영상(6, 8)에서 페이지 영역들을 검출한다. 이때, 영역 검출부(210)는 통합 페이지 영상(6)의 가로 길이의 중심점을 지나는 가상의 수직선을 따라 통합 페이지 영상(6)을 분할함으로써, 연속된 두 페이지 영상(60, 70)을 검출할 수 있다. 도 9는 제1 통합 페이지 영상(6)이 제1 페이지 영역(60)과 제2 페이지 영역(70)으로 분할된 모습과, 제2 통합 페이지 영상(8)이 제3 페이지 영상(80)과 제4 페이지 영상(90)으로 분할된 모습을 보여주고 있다. The region detection unit 210 detects page regions in each integrated page image 6 and 8 . In this case, the region detector 210 may detect two consecutive page images 60 and 70 by dividing the combined page image 6 along a virtual vertical line passing through the center point of the horizontal length of the combined page image 6. there is. 9 shows a state in which a first integrated page image 6 is divided into a first page area 60 and a second page area 70, and a second combined page image 8 is divided into a third page image 80 and The image divided into the fourth page image 90 is shown.
제어부(240)는 검출된 페이지 영상들(60, 70, 80, 90)을 기준 방향을 따라 재배치한다. 기준 방향은 제1 방향, 제2 방향 및 제3 방향 중에서 하나일 수 있다. 도 10은 제1 방향을 따라 재배치된 페이지 영상들 중에서 일부 페이지 영상들(60, 70)을 보여주고 있다. 도 10에는 제1 페이지 영상(60) 및 제2 페이지 영상(70)만이 도시되어 있지만, 제2 페이지 영상(70)의 다음에는 제3 페이지 영상(80) 및 제4 페이지 영상(90)이 제1 방향을 따라 차례로 배치된다. 또한, 도 10을 참조하면, 제1 페이지 영상(60)의 시퀀스 영역 및 제2 페이지 영상(70)의 시퀀스 영역을 지칭하기 위한 도면부호로 각각 '60A' 및 '70A'가 사용된 것을 알 수 있다. 따라서, 도 10에 도시되지는 않았지만, 이하의 설명 및 도면들에서 제3 페이지 영상(80)의 시퀀스 영역 및 제4 페이지 영상(90)의 시퀀스 영역을 지칭하기 위한 도면부호로는 '80A' 및 '90A'가 사용될 수 있다. The controller 240 rearranges the detected page images 60, 70, 80, and 90 along the reference direction. The reference direction may be one of a first direction, a second direction, and a third direction. 10 shows some page images 60 and 70 among page images rearranged along the first direction. Although only the first page image 60 and the second page image 70 are shown in FIG. 10, the third page image 80 and the fourth page image 90 follow the second page image 70. They are arranged sequentially along one direction. Also, referring to FIG. 10 , it can be seen that '60A' and '70A' are used as reference numerals to indicate the sequence area of the first page image 60 and the sequence area of the second page image 70, respectively. there is. Accordingly, although not shown in FIG. 10 , reference numerals for referring to the sequence area of the third page image 80 and the sequence area of the fourth page image 90 in the following description and drawings are '80A' and '80A'. '90A' may be used.
이후, 영역 검출부(210)는 재배치된 페이지 영상들을 대상으로 영역을 검출한다. 즉, 각 페이지 영상에서 컷 영역, 씬 영역, 시퀀스 영역 및 말풍선 영역 중 하나 이상을 검출한다. 이때, 영역 검출은 순차적으로 진행되거나 동시에 진행될 수 있으며, 우선적으로 검출되는 영역도 경우에 따라 달라질 수 있다. 도 10을 참조하면, 제1 페이지 영상(60)에서는 네 개의 독립 컷 영역들(61, 62, 63, 64)과 시퀀스 영역(60A)이 검출된 것을 알 수 있다. 그리고 제2 페이지 영상(70)에서는 하나의 독립 컷 영역(71), 하나의 비독립 컷 영역(72) 및 시퀀스 영역(70A)이 검출된 것을 알 수 있다. 제2 페이지 영상에서 비독립 컷 영역(72)을 나타내는 점선 및 시퀀스 영역(70A)을 나타내는 일점쇄선은 실제 검출된 비독립 컷 영역(72) 및 시퀀스 영역(70A)에 비하여 과장하여 표시한 것이다. After that, the region detection unit 210 detects regions of the rearranged page images. That is, at least one of a cut region, a scene region, a sequence region, and a speech bubble region is detected in each page image. In this case, region detection may be performed sequentially or concurrently, and a preferentially detected region may vary depending on the case. Referring to FIG. 10 , it can be seen that four independent cut regions 61 , 62 , 63 , and 64 and a sequence region 60A are detected in the first page image 60 . In addition, it can be seen that one independent cut region 71, one non-independent cut region 72, and a sequence region 70A are detected in the second page image 70. In the second page image, the dotted line representing the non-independent cut region 72 and the one-dot chain line representing the sequence region 70A are exaggerated compared to the actually detected non-independent cut region 72 and sequence region 70A.
한편, 시퀀스 영역을 검출할 때, 영역 검출부(210)는 도 7을 참조하여 설명한 방법들에 기초하여 시퀀스 영역을 검출할 수 있다. 일 예로, 영역 검출부(210)는 제1 페이지 영상(60)에서 검출된 모든 컷 영역들(61, 62, 63, 64)의 기존 위치를 유지한 상태에서 시퀀스 영역(60A)을 검출할 수 있다. 다른 예로, 영역 검출부(210)는 컷 영역들(61, 62, 63, 64)의 위치를 중앙 정렬한 상태에서 시퀀스 영역(60A)을 검출할 수 있다. 또 다른 예로, 영역 검출부(210)가 컷 영역들(61, 62, 63, 64)의 위치를 중앙 정렬한 상태에서 시퀀스 영역(60A)을 검출하고, 효과 처리부(230)가 일부 컷 영역들의 크기를 시퀀스 영역에 맞게 확대시킬 수 있다. Meanwhile, when detecting a sequence area, the area detector 210 may detect the sequence area based on the methods described with reference to FIG. 7 . For example, the region detector 210 may detect the sequence region 60A while maintaining the original positions of all cut regions 61, 62, 63, and 64 detected in the first page image 60. . As another example, the region detector 210 may detect the sequence region 60A in a state in which the positions of the cut regions 61, 62, 63, and 64 are centered. As another example, the region detection unit 210 detects the sequence region 60A with the positions of the cut regions 61, 62, 63, and 64 centered, and the effect processing unit 230 determines the size of some of the cut regions. can be enlarged to fit the sequence area.
이후, 영역 검출부(210)는 각 페이지 영상에서 검출된 컷 영역을 대상으로 시선 흐름에 따른 순차 번호를 할당한다. 도 10의 경우, 시선 흐름은 제1 페이지 영상(60)의 제1 독립 컷 영역(61)에서 시작하여, 제2 독립 컷 영역(62), 제3 독립 컷 영역(63), 제4 독립 컷 영역(64)으로 진행된 후, 제2 페이지 영상(70)의 제1 독립 컷 영역(71) 및 제1 비독립 컷 영역(72)으로 진행된다. 따라서 전술한 순서에 맞추어 순차 번호가 할당된다. Thereafter, the region detection unit 210 assigns a sequential number according to the line of sight to the cut region detected in each page image. In the case of FIG. 10 , the line of sight starts from the first independent cut region 61 of the first page image 60, the second independent cut region 62, the third independent cut region 63, and the fourth independent cut. After proceeding to the area 64 , it proceeds to the first independent cut area 71 and the first non-independent cut area 72 of the second page image 70 . Accordingly, sequential numbers are assigned according to the above-mentioned order.
이후, 효과 처리부(230)는 검출된 시퀀스 영역들(60A, 70A)의 크기를 사용자 단말(100)의 디스플레이의 크기에 맞추어 조절한다. Then, the effect processing unit 230 adjusts the size of the detected sequence regions 60A and 70A according to the display size of the user terminal 100 .
일 예로, 효과 처리부(230)는 각 시퀀스 영역(60A, 70A)의 가로 길이가 사용자 단말(100)의 디스플레이의 가로 길이와 같아지도록 각 시퀀스 영역(60A, 70A)의 크기를 조절한다. 이때, 시퀀스 영역(60A, 70A)의 가로 길이 및 세로 길이는 동일한 비율로 조절된다. 좀 더 구체적으로, 각 시퀀스 영역(60A, 70A)의 가로 길이가 디스플레이의 가로 길이보다 길다면, 효과 처리부(230)는 각 시퀀스 영역(60A, 70A)의 가로 길이가 디스플레이의 가로 길이와 같아지도록 각 시퀀스 영역(60A, 70A)의 전체적인 크기를 축소시킨다. 만약 각 시퀀스 영역(60A, 70A)의 가로 길이가 디스플레이의 가로 길이보다 짧다면, 효과 처리부(230)는 각 시퀀스 영역(60A, 70A)의 가로 길이가 디스플레이의 가로 길이와 같다지도록 각 시퀀스 영역(60A, 70A)의 전체적인 크기를 확대시킨다. For example, the effect processing unit 230 adjusts the size of each sequence area 60A or 70A so that the horizontal length of each sequence area 60A or 70A is equal to the horizontal length of the display of the user terminal 100 . At this time, the horizontal and vertical lengths of the sequence regions 60A and 70A are adjusted at the same ratio. More specifically, if the horizontal length of each of the sequence regions 60A and 70A is longer than the horizontal length of the display, the effect processor 230 adjusts the horizontal length of each sequence region 60A and 70A to be equal to the horizontal length of the display. The overall size of the sequence regions 60A and 70A is reduced. If the horizontal length of each sequence area 60A or 70A is shorter than the horizontal length of the display, the effect processor 230 sets each sequence area ( 60A, 70A) enlarge the overall size.
다른 예로, 효과 처리부(230)는 각 시퀀스 영역(60A, 70A)의 세로 길이가 사용자 단말(100)의 디스플레이의 세로 길이와 같아지도록 각 시퀀스 영역(60A, 70A)의 크기를 조절한다. 이때, 시퀀스 영역(60A, 70A)의 가로 길이 및 세로 길이는 동일한 비율로 조절된다. 좀 더 구체적으로, 각 시퀀스 영역(60A, 70A)의 세로 길이가 디스플레이의 세로 길이보다 길다면, 효과 처리부(230)는 각 시퀀스 영역(60A, 70A)의 세로 길이가 디스플레이의 세로 길이와 같아지도록 각 시퀀스 영역(60A, 70A)의 전체적인 크기를 축소시킨다. 만약 각 시퀀스 영역(60A, 70A)의 세로 길이가 디스플레이의 세로 길이보다 짧다면, 효과 처리부(230)는 각 시퀀스 영역(60A, 70A)의 세로 길이가 디스플레이의 세로 길이와 같아지도록 각 시퀀스 영역(60A, 70A)의 전체적인 크기를 확대시킨다. As another example, the effect processing unit 230 adjusts the size of each sequence area 60A or 70A so that the vertical length of each sequence area 60A or 70A is equal to the vertical length of the display of the user terminal 100 . At this time, the horizontal and vertical lengths of the sequence regions 60A and 70A are adjusted at the same ratio. More specifically, if the vertical length of each sequence area 60A, 70A is longer than the vertical length of the display, the effect processing unit 230 adjusts the vertical length of each sequence area 60A, 70A to be equal to the vertical length of the display. The overall size of the sequence regions 60A and 70A is reduced. If the vertical length of each sequence area 60A or 70A is shorter than the vertical length of the display, the effect processing unit 230 sets each sequence area to have the same vertical length as the vertical length of the display. 60A, 70A) enlarge the overall size.
이하, 설명의 편의를 위하여, 각 시퀀스 영역(60A, 70A)의 가로 길이와 디스플레이의 가로 길이를 기준으로 각 시퀀스 영역(60A, 70A)의 전체적인 크기가 조절되는 경우를 예로 들어 설명하기로 한다. Hereinafter, for convenience of description, a case in which the overall size of each sequence region 60A or 70A is adjusted based on the horizontal length of each sequence region 60A or 70A and the horizontal length of the display will be described as an example.
이후, 효과 처리부(230)는 시퀀스 영역 내의 컷 영역들 중에서 현재 순서에 해당하는 컷 영역을 직접적으로 강조하거나 상대적으로 강조한다. Thereafter, the effect processing unit 230 directly or relatively emphasizes the cut region corresponding to the current sequence among the cut regions in the sequence region.
현재 순서에 해당하는 컷 영역을 직접적으로 강조하는 방법으로는 해당 컷 영역을 확대하는 방법, 컷 영역의 외곽선을 강조하는 방법, 컷 영역에 포함된 콘텐츠를 강조하는 방법 및 컷 영역의 색상을 변화시키는 방법을 예로 들 수 있다. Methods for directly emphasizing the cut area corresponding to the current order include enlarging the cut area, emphasizing the outline of the cut area, emphasizing content included in the cut area, and changing the color of the cut area. method can be cited as an example.
현재 순서에 해당하는 컷 영역을 상대적으로 강조하는 방법으로는 전체 시퀀스 영역의 정보량을 감소시킨 후, 정보량이 감소된 시퀀스 영역에 정보량이 감소되기 전의 해당 컷 영역을 중첩시키는 방법을 예로 들 수 있다. 시퀀스 영역의 정보량을 감소시키기 위한 방법으로는 블러 효과, 부드러운 가장자리 효과, 둥근 모서리 효과, 투명도 효과 및 크롭(crop) 효과 중에서 하나 이상의 영상 효과를 시퀀스 영역에 적용하는 방법을 예로 들 수 있다. As a method of relatively emphasizing the cut region corresponding to the current sequence, a method of reducing the amount of information in the entire sequence region and then overlapping the corresponding cut region before the reduced amount of information with the sequence region having the decreased amount of information may be exemplified. As a method for reducing the amount of information in the sequence area, a method of applying one or more video effects selected from among a blur effect, a soft edge effect, a rounded corner effect, a transparency effect, and a crop effect to the sequence area may be exemplified.
현재 순서에 해당하는 컷 영역을 상대적으로 강조하는 다른 방법으로는 시퀀스 영역에서 현재 순서에 해당하는 컷 영역을 제외한 나머지 영역의 정보량을 감소시키는 방법을 예로 들 수 있다. 예를 들면, 시퀀스 영역에서 현재 순서에 해당하는 컷 영역을 제외한 나머지 영역을 대상으로 블러 효과, 부드러운 가장자리 효과, 둥근 모서리 효과, 투명도 효과 및 크롭 효과 중에서 하나 이상의 영상 효과를 적용함으로써, 현재 순서에 해당하는 컷 영역이 상대적으로 강조되는 효과를 얻을 수 있다. As another method of relatively emphasizing the cut region corresponding to the current order, a method of reducing the amount of information in the sequence region excluding the cut region corresponding to the current order may be exemplified. For example, by applying one or more video effects from blur effect, soft edge effect, rounded corner effect, transparency effect, and crop effect to the rest of the sequence area except for the cut area corresponding to the current sequence, corresponding to the current sequence. It is possible to obtain the effect of relatively emphasizing the cut area.
현재 순서에 해당하는 컷 영역을 상대적으로 강조하는 또 다른 방법으로는 시퀀스 영역에서 현재 순서에 해당하는 컷 영역을 제외한 나머지 영역을 가리는 방법을 예로 들 수 있다. 이러한 방법은 클립패스(clip-path)를 이용하여 구현될 수 있다. 클립패스는 CSS(Cascading Style Sheet)의 속성 중 하나로 원본 이미지의 일정 영역만 표시하고자 할 때 사용된다. Another method of relatively emphasizing the cut region corresponding to the current order may include, for example, a method of covering regions other than the cut region corresponding to the current order in the sequence region. This method can be implemented using clip-path. Clip path is one of the properties of CSS (Cascading Style Sheet) and is used when only a certain area of the original image is to be displayed.
한편, 효과 처리부(230)는 현재 순서에 해당하는 컷 영역을 강조시키면서 해당 컷 영역의 기준점이 디스플레이의 기준점에 위치하도록 시퀀스 영역의 위치를 이동시킨다. 이때, 현재 순서에 해당하는 컷 영역의 기준점은 해당 컷 영역의 중심일 수 있다. 그리고 디스플레이의 기준점은 디스플레이의 중심일 수 있다. 실시예에 따르면, 컷 영역을 강조시키기만 할 것인지, 컷 영역을 강조시키면서 시퀀스 영역의 위치를 전체적으로 이동시킬 것인지는 사전에 설정될 수 있으며, 설정된 정보는 디지털 만화 서비스의 사용자 및/또는 제공자에 의해 변경 가능하도록 구현될 수 있다. Meanwhile, the effect processing unit 230 moves the position of the sequence area so that the reference point of the corresponding cut area is located at the reference point of the display while emphasizing the cut area corresponding to the current sequence. In this case, the reference point of the cut region corresponding to the current order may be the center of the corresponding cut region. Also, the reference point of the display may be the center of the display. According to the embodiment, whether to emphasize only the cut region or move the position of the sequence region as a whole while emphasizing the cut region may be set in advance, and the set information may be changed by a user and/or provider of a digital cartoon service. can be implemented to make it possible.
이상의 설명에서는 현재 순서에 해당하는 컷 영역을 직접적 또는 상대적으로 강조한 후, 강조된 컷 영역의 기준점이 디스플레이의 기준점에 위치하도록 시퀀스 영역의 위치가 이동되는 경우를 설명하였다. 그러나 이는 설명의 편의를 위한 것으로, 시퀀스 영역의 위치 이동이 먼저 시작된 후 현재 순서의 컷 영역에 대한 강조가 이루어질 수 있다. 또는, 현재 순서의 컷 영역에 대한 강조 및 시퀀스 영역의 위치 이동은 순서 구분 없이 동시에 이루어질 수도 있다. In the above description, after directly or relatively highlighting the cut region corresponding to the current sequence, the position of the sequence region is moved so that the reference point of the highlighted cut region is located at the reference point of the display. However, this is for convenience of explanation, and after the position movement of the sequence region starts, emphasis on the cut region in the current sequence may be made. Alternatively, the emphasis on the cut region in the current order and the positional movement of the sequence region may be simultaneously performed without distinguishing the order.
도 11은 도 10의 제1 페이지 영상(60)에서 추출된 시퀀스 영역(60A)에 정보량 감소를 위한 영상 효과가 적용된 모습들을 예시한 도면이다.FIG. 11 is a diagram illustrating images in which an image effect for reducing the amount of information is applied to the sequence area 60A extracted from the first page image 60 of FIG. 10 .
도 11의 (A)는 블러 효과가 적용된 시퀀스 영역(60AA)을 도시한 것이다. 블러 효과가 적용된 시퀀스 영역(60AA)은 블러 효과가 적용되기 전의 시퀀스 영역(60A)에 비하여 전체적으로 흐려진 것을 알 수 있다. 11(A) shows a sequence area 60AA to which a blur effect is applied. It can be seen that the sequence area 60AA to which the blur effect is applied is generally blurred compared to the sequence area 60A before the blur effect is applied.
도 11의 (B)는 부드러운 가장자리 효과가 적용된 시퀀스 영역(60AB)을 도시한 것이다. 부드러운 가장자리 효과가 적용된 시퀀스 영역(60AB)은 부드러운 가장자리 효과가 적용되기 전의 시퀀스 영역(60A)에 비하여 전체적으로 흐려진 것을 알 수 있다. 특히, 시퀀스 영역(60AB)의 가장자리는 시퀀스 영역(60AB)의 중심에 비하여 더욱 흐려진 것을 알 수 있다. 이하의 설명에서는 도 9에 도시된 각 페이지 영역(60, 70, 80, 90)의 시퀀스 영역(60A, 70A, 80A, 90A)에 부드러운 가장자리 효과가 적용된 경우를 예로 들어 설명하기로 한다. 또한, 부드러운 가장자리 효과가 적용된 시퀀스 영역들은 각각 도면부호 '60AB' '70AB', '80AB' 및 '90AB'로 구별될 수 있다. 11(B) shows a sequence area 60AB to which a soft edge effect is applied. It can be seen that the sequence area 60AB to which the soft edge effect is applied is generally blurred compared to the sequence area 60A before the soft edge effect is applied. In particular, it can be seen that the edge of the sequence area 60AB is more blurred than the center of the sequence area 60AB. In the following description, a case in which a soft edge effect is applied to sequence areas 60A, 70A, 80A, and 90A of each page area 60, 70, 80, and 90 shown in FIG. 9 will be described as an example. In addition, the sequence areas to which the soft edge effect is applied may be distinguished by reference numerals '60AB', '70AB', '80AB', and '90AB', respectively.
도 11에 도시된 바와 같이, 정보량이 감소된 시퀀스 영역이 준비되면, 효과 처리부(230)는 정보량이 감소된 시퀀스 영역에 포함된 컷 영역들 중에서 현재 순서에 해당하는 컷 영역과 동일한 컷 영역에 현재 순서에 해당하는 컷 영역을 중첩시킨다. 즉, 정보량이 감소된 시퀀스 영역에서 현재 순서의 컷 영역에 정보량이 감소되기 전의 시퀀스 영역에서의 현재 순서의 컷 영역을 중첩시킨다. 그리고 현재 순서에 해당하는 컷 영역의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역의 위치 및 시퀀스 영역에 중첩된 컷 영역의 위치를 이동시킨다. 이에 대한 좀 더 구체적인 설명을 위해 도 12 내지 도 28을 참조하기로 한다. As shown in FIG. 11, when a sequence area with a reduced amount of information is prepared, the effect processing unit 230 is currently in the same cut area as the cut area corresponding to the current sequence among cut areas included in the sequence area with a reduced amount of information. Overlap the cut regions corresponding to the order. That is, the cut region in the current order in the sequence region before the amount of information is reduced is overlaid with the cut region in the current order in the sequence region in which the amount of information is reduced. Then, the position of the sequence area and the position of the cut area overlapping the sequence area are moved so that the center of the cut area corresponding to the current order is positioned at the center of the display. For a more detailed description of this, reference will be made to FIGS. 12 to 28 .
도 12 내지 도 28은 도 9에 도시된 페이지 영상들이 사용자 단말(100)을 통해 디스플레이되는 모습을 도시한 도면들이다.12 to 28 are diagrams illustrating how the page images shown in FIG. 9 are displayed through the user terminal 100 .
도 12를 참조하면, 제1 페이지 영상(60)에서 검출된 후 정보량이 감소된 시퀀스 영역(60AB)에 정보량이 감소되기 전의 시퀀스 영역(60A)에서의 제1 독립 컷 영역(61)이 중첩되어 있는 것을 알 수 있다. 그리고 중첩된 제1 독립 컷 영역(61)의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역(60AB)이 이동되어 있는 것을 알 수 있다. Referring to FIG. 12, the first independent cut region 61 in the sequence region 60A before the amount of information is reduced overlaps the sequence region 60AB in which the amount of information is reduced after being detected in the first page image 60. it can be seen that there is Also, it can be seen that the sequence area 60AB is moved so that the center of the overlapping first independent cut area 61 is positioned at the center of the display.
도 12의 상태에서 표시 전환 이벤트가 발생하면 시퀀스 영역(60AB)에는 정보량이 감소되기 전의 시퀀스 영역(60A)에서의 제2 독립 컷 영역(62)이 새롭게 중첩되고, 중첩된 제2 독립 컷 영역(62)의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역(60AB)의 위치가 점차 이동된다. 즉, 도 13의 화면을 거쳐 도 14의 화면이 디스플레이된다. When a display switching event occurs in the state of FIG. 12 , the second independent cut region 62 in the sequence region 60A before the amount of information is reduced is newly overlapped in the sequence region 60AB, and the overlapped second independent cut region ( The position of the sequence area 60AB is gradually moved so that the center of 62) is positioned at the center of the display. That is, the screen of FIG. 14 is displayed through the screen of FIG. 13 .
도 13을 참조하면, 시퀀스 영역(60AB)의 위치가 이동됨에 따라, 시퀀스 영역(60AB)에 중첩되어 있던 제1 독립 컷 영역(61)은 점차 흐려지는 대신, 시퀀스 영역(60AB)에 새롭게 중첩된 제2 독립 컷 영역(62)은 점차 명확해지는 것을 알 수 있다. 제2 독립 컷 영역(62)의 중심이 디스플레이의 중심에 도달하면 도 14의 화면이 디스플레이된다. Referring to FIG. 13 , as the position of the sequence area 60AB is moved, the first independent cut area 61 overlapping the sequence area 60AB is gradually blurred, but the first independent cut area 61 newly overlaps the sequence area 60AB. It can be seen that the two independent cut regions 62 become increasingly clear. When the center of the second independent cut region 62 reaches the center of the display, the screen of FIG. 14 is displayed.
도 14의 상태에서 표시 전환 이벤트가 발생하면 시퀀스 영역(60AB)에는 정보량이 감소되기 전의 시퀀스 영역(60A)에서의 제3 독립 컷 영역(63)이 새롭게 중첩되고, 중첩된 제3 독립 컷 영역(63)의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역(60AB)의 위치가 점차 이동된다. 즉, 도 15의 화면을 거쳐 도 16의 화면이 디스플레이된다. When a display switching event occurs in the state of FIG. 14 , the third independent cut region 63 in the sequence region 60A before the amount of information is reduced is newly overlapped in the sequence region 60AB, and the overlapped third independent cut region ( 63) is gradually moved so that the center of the sequence area 60AB is positioned at the center of the display. That is, the screen of FIG. 16 is displayed via the screen of FIG. 15 .
도 15를 참조하면, 시퀀스 영역(60AB)의 위치가 이동됨에 따라, 시퀀스 영역(60AB)에 중첩되어 있던 제2 독립 컷 영역(62)은 점차 흐려지는 대신, 시퀀스 영역(60AB)에 새롭게 중첩된 제3 독립 컷 영역(63)은 점차 명확해지는 것을 알 수 있다. 제3 독립 컷 영역(63)의 중심이 디스플레이의 중심에 도달하면 도 16의 화면이 디스플레이된다. Referring to FIG. 15 , as the position of the sequence region 60AB is moved, the second independent cut region 62 overlapping the sequence region 60AB is gradually blurred, but the second independent cut region 62 newly overlaps the sequence region 60AB. It can be seen that the 3 independent cut regions 63 gradually become clear. When the center of the third independent cut region 63 reaches the center of the display, the screen of FIG. 16 is displayed.
도 16의 상태에서 표시 전환 이벤트가 발생하면 시퀀스 영역(60AB)에는 정보량이 감소되기 전의 시퀀스 영역(60A)에서의 제4 독립 컷 영역(64)이 새롭게 중첩되고, 중첩된 제4 독립 컷 영역(64)의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역(60AB)의 위치가 점차 이동된다. 즉, 도 17의 화면을 거쳐 도 18의 화면이 디스플레이된다. When a display switching event occurs in the state of FIG. 16 , the fourth independent cut region 64 in the sequence region 60A before the amount of information is reduced is newly overlapped in the sequence region 60AB, and the overlapped fourth independent cut region ( The position of the sequence area 60AB is gradually moved so that the center of 64) is positioned at the center of the display. That is, the screen of FIG. 18 is displayed via the screen of FIG. 17 .
도 17을 참조하면, 시퀀스 영역(60AB)의 위치가 이동됨에 따라, 시퀀스 영역(60AB)에 중첩되어 있던 제3 독립 컷 영역(63)은 점차 흐려지는 대신, 시퀀스 영역(60AB)에 새롭게 중첩된 제4 독립 컷 영역(64)은 점차 명확해지는 것을 알 수 있다. 제4 독립 컷 영역(64)의 중심이 디스플레이의 중심에 도달하면 도 18의 화면이 디스플레이된다. Referring to FIG. 17 , as the position of the sequence area 60AB is moved, the third independent cut area 63 overlapping the sequence area 60AB is gradually blurred, but the second area newly overlapped with the sequence area 60AB. It can be seen that the 4 independent cut regions 64 gradually become clearer. When the center of the fourth independent cut region 64 reaches the center of the display, the screen of FIG. 18 is displayed.
도 18의 상태에서 표시 전환 이벤트가 발생하면 정보량이 감소된 두 번째 시퀀스 영역(70AB)에는 정보량이 감소되기 전의 두 번째 시퀀스 영역(70A)에서의 제1 독립 컷 영역(71)이 중첩되고, 중첩된 제1 독립 컷 영역(71)의 중심이 디스플레이의 중심에 위치하도록 첫 번째 시퀀스 영역(60AB) 및 두 번째 시퀀스 영역(70AB)의 위치가 함께 점차 이동된다. 즉, 도 19의 화면을 거쳐 도 20의 화면이 디스플레이된다. When a display switching event occurs in the state of FIG. 18 , the first independent cut area 71 in the second sequence area 70A before the amount of information is reduced overlaps the second sequence area 70AB in which the amount of information is reduced, and the overlapping occurs. The positions of the first sequence area 60AB and the second sequence area 70AB are gradually moved together so that the center of the first independent cut area 71 is positioned at the center of the display. That is, the screen of FIG. 20 is displayed via the screen of FIG. 19 .
도 19를 참조하면, 시퀀스 영역들(60AB, 70AB)의 위치가 함께 이동됨에 따라, 첫 번째 시퀀스 영역(60AB)에 중첩되어 있던 제4 독립 컷 영역(64)은 점차 흐려지는 대신, 두 번째 시퀀스 영역(70AB)에 새롭게 중첩된 제1 독립 컷 영역(71)은 점차 명확해지는 것을 알 수 있다. 제1 독립 컷 영역(71)의 중심이 디스플레이의 중심에 도달하면 도 20의 화면이 디스플레이된다. 도 20을 참조하면, 첫 번째 시퀀스 영역(60AB)는 화면에서 완전히 사라진 것을 알 수 있다. Referring to FIG. 19 , as the positions of the sequence regions 60AB and 70AB are moved together, the fourth independent cut region 64 overlapping the first sequence region 60AB is gradually blurred, but instead the second sequence region It can be seen that the first independent cut region 71 newly overlapped on 70AB becomes gradually clearer. When the center of the first independent cut region 71 reaches the center of the display, the screen of FIG. 20 is displayed. Referring to FIG. 20 , it can be seen that the first sequence area 60AB has completely disappeared from the screen.
도 20의 상태에서 표시 전환 이벤트가 발생하면 시퀀스 영역(70AB)에는 정보량이 감소되기 전의 시퀀스 영역(70A)에서의 제1 비독립 컷 영역(72)이 중첩되고, 중첩된 제1 비독립 컷 영역(72)의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역(70AB)의 위치가 점차 이동된다. 즉, 도 21의 화면을 거쳐 도 22의 화면이 디스플레이된다. When a display switching event occurs in the state of FIG. 20 , the first non-independent cut area 72 in the sequence area 70A before the amount of information is reduced is overlapped in the sequence area 70AB, and the overlapped first non-independent cut area 72 is overlapped. The position of the sequence area 70AB is gradually moved so that the center of 72 is located at the center of the display. That is, the screen of FIG. 22 is displayed via the screen of FIG. 21 .
도 21을 참조하면, 시퀀스 영역(70AB)의 위치가 이동됨에 따라, 시퀀스 영역(70AB)에 중첩되어 있던 제1 독립 컷 영역(71)은 점차 흐려지는 대신, 새롭게 중첩된 제1 비독립 컷 영역(72)은 점차 명확해지는 것을 알 수 있다. 제1 비독립 컷 영역(72)의 중심이 디스플레이의 중심에 도달하면 도 22의 화면이 디스플레이된다. Referring to FIG. 21 , as the position of the sequence region 70AB is moved, the first independent cut region 71 overlapping the sequence region 70AB is gradually blurred, but the newly overlapped first non-independent cut region ( 72) becomes increasingly clear. When the center of the first non-independent cut region 72 reaches the center of the display, the screen of FIG. 22 is displayed.
도 22의 상태에서 표시 전환 이벤트가 발생하면 정보량이 감소된 세 번째 시퀀스 영역(80AB)에는 정보량이 감소되기 전의 세 번째 시퀀스 영역(80A)에서의 제1 비독립 컷 영역(81)이 중첩되고, 중첩된 제1 비독립 컷 영역(81)의 중심이 디스플레이의 중심에 위치하도록 두 번째 시퀀스 영역(70AB) 및 세 번째 시퀀스 영역(80AB)의 위치가 함께 점차 이동된다. 즉, 도 23의 화면을 거쳐 도 24의 화면이 디스플레이된다. In the state of FIG. 22, when a display switching event occurs, the first non-independent cut area 81 in the third sequence area 80A before the amount of information is reduced overlaps the third sequence area 80AB in which the amount of information is reduced, The positions of the second sequence area 70AB and the third sequence area 80AB are gradually moved together so that the center of the overlapping first non-independent cut area 81 is positioned at the center of the display. That is, the screen of FIG. 24 is displayed via the screen of FIG. 23 .
도 23을 참조하면, 시퀀스 영역들(70AB, 80AB)의 위치가 함께 이동됨에 따라, 두 번째 시퀀스 영역(70AB)에 중첩되어 있던 제1 비독립 컷 영역(72)은 점차 흐려지는 대신, 세 번째 시퀀스 영역(80AB)에 중첩된 제1 비독립 컷 영역(81)은 점차 명확해지는 것을 알 수 있다. 새롭게 중첩된 제1 비독립 컷 영역(81)의 중심이 디스플레이의 중심에 도달하면, 도 24의 화면이 디스플레이된다. Referring to FIG. 23 , as the positions of the sequence regions 70AB and 80AB are moved together, the first non-independent cut region 72 overlapping the second sequence region 70AB gradually blurs, instead of the third sequence region 70AB. It can be seen that the first non-independent cut region 81 overlapping the region 80AB gradually becomes clear. When the center of the newly overlapped first non-independent cut region 81 reaches the center of the display, the screen of FIG. 24 is displayed.
도 24의 상태에서 표시 전환 이벤트가 발생하면 정보량이 감소된 네 번째 시퀀스 영역(90AB)에는 정보량이 감소되기 전의 네 번째 시퀀스 영역(90A)에서의 제1 비독립 컷 영역(91)이 중첩되고, 중첩된 제1 비독립 컷 영역(91)의 중심이 디스플레이의 중심에 위치하도록 세 번째 시퀀스 영역(80AB) 및 네 번째 시퀀스 영역(90AB)의 위치가 함께 점차 이동된다. 즉, 도 25의 화면을 거쳐 도 26의 화면이 디스플레이된다. In the state of FIG. 24, when a display switching event occurs, the first non-independent cut area 91 in the fourth sequence area 90A before the information amount is reduced overlaps the fourth sequence area 90AB in which the amount of information is reduced, The positions of the third sequence area 80AB and the fourth sequence area 90AB are gradually moved together so that the center of the overlapping first non-independent cut area 91 is positioned at the center of the display. That is, the screen of FIG. 26 is displayed via the screen of FIG. 25 .
도 25를 참조하면, 시퀀스 영역들(80AB, 90AB)의 위치가 함께 이동됨에 따라, 세 번째 시퀀스 영역(80AB)에 중첩되어 있던 제1 비독립 컷 영역(81)은 점차 흐려지는 대신, 네 번째 시퀀스 영역(90AB)에 중첩된 제1 비독립 컷 영역(91)은 점차 명확해지는 것을 알 수 있다. 새롭게 중첩된 제1 비독립 컷 영역(91)의 중심이 디스플레이의 중심에 도달하면, 도 26의 화면이 디스플레이된다. Referring to FIG. 25 , as the positions of the sequence regions 80AB and 90AB are moved together, the first non-independent cut region 81 overlapping the third sequence region 80AB is gradually blurred, but instead of the fourth sequence region It can be seen that the first non-independent cut region 91 overlapping the region 90AB gradually becomes clear. When the center of the newly overlapped first non-independent cut region 91 reaches the center of the display, the screen of FIG. 26 is displayed.
도 26의 화면에서 표시 전환 이벤트가 발생하면 시퀀스 영역(90AB)에는 정보량이 감소되기 전의 시퀀스 영역(90AB)에서의 제2 독립 컷 영역(92)이 중첩되고, 중첩된 제2 독립 컷 영역(92)의 중심이 디스플레이의 중심에 위치하도록 시퀀스 영역(90AB)의 위치가 이동된다. 즉, 도 27의 화면을 거쳐 도 28의 화면이 디스플레이된다. When a display switching event occurs on the screen of FIG. 26 , the second independent cut region 92 in the sequence region 90AB before the amount of information is reduced overlaps the sequence region 90AB, and the overlapped second independent cut region 92 The position of the sequence area 90AB is moved so that the center of ) is located at the center of the display. That is, the screen of FIG. 28 is displayed via the screen of FIG. 27 .
도 29는 본 개시의 일 실시 예에 따른 디지털 만화 제공 방법을 도시한 순서도이다. 29 is a flowchart illustrating a digital cartoon providing method according to an embodiment of the present disclosure.
디지털 만화를 요청하는 요청 신호가 사용자 단말(100)로부터 수신되면, 요청된 디지털 만화가 제2 데이터베이스(252)에서 검색된다. When a request signal requesting a digital cartoon is received from the user terminal 100 , the requested digital cartoon is searched in the second database 252 .
이후, 검색된 디지털 만화로부터 페이지 영상이 획득된다(S510). 상기 S510 단계는 검색된 디지털 만화가 복수의 페이지 영상으로 구성된 디지털 만화인 경우, 복수의 페이지 영상을 획득하는 단계, 검색된 디지털 만화가 복수의 통합 페이지 영상으로 구성된 디지털 만화인 경우, 복수의 통합 페이지 영상들로부터 각각 두 개의 페이지 영상을 검출하는 단계를 포함할 수 있다. Then, a page image is obtained from the searched digital cartoon (S510). Step S510 includes obtaining a plurality of page images when the searched digital cartoon is a digital cartoon composed of a plurality of page images; A step of detecting two page images may be included.
획득된 페이지 영상들은 기준 방향을 따라 재배치된다(S530). 기준 방향은 제1 방향, 제2 방향 및 제3 방향 중에서 하나일 수 있다. 제1 방향은 위에서 아래로의 수직 방향을 의미한다. 제2 방향은 왼쪽에서 오른쪽으로의 수평 방향을 의미한다. 제3 방향은 오른쪽에서 왼쪽으로의 수평 방향을 의미한다. 일 실시 예에 따르면, 기준 방향은 디지털 만화에 레이블링되어 있는 레이블에 기초하여 결정될 수 있다. 구체적으로, 디지털 만화의 최초 출판 국가에 대한 레이블이 디지털 만화에 레이블링되어 있다면, 페이지 영상들은 해당 레이블에 기초하여 제2 방향 또는 제3 방향으로 재배치될 수 있다. 다른 실시 예에 따르면, 기준 방향은 디지털 만화 서비스의 사용자 또는 디지털 만화 서비스의 제공자에 의해 사전에 설정될 수 있다. The acquired page images are rearranged along the reference direction (S530). The reference direction may be one of a first direction, a second direction, and a third direction. The first direction means a vertical direction from top to bottom. The second direction means a horizontal direction from left to right. The third direction means a horizontal direction from right to left. According to an embodiment, the reference direction may be determined based on a label labeled on the digital cartoon. Specifically, if a label for a country of first publication of the digital cartoon is labeled on the digital cartoon, the page images may be rearranged in the second direction or the third direction based on the corresponding label. According to another embodiment, the reference direction may be set in advance by a digital cartoon service user or a digital cartoon service provider.
이후, 재비치된 페이지 영상들마다 컷 영역, 씬 영역, 시퀀스 영역 및 말풍선 영역 중 하나 이상이 검출된다(S530). 일 실시 예에 따르면, 상기 S530 단계는 페이지 영상에서 검출된 모든 컷 영역들의 기존 위치가 유지된 상태에서 해당 페이지 영상의 시퀀스 영역이 검출되는 단계를 포함할 수 있다(도 7의 (A) 참조). 다른 실시 예에 따르면, 상기 S530 단계는 페이지 영상에서 검출된 컷 영역들의 위치가 중앙 정렬된 상태에서 해당 페이지 영상의 시퀀스 영역이 검출되는 단계를 포함할 수 있다(도 7의 (B) 참조). 또 다른 실시 예에 따르면, 상기 S530 단계는 페이지 영상에서 검출된 컷 영역들의 위치가 중앙 정렬된 상태에서 해당 페이지 영상의 시퀀스 영역이 검출되고, 시퀀스 영역의 가로 길이보다 짧은 가로 길이를 가지는 컷 영역들의 크기가 시퀀스 영역의 크기에 맞추어 확대되는 단계를 포함할 수 있다. Thereafter, at least one of a cut area, a scene area, a sequence area, and a speech bubble area is detected for each of the rearranged page images (S530). According to an embodiment, the step S530 may include a step of detecting a sequence region of a corresponding page image in a state where the existing positions of all cut regions detected in the page image are maintained (see (A) of FIG. 7 ). . According to another embodiment, the step S530 may include detecting a sequence region of the corresponding page image in a state in which cut regions detected in the page image are aligned in the center (refer to (B) of FIG. 7 ). According to another embodiment, in step S530, a sequence region of the corresponding page image is detected in a state where the positions of the cut regions detected in the page image are centered, and cut regions having a horizontal length shorter than the horizontal length of the sequence region are detected. A step of expanding the size to match the size of the sequence area may be included.
이후, 검출된 컷 영역들에 독자의 시선 흐름에 따른 순차 번호가 할당된다(S540). Thereafter, sequential numbers according to the flow of the reader's gaze are assigned to the detected cut regions (S540).
이후, 시퀀스 영역들의 크기가 사용자 단말(100)의 디스플레이의 크기에 맞추어 조절된다(S550). 일 실시 예에 따르면, 상기 S550 단계는 시퀀스 영역의 가로 길이가 사용자 단말(100)의 디스플레이의 가로 길이와 같아지도록 시퀀스 영역의 크기가 조절되는 단계를 포함한다. 이때, 시퀀스 영역의 가로 길이 및 세로 길이는 동일한 비율로 조절될 수 있다. 다른 실시 예에 따르면, 상기 S550 단계는 시퀀스 영역의 세로 길이가 사용자 단말(100)의 디스플레이의 세로 길이와 같아지도록 시퀀스 영역의 크기가 조절되는 단계를 포함한다. 이때, 시퀀스 영역의 가로 길이 및 세로 길이는 동일한 비율로 조절될 수 있다. After that, the size of the sequence areas is adjusted according to the size of the display of the user terminal 100 (S550). According to an embodiment, the step S550 includes adjusting the size of the sequence area so that the horizontal length of the sequence area is equal to the horizontal length of the display of the user terminal 100 . In this case, the horizontal length and the vertical length of the sequence area may be adjusted at the same ratio. According to another embodiment, the step S550 includes adjusting the size of the sequence area so that the vertical length of the sequence area is equal to the vertical length of the display of the user terminal 100 . In this case, the horizontal length and the vertical length of the sequence area may be adjusted at the same ratio.
이후, 표시 전환 이벤트가 발생함에 따라 현재 순서에 해당하는 컷 영역이 직접적으로 강조되거나 상대적으로 강조된다(S560). 현재 순서에 해당하는 컷 영역을 직접적으로 강조하는 방법으로는 컷 영역을 확대하는 방법, 컷 영역의 외곽선을 강조하는 방법, 컷 영역에 포함된 콘텐츠를 강조하는 방법 및 컷 영역의 색상을 변화시키는 방법을 예로 들 수 있다. 현재 순서에 해당하는 컷 영역을 상대적으로 강조하는 방법으로는 시퀀스 영역의 정보량을 감소시킨 후, 정보량이 감소된 시퀀스 영역에 해당 컷 영역을 중첩시키는 방법을 예로 들 수 있다. 시퀀스 영역의 정보량을 감소시키는 방법으로는 블러 효과, 부드러운 가장자리 효과, 둥근 모서리 효과, 투명도 효과 및 크롭 효과 중에서 하나 이상의 영상 효과를 시퀀스 영역에 적용하는 방법을 예로 들 수 있다. 현재 순서에 해당하는 컷 영역을 상대적으로 강조하는 다른 방법으로는 클립패스(clip-path)를 예로 들 수 있다. Then, as a display switching event occurs, the cut region corresponding to the current order is directly or relatively emphasized (S560). Methods for directly emphasizing the cut area corresponding to the current order include enlarging the cut area, emphasizing the outline of the cut area, emphasizing content included in the cut area, and changing the color of the cut area. can be cited as an example. As a method of relatively emphasizing a cut region corresponding to the current order, a method of reducing the amount of information in a sequence region and then overlapping the corresponding cut region with the sequence region having a reduced information amount may be exemplified. As a method of reducing the amount of information in the sequence area, a method of applying one or more video effects selected from among blur effect, soft edge effect, rounded corner effect, transparency effect, and cropping effect to the sequence area may be exemplified. Another method of relatively emphasizing the cut area corresponding to the current order is clip-path.
S560 단계에서, 현재 순서에 해당하는 컷 영역을 직접적으로 강조할 때, 해당 컷 영역이 씬 영역이라면, 씬 영역임을 부각시키기 위한 영상 효과가 추가로 적용될 수 있다. 예를 들어, 현재 순서에 해당하는 컷 영역을 직접적으로 강조하기 위하여 해당 컷 영역을 확대시켰다면, 해당 컷 영역이 시퀀스 영역임을 강조하기 위해서는 확대된 컷 영역에 흔들림 효과가 추가될 수 있다. 다른 예로, 현재 순서에 해당하는 컷 영역을 직접적으로 강조하기 위하여 해당 컷 영역의 외곽선에 특정 색상의 테두리가 표시되었다면, 해당 컷 영역이 시퀀스 영역임을 강조하기 위해서는 표시된 테두리에 점멸 효과가 추가될 수 있다. In step S560, when the cut region corresponding to the current order is directly emphasized, if the corresponding cut region is a scene region, a video effect for emphasizing that it is a scene region may be additionally applied. For example, if a corresponding cut region is enlarged to directly emphasize a cut region corresponding to the current sequence, a shaking effect may be added to the enlarged cut region to emphasize that the corresponding cut region is a sequence region. As another example, if a border of a specific color is displayed on the outline of the cut area corresponding to the current order to directly emphasize the cut area, a blinking effect may be added to the displayed border to emphasize that the corresponding cut area is a sequence area. .
이후, 강조된 컷 영역의 기준점이 디스플레이의 기준점에 위치하도록 시퀀스 영역의 위치가 이동된다(S570). 일 실시 예에 따르면, 컷 영역의 기준점은 컷 영역의 중심점이고, 디스플레이의 기준점은 디스플레이의 중심점일 수 있다. 그러나 컷 영역의 기준점 및 디스플레이의 기준점은 예시된 것과 다르게 지정될 수도 있다. 예를 들면, 컷 영역의 기준점은 컷 영역의 외곽선 중에서 오른쪽 변의 중심점이고, 디스플레이의 기준점은 디스플레이의 오른쪽 변의 중심점일 수 있다. Thereafter, the location of the sequence area is moved so that the reference point of the highlighted cut area is located at the reference point of the display (S570). According to an embodiment, the reference point of the cut area may be the center point of the cut area, and the reference point of the display may be the center point of the display. However, the reference point of the cut area and the reference point of the display may be designated differently from those illustrated. For example, the reference point of the cut area may be the center point of the right side of the outline of the cut area, and the reference point of the display may be the center point of the right side of the display.
이상, 도 29를 참조하여, 본 개시의 일 실시 예에 따른 디지털 만화 제공 방법에 대해서 설명하였다. 도 29에서 일부 단계들은 실시 예에 따라, 생략될 수도 있고, 그 순서가 변경될 수도 있으며, 다른 단계외 동시에 수행될 수도 있다. 일 예로, S520 내지 S540 단계는 S530, S540, S520의 순서로 진행될 수도 있고, S530, S520, S540의 순서로 진행될 수도 있다. 다른 예로, S560 단계 및 S570 단계는 그 순서가 뒤바뀔 수도 있고, 동시에 진행될 수도 있다. In the above, with reference to FIG. 29 , a digital cartoon providing method according to an embodiment of the present disclosure has been described. In FIG. 29 , some steps may be omitted, their order may be changed, or other steps may be performed at the same time according to embodiments. For example, steps S520 to S540 may proceed in the order of S530, S540, and S520, or may proceed in the order of S530, S520, and S540. As another example, the order of steps S560 and S570 may be reversed or may be performed simultaneously.
일 실시예에 따르면, 도 29에 도시된 각 단계들의 수행 주체는 디지털 만화 제공 장치(200)일 수 있다. 다른 실시예에 따르면, 도 29에 도시된 각 단계들의 수행 주체는 사용자 단말(100)일 수 있다. 또 다른 실시예에 따르면, 도 29에 도시된 단계들 중 일부 단계의 수행 주체는 디지털 만화 제공 장치(200)이고, 나머지 단계들의 수행 주체는 사용자 단말(100)일 수도 있다. According to one embodiment, the performer of each step shown in FIG. 29 may be the digital cartoon providing device 200 . According to another embodiment, the user terminal 100 may perform each of the steps shown in FIG. 29 . According to another embodiment, the performer of some of the steps shown in FIG. 29 may be the digital cartoon providing apparatus 200, and the performer of the remaining steps may be the user terminal 100.
이상으로, 본 개시의 실시 예들을 설명하였다. 전술한 설명에서 도 5의 사용자 단말(100)과 도 6의 디지털 만화 제공 장치(200)를 구성하는 구성요소들은 모듈로 구현될 수 있다. 모듈은 소프트웨어 또는 Field Programmable Gate Array(FPGA)나 주문형 반도체(Application Specific Integrated Circuit, ASIC)와 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. In the above, the embodiments of the present disclosure have been described. In the above description, components constituting the user terminal 100 of FIG. 5 and the digital cartoon providing device 200 of FIG. 6 may be implemented as a module. A module means a hardware component such as software or a Field Programmable Gate Array (FPGA) or Application Specific Integrated Circuit (ASIC), and the module performs certain roles. However, a module is not meant to be limited to software or hardware. A module may be configured to reside in an addressable storage medium and may be configured to execute one or more processors.
따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.Thus, as an example, a module includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines. fields, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functionality provided in components and modules may be combined into fewer components and modules or further separated into additional components and modules.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by a processor, create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록매체를 포함한다. 예를 들어, ROM(read only memory), RAM(random access memory), 자기 테이프, 자기 디스크, 플 래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage, and the like.
또한, 컴퓨터가 읽을 수 있는 기록매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다. Also, the computer-readable recording medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary storage medium' only means that it is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium and temporary It does not discriminate if it is saved as . For example, a 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 기록 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접 배포되거나, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 기록 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a machine-readable recording medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or on two user devices (eg eg between smartphones) or distributed online (eg downloaded or uploaded). In the case of online distribution, at least a part of a computer program product (eg, a downloadable app) is stored at least temporarily in a device-readable recording medium such as a manufacturer's server, an application store server, or a relay server's memory. It can be stored or created temporarily.
이상과 첨부된 도면을 참조하여 본 개시에 따른 실시 예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. Embodiments according to the present disclosure have been described with reference to the above and accompanying drawings. Those skilled in the art to which the present disclosure pertains will be able to understand that the present disclosure may be embodied in other specific forms without changing its technical spirit or essential features. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting.
상술한 바와 같은 디지털 만화 제공 방법, 장치 및 시스템은 인쇄 만화에 기초한 디지털 만화를 디스플레이 장치로 서비스하는 디지털 만화 서비스 분야에 적용될 수 있다.The digital cartoon providing method, apparatus, and system as described above can be applied to a digital cartoon service field that provides digital cartoons based on printed cartoons to a display device.

Claims (14)

  1. 인쇄 만화에 기초한 디지털 만화로부터 페이지 영상들을 획득하는 단계; obtaining page images from digital comics based on printed comics;
    상기 획득된 페이지 영상들을 기준 방향을 따라 재배치하는 단계; rearranging the acquired page images along a reference direction;
    상기 재배치된 페이지 영상들마다 하나 이상의 컷 영역과, 페이지 영상의 가장자리에서 여백을 제외한 시퀀스 영역을 검출하는 단계; detecting at least one cut region for each of the rearranged page images and a sequence region excluding a blank space at an edge of the page image;
    상기 검출된 하나 이상의 컷 영역에 독자의 시선 흐름에 따른 순차 번호를 할당하는 단계; allocating sequential numbers to the one or more detected cut regions according to the flow of the reader's gaze;
    상기 검출된 시퀀스 영역의 크기를 사용자 단말의 디스플레이의 크기에 맞추어 조절하는 단계; adjusting the size of the detected sequence region according to the size of a display of a user terminal;
    표시 전환 이벤트가 발생하면, 상기 할당된 순차 번호에 기초하여 현재 순서에 해당하는 컷 영역을 강조하는 단계; 및 emphasizing a cut region corresponding to a current sequence based on the assigned sequence number when a display switching event occurs; and
    상기 강조된 컷 영역의 기준점이 상기 디스플레이의 기준점에 위치하도록 상기 강조된 컷 영역을 포함하는 시퀀스 영역의 위치를 이동시키는 단계를 포함하되, Moving a position of a sequence region including the highlighted cut region so that a reference point of the highlighted cut region is located at a reference point of the display;
    상기 하나 이상의 컷 영역은 독립 컷 영역 및 비독립 컷 영역 중 하나 이상을 포함하는, The one or more cut regions include at least one of an independent cut region and a non-independent cut region.
    디지털 만화 제공 방법. How to deliver digital comics.
  2. 제1항에 있어서, According to claim 1,
    상기 독립 컷 영역은 The independent cut region is
    외곽선이 있는 컷 영역, 외곽선은 없으나 외곽선이 있는 컷 영역들에 의해 구분될 수 있는 컷 영역, 및 만화 요소에 의해 서로 연결되어 있으나 분할될 수 있는 컷 영역들 중에서 하나 이상을 포함하는, Including at least one of a cut area with an outline, a cut area without an outline but that can be distinguished by cut areas with outlines, and cut areas that are connected to each other by cartoon elements but can be divided,
    디지털 만화 제공 방법. How to deliver digital comics.
  3. 제2항에 있어서, According to claim 2,
    상기 분할될 수 있는 컷 영역들은, The cut regions that can be divided,
    아웃라이어가 있는 두 컷 영역, 말풍선에 의해 서로 연결되어 있으나 분할하더라도 상기 말풍선 내의 지문이 잘리지 않는 두 컷 영역, 말풍선이 없는 지문에 의해 연결된 두 컷 영역 중 하나 이상을 포함하는, Including at least one of two cut areas with outliers, two cut areas connected to each other by a speech bubble but not cutting fingerprints in the speech bubble even when divided, and two cut areas connected by a fingerprint without a speech bubble,
    디지털 만화 제공 방법. How to deliver digital comics.
  4. 제1항에 있어서, According to claim 1,
    상기 비독립 컷 영역은 The non-independent cut region is
    내부에 컷 영역이 존재하는 컷 영역, 만화 요소에 의해 서로 연결되어 있으나 분할될 수 없는 컷 영역들 중에서 하나 이상을 포함하는, Including one or more of a cut area having a cut area therein, and cut areas connected to each other by cartoon elements but cannot be divided,
    디지털 만화 제공 방법. How to deliver digital comics.
  5. 제4항에 있어서, According to claim 4,
    상기 분할될 수 없는 컷 영역들은, The indivisible cut regions,
    그림이 걸쳐서 배치되어 있는 둘 이상의 컷 영역들, 말풍선에 의해 서로 연결되어 있으나 분할하는 경우 상기 말풍선 내의 지문이 잘리는 둘 이상의 컷 영역들, 시간의 흐름을 나타내기 위한 컷 영역을 포함하는 둘 이상의 컷 영역들, 복수의 컷 영역들이 제1 방향으로 배열되어 있는 단락 내에서 상기 제1 방향과 수직하는 제2 방향으로 나뉘어 있는 둘 이상의 컷 영역들 중에서 하나 이상을 포함하는, Two or more cut areas in which pictures are placed across, two or more cut areas connected to each other by a speech bubble, but in which fingerprints in the speech bubble are cut when divided, and a cut area for showing the passage of time. Including one or more of two or more cut regions divided in a second direction perpendicular to the first direction within a paragraph in which a plurality of cut regions are arranged in a first direction,
    디지털 만화 제공 방법. How to deliver digital comics.
  6. 제1항에 있어서, According to claim 1,
    상기 디지털 만화는 The digital cartoon
    하나 이상의 페이지 영상으로만 구성된 제1 디지털 만화 및 하나 이상의 통합 페이지 영상으로만 구성된 제2 디지털 만화 중 하나 이상을 포함하며, At least one of a first digital cartoon consisting only of one or more page images and a second digital cartoon consisting only of one or more integrated page images;
    상기 하나 이상의 페이지 영상은 상기 인쇄 만화를 구성하는 하나 이상의 페이지에 기초한 영상이고, The one or more page images are images based on one or more pages constituting the printed cartoon,
    상기 하나 이상의 통합 페이지 영상은 상기 인쇄 만화를 펼쳤을 때 보여지는 연속된 두 페이지에 기초한 영상인, The one or more integrated page images are images based on two consecutive pages displayed when the printed cartoon is opened.
    디지털 만화 제공 방법. How to deliver digital comics.
  7. 제6항에 있어서,According to claim 6,
    상기 페이지 영상을 획득하는 단계는, Obtaining the page image,
    상기 디지털 만화가 상기 제2 디지털 만화인 경우, 상기 하나 이상의 통합 페이지 영상으로부터 두 개의 페이지 영상을 검출하는 단계를 포함하는, When the digital cartoon is the second digital cartoon, detecting two page images from the one or more integrated page images.
    디지털 만화 제공 방법. How to deliver digital comics.
  8. 제1항에 있어서,According to claim 1,
    상기 조절하는 단계는, The adjusting step is
    상기 사용자 단말의 자세가 인물 모드인 경우, 상기 검출된 시퀀스 영역의 가로 길이가 상기 디스플레이의 가로 길이와 같아지도록 상기 검출된 시퀀스 영역의 크기를 조절하되, 상기 검출된 시퀀스 영역의 가로 길이와 세로 길이를 동일한 비율로 조절하는 단계를 포함하는, When the posture of the user terminal is in the portrait mode, the size of the detected sequence region is adjusted such that the horizontal length of the detected sequence region is equal to the horizontal length of the display, and the horizontal and vertical lengths of the detected sequence region are adjusted. Including the step of adjusting in the same ratio,
    디지털 만화 제공 방법. How to deliver digital comics.
  9. 제1항에 있어서,According to claim 1,
    상기 강조하는 단계는, The step highlighted above is
    상기 현재 순서에 해당하는 컷 영역을 직접적으로 강조하는 단계를 포함하되, Directly emphasizing a cut region corresponding to the current order,
    상기 현재 순서에 해당하는 컷 영역을 직접적으로 강조하는 방법은 상기 컷 영역의 크기를 확대하는 방법, 상기 컷 영역의 외곽선을 강조하는 방법, 상기 컷 영역에 포함된 콘텐츠를 강조하는 방법 및 상기 컷 영역의 색상을 변화시키는 방법 중 하나 이상을 포함하는, The method of directly emphasizing the cut area corresponding to the current order includes a method of enlarging the size of the cut area, a method of emphasizing the outline of the cut area, a method of emphasizing content included in the cut area, and a method of emphasizing the content included in the cut area. Including one or more of the methods of changing the color of
    디지털 만화 제공 방법. How to deliver digital comics.
  10. 제1항에 있어서,According to claim 1,
    상기 강조하는 단계는, The step highlighted above is
    상기 검출된 시퀀스 영역의 정보량을 감소시키는 단계; 및 reducing the information amount of the detected sequence area; and
    상기 정보량이 감소된 시퀀스 영역에 상기 현재 순서에 해당하는 컷 영역을 중첩시키는 단계를 포함하며, overlapping a cut region corresponding to the current sequence to a sequence region having a reduced amount of information;
    상기 검출된 시퀀스 영역의 정보량을 감소시키는 방법은 A method for reducing the information amount of the detected sequence region
    상기 검출된 시퀀스 영역에 블러 효과, 부드러운 가장자리 효과, 둥근 모서리 효과, 투명도 효과 및 크롭 효과 중에서 하나 이상의 영상 효과를 적용하는 방법을 포함하는, Including a method of applying one or more image effects from among a blur effect, a soft edge effect, a rounded corner effect, a transparency effect, and a crop effect to the detected sequence region,
    디지털 만화 제공 방법. How to deliver digital comics.
  11. 제1항에 있어서,According to claim 1,
    상기 강조하는 단계는, The step highlighted above is
    상기 검출된 시퀀스 영역에서 상기 현재 순서에 해당하는 컷 영역을 제외한 나머지 영역의 정보량을 감소시키는 단계를 포함하며, and reducing the amount of information in a region other than a cut region corresponding to the current sequence in the detected sequence region,
    상기 검출된 시퀀스 영역의 정보량을 감소시키는 방법은 A method for reducing the information amount of the detected sequence region
    상기 나머지 영역에 블러 효과, 부드러운 가장자리 효과, 둥근 모서리 효과, 투명도 효과 및 크롭 효과 중에서 하나 이상의 영상 효과를 적용하는 방법을 포함하는, Including a method of applying one or more image effects from among a blur effect, a soft edge effect, a rounded corner effect, a transparency effect, and a crop effect to the remaining area,
    디지털 만화 제공 방법. How to deliver digital comics.
  12. 제1항에 있어서,According to claim 1,
    상기 강조하는 단계는, The step highlighted above is
    상기 검출된 시퀀스 영역에서 상기 현재 순서에 해당하는 컷 영역을 제외한 나머지 영역을 가리는 단계를 포함하는, Including the step of covering regions other than the cut region corresponding to the current sequence in the detected sequence region,
    디지털 만화 제공 방법. How to deliver digital comics.
  13. 제1항 내지 제12항 중에서 어느 한 항에 기재된 디지털 만화 제공 방법에 따른 각각의 단계를 수행하는 명령어를 포함하는 프로그램이 기록된, 컴퓨터 판독 가능 기록 매체. A computer-readable recording medium in which a program including instructions for performing each step according to the digital cartoon providing method according to any one of claims 1 to 12 is recorded.
  14. 하나 이상의 프로세서; 및 one or more processors; and
    상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서가 작업을 수행하도록 하는 명령들을 저장하도록 구성되는, 하나 이상의 메모리를 포함하고, one or more memories configured to store instructions that, when executed by the one or more processors, cause the one or more processors to perform tasks;
    상기 하나 이상의 프로세서는, The one or more processors,
    인쇄 만화에 기초한 디지털 만화로부터 페이지 영상들을 획득하고, Obtaining page images from digital comics based on printed comics;
    상기 획득된 페이지 영상들을 기준 방향을 따라 재배치하고, rearrange the acquired page images along a reference direction;
    상기 재배치된 페이지 영상들마다 하나 이상의 컷 영역과, 페이지 영상의 가장자리에서 여백을 제외한 시퀀스 영역을 검출하고, detecting at least one cut region for each of the rearranged page images and a sequence region excluding blanks from edges of the page image;
    상기 검출된 하나 이상의 컷 영역에 독자의 시선 흐름에 따른 순차 번호를 할당하고, Allocating sequential numbers according to the flow of the reader's gaze to the one or more detected cut regions;
    상기 검출된 시퀀스 영역의 크기를 사용자 단말의 디스플레이의 크기에 맞추어 조절하고, Adjusting the size of the detected sequence region according to the size of the display of the user terminal;
    표시 전환 이벤트가 발생하면, 상기 할당된 순차 번호에 기초하여 현재 순서에 해당하는 컷 영역을 강조하고, When a display switching event occurs, a cut region corresponding to the current sequence is highlighted based on the allocated sequence number;
    상기 강조된 컷 영역의 기준점이 상기 디스플레이의 기준점에 위치하도록 상기 강조된 컷 영역을 포함하는 시퀀스 영역의 위치를 이동시키도록 구성되며, It is configured to move a position of a sequence region including the highlighted cut region such that a reference point of the highlighted cut region is located at a reference point of the display;
    상기 하나 이상의 컷 영역은 독립 컷 영역 및 비독립 컷 영역 중 하나 이상을 포함하는, The one or more cut regions include at least one of an independent cut region and a non-independent cut region.
    디지털 만화 제공 장치. Digital comic delivery device.
PCT/KR2022/021644 2021-12-30 2022-12-29 Method, device, and system for providing digital comics WO2023128671A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210192942A KR20230102646A (en) 2021-12-30 2021-12-30 Method, device and system for servicing digital comics
KR10-2021-0192942 2021-12-30

Publications (1)

Publication Number Publication Date
WO2023128671A1 true WO2023128671A1 (en) 2023-07-06

Family

ID=86999695

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/021644 WO2023128671A1 (en) 2021-12-30 2022-12-29 Method, device, and system for providing digital comics

Country Status (2)

Country Link
KR (1) KR20230102646A (en)
WO (1) WO2023128671A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202062A (en) * 2004-01-14 2005-07-28 Sony Computer Entertainment Inc Comics display device, comics display method, comics editing system, and comics editing method
KR20110026361A (en) * 2009-09-07 2011-03-15 곽경신 Apparatus and method for displaying comics image contents
JP2016057849A (en) * 2014-09-10 2016-04-21 Necパーソナルコンピュータ株式会社 Information processing apparatus, information processing method, and program
KR20190061383A (en) * 2017-11-27 2019-06-05 주식회사 디알엠인사이드 System and method for identifying online comics based on region of interest
KR20210017295A (en) * 2019-08-07 2021-02-17 네이버웹툰 유한회사 method of relocating comic content

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140072321A (en) 2012-11-30 2014-06-13 (주)모비루스 Method for Dividing of Cartoon Frame and Method for Displaying Divided Cartoon thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202062A (en) * 2004-01-14 2005-07-28 Sony Computer Entertainment Inc Comics display device, comics display method, comics editing system, and comics editing method
KR20110026361A (en) * 2009-09-07 2011-03-15 곽경신 Apparatus and method for displaying comics image contents
JP2016057849A (en) * 2014-09-10 2016-04-21 Necパーソナルコンピュータ株式会社 Information processing apparatus, information processing method, and program
KR20190061383A (en) * 2017-11-27 2019-06-05 주식회사 디알엠인사이드 System and method for identifying online comics based on region of interest
KR20210017295A (en) * 2019-08-07 2021-02-17 네이버웹툰 유한회사 method of relocating comic content

Also Published As

Publication number Publication date
KR20230102646A (en) 2023-07-07

Similar Documents

Publication Publication Date Title
WO2011078540A2 (en) Mobile device and related control method for external output depending on user interaction based on image sensing module
AU2017244245B2 (en) Electronic device and operating method thereof
WO2018088806A1 (en) Image processing apparatus and image processing method
WO2019093819A1 (en) Electronic device and operation method therefor
WO2018101694A1 (en) Electronic apparatus and method for summarizing content
WO2019143227A1 (en) Electronic device providing text-related image and method for operating the same
WO2016126007A1 (en) Method and device for searching for image
JP2010067104A (en) Digital photo-frame, information processing system, control method, program, and information storage medium
WO2020153785A1 (en) Electronic device and method for providing graphic object corresponding to emotion information by using same
WO2017209568A1 (en) Electronic device and operation method thereof
WO2019039760A1 (en) Electronic device and character recognition method thereof
WO2020085628A1 (en) Method for displaying objects and electronic device using the same
WO2020054978A1 (en) Device and method for generating image
WO2019050137A1 (en) System and method of determining input characters based on swipe input
WO2021025509A1 (en) Apparatus and method for displaying graphic elements according to object
WO2016080662A1 (en) Method and device for inputting korean characters based on motion of fingers of user
WO2020091538A1 (en) Electronic device for displaying screen through display in low-power mode and operating method thereof
WO2020013651A1 (en) Electronic device and method for transmitting content of electronic device
EP3545401A1 (en) Electronic apparatus and method for summarizing content
EP3545685A1 (en) Method and apparatus for filtering video
WO2019160325A1 (en) Electronic device and control method thereof
WO2023128671A1 (en) Method, device, and system for providing digital comics
WO2023146363A1 (en) Method, apparatus, and system for providing digital comics
WO2023085721A1 (en) Digital cartoon providing device and control method therefor
WO2022098168A1 (en) Electronic device for providing video conference and method for providing video conference

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22916812

Country of ref document: EP

Kind code of ref document: A1