WO2022255572A1 - 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법 - Google Patents

반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법 Download PDF

Info

Publication number
WO2022255572A1
WO2022255572A1 PCT/KR2021/016773 KR2021016773W WO2022255572A1 WO 2022255572 A1 WO2022255572 A1 WO 2022255572A1 KR 2021016773 W KR2021016773 W KR 2021016773W WO 2022255572 A1 WO2022255572 A1 WO 2022255572A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dynamic image
picture production
providing system
service providing
Prior art date
Application number
PCT/KR2021/016773
Other languages
English (en)
French (fr)
Inventor
김종민
김승아
Original Assignee
주식회사 파블로아트컴퍼니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파블로아트컴퍼니 filed Critical 주식회사 파블로아트컴퍼니
Priority to JP2022560310A priority Critical patent/JP7459415B2/ja
Priority to US17/916,266 priority patent/US20230334734A1/en
Publication of WO2022255572A1 publication Critical patent/WO2022255572A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B11/00Teaching hand-writing, shorthand, drawing, or painting
    • G09B11/10Teaching painting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the present invention provides a responsive picture production service that can more efficiently assist a user's work by implementing a dynamic image that can be interacted with using a picture drawn by a user and providing a guide image for each category of the dynamic image to be created. It relates to a system and its control method.
  • a dynamic image refers to an image produced to move according to an interaction, unlike an image reproduced according to a predetermined flow, such as a video.
  • the dynamic image may show an object moving by a click or touch, a color or shape of the object changing over time, or a physical interaction with another object.
  • these dynamic images can easily attract users' attention and can be used in various fields such as advertising, education, and content production.
  • the present invention implements a dynamic image that can be interacted with by using a picture drawn by the user, and provides a guide image for each category of the dynamic image to be created, thereby producing a responsive picture that can assist the user's work more efficiently.
  • the purpose is to provide a service providing system and its control method.
  • the user's picture production a terminal capable of inputting event information related to a behavioral response; First data for a dynamic image provided through at least one of the web and an external server according to event information input from the terminal while communicating by establishing a network with the terminal, the web, and an external server, and a pre-stored picture production program a control unit that matches second data for a signal using a drawing tool to generate arbitrary custom information, and outputs a preset notification signal according to the generated custom information; and a notification unit provided in the terminal and visually displaying the notification signal on an arbitrary screen according to the notification signal output from the control unit.
  • the picture production program is for performing picture production using a drawing tool capable of pictorial expression of at least one of point, line, plane, shape, color, light, texture, and volume on the canvas. It may be graphical software configured to support the environment.
  • control unit determines a category of a dynamic image provided through at least one of the web and an external server according to the event information, and at least one of a plurality of guide images corresponding to the determined category It is displayed on the canvas area on the picture production program, and a drawing image drawn by the user while using the drawing tool based on the guide image is saved as data, and a new dynamic image can be created based on the saved drawing image.
  • the dynamic image may include a bead image that is flexibly expressed within a canvas area on the picture production program
  • the picture production service providing system includes: a gyro sensor provided in the terminal and sensing a direction; and a position sensor provided in the terminal to sense a position
  • the event information may include a user's first manipulation signal for changing an inclination of the terminal
  • the control unit may include the gyro sensor and third data for terminal tilt information provided through at least one of a location sensor may be additionally matched and reflected in the custom information.
  • the bead image is displayed at the inclination value of the terminal.
  • the trace of the marble image flowing according to the second data in which the attribute value for the pictorial expression of the drawing tool is set is real-time
  • the displayed notification signal can be output.
  • the picture production program may be configured to set a thickness according to the event information for a first icon representing a formative element of a point, line, or plane having an arbitrary thickness among the drawing tools.
  • the thickness setting may be performed by a stroke touched (clicked) by the first icon, and the control unit provides a screen in which the size of the first icon is activated corresponding to the size of the set thickness in the notification unit. It is possible to output a notification signal to make it happen.
  • the picture production program may be configured to set a color for a second icon representing a formative element for color among the drawing tools according to the event information, and the color setting may be performed by setting the second icon It can be made by a stroke that firstly touches (clicks) and then secondarily touches (clicks) a desired color.
  • a notification signal for providing an activated screen in the same color as the set color may be output.
  • the interaction of the dynamic image may be related to a category of the dynamic image.
  • the interaction of the dynamic image may include moving an object in the dynamic image in response to a user's input, indicating a physical interaction with other objects on the screen of the notification unit, or voice data related to the dynamic image. It may include an operation of outputting.
  • the movement of the object in the dynamic image or the method of physical interaction with other objects in the screen of the notification unit may be determined based on a pre-stored physics engine program.
  • the guide image may include an object image having a dotted outline, and an object of the guide image may be related to a category of the dynamic image.
  • step f) may include f-1) loading image data received through a path where the dynamic image is stored.
  • the present invention implements a dynamic image that can be interacted with using a picture drawn by a user, and provides a guide image for each category of the dynamic image to be created, so that the user's work can be assisted more efficiently.
  • a picture can be drawn without touching the display according to the tilt of the terminal by providing an effect of drawing a picture by moving the beads on the tray using a position sensor and a gyro sensor pre-installed in the terminal.
  • a more interesting picture-making environment can be achieved.
  • FIG. 1 is a diagram schematically showing the electronic configuration of a responsive picture production service providing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of a control unit in the picture production service providing system according to FIG. 1;
  • 3 and 4 are views showing an embodiment of pictorial expression using a bead image according to the action of a gyro sensor and a position sensor.
  • FIG. 5 is a view showing an embodiment in which the size of a corresponding icon is correspondingly changed and displayed as the property setting of the icon constituting the drawing tool is changed.
  • FIG. 6 is a diagram showing an embodiment in which the color of an icon constituting a drawing tool is changed correspondingly and displayed as property settings thereof are converted;
  • FIG. 7 is a flowchart illustrating a control method of a responsive picture production service providing system according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a screen of a notification unit and a guide image displayed thereon;
  • FIG 9 illustrates an example guide image that may be provided to a user.
  • FIG. 10 is a diagram illustrating a state in which a user draws a picture along a guide image on a screen of a notification unit
  • FIG. 11 is a diagram showing how a dynamic image generated by a user interacts with another object on the screen of a notification unit
  • first and second are used to distinguish one component from another, and the scope of rights should not be limited by these terms.
  • a first element may be termed a second element, and similarly, a second element may be termed a first element.
  • first element may be termed a second element, and similarly, a second element may be termed a first element.
  • connection when an element is referred to as “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle.
  • an element when an element is referred to as being “directly connected” to another element, it should be understood that no intervening elements exist.
  • other expressions describing the relationship between components such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.
  • FIG. 1 is a diagram schematically showing the electronic configuration of a responsive picture production service providing system according to an embodiment of the present invention
  • FIG. 2 is a block diagram showing the configuration of a control unit in the picture production service providing system according to FIG. 1.
  • 3 and 4 are diagrams showing an embodiment of a painting expression using a bead image according to the action of a gyro sensor and a position sensor
  • FIG. Figure 6 is a diagram showing an embodiment in which the size of is correspondingly changed and displayed
  • FIG. 6 is a diagram showing an embodiment in which the color of the icon is correspondingly changed and displayed as the property setting of the icon constituting the drawing tool is changed.
  • FIG. 8 is a diagram showing a screen of a notification unit and a guide image displayed thereon
  • FIG. 9 is an exemplary view that can be provided to a user.
  • FIG. 10 is a diagram showing how a user draws a picture along a guide image on a screen of a notification unit
  • FIG. 11 is a state in which a dynamic image created by a user on the screen of a notification unit interacts with another object.
  • the responsive picture production service providing system 100 provides a picture production service capable of real-time interaction between a user and an object, in the terminal ( 110), a web 120, an external server 130, a control unit 140, and a notification unit 150.
  • FIG. 1 the components shown in FIG. 1 are only the minimum necessary components for the present invention, and a picture production service providing system having more additional components may be implemented.
  • the terminal 110 is configured to include various known input devices (not shown) such as a keyboard, a pad, and a mouse. According to a preferred embodiment of the present invention, the terminal 110 is located on the user and has a behavioral response for the user to create a picture. Event information related to may be input to the web 120, the external server 130, and the control unit 140.
  • the terminal 110 may be configured in plurality, and preferably, a tablet may be applied, but is not limited thereto, and a PC, a smartphone, and the like may be applied.
  • the configuration of the terminal 110 corresponds to a generally published terminal device, the detailed configuration is not shown in the drawing, and a detailed description thereof will be omitted.
  • the web 120 is an Internet service configured to support various multimedia such as text, graphics, images, sound, and video. It can be configured to provide dynamic images as well as various known media related to production.
  • the external server 130 is configured to correspond to the above-described web 120 and forms a network with the terminal 110, the web 120, and the control unit 140, and interlocks with the web 120. It performs a function of servicing a program preset in the control unit 140.
  • the external server 130 may be configured to provide dynamic images in the same way as the web 120 described above, and the program may be an editor program composed of various data related to picture production, which is a well-known technology. As such, it can be freely modified and designed by those skilled in the art with conventional knowledge in the related field.
  • the control unit 140 is configured to provide a dynamic image capable of interaction between a user and an object by actively responding to the event information in which the picture production program corresponding to the web 120 and the external server 130 is stored in advance.
  • a control server for the control server it is preferable to be configured to establish a network with the terminal 110, the web 120 and the external server 130 to communicate with each other.
  • the controller 140 controls first data for a dynamic image provided through at least one of the web 120 and the external server 130 according to event information input from the terminal, and previously stored It performs a function of generating arbitrary custom information by matching second data for a signal using a drawing tool of a picture production program and outputting a preset notification signal according to the generated custom information.
  • control unit 140 is more specifically, with reference to FIG. 2, a data generation unit 141 that converts event information input from the terminal into data, and data generated by the data generation unit 141.
  • Custom information by matching the first and second data according to the data of the event information with the database unit 142 configured to pre-store and manage the picture production program for reacting in real time according to the data of the event information.
  • It may be configured to include a data processing unit 143 that generates and a notification signal output unit 144 that outputs a preset notification signal according to the custom information generated through the data processing unit 143.
  • the custom information means information corresponding to data about a new dynamic image, which will be described later.
  • control unit 140 determines a category of a dynamic image provided through at least one of the web 120 and the external server 130 according to event information, and determines a plurality of categories corresponding to the determined category.
  • At least one of the guide images is displayed on the canvas area on the drawing production program, a drawing image drawn directly by the user while using the drawing tool based on the guide image is saved as data, and a new drawing based on the saved drawing image is displayed. Dynamic images can be created.
  • the category of the dynamic image of the present invention is a concept that includes, for example, all major categories such as animals, plants, objects, and humans, as well as detailed sub-categories such as dogs, cats, ducks, trees, flowers, fruits, men, and women.
  • Guide image data corresponding to each category and data describing an interaction method of each category may be stored in the database unit 142 of the control unit 140 in advance.
  • the picture production program produces pictures using a drawing tool capable of pictorial expression of at least one of point, line, plane, shape, color, light, texture, and volume on a canvas. It may be graphical software configured to support the environment for performing.
  • the notification unit 150 visually displays preset text and images on an arbitrary screen according to a notification signal output from the notification signal output unit 144 of the control unit 140, preferably, the terminal. It is preferable to be configured to be provided in (110).
  • the notification unit 150 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may be configured to include at least one of (flexible display) and 3D display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display It may be configured to include at least one of (flexible display) and 3D display.
  • the dynamic image may include a bead image that is flexibly expressed within the canvas area on the picture production program, and the picture production service providing system 100 of the present invention is provided in the terminal 110 to It may be configured to further include a gyro sensor 160 that detects a gyro sensor 160 and a position sensor 170 provided in the terminal 110 to detect a position.
  • the picture production service providing system 100 of the present invention is provided in the terminal 110 to It may be configured to further include a gyro sensor 160 that detects a gyro sensor 160 and a position sensor 170 provided in the terminal 110 to detect a position.
  • the event information may include a user's first manipulation signal for changing the inclination of the terminal 110, and the controller 140 may use at least one of the gyro sensor 160 and the position sensor 170.
  • Third data for the provided terminal tilt information may be additionally matched and reflected in the custom information.
  • the control unit 140 refers to FIGS. 3 and 4, the first data represents a value in which a bead image is selected as a dynamic image, and the third data represents the terminal 110 by the above-described first manipulation signal. ), the bead image flows like rolling in the canvas area on the picture production program in response to the tilt change value, and the attribute value for the pictorial expression of the drawing tool is set. According to the second data, a second notification signal in which the trace of the bead image flows in real time is expressed can be output.
  • the drawing production program enables setting the thickness of a first icon representing a formative element of a point, line, or plane having an arbitrary thickness among drawing tools according to the event information.
  • the thickness setting may be performed by a stroke touched (clicked) by a first icon, and the control unit 140 displays the first icon in the notification unit 150 corresponding to the size of the set thickness.
  • a third notification signal for providing an activated screen with a size of can be output.
  • the picture production program may be configured to enable color setting according to the event information for a second icon representing a formative element for color among drawing tools, and the color The setting may be performed by a stroke of first touching (clicking) a second icon and then secondarily touching (clicking) a desired color.
  • a fourth notification signal for providing a screen in which at least some icons of the drawing tool including icons are activated in the same color as the set color may be output.
  • event information is input by the terminal 110 in real time.
  • the control unit 140 determines the category of the dynamic image provided through at least one of the web 120 and the external server 130 according to the event information input in the event information input step (S100). for a decision to be made.
  • the controller displays at least one of the plurality of guide images corresponding to the category determined in the category determining step (S200) on the canvas area of the picture production program.
  • the controller 140 loads one or more pre-stored guide images of the corresponding category and displays them through the notification unit 150. .
  • FIG. 8 shows a guide image displayed on the screen of the notification unit 150.
  • a guide image corresponding to a category selected by the user is displayed on the screen, and drawing tools necessary for the user to draw are displayed on the left side.
  • icons for selecting the thickness, type, and color of drawing lines may be displayed on the drawing tool.
  • the guide image is an image for assisting the user to easily draw along the picture, and since each image is tagged with a category, it is a basis for determining an interaction method of a dynamic image to be created later.
  • an umbrella-shaped guide image is displayed as shown in FIG. 8
  • a dynamic image created therefrom may represent an interaction of bouncing raindrops on the screen as shown in FIG. 11 .
  • the first image may correspond to categories such as 'plant', 'tree', and 'Christmas tree'
  • the second image may correspond to 'fruit' and 'apple' categories. etc.
  • the third image may correspond to categories such as 'animal', 'bird', and 'duck'.
  • an outline of an object in the guide image may be displayed as a dotted line, and a user may be encouraged to perform an activity such as drawing or coloring along the dotted line.
  • control unit 140 stores the drawing image directly drawn by the user while using the drawing tool based on the guide image as data.
  • FIG. 10 shows a state in which a user draws a picture along a guide image on a canvas area. Specifically, the user can select the thickness, color, type (eg, brush, crayon, colored pencil, highlighter, etc.) of a line necessary for drawing a drawing image from the left drawing tool.
  • the thickness, color, type eg, brush, crayon, colored pencil, highlighter, etc.
  • the user can freely draw a picture along the guide image on the screen using an input device (mouse, touch pen, etc.).
  • an input device mouse, touch pen, etc.
  • the controller 140 creates a new dynamic image based on the drawing image stored in the drawing image storage step (S400).
  • the dynamic image may indicate an interaction in response to a user's input within the screen of the notification unit, and may be loaded into another application through reference to a stored path, and a specific interaction method or rule will be described later. do.
  • the notification unit 150 displays the dynamic image generated in the dynamic image generation step (S500) on an arbitrary screen.
  • the step of displaying the notification unit (S600) may include a data loading step (not shown) of loading image data received through a path where a dynamic image is stored.
  • dynamic images can be loaded into various applications (eg, SNS messenger, e-mail, image processing apps, Internet browsers, etc.) through reference to the stored path, and if each application supports the format of the dynamic image, it can be mutually loaded within the application. action is possible
  • the interaction of the dynamic image may be related to the category of the dynamic image, move an object in the dynamic image in response to a user's input, or interact with other objects in the screen of the notification unit 150. It may include an operation of indicating a physical interaction of or outputting voice data related to the dynamic image.
  • the motion of the object in the dynamic image or the method of physical interaction with other objects in the screen of the notification unit 150 may be determined based on a pre-stored physics engine program, and as described above, the guide image may include an object image whose outline is indicated by a dotted line, and the object of the guide image may be related to a category of a dynamic image.
  • FIG. 11 shows an example of how a dynamic image generated by a user interacts with another object on the screen of the notification unit 150.
  • the interaction of the dynamic image may be implemented in various forms, and at least some of the interaction rules are related to the category of the dynamic image (ie, the category of the guide image that is the basis of the dynamic image, determined in step S200).
  • moving an object of the dynamic image in response to a user's input touch, mouse click, keyboard input, voice input, etc.
  • a user's input touch, mouse click, keyboard input, voice input, etc.
  • physical interaction with other objects in the interaction screen eg, two objects colliding
  • It may be designed to display a sound (eg, a tree shaking, an animal crying, etc.) related to a dynamic image.
  • the motion of the object or the method of physical interaction with other objects may be determined based on a pre-stored physics engine program.
  • Physical laws of reality such as bouncing or destroying other objects, can be implemented in virtual space.
  • the user can feel as if the image drawn by himself is alive and moving.
  • objects such as raindrops and umbrellas may be set as circles of a certain size, and if the distance between the centers of each object is smaller than the sum of the radii of the circles, it may be determined as a collision.
  • a more complex physical interaction for example, the direction and appearance of raindrops bouncing after collision may be implemented by considering the shape of the umbrella (incline, etc.), the speed at which raindrops move, and the like.
  • an image drawn by a user is displayed in real time according to the user's input. For example, when a user draws a line on the screen by dragging or touching a mouse, a dynamic image (flower, Various forms of interaction can be implemented, such as plant pictures) appearing along the drawn line.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Toys (AREA)
  • Digital Computer Display Output (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 사용자와 오브젝트 간에 실시간 상호작용이 가능한 그림 제작 서비스를 제공하는 반응형 그림 제작 서비스 제공 시스템에 있어서, 사용자의 그림 제작을 위한 행동반응과 관련한 이벤트 정보를 입력가능하게 구성되는 단말; 상기 단말, 웹 및 외부 서버와 네트워크를 구축하여 통신하면서, 상기 단말로부터 입력되는 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지에 대한 제1 데이터와, 미리 저장된 그림 제작 프로그램의 드로잉 툴을 이용하는 신호에 대한 제2 데이터를 매칭시켜 임의의 커스텀 정보를 생성하고, 상기 생성된 커스텀 정보에 따라 미리 설정된 알림신호를 출력하는 제어부; 및 상기 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이하는 알림부를 포함하는 것을 특징으로 하여, 사용자가 직접 그린 그림을 활용하여 상호작용 가능한 동적 이미지를 구현하고, 생성하고자 하는 동적 이미지의 카테고리 별로 가이드 이미지를 제공함으로써 사용자의 작업을 보다 효율적으로 보조할 수 있는 효과가 있다.

Description

반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법
본 발명은 사용자가 직접 그린 그림을 활용하여 상호작용 가능한 동적 이미지를 구현하고, 생성하고자 하는 동적 이미지의 카테고리 별로 가이드 이미지를 제공함으로써 사용자의 작업을 보다 효율적으로 보조할 수 있는 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법에 관한 것이다.
일반적으로, 만화나 캘리그라피와 같은 그림은 기존에는 오프라인 상에서 인쇄 매체를 통해서만 제공되었으나 최근 컴퓨터 그래픽 기술과 멀티미디어 기기의 발달로 사용자가 온라인 상에서 원하는 다양한 이미지들을 검색하고 손쉽게 얻을 수 있게 되었다.
나아가, 최근에는 스마트폰, 태블릿PC 등 터치스크린을 구비한 다양한 전자기기와 터치펜과 같은 인터페이스 장치들이 널리 보급되면서, 사용자들 스스로 다양한 이미지를 생성할 수 있게 되었다.
최근 컴퓨터의 그래픽 처리 기술이 발달하면서, 기존의 정적 이미지 뿐만 아니라 다양한 움직임과 상호작용을 나타낼 수 있는 동적 이미지가 널리 사용되고 있다. 동적 이미지는 동영상과 같이 정해진 흐름에 따라 재생되는 이미지와 달리, 상호작용에 따라 움직이도록 제작된 이미지를 의미한다.
예컨대, 동적 이미지는 클릭이나 터치에 의해 물체가 움직이거나, 시간에 따라 물체의 색상 또는 형태가 변화하거나, 다른 물체와의 물리적인 상호작용을 보여주는 것이 가능하다.
이러한 동적 이미지는 기존의 정적 이미지와 달리 사용자의 주의를 쉽게 환기시킬 수 있어 광고, 교육, 컨텐츠 제작 등 다양한 분야에서 활용될 수 있다.
따라서, 본 발명은 사용자가 직접 그린 그림을 활용하여 상호작용 가능한 동적 이미지를 구현하고, 생성하고자 하는 동적 이미지의 카테고리 별로 가이드 이미지를 제공함으로써 사용자의 작업을 보다 효율적으로 보조할 수 있는 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법을 제공하는데 목적이 있다.
다만, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 기술적 수단인 본 발명의 일 실시예에 따른 사용자와 오브젝트 간에 실시간 상호작용이 가능한 그림 제작 서비스를 제공하는 반응형 그림 제작 서비스 제공 시스템에 있어서, 사용자의 그림 제작을 위한 행동반응과 관련한 이벤트 정보를 입력가능하게 구성되는 단말; 상기 단말, 웹 및 외부 서버와 네트워크를 구축하여 통신하면서, 상기 단말로부터 입력되는 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지에 대한 제1 데이터와, 미리 저장된 그림 제작 프로그램의 드로잉 툴을 이용하는 신호에 대한 제2 데이터를 매칭시켜 임의의 커스텀 정보를 생성하고, 상기 생성된 커스텀 정보에 따라 미리 설정된 알림신호를 출력하는 제어부; 및 상기 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이하는 알림부를 포함할 수 있다.
또한, 상기 그림 제작 프로그램은, 캔버스 상에 점, 선, 면, 형, 색, 빛, 질감, 양감 중 적어도 하나의 회화적 표현이 가능한 드로잉 툴(Drawing Tool)을 이용하여 그림 제작을 수행하기 위한 환경을 지원하도록 구성된 그래픽 소프트웨어일 수 있다.
또한, 상기 제어부는, 상기 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지의 카테고리에 대한 결정이 이루어지도록 하고, 상기 결정된 카테고리에 해당하는 복수의 가이드 이미지 중 적어도 하나가 상기 그림 제작 프로그램 상에서의 캔버스 영역에 표시되도록 하며, 사용자가 상기 가이드 이미지에 기반하여 상기 드로잉 툴을 이용하면서 직접 그린 드로잉 이미지를 데이터로 저장하고, 상기 저장된 드로잉 이미지에 기초한 새로운 동적 이미지를 생성할 수 있다.
또한, 상기 동적 이미지는, 상기 그림 제작 프로그램 상에서의 캔버스 영역 내에서 유동가능하게 표현되는 구슬 이미지를 포함할 수 있고, 상기 그림 제작 서비스 제공 시스템은, 상기 단말에 구비되어 방위를 감지하는 자이로 센서; 및 상기 단말에 구비되어 위치를 감지하는 위치 센서를 더 포함할 수 있으며, 상기 이벤트 정보는, 상기 단말의 기울기를 변화시키는 사용자의 제1 조작신호를 포함할 수 있고, 상기 제어부는, 상기 자이로 센서 및 위치 센서 중 적어도 하나를 통해 제공되는 단말 기울기 정보에 대한 제3 데이터를 부가적으로 매칭시켜 상기 커스텀 정보에 반영할 수 있다.
또한, 상기 제어부는, 상기 제1 데이터가 동적 이미지로 구슬 이미지가 선택된 값을 나타내고, 상기 제3 데이터가 상기 제1 조작신호에 의한 상기 단말의 기울기 변화값을 나타낼 경우, 상기 구슬 이미지가 상기 기울기 변화값에 대응하여 상기 그림 제작 프로그램 상에서의 캔버스 영역 내에서 굴러다니는듯한 유동을 하면서, 상기 드로잉 툴의 회화적 표현에 대한 속성값이 설정된 제2 데이터에 따라 상기 구슬 이미지가 유동 진행하는 흔적이 실시간 표현되는 알림신호를 출력할 수 있다.
또한, 상기 그림 제작 프로그램은, 상기 드로잉 툴 중 임의의 두께를 갖는 점, 선, 면에 대한 조형요소를 표현하는 제1 아이콘에 대해 상기 이벤트 정보에 따라 두께 설정이 가능하도록 구성될 수 있고, 상기 두께 설정은, 상기 제1 아이콘이 터치(클릭)하는 스트로크에 의해 이루어질 수 있으며, 상기 제어부는,상기 알림부에, 상기 설정된 두께의 크기에 대응하여 상기 제1 아이콘의 크기가 활성화된 화면이 제공되도록 하는 알림신호를 출력할 수 있다.
또한, 상기 그림 제작 프로그램은, 상기 드로잉 툴 중 색에 대한 조형요소를 표현하는 제2 아이콘에 대해 상기 이벤트 정보에 따라 색상 설정이 가능하도록 구성될 수 있고, 상기 색상 설정은, 상기 제2 아이콘을 1차적으로 터치(클릭)한 후, 원하는 색상을 2차적으로 터치(클릭)하는 스트로크에 의해 이루어질 수 있으며, 상기 제어부는, 상기 알림부에, 상기 제2 아이콘을 포함한 드로잉 툴의 적어도 일부 아이콘이 상기 설정된 색상과 동일한 색상으로 활성화된 화면이 제공되도록 하는 알림신호를 출력할 수 있다.
한편, 상기와 같은 목적을 달성하기 위한 기술적 방법인 본 발명의 일 실시예에 따른 사용자와 오브젝트 간에 실시간 상호작용이 가능한 그림 제작 서비스를 제공하는 반응형 그림 제작 서비스 제공 시스템의 제어방법으로서, a) 단말에 의해 이벤트 정보가 입력되는 단계; b) 제어부가 상기 a)단계에서 입력되는 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지의 카테고리에 대한 결정이 이루어지도록 하는 단계; c) 제어부가 상기 b)단계에서 결정된 카테고리에 해당하는 복수의 가이드 이미지 중 적어도 하나가 그림 제작 프로그램 상에서의 캔버스 영역에 표시되도록 하는 단계; d) 제어부가 사용자가 상기 가이드 이미지에 기반하여 상기 드로잉 툴을 이용하면서 직접 그린 드로잉 이미지를 데이터로 저장하는 단계; e) 제어부가 상기 d)단계에서 저장된 드로잉 이미지에 기초한 동적 이미지를 생성하는 단계; 및 f) 알림부가 상기 e)단계에서 생성된 동적 이미지를 임의의 화면 상에 디스플레이하는 단계를 포함할 수 있되, 상기 동적 이미지는, 상기 알림부의 화면 내에서 사용자의 입력에 대응하여 상호작용을 나타낼 수 있다.
또한, 상기 동적 이미지의 상호작용은, 상기 동적 이미지의 카테고리와 관련될 수 있다.
또한, 상기 동적 이미지의 상호작용은, 사용자의 입력에 대응하여 상기 동적 이미지 내 물체를 움직이거나, 상기 알림부의 화면 내 다른 물체들과의 물리적인 상호작용을 나타내거나, 상기 동적 이미지와 관련된 음성 데이터를 출력하는 동작을 포함할 수 있다.
또한, 상기 동적 이미지 내 물체의 움직임 또는 상기 알림부의 화면 내 다른 물체들과의 물리적인 상호작용 방식은, 미리 저장된 물리엔진 프로그램에 기초하여 결정될 수 있다.
또한, 상기 가이드 이미지는, 외곽선이 점선으로 표시된 물체 이미지를 포함할 수 있고, 상기 가이드 이미지의 물체는, 상기 동적 이미지의 카테고리와 관련될 수 있다.
또한, 상기 f)단계는, f-1) 상기 동적 이미지가 저장된 경로를 통해 전달 받은 이미지 데이터를 로딩하는 단계를 포함할 수 있다.
본 발명은 사용자가 직접 그린 그림을 활용하여 상호작용 가능한 동적 이미지를 구현하고, 생성하고자 하는 동적 이미지의 카테고리 별로 가이드 이미지를 제공함으로써 사용자의 작업을 보다 효율적으로 보조할 수 있는 효과가 있다.
또한, 본 발명에 의하면, 단말에 기장착된 위치센서 및 자이로 센서를 이용하여 쟁반 위의 구슬을 움직여서 그림을 그리는 듯한 효과를 제공함으로써, 단말의 기울기에 따라 디스플레이를 터치하지 않아도 그림이 그려질 수 있는 보다 흥미로운 그림 제작환경을 달성할 수 있다.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 반응형 그림 제작 서비스 제공 시스템의 전자적인 구성을 개략적으로 나타낸 도면.
도 2는 도 1에 따른 상기 그림 제작 서비스 제공 시스템에서 제어부의 구성을 나타낸 블록도.
도 3 및 도 4는 자이로 센서 및 위치 센서와의 작용에 따른 구슬 이미지를 이용한 회화표현의 실시예를 나타낸 도면.
도 5는 드로잉 툴을 이루는 아이콘에 대해 그 속성 설정이 변환됨에 따라 해당 아이콘의 크기가 대응 변화되어 디스플레이되는 실시예를 나타낸 도면.
도 6은 드로잉 툴을 이루는 아이콘에 대해 그 속성 설정이 변환됨에 따라 아이콘의 색상이 대응 변화되어 디스플레이되는 실시예를 나타낸 도면.
도 7은 본 발명의 실시예에 따른 반응형 그림 제작 서비스 제공 시스템의 제어방법을 나타낸 흐름도.
도 8은 알림부의 화면 및 이에 표시된 가이드 이미지를 나타낸 도면.
도 9는 사용자에게 제공될 수 있는 예시적인 가이드 이미지를 나타낸 도면.
도 10은 알림부의 화면 상에서 사용자가 가이드 이미지를 따라 그림을 그리는 모습을 나타낸 도면.
도 11은 알림부의 화면 상에서 사용자가 생성한 동적 이미지가 다른 오브젝트와 상호작용하는 모습을 나타낸 도면.
이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 실시예에 따른 반응형 그림 제작 서비스 제공 시스템의 전자적인 구성을 개략적으로 나타낸 도면이고, 도 2는 도 1에 따른 상기 그림 제작 서비스 제공 시스템에서 제어부의 구성을 나타낸 블록도이며, 도 3 및 도 4는 자이로 센서 및 위치 센서와의 작용에 따른 구슬 이미지를 이용한 회화표현의 실시예를 나타낸 도면이고, 도 5는 드로잉 툴을 이루는 아이콘에 대해 그 속성 설정이 변환됨에 따라 해당 아이콘의 크기가 대응 변화되어 디스플레이되는 실시예를 나타낸 도면이며, 도 6은 드로잉 툴을 이루는 아이콘에 대해 그 속성 설정이 변환됨에 따라 아이콘의 색상이 대응 변화되어 디스플레이되는 실시예를 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 반응형 그림 제작 서비스 제공 시스템의 제어방법을 나타낸 흐름도이며, 도 8은 알림부의 화면 및 이에 표시된 가이드 이미지를 나타낸 도면이고, 도 9는 사용자에게 제공될 수 있는 예시적인 가이드 이미지를 나타낸 도면이며, 도 10은 알림부의 화면 상에서 사용자가 가이드 이미지를 따라 그림을 그리는 모습을 나타낸 도면이고, 도 11은 알림부의 화면 상에서 사용자가 생성한 동적 이미지가 다른 오브젝트와 상호작용하는 모습을 나타낸 도면이다.
도 1에 도시한 바와 같이, 본 발명에 따른 반응형 그림 제작 서비스 제공 시스템(100)은 사용자와 오브젝트 간에 실시간 상호작용이 가능한 그림 제작 서비스를 제공하는 반응형 그림 제작 서비스 제공 시스템에 있어서, 단말(110), 웹(120), 외부 서버(130), 제어부(140) 및 알림부(150)를 포함하여 구성할 수 있다.
단, 도 1에 도시된 구성요소들이 본 발명을 위해 필수적인 최소한의 구성일뿐, 이보다 더 부가적인 구성요소들을 갖는 그림 제작 서비스 제공 시스템이 구현될 수 있다.
상기 단말(110)은 키보드, 패드, 마우스 등 다양한 공지의 입력기기(미도시)를 포함하여 구성된 것으로, 본 발명의 바람직한 실시예에 따르면, 상기 사용자에게 위치하여 상기 사용자의 그림 제작을 위한 행동반응과 관련한 이벤트 정보를 웹(120), 외부 서버(130) 및 제어부(140)에 입력가능하게 구성될 수 있다.
여기서, 상기 단말(110)은 복수개로 구성될 수도 있으며, 바람직하게는, 태블릿이 적용될 수 있으나, 이에 한정되지 않고, PC, 스마트폰 등이 적용될 수 있다.
이러한 상기 단말(110)의 구성은 일반적으로 게재된 통상의 단말장치에 해당하므로, 세부 구성은 도면에 미도시 하였음은 물론, 그에 대한 더 구체적인 설명은 생략하기로 한다.
상기 웹(120)은 텍스트, 그래픽, 이미지, 음향, 비디오 등 다양한 멀티미디어를 지원할 수 있도록 구성된 인터넷 서비스로서, 본 발명에 따르면, 상기 단말(110)과 연결되어 상기 단말(110)을 이용하는 사용자에게 그림 제작과 관련한 다양한 공지의 미디어는 물론, 동적 이미지를 제공되도록 구성할 수 있다.
상기 외부 서버(130)는 상술한 웹(120)과 대응되도록 구성되어 상기 단말(110), 웹(120) 및 제어부(140)와 네트워크를 형성하는 것이 바람직하고, 상기 웹(120)과 연동하여 제어부(140)에 미리 설정된 프로그램을 서비스하는 기능을 수행한다.
여기서, 상기 외부 서버(130)는 상술한 웹(120)과 동일하게 동적 이미지를 제공하도록 구성될 수도 있고, 상기 프로그램은 그림 제작과 관련된 각종 데이터로 이루어진 에디터용 프로그램일 수 있으며, 이는 공지의 기술로서, 해당관련분야의 통상지식을 가진 당업자에 의해 자유롭게 변경설계될 수 있다.
상기 제어부(140)는 웹(120) 및 외부 서버(130)에 대응되는 그림 제작 프로그램이 미리 저장되고, 상기 이벤트 정보에 따라 능동적으로 반응하여, 사용자와 오브젝트 간의 상호작용이 가능한 동적 이미지를 제공하기 위한 제어서버로서, 바람직하게는, 상기 단말(110), 웹(120) 및 외부 서버(130)와 네트워크를 구축하여 상호 통신하도록 구성되는 것이 바람직하다.
이러한 상기 제어부(140)는 본 발명에 따르면, 상기 단말로부터 입력되는 이벤트 정보에 따라 상기 웹(120) 및 외부 서버(130) 중 적어도 하나를 통해 제공되는 동적 이미지에 대한 제1 데이터와, 미리 저장된 그림 제작 프로그램의 드로잉 툴을 이용하는 신호에 대한 제2 데이터를 매칭시켜 임의의 커스텀 정보를 생성하고, 상기 생성된 커스텀 정보에 따라 미리 설정된 알림신호를 출력하는 기능을 수행한다.
이를 위해, 상기 제어부(140)는 좀 더 구체적으로는, 상기 도 2를 참조하여, 상기 단말로부터 입력되는 이벤트 정보를 데이터화하는 데이터 생성부(141)와, 상기 데이터 생성부(141)에 의해 생성된 상기 이벤트 정보의 데이터에 따라 실시간 반응하기 위한 상기 그림 제작 프로그램을 미리 저장하고 관리하도록 구성되는 데이터 베이스부(142)와, 상기 이벤트 정보의 데이터에 따른 상기 제1,2 데이터를 매칭시켜 커스텀 정보를 생성하는 데이터 처리부(143)와, 상기 데이터 처리부(143)를 통해 생성된 커스텀 정보에 따라 미리 설정된 알림신호를 출력하는 알림신호 출력부(144)를 포함하여 구성될 수 있다.
여기서, 상기 커스텀 정보는 후술될 새로운 동적 이미지에 대한 데이터와 대응되는 정보를 의미한다.
예컨대, 상기 제어부(140)는 이벤트 정보에 따라 상기 웹(120) 및 외부 서버(130) 중 적어도 하나를 통해 제공되는 동적 이미지의 카테고리에 대한 결정이 이루어지도록 하고, 상기 결정된 카테고리에 해당하는 복수의 가이드 이미지 중 적어도 하나가 상기 그림 제작 프로그램 상에서의 캔버스 영역에 표시되도록 하며, 사용자가 상기 가이드 이미지에 기반하여 상기 드로잉 툴을 이용하면서 직접 그린 드로잉 이미지를 데이터로 저장하고, 상기 저장된 드로잉 이미지에 기초한 새로운 동적 이미지를 생성할 수 있다.
본 발명의 상기 동적 이미지의 카테고리란, 예컨대, 동물, 식물, 사물, 인간 등의 대분류부터 개, 고양이, 오리, 나무, 꽃, 과일, 남자, 여자와 같이 세부적인 소분류를 모두 포함하는 개념이다.
상기 제어부(140)의 데이터 베이스부(142)에는 각각의 카테고리에 해당되는 가이드 이미지 데이터 및 각 카테고리의 상호작용 방식을 기술하는 데이터가 미리 저장될 수 있다.
또한, 본 발명에 따른 상기 그림 제작 프로그램은 캔버스 상에 점, 선, 면, 형, 색, 빛, 질감, 양감 중 적어도 하나의 회화적 표현이 가능한 드로잉 툴(Drawing Tool)을 이용하여 그림 제작을 수행하기 위한 환경을 지원하도록 구성된 그래픽 소프트웨어일 수 있다.
상기 알림부(150)는 제어부(140)의 상기 알림신호 출력부(144)로부터 출력되는 알림신호에 따라 미리 설정된 텍스트와 이미지를 임의의 화면 상에 시각적으로 디스플레이하는 것으로, 바람직하게는, 상기 단말(110)에 구비되도록 구성하는 것이 바람직하다.
이러한 상기 알림부(150)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함하여 구성될 수 있다.
한편, 상기 동적 이미지는 상기 그림 제작 프로그램 상에서의 캔버스 영역 내에서 유동가능하게 표현되는 구슬 이미지를 포함할 수 있고, 본 발명의 상기 그림 제작 서비스 제공 시스템(100)은 단말(110)에 구비되어 방위를 감지하는 자이로 센서(160)와, 상기 단말(110)에 구비되어 위치를 감지하는 위치 센서(170)를 더 포함하여 구성할 수 있다.
이때, 상기 이벤트 정보는 단말(110)의 기울기를 변화시키는 사용자의 제1 조작신호를 포함할 수 있고, 상기 제어부(140)는 자이로 센서(160) 및 상기 위치 센서(170) 중 적어도 하나를 통해 제공되는 단말 기울기 정보에 대한 제3 데이터를 부가적으로 매칭시켜 상기 커스텀 정보에 반영할 수 있다.
또한, 상기 제어부(140)는 도 3 및 도 4를 참조하여, 상기 제1 데이터가 동적 이미지로 구슬 이미지가 선택된 값을 나타내고, 상기 제3 데이터가 상술한 제1 조작신호에 의한 상기 단말(110)의 기울기 변화값을 나타낼 경우, 상기 구슬 이미지가 상기 기울기 변화값에 대응하여 상기 그림 제작 프로그램 상에서의 캔버스 영역 내에서 굴러다니는듯한 유동을 하면서, 상기 드로잉 툴의 회화적 표현에 대한 속성값이 설정된 제2 데이터에 따라 상기 구슬 이미지가 유동 진행하는 흔적이 실시간 표현되는 제2의 알림신호를 출력할 수 있다.
다른 한편, 도 5에 나타낸 바와 같이, 상기 그림 제작 프로그램은 드로잉 툴 중 임의의 두께를 갖는 점, 선, 면에 대한 조형요소를 표현하는 제1 아이콘에 대해 상기 이벤트 정보에 따라 두께 설정이 가능하도록 구성될 수 있고, 상기 두께 설정은 제1 아이콘이 터치(클릭)하는 스트로크에 의해 이루어질 수 있으며, 상기 제어부(140)는 알림부(150)에, 상기 설정된 두께의 크기에 대응하여 상기 제1 아이콘의 크기가 활성화된 화면이 제공되도록 하는 제3의 알림신호를 출력할 수 있다.
또 다른 한편, 도 6에 도시된 바와 같이, 상기 그림 제작 프로그램은 드로잉 툴 중 색에 대한 조형요소를 표현하는 제2 아이콘에 대해 상기 이벤트 정보에 따라 색상 설정이 가능하도록 구성될 수 있고, 상기 색상 설정은 제2 아이콘을 1차적으로 터치(클릭)한 후, 원하는 색상을 2차적으로 터치(클릭)하는 스트로크에 의해 이루어질 수 있으며, 상기 제어부(140)는 알림부(150)에, 상기 제2 아이콘을 포함한 드로잉 툴의 적어도 일부 아이콘이 상기 설정된 색상과 동일한 색상으로 활성화된 화면이 제공되도록 하는 제4의 알림신호를 출력할 수 있다.
다음으로, 이와 같이 구성된 그림 제작 서비스 제공 시스템(100)을 제어하는 방법은 도 7을 참조하여, 이벤트 정보 입력단계(S100), 카테고리 결정단계(S200), 가이드 이미지 표시단계(S300), 드로잉 이미지 저장단계(S400), 동적 이미지 생성단계(S500) 및 알림부 디스플레이 단계(S600)를 포함하여 구성할 수 있다.
상기 이벤트 정보 입력단계(S100)에서는 단말(110)에 의해 이벤트 정보가 실시간 입력된다.
상기 카테고리 결정단계(S200)에서는 제어부(140)가 상기 이벤트 정보 입력단계(S100)에서 입력되는 이벤트 정보에 따라 상기 웹(120) 및 외부 서버(130) 중 적어도 하나를 통해 제공되는 동적 이미지의 카테고리에 대한 결정이 이루어지도록 한다.
상기 가이드 이미지 표시단계(S300)에서는 제어부가 상기 카테고리 결정단계(S200)에서 결정된 카테고리에 해당하는 복수의 가이드 이미지 중 적어도 하나가 그림 제작 프로그램 상에서의 캔버스 영역에 표시되도록 한다.
예컨대, 사용자가 드로잉 툴을 실행시킨 후, 생성하고자 하는 이미지의 카테고리를 결정하면, 상기 제어부(140)는 미리 저장된 해당 카테고리의 가이드 이미지 중 하나 이상을 로드하여 알림부(150)를 통해 표시되도록 한다.
도 8은 알림부(150)의 화면에 표시된 가이드 이미지를 나타낸 것으로, 상기 화면에는 사용자가 선택한 카테고리에 해당하는 가이드 이미지가 표시되며, 좌측에는 사용자가 그림을 그릴 때 필요한 드로잉 툴이 표시된다.
상기 드로잉 툴에는 예컨대, 그림 선의 굵기, 종류, 색상 등을 선택하는 아이콘이 표시될 수 있다.
상기 가이드 이미지는 사용자가 쉽게 그림을 따라 그릴 수 있도록 보조하기 위한 이미지로서, 각 이미지마다 카테고리가 태깅되어 있어 이후 생성되는 동적 이미지의 상호작용 방식을 결정하는 기초가 된다.
예컨대, 사용자가 '우산' 카테고리를 선택한 경우 도 8과 같이 우산 형태의 가이드 이미지가 표시되고, 이로부터 생성된 동적 이미지는 도 11과 같이 화면 내 빗방울을 튕겨 내는 상호작용을 나타낼 수 있다.
도 9는 사용자에게 제공될 수 있는 예시적인 가이드 이미지를 나타내는데, 첫번째 이미지는 '식물', '나무', '크리스마스 트리' 등의 카테고리에 해당될 수 있고, 두번째 이미지는 '과일', '사과' 등의 카테고리에 해당될 수 있으며, 세번째 이미지는 '동물', '새', '오리' 등의 카테고리에 해당될 수 있다
도 8 및 도 9를 참조하여, 상기 가이드 이미지 내 물체는 외곽선이 점선으로 표시될 수 있고, 사용자가 점선을 따라 그림을 그리거나 색을 칠하는 등의 활동을 수행하도록 유도할 수 있다.
상기 드로잉 이미지 저장단계(S400)에서는 제어부(140)가 사용자가 상기 가이드 이미지에 기반하여 상기 드로잉 툴을 이용하면서 직접 그린 드로잉 이미지를 데이터로 저장한다.
도 10은 캔버스 영역 상에서 사용자가 가이드 이미지를 따라 그림을 그리는 모습을 나타낸다. 구체적으로, 사용자는 좌측 드로잉 툴에서 드로잉 이미지를 그리는데 필요한 선의 굵기, 색상, 종류(예컨대, 붓, 크레파스, 색연필, 형관펜 등) 등을 선택할 수 있다.
이를 선택한 후 사용자는 입력기기(마우스, 터치펜 등)를 이용하여 화면 상에서 가이드 이미지를 따라 자유롭게 그림을 그릴 수 있다.
상기 동적 이미지 생성단계(S500)에서는 제어부(140)가 상기 드로잉 이미지 저장단계(S400)에서 저장된 드로잉 이미지에 기초한 새로운 동적 이미지를 생성한다.
여기서, 상기 동적 이미지는 상기 알림부의 화면 내에서 사용자의 입력에 대응하여 상호작용을 나타낼 수 있고, 저장된 경로의 참조를 통해 다른 애플리케이션 내에 로드될 수 있으며, 구체적인 상호작용 방식이나 규칙에 대해서는 후술하기로 한다.
상기 알림부 디스플레이 단계(S600)에서는 알림부(150)가 상기 동적 이미지 생성단계(S500)에서 생성된 동적 이미지를 임의의 화면 상에 디스플레이한다.
여기서, 상기 알림부 디스플레이 단계(S600)는 동적 이미지가 저장된 경로를 통해 전달 받은 이미지 데이터를 로딩하는 데이터 로딩단계(미도시)를 포함할 수 있다.
예컨대, 동적 이미지는 저장된 경로의 참조를 통해 다양한 애플리케이션(예컨대, SNS 메신저, 이메일, 이미지 처리 앱, 인터넷 브라우저 등) 내에 로드될 수 있고, 각 애플리케이션이 동적 이미지의 포맷을 지원한다면 해당 애플리케이션 내에서 상호작용이 가능하다.
본 발명에 따르면, 상기 동적 이미지의 상호작용은 동적 이미지의 카테고리와 관련될 수 있고, 사용자의 입력에 대응하여 상기 동적 이미지 내 물체를 움직이거나, 상기 알림부(150)의 화면 내 다른 물체들과의 물리적인 상호작용을 나타내거나, 상기 동적 이미지와 관련된 음성 데이터를 출력하는 동작을 포함할 수 있다.
또한, 상기 동적 이미지 내 물체의 움직임 또는 상기 알림부(150)의 화면 내 다른 물체들과의 물리적인 상호작용 방식은 미리 저장된 물리엔진 프로그램에 기초하여 결정될 수 있고, 상술한 바와 같이, 상기 가이드 이미지는 외곽선이 점선으로 표시된 물체 이미지를 포함할 수 있으며, 상기 가이드 이미지의 물체는 동적 이미지의 카테고리와 관련될 수 있다.
도 11은 상기 알림부(150)의 화면 상에서 사용자가 생성한 동적 이미지가 다른 오브젝트와 상호작용하는 모습의 일 예시를 나타낸다.
상기 동적 이미지의 상호작용은 다양한 형태로 구현될 수 있는데, 상호작용 규칙 중 적어도 일부는 상기 동적 이미지의 카테고리(즉, 동적 이미지의 기초가 되는 가이드 이미지의 카테고리로서 S200단계에서 결정됨)와 관련된다.
예컨대, 상기 도 11과 같이 '우산' 카테고리에 해당하는 동적 이미지의 경우, 화면 상에 표시된 빗방울 등 다른 오브젝트와 충돌하여 빗방울을 튕겨 내는 등의 자연스러운 상호작용이 가능하다. 만약 동적 이미지가 '우산'이 아닌 '모닥불'에 해당할 경우 빗방울과 접촉해 불이 꺼지는 등의 상호작용을 나타낼 수 있다.
상기 도 11에서는 하나의 예시를 들어 동적 이미지의 상호작용에 대해 설명하였지만, 상호작용의 종류는 이에 한정되지 아니하며, 다양한 형태로 구현될 수 있다.
예컨대, 사용자의 입력(터치, 마우스 클릭, 키보드 입력, 음성 입력 등)에 대응하여 상기 동적 이미지의 물체를 움직이거나, 상호작용 화면 내 다른 물체들과의 물리적인 상호작용(예컨대, 두 물체가 충돌하여 변형되는 등)을 나타내거나, 동적 이미지와 관련된 음성(예컨대, 나무가 흔들리는 소리, 동물 울음소리 등)을 출력하도록 설계될 수 있다.
특히, 물체의 움직임 또는 다른 물체들과의 물리적인 상호작용 방식은 상술한 바와 같이, 미리 저장된 물리엔진 프로그램에 기초하여 결정될 수 있고, 예를 들어, 물리엔진은 물체의 형태, 질감 등의 특성에 따라 다른 물체를 튕겨내거나 파괴되는 등 현실의 물리법칙을 가상공간에서 구현할 수 있다.
이에 따라, 사용자는 자신이 직접 그린 이미지가 살아 움직이는 듯한 느낌을 받을 수 있다.
상기 도 11에서 우산이 빗방울 튕겨내는 상호작용에 대해 설명하면, 빗방울 등 화면 상의 움직이는 오브젝트가 동적 이미지의 우산과 충돌할 경우, 파티클 형태로 변형되면서 충돌 전 움직임과 반대 방향으로 이동하는 움직임을 보여줄 수 있다.
이와 관련한 간단한 방법으로는, 빗방울과 우산 등의 오브젝트를 각각 일정한 크기의 원으로 설정하고, 각 오브젝트의 중심 간 거리가 상기 원의 반지름을 더한 값보다 작을 경우 충돌이라고 판단할 수 있다.
이보다 복잡한 물리 상호작용, 예컨대, 충돌 후 빗방울이 튕겨나가는 방향과 모습은 우산의 형태(경사 등), 빗방울이 움직이는 속도 등을 고려하여 구현될 수 있다.
상호작용의 또 다른 예시로는, 사용자가 그린 이미지가 사용자의 입력에 따라 실시간으로 나타나는 것으로, 예를 들어, 사용자가 마우스 드래그나 터치로 화면 상에 선을 그리면, 미리 생성된 동적 이미지(꽃, 식물 그림 등)가 그려지는 선을 따라서 나타나는 등 다양한 형태의 상호작용이 구현될 수 있다
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.

Claims (13)

  1. 사용자와 오브젝트 간에 실시간 상호작용이 가능한 그림 제작 서비스를 제공하는 반응형 그림 제작 서비스 제공 시스템에 있어서,
    사용자의 그림 제작을 위한 행동반응과 관련한 이벤트 정보를 입력가능하게 구성되는 단말;
    상기 단말, 웹 및 외부 서버와 네트워크를 구축하여 통신하면서, 상기 단말로부터 입력되는 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지에 대한 제1 데이터와, 미리 저장된 그림 제작 프로그램의 드로잉 툴을 이용하는 신호에 대한 제2 데이터를 매칭시켜 임의의 커스텀 정보를 생성하고, 상기 생성된 커스텀 정보에 따라 미리 설정된 알림신호를 출력하는 제어부; 및
    상기 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이하는 알림부를 포함하는 반응형 그림 제작 서비스 제공 시스템.
  2. 제 1 항에 있어서,
    상기 그림 제작 프로그램은,
    캔버스 상에 점, 선, 면, 형, 색, 빛, 질감, 양감 중 적어도 하나의 회화적 표현이 가능한 드로잉 툴(Drawing Tool)을 이용하여 그림 제작을 수행하기 위한 환경을 지원하도록 구성된 그래픽 소프트웨어인 것을 특징으로 하는 쌍방향 참여형 그림 제작 서비스 제공 시스템.
  3. 제 2 항에 있어서,
    상기 제어부는,
    상기 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지의 카테고리에 대한 결정이 이루어지도록 하고, 상기 결정된 카테고리에 해당하는 복수의 가이드 이미지 중 적어도 하나가 상기 그림 제작 프로그램 상에서의 캔버스 영역에 표시되도록 하며, 사용자가 상기 가이드 이미지에 기반하여 상기 드로잉 툴을 이용하면서 직접 그린 드로잉 이미지를 데이터로 저장하고, 상기 저장된 드로잉 이미지에 기초한 새로운 동적 이미지를 생성하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템.
  4. 제 2 항에 있어서,
    상기 동적 이미지는,
    상기 그림 제작 프로그램 상에서의 캔버스 영역 내에서 유동가능하게 표현되는 구슬 이미지를 포함하는 것을 특징으로 하고,
    상기 그림 제작 서비스 제공 시스템은,
    상기 단말에 구비되어 방위를 감지하는 자이로 센서; 및
    상기 단말에 구비되어 위치를 감지하는 위치 센서를 더 포함하는 것을 특징으로 하며,
    상기 이벤트 정보는,
    상기 단말의 기울기를 변화시키는 사용자의 제1 조작신호를 포함하는 것을 특징으로 하고,
    상기 제어부는,
    상기 자이로 센서 및 위치 센서 중 적어도 하나를 통해 제공되는 단말 기울기 정보에 대한 제3 데이터를 부가적으로 매칭시켜 상기 커스텀 정보에 반영하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템.
  5. 제 4 항에 있어서,
    상기 제어부는,
    상기 제1 데이터가 동적 이미지로 구슬 이미지가 선택된 값을 나타내고,
    상기 제3 데이터가 상기 제1 조작신호에 의한 상기 단말의 기울기 변화값을 나타낼 경우,
    상기 구슬 이미지가 상기 기울기 변화값에 대응하여 상기 그림 제작 프로그램 상에서의 캔버스 영역 내에서 굴러다니는듯한 유동을 하면서, 상기 드로잉 툴의 회화적 표현에 대한 속성값이 설정된 제2 데이터에 따라 상기 구슬 이미지가 유동 진행하는 흔적이 실시간 표현되는 알림신호를 출력하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템.
  6. 제 2 항에 있어서,
    상기 그림 제작 프로그램은,
    상기 드로잉 툴 중 임의의 두께를 갖는 점, 선, 면에 대한 조형요소를 표현하는 제1 아이콘에 대해 상기 이벤트 정보에 따라 두께 설정이 가능하도록 구성되는 것을 특징으로 하고,
    상기 두께 설정은,
    상기 제1 아이콘이 터치(클릭)하는 스트로크에 의해 이루어지는 것을 특징으로 하며,
    상기 제어부는,
    상기 알림부에, 상기 설정된 두께의 크기에 대응하여 상기 제1 아이콘의 크기가 활성화된 화면이 제공되도록 하는 알림신호를 출력하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템.
  7. 제 2 항에 있어서,
    상기 그림 제작 프로그램은,
    상기 드로잉 툴 중 색에 대한 조형요소를 표현하는 제2 아이콘에 대해 상기 이벤트 정보에 따라 색상 설정이 가능하도록 구성되는 것을 특징으로 하고,
    상기 색상 설정은,
    상기 제2 아이콘을 1차적으로 터치(클릭)한 후, 원하는 색상을 2차적으로 터치(클릭)하는 스트로크에 의해 이루어지는 것을 특징으로 하며,
    상기 제어부는,
    상기 알림부에, 상기 제2 아이콘을 포함한 드로잉 툴의 적어도 일부 아이콘이 상기 설정된 색상과 동일한 색상으로 활성화된 화면이 제공되도록 하는 알림신호를 출력하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템.
  8. 사용자와 오브젝트 간에 실시간 상호작용이 가능한 그림 제작 서비스를 제공하는 반응형 그림 제작 서비스 제공 시스템의 제어방법으로서,
    a) 단말에 의해 이벤트 정보가 입력되는 단계;
    b) 제어부가 상기 a)단계에서 입력되는 이벤트 정보에 따라 상기 웹 및 외부 서버 중 적어도 하나를 통해 제공되는 동적 이미지의 카테고리에 대한 결정이 이루어지도록 하는 단계;
    c) 제어부가 상기 b)단계에서 결정된 카테고리에 해당하는 복수의 가이드 이미지 중 적어도 하나가 그림 제작 프로그램 상에서의 캔버스 영역에 표시되도록 하는 단계;
    d) 제어부가 사용자가 상기 가이드 이미지에 기반하여 상기 드로잉 툴을 이용하면서 직접 그린 드로잉 이미지를 데이터로 저장하는 단계;
    e) 제어부가 상기 d)단계에서 저장된 드로잉 이미지에 기초한 동적 이미지를 생성하는 단계; 및
    f) 알림부가 상기 e)단계에서 생성된 동적 이미지를 임의의 화면 상에 디스플레이하는 단계를 포함하되,
    상기 동적 이미지는,
    상기 알림부의 화면 내에서 사용자의 입력에 대응하여 상호작용을 나타내는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템의 제어방법.
  9. 제 8 항에 있어서,
    상기 동적 이미지의 상호작용은,
    상기 동적 이미지의 카테고리와 관련되는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템의 제어방법.
  10. 제 9 항에 있어서,
    상기 동적 이미지의 상호작용은,
    사용자의 입력에 대응하여 상기 동적 이미지 내 물체를 움직이거나, 상기 알림부의 화면 내 다른 물체들과의 물리적인 상호작용을 나타내거나, 상기 동적 이미지와 관련된 음성 데이터를 출력하는 동작을 포함하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템의 제어방법.
  11. 제 10 항에 있어서,
    상기 동적 이미지 내 물체의 움직임 또는 상기 알림부의 화면 내 다른 물체들과의 물리적인 상호작용 방식은,
    미리 저장된 물리엔진 프로그램에 기초하여 결정되는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템의 제어방법.
  12. 제 8 항에 있어서,
    상기 가이드 이미지는,
    외곽선이 점선으로 표시된 물체 이미지를 포함하는 것을 특징으로 하고,
    상기 가이드 이미지의 물체는,
    상기 동적 이미지의 카테고리와 관련되는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템의 제어방법.
  13. 제 8 항에 있어서,
    상기 f)단계는,
    f-1) 상기 동적 이미지가 저장된 경로를 통해 전달 받은 이미지 데이터를 로딩하는 단계를 포함하는 것을 특징으로 하는 반응형 그림 제작 서비스 제공 시스템의 제어방법.
PCT/KR2021/016773 2021-05-31 2021-11-16 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법 WO2022255572A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022560310A JP7459415B2 (ja) 2021-05-31 2021-11-16 反応型絵製作サービス提供システム及びこの制御方法
US17/916,266 US20230334734A1 (en) 2021-05-31 2021-11-16 Systems for providing responsive-type drawing making service and method for controlling the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0070154 2021-05-31
KR20210070154 2021-05-31
KR10-2021-0155877 2021-11-12
KR1020210155877A KR102450263B1 (ko) 2021-05-31 2021-11-12 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법

Publications (1)

Publication Number Publication Date
WO2022255572A1 true WO2022255572A1 (ko) 2022-12-08

Family

ID=82407069

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2021/016773 WO2022255572A1 (ko) 2021-05-31 2021-11-16 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법
PCT/KR2021/016771 WO2022255571A1 (ko) 2021-05-31 2021-11-16 쌍방향 참여형 그림 제작 서비스 제공 시스템 및 이의 제어방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/016771 WO2022255571A1 (ko) 2021-05-31 2021-11-16 쌍방향 참여형 그림 제작 서비스 제공 시스템 및 이의 제어방법

Country Status (4)

Country Link
US (2) US20230334734A1 (ko)
JP (2) JP7459415B2 (ko)
KR (8) KR102450263B1 (ko)
WO (2) WO2022255572A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102526254B1 (ko) 2023-02-03 2023-04-26 이가람 반응형 포스터 콘텐츠의 생성 및 이의 상호작용 제공 방법, 장치 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927866B1 (ko) * 2007-01-25 2009-11-23 한성대학교 산학협력단 상호작용형 이미지 콘텐츠 생성방법 및 이를 위한 장치와시스템
KR101334865B1 (ko) * 2012-05-23 2013-12-03 이예찬 창의력 개발을 위한 유, 아동용 인터랙티브 그림 제작 방법
KR101761233B1 (ko) * 2015-09-02 2017-07-25 (주)옐리펀트 어린이의 자작그림을 이용한 인터랙티브 애니메이션 제작서비스 제공시스템
KR102068428B1 (ko) * 2010-04-23 2020-02-11 임머숀 코퍼레이션 햅틱 효과를 제공하는 시스템 및 방법
KR102184162B1 (ko) * 2019-11-13 2020-12-11 유시영 반응형 웹툰 제작 시스템 및 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124689A (ja) * 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP2003067585A (ja) 2001-08-27 2003-03-07 Fumio Onuma 似顔絵商品流通サービスシステム
JP2004110714A (ja) * 2002-09-20 2004-04-08 Toyota Motor Corp 電子資料共同編集システム
JP2004139289A (ja) * 2002-10-17 2004-05-13 Hitachi Ltd 図面編集システムおよび方法
US20040174365A1 (en) * 2002-12-24 2004-09-09 Gil Bub Method and system for computer animation
KR20090001498A (ko) 2007-04-19 2009-01-09 스토리블렌더 인코퍼레이티드 컨텐츠 공동제작 서비스 제공방법 및 그 시스템
US20120066577A1 (en) * 2010-09-09 2012-03-15 Microsoft Corporation Concurrent Editing of Online Drawings
US20130031463A1 (en) * 2011-07-29 2013-01-31 Denny Jaeger Personal workspaces in a computer operating environment
US20140026036A1 (en) * 2011-07-29 2014-01-23 Nbor Corporation Personal workspaces in a computer operating environment
KR101423524B1 (ko) * 2011-12-21 2014-08-01 주식회사 더클락웍스 그림 그리기 사용자 인터페이스 및 그림 공유 시스템과 그 방법
US8918453B2 (en) * 2012-01-03 2014-12-23 Qualcomm Incorporated Managing data representation for user equipments in a communication session
US8970476B2 (en) * 2012-02-09 2015-03-03 Vtech Electronics Ltd. Motion controlled image creation and/or editing
KR101434728B1 (ko) * 2012-05-15 2014-08-29 조현근 영상 통화 시스템에서의 영상 통화 중 드로잉 협업 방법
KR20140085048A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 멀티 디스플레이 장치 및 제어 방법
KR102183448B1 (ko) * 2013-04-26 2020-11-26 삼성전자주식회사 사용자 단말 장치 및 그 디스플레이 방법
KR20150066687A (ko) * 2013-12-09 2015-06-17 홍충식 실시간 화면 공유 메신저
US20150341399A1 (en) * 2014-05-23 2015-11-26 Samsung Electronics Co., Ltd. Server and method of providing collaboration services and user terminal for receiving collaboration services
US20180095653A1 (en) * 2015-08-14 2018-04-05 Martin Hasek Device, method and graphical user interface for handwritten interaction
US10334002B2 (en) * 2015-09-23 2019-06-25 Edoardo Rizzi Communication device and method
KR20170089252A (ko) * 2016-01-26 2017-08-03 박재동 그래픽 디자인 사용자 인터페이스와 그래픽 소스 공유 시스템 및 방법
US9832308B1 (en) * 2016-05-12 2017-11-28 Google Inc. Caller preview data and call messages based on caller preview data
US11126325B2 (en) * 2017-10-23 2021-09-21 Haworth, Inc. Virtual workspace including shared viewport markers in a collaboration system
US10616666B1 (en) * 2018-02-27 2020-04-07 Halogen Networks, LLC Interactive sentiment-detecting video streaming system and method
KR102159326B1 (ko) 2018-12-06 2020-09-23 주식회사 마이더스터치 작가체학습단말기 및 시스템
KR102280805B1 (ko) * 2018-12-06 2021-07-23 주식회사 파블로아트컴퍼니 단말기
KR102558566B1 (ko) * 2021-03-09 2023-07-24 (주)비케이 벡터 이미지의 재생방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927866B1 (ko) * 2007-01-25 2009-11-23 한성대학교 산학협력단 상호작용형 이미지 콘텐츠 생성방법 및 이를 위한 장치와시스템
KR102068428B1 (ko) * 2010-04-23 2020-02-11 임머숀 코퍼레이션 햅틱 효과를 제공하는 시스템 및 방법
KR101334865B1 (ko) * 2012-05-23 2013-12-03 이예찬 창의력 개발을 위한 유, 아동용 인터랙티브 그림 제작 방법
KR101761233B1 (ko) * 2015-09-02 2017-07-25 (주)옐리펀트 어린이의 자작그림을 이용한 인터랙티브 애니메이션 제작서비스 제공시스템
KR102184162B1 (ko) * 2019-11-13 2020-12-11 유시영 반응형 웹툰 제작 시스템 및 방법

Also Published As

Publication number Publication date
KR102420577B1 (ko) 2022-07-14
KR102450263B1 (ko) 2022-10-04
KR102476443B1 (ko) 2022-12-15
KR20220162100A (ko) 2022-12-07
JP2023532620A (ja) 2023-07-31
KR102484309B1 (ko) 2023-01-04
KR20220162103A (ko) 2022-12-07
JP7446555B2 (ja) 2024-03-11
KR20220162098A (ko) 2022-12-07
KR20220162099A (ko) 2022-12-07
JP7459415B2 (ja) 2024-04-02
US20230334734A1 (en) 2023-10-19
KR20220162102A (ko) 2022-12-07
JP2023534089A (ja) 2023-08-08
KR102484311B1 (ko) 2023-01-04
KR20220162101A (ko) 2022-12-07
US20230325070A1 (en) 2023-10-12
KR102476444B1 (ko) 2022-12-15
KR102476442B1 (ko) 2022-12-15
WO2022255571A1 (ko) 2022-12-08
KR102484310B1 (ko) 2023-01-04

Similar Documents

Publication Publication Date Title
US10795536B2 (en) Interactive presentation controls
CN114375435A (zh) 增强物理活动表面上的有形内容
Lal Digital design essentials: 100 ways to design better desktop, web, and mobile interfaces
CA2862431A1 (en) Method of displaying input during a collaboration session and interactive board employing same
WO2014116056A1 (ko) 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
WO2022255572A1 (ko) 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법
Ledo et al. Astral: Prototyping Mobile and Smart Object Interactive Behaviours Using Familiar Applications
CN108958731B (zh) 一种应用程序界面生成方法、装置、设备和存储介质
Creed et al. Multi-touch tables for exploring heritage content in public spaces
Sadun The iOS 5 developer's cookbook: core concepts and essential recipes for iOS programmers
CN112035022B (zh) 阅读页样式生成方法和装置
Schreiber et al. New interaction concepts by using the wii remote
Kühn et al. WiKnectVR: A gesture-based approach for interacting in virtual reality based on WiKnect and gestural writing
WO2018056653A1 (ko) 번역문과 함께 이미지를 제공하는 방법, 장치 및 컴퓨터 프로그램
CN114629800A (zh) 工控网络靶场的可视化生成方法、装置、终端及存储介质
CN111651102B (zh) 在线教学交互方法、装置、存储介质以及电子设备
Vroegop Microsoft HoloLens Developer's Guide
Phing et al. Wireless wearable for sign language translator device with Android-based app
Rajabov The harmony of the aesthetic needs of the individual in cyberspace with the philosophy of sophistication
Ledo et al. Astral: Prototyping Mobile and IoT Interactive Behaviours via Streaming and Input Remapping
Hu et al. The effects of screen size on rotating 3D contents using compound gestures on a mobile device
Mu et al. Interface And Interaction: The Symbolic Design for Bridge Conning System
WO2024076088A1 (en) Methods and electronic device for generating xr environment
WO2024085701A1 (ko) 스케치되는 탈것의 구동 방법 및 장치
Zhang Innovative Applications of Image Media and Intelligent Service Systems

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022560310

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21944325

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE