WO2024076206A1 - Apparatus and method for playing responsive video based on operation pattern - Google Patents

Apparatus and method for playing responsive video based on operation pattern Download PDF

Info

Publication number
WO2024076206A1
WO2024076206A1 PCT/KR2023/015424 KR2023015424W WO2024076206A1 WO 2024076206 A1 WO2024076206 A1 WO 2024076206A1 KR 2023015424 W KR2023015424 W KR 2023015424W WO 2024076206 A1 WO2024076206 A1 WO 2024076206A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
responsive
video
manipulation
information
Prior art date
Application number
PCT/KR2023/015424
Other languages
French (fr)
Korean (ko)
Inventor
이철우
Original Assignee
이철우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230132330A external-priority patent/KR20240049182A/en
Application filed by 이철우 filed Critical 이철우
Publication of WO2024076206A1 publication Critical patent/WO2024076206A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Definitions

  • the present disclosure relates to a responsive video playback device and method. More specifically, the present disclosure relates to a responsive video playback device and method based on an operation pattern.
  • Video playback is provided unilaterally in chronological order without interaction with the viewer. In other words, the viewer can only feel the visual sense through the video being played.
  • the user's interest can be stimulated.
  • the present disclosure provides a responsive video playback device and method based on operating patterns that allow the responsive video to be played quickly and smoothly even according to operating patterns input from different users.
  • the present disclosure is based on Web Real Time Communication (Web RTC), and when a second operation pattern is input from a specific user while the first operation pattern, which is the basic operation pattern, is applied, the first operation pattern is applied.
  • Web RTC Web Real Time Communication
  • the present disclosure is based on Web Real Time Communication (Web RTC), and when a second operation pattern is input from a specific user while the first operation pattern, which is the basic operation pattern, is applied, the first operation pattern is applied.
  • Web RTC Web Real Time Communication
  • a responsive image playback device based on an operation pattern includes an input module that displays a responsive image and detects an input operation from a user; a storage module that stores at least one process for playing a responsive video based on at least one operation pattern and stores image frame information corresponding to each of the at least one operation pattern; a handler module that identifies an event corresponding to the input operation among at least one event, and generates and transmits input operation information including information about the input operation according to the confirmed event; Based on the input operation information, the operation pattern corresponding to the input operation among the at least one operation pattern is confirmed, and image data is generated using the image frame information corresponding to the confirmed operation pattern to display the responsive video.
  • the at least one operation pattern is basically set for each of the at least one event. It may include a first operation pattern and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user.
  • a method of playing a responsive image based on an operation pattern includes the steps of displaying a responsive image and detecting a user's input operation on the responsive image; When the input manipulation is detected, checking an event corresponding to the input manipulation among at least one event; generating and delivering input operation information including information about the input operation according to the confirmed event; Confirming an operation pattern corresponding to the input operation among at least one operation pattern based on the input operation information; and performing a playback operation on the responsive video by generating video data using video frame information corresponding to the identified manipulation pattern, wherein the at least one manipulation pattern is one of the at least one event. It may include a first operation pattern that is basically set for and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user.
  • a computer program stored in a computer-readable recording medium for executing the method for implementing the present disclosure may be further provided.
  • a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.
  • the responsive video can be played quickly and smoothly even in response to operation patterns input from different users.
  • the present disclosure is based on Web Real Time Communication (Web RTC), and when a second operation pattern is input from a specific user while the first operation pattern, which is a basic operation pattern, is applied, the first operation pattern is Stop applying and apply the second operation pattern from that point to play and output the responsive video.
  • Web RTC Web Real Time Communication
  • FIG. 1 is a block diagram showing the configuration of a responsive video playback device based on an operation pattern according to an embodiment of the present disclosure.
  • Figure 2 is a flow chart showing a responsive video playback method based on an operation pattern according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a specific operation of performing a playback operation for a responsive video in the operation pattern-based responsive video playback method according to an embodiment of the present disclosure.
  • Singular expressions include plural expressions unless the context clearly makes an exception.
  • the identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.
  • Content may include various contents provided visually, such as videos, still images, holograms, etc., and may include various contents provided through auditory, gustatory, olfactory, etc. The example is not limited to this. Additionally, content may be provided in virtual reality (VR), but the embodiment is not limited thereto.
  • VR virtual reality
  • Objects included in content may be included in part of the content or may include the entire content.
  • the content is a video
  • it includes various objects located within the entire frame or part of the frame of the video. It can be done, and it can also mean the video itself.
  • Responsive content is a command that triggers a 'reaction (reaction, feedback, etc.)' of an object included in the content (which can be called an input operation, such as a reserved command including touch operation, sound command, motion command, etc.) ) is input, it may include various contents related to the corresponding object.
  • an input operation such as a reserved command including touch operation, sound command, motion command, etc.
  • the response may include movement of the object, change in shape/shape of the object, occurrence of a specific event, and/or occurrence of change in content according to a command (input operation), but the embodiment is not limited thereto.
  • Responsive video refers to a video that is played in a form corresponding to a command (eg, touch operation) by a user (ie, viewer) watching the video.
  • a responsive image may refer to an image in which the movement of touching an object is played when a user operation in the form of touching a specific object (for example, a pillow) is applied to the touch screen.
  • responsive video refers to an image in which when a user manipulation in the form of pressing a specific object is applied to the touch screen, the movement of the object being pressed and the movement restored after the user manipulation are played. You can.
  • a 'command for triggering a response' (input manipulation) of an object included in content may include a user manipulation of the content received through an input means of a computer that provides a responsive image.
  • the user operation is an operation that can be input at a specific point or area in the content through an input means such as a mouse or a touch screen (e.g., a click operation, a drag operation, a contact touch operation for a certain period of time, or a force touch) It may include manipulation (i.e., touch manipulation of applying specific pressure to a touch screen or touch pad), etc.).
  • the user operation involves the arrangement or movement of the terminal itself, which can be obtained by using a sensor (e.g., acceleration sensor, gyro sensor, etc.) provided by the computer (or terminal) as an input means. It can be included.
  • a sensor e.g., acceleration sensor, gyro sensor, etc.
  • a command for triggering a reaction may be performed by sensing the movement of a worn terminal or manipulating a terminal such as a joystick, but the embodiment is not limited thereto.
  • control module 1500 of a device (eg, a computer).
  • the control module 1500 may determine a command to trigger a response of an object included in one or more original images.
  • the original video can be called a basic video, and the original video may be content that is not implemented in a responsive manner.
  • the original video may be captured content and may include a combination of a plurality of frames storing frames for each position of an object in space.
  • the original video may be content collected through communication, may be three-dimensional content, or may be VR content, but the embodiment is not limited thereto.
  • the control module 1500 may receive an input specifying a frame section of the original video, and the frame section may include a specific section to be implemented in a responsive manner among all frames of the original video.
  • the frame section can be set by the user through various methods.
  • the control module 1500 receives from the user the starting frame of the original video (i.e., the first frame in the time domain to be produced as a responsive video) to the final frame (i.e., the last frame in the time domain to be produced as a responsive video). You can choose up to Additionally, in an embodiment, a time section may be designated by the user.
  • the control module 1500 is connected to a responsive image and can directly receive commands from the user to trigger a response of an object.
  • the control module 1500 provides a process for receiving a specific input operation from the user, and in the process, can receive a specific command along an object moving on the touch screen. there is.
  • control module 1500 can receive a user's selection of a command type to be connected to a responsive image and receive an operation that can replace the corresponding command type. For example, when creating a responsive video on a device with a touch screen and using a computer (including VR devices) that does not have a touch screen, the computer uses mouse operations instead of touch operations on the touch screen. By receiving it, you can create a responsive video.
  • the command for triggering the object's response may match or correspond to the movement of the object included in the frame section.
  • the location or area where the command for triggering the object's reaction is set to be input may correspond to the area corresponding to the movement of the object within the frame included in the frame section.
  • the control module 1500 can apply a method of creating a virtual layer in the entire area or a specific area of each frame within a designated frame section of the original image in order to connect an object and a command to trigger the object's response.
  • a virtual layer may refer to a layer that is overlaid on the frames that make up the original image and that can receive user input without being visually expressed on the screen.
  • the control module 1500 uses a command to trigger a response of an object by moving a specific area on the frame (i.e., the path on which the object moves within the frame section) (e.g., moving the mouse cursor through mouse manipulation or moving an object on a touch screen).
  • a command to trigger a response of an object by moving a specific area on the frame (i.e., the path on which the object moves within the frame section) (e.g., moving the mouse cursor through mouse manipulation or moving an object on a touch screen).
  • a virtual layer consisting of a specific number of detailed cells can be created on the frame.
  • control module 1500 may generate a virtual layer composed of a plurality of detailed cells corresponding to the frame section.
  • the control module 1500 can calculate the number of frames included in the frame section, apply the number of frames in the frame section as the number of detailed cells, and sequentially match each frame in the frame section to each detailed cell. there is.
  • control module 1500 when the control module 1500 wants to generate content so that n frames are variably played (i.e., manipulated playback) according to a command to trigger a response of an object, the control module 1500 selects a specific area as n detailed cells. It can be divided into
  • control module 1500 may match each frame to each divided detailed cell, so that the matched frame is provided when a specific detailed cell is selected or designated. That is, when an object (e.g., a hand) moves in a specific direction and a virtual layer is created along the movement path of the object, the control module 1500 operates within the frame section in order from the detailed cell at the first point where the object starts to move. It can be matched to each frame.
  • an object e.g., a hand
  • the control module 1500 operates within the frame section in order from the detailed cell at the first point where the object starts to move. It can be matched to each frame.
  • control module 1500 may generate a plurality of detailed cells constituting the virtual layer with different sizes or spacing. If the speed at which an object moves changes during a frame section in the original video, if the virtual layer is divided into detail cells of the same size, the position of the object in the frame and the position of the detail cells may not match. Accordingly, the control module 1500 may vary the size or spacing of detailed cells to match the movement of the object. In other words, when playing video content, the speed changes at the same time interval to obtain frames of moving objects, so in fast-moving sections, the gap between object positions within successive frames is large, and in slow movements, the gap between object positions within successive frames is narrow. do. Therefore, the control module 1500 must create a plurality of detailed cells to match the object spacing within the frame so that the position of the user's input operation (command to trigger the object's response) and the object position within the frame can be matched. there is.
  • control module 1500 can determine the length of the virtual layer.
  • the control module 1500 can recognize the path on which the object moves by determining the location of each object (or a specific feature point of the object) within the frame section, and the control module 1500 determines the length including the path.
  • a virtual layer can be formed. Additionally, the control module 1500 can determine the shape of the virtual layer and detailed cells.
  • Responsive video may be content that has been filmed and stored in advance, or it may be content that adds or synthesizes additional content to the original video.
  • a responsive video may include a video, still image, hologram, etc., and additional content may be played together when the original video is played, turning the original video into a responsive video.
  • a responsive video may include multiple responsive videos, which may mean that the content changes or plays in a form corresponding to a specific input operation by a user (i.e., viewer) watching the content. You can. For example, it may mean an image that is played back as if the user's input operation corresponding to a specific movement of the captured original image is connected to the object in the image moving according to the user's operation.
  • a compressed image refers to an image compressed into a minimum movement unit to implement a basic image as a responsive image. For example, if the basic image contains the same movement repeatedly, the compressed image deletes the repeated movement and leaves only one. Additionally, for example, if the base image includes both movement from the first position to the second position and movement from the second position to the first position, the compressed image is the base image moving from the first position to the second position. Leaving it alone, movement from the second position to the first position can play the remaining basic image in the reverse direction.
  • a multi-responsive video creation file is a content file created by compressing a plurality of basic images and can play various actions according to the user's manipulation, or can be implemented as a multi-responsive video by being played together with one or more basic images.
  • the control module 1500 may generate a responsive image without generating a compressed image even if duplication is allowed.
  • control module 1500 does not use compressed images and uses all repeated movements as is without deleting them, thereby generating or outputting a responsive image from a basic image (the basic image may be a responsive image). can do.
  • the control module 1500 can acquire a basic image.
  • the basic image may be an original image that includes the movement of an object to be implemented in a responsive manner according to the user's manipulation.
  • Responsive video creators e.g., content providers or individual users
  • control module 1500 may obtain images of multiple movements of the same object from the user and then generate them in the form of multiple responsive images. For example, when the object is the user's hand, the control module 1500 (190) can acquire a plurality of images of the user's index finger moving or bending in various directions while spread.
  • control module 1500 can acquire an image in which a plurality of events occur with respect to an object as a basic image.
  • the control module 1500 can generate a compressed image based on the basic image.
  • the compressed video may be responsive and include only the movement of the object to be implemented according to the user's manipulation.
  • images that allow duplication may also be applied instead of compressed images.
  • the control module 1500 can receive multiple responsive image creation conditions for compressed images.
  • the multi-responsive image creation condition may be a plurality of manipulation inputs corresponding to responses that can be generated from the compressed image.
  • the control module 1500 may generate a stack structure of the compressed image, and each extraction area (e.g., a first extraction area and a second extraction area) may include a plurality of stacks for different events. For example, a first stack represented by a solid line and a second stack represented by a dotted line may be included in each extraction area.
  • the control module 1500 may be implemented by determining the stack to be executed among the first stack and the second stack based on the location where the first operation is input to each extraction area from the user.
  • the first event and the second event in each extraction area may include overlapping pixels, and the control module 1500 may leave only one of the overlapping pixels among the stack for the first event and the stack for the second event. there is. Even if the compressed image contains only one data about an overlapping pixel within a specific extraction area, one of the first event and the second event depending on the user's next operation (e.g., change in the direction of movement of the touch operation or the intensity of applied pressure) The stack can be determined. Through this, the computer can create compressed images with minimal data.
  • Responsive images may include the above-described multi-type responsive images and multi-dimensional responsive images.
  • FIG. 1 is a block diagram showing the configuration of a responsive video playback device based on an operation pattern according to an embodiment of the present disclosure.
  • an operation pattern-based responsive video playback device (hereinafter referred to as 'playback device') 1000 according to an embodiment of the present disclosure includes an input module 1100, a storage module 1200, and a handler module. It may be configured to include (1300), a playback module (1400), and a control module (or processor) (1500).
  • the input module 1100 may be a display module that forms a layered structure or is integrated with the touch sensor, and may implement a touch screen.
  • This touch screen can function as a user input unit that provides an input interface between the playback device 1000 and the user, and at the same time, can provide an output interface between the playback device 1000 and the user.
  • the control unit 1500 can control the operation of the playback device 1000 to correspond to the input information.
  • the information may be specific data or a touch gesture.
  • the playback device 1000 displays a virtual key, soft key, or visual key on the touch screen through software processing, or displays a virtual key, soft key, or visual key on a part other than the touch screen.
  • a touch key may be further provided.
  • the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of .
  • a proximity sensor may be configured to detect the proximity of a conductive object through a change in the electric field according to the proximity of the object.
  • the touch screen or touch sensor itself can be classified as a proximity sensor.
  • the position at which an object is close-touched on the touch screen means the position at which the object corresponds perpendicularly to the touch screen when the object is close-touched.
  • the proximity sensor may detect a proximity touch and a proximity touch pattern (e.g., proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch location, proximity touch movement state, etc.).
  • control unit 1500 processes information (data, touch gestures, etc.) corresponding to the proximity touch operation and proximity touch pattern detected through the proximity sensor, as described above, and further provides visual information corresponding to the processed information. It can be output on the touch screen. Furthermore, the control module 1500 can control the playback device 1000 so that different actions or information are processed depending on whether a touch to the same point on the touch screen is a proximity touch or a contact touch.
  • the touch sensor detects a touch (or touch input) applied to the touch screen using at least one of several touch methods, such as a resistive method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method.
  • a touch sensor may be configured to convert changes in pressure applied to a specific part of the touch screen or capacitance occurring in a specific part into an electrical input signal.
  • the touch sensor may be configured to detect the position, area, pressure at the time of touch, capacitance at the time of the touch, etc., at which the touch object that touches the touch screen is touched on the touch sensor.
  • the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or stylus pen, or a pointer.
  • the touch controller processes the signal(s) and then transmits corresponding information to the control module 1500.
  • the control module 1500 can determine which area of the touch screen has been touched.
  • the touch controller may be a separate component from the control module 1500 or may be the control module 1500 itself.
  • touch sensor and proximity sensor discussed above are used independently or in combination to provide short (or tap) touch, long touch, multi touch, and drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. Touch can be sensed.
  • the storage module 1200 includes at least one process for playing a responsive video based on at least one operation pattern, as well as at least one process necessary to provide various services related to the responsive video or perform other operations. One more process can be saved.
  • the storage module 1200 can store image frame information corresponding to each of at least one manipulation pattern.
  • the storage module 1200 can store data supporting various functions of the playback device 1000.
  • the storage module 1200 can store a plurality of application programs (application programs) running on the playback device 1000, data for the operation of the production device 1000, and commands. These applications At least some of the programs may exist for the basic functions of the playback device 1000.
  • the application program is stored in the storage module, installed on the playback device 1000, and played by the control module 1500. It may be driven to perform the operation (or function) of the device 1000.
  • the storage module 1200 stores at least one basic image data and at least one responsive image generated based on the at least one basic image data.
  • various responsive image creation files may be included in the folder where the basic image data is stored, or corresponding responsive image creation files may be matched in the database.
  • it is possible to implement a responsive video by playing the corresponding responsive video creation file when playing basic video data.
  • the storage module 1200 provides set information for a plurality of basic image data and/or a plurality of responsive images, and a selection order for a plurality of basic image data and/or a plurality of responsive images included in each set. Based playback pattern information may be stored. At this time, the playback pattern information includes playback patterns corresponding to the order in which a plurality of basic video data or a plurality of responsive videos can be selected.
  • the handler module 1300 confirms an event corresponding to an input manipulation among at least one event, and generates and delivers input manipulation information including information about the input manipulation according to the confirmed event.
  • the input manipulation information may include information about at least one of the number of manipulations, manipulation strength, movement length, manipulation speed, manipulation time length, manipulation direction, and manipulation position for a specific object in the responsive image.
  • the at least one event represents at least one action that occurs within the responsive video, such as scene change (go to scene), play clip, adjust scene point, and sound play. It may include at least one of (play sound), add to combo, open web page, send web message, broadcast event, and show finale.
  • the playback module 1400 determines the manipulation pattern corresponding to the user's input manipulation among at least one manipulation pattern based on the input manipulation information transmitted by the handler module 1300. Additionally, the playback module 1400 can perform a playback operation on a responsive video by generating video data using video frame information corresponding to the confirmed manipulation pattern.
  • the playback module 1400 may include a first player module and a second player module.
  • the first player module generates the video frame information by extracting at least one frame corresponding to the first operation pattern among a plurality of video frames, and generates video data using the generated video frame information to input the input. Plays a responsive video according to the operation.
  • the second player module identifies a second manipulation pattern corresponding to the confirmed input characteristics among the plurality of video frames. Afterwards, the second player module extracts at least one frame corresponding to the second operation pattern to generate video frame information, and generates video data using the generated video frame information to create a responsive type according to the input manipulation. Play the video.
  • the first operation pattern is an operation pattern corresponding to the user's input operation and corresponds to a basic operation pattern basically stored in response to the input operation.
  • the second operation pattern is an operation pattern that is stored according to the input characteristics of each user. As the input characteristics are confirmed by the user's input operation, the second operation pattern corresponding to the user is confirmed, and from the time of confirmation, the first operation pattern is confirmed. Application of the operation pattern, that is, the basic operation pattern, is stopped and the second operation pattern is applied.
  • the at least one operation pattern includes a first operation pattern that is basically set for each of at least one event and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user.
  • the control module 1500 may control the overall operation of the playback device 1000 in addition to operations related to an application program for providing responsive video.
  • the control module 1500 can provide or process appropriate information or functions to users by processing signals, data, information, etc. input or output through the components discussed above, or by running the application program.
  • the control module 1500 selects a playback section related to the designated specific object on the basic video data.
  • a specific object may be designated by selection by the provider of the basic image data, or a specific object for which a characteristic change is detected within the basic image data may be automatically designated.
  • the characteristic change may include at least one of a motion change, a resolution change, and a sharpness change.
  • control module 1500 generates image data consisting of a plurality of frames included in the set playback section, determines the operation pattern of the input operation according to the change in the state of the specific object, and then selects the specific object in the plurality of frames.
  • Each touch area is set based on , and a responsive image is generated by applying the operation pattern of the input operation to each set touch area.
  • At least one basic image data may be an original image including the movement of an object to be implemented in a responsive manner by a user's input manipulation.
  • the input operation is based on continuous gestures and may be a touch gesture, and the operation pattern of the touch gesture is drag, rotate, rubber, pinch, and spread. It can be configured based on any one of the following.
  • the control module 1500 when setting each touch area, creates a virtual layer that combines on a plurality of frames included in the corresponding image data, divides the virtual layer into a plurality of detailed cells, and then divides the virtual layer into a plurality of detailed cells. In the frame, the frames corresponding to each detailed cell are mapped to each other. At this time, the control module 1500 recognizes feature points for a specific object in each of a plurality of frames, determines the location of each feature point, confirms the movement path of the specific object, and then creates a virtual layer to include the movement path. do. Additionally, when dividing a virtual layer, the control module 1500 projects the position of each feature point onto the virtual layer and creates a plurality of detailed cells by dividing the positions of each feature point.
  • control module 1500 determines that the position of each feature point moves from the first position to the second position, the control module 1500 generates a plurality of detailed cells and Determines the shape of the virtual layer.
  • control module 1500 may perform different controls or perform the same control depending on the type of object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different controls or the same controls depending on the type of object may be determined depending on the current operating state of the playback device 1000 or the application program being executed.
  • control module 1500 generates responsive image creation conditions for a plurality of input operations corresponding to reactions that can be generated from the image data, and applies the responsive image creation conditions to the image data to create a responsive image.
  • the image data is data in a stack structure that includes information about the combination of images created by dividing or correcting the at least one basic image data, and the responsive image creation condition is coupled to a specific area of the image data. It may contain data containing information for responsive implementation.
  • control module 1500 registers the generated responsive images on a platform for service provision, and may register a plurality of responsive images as one set according to the set information stored in the storage module 1200.
  • At least one set may be configured, and in this case, one responsive video may be included in multiple sets.
  • control module 1500 extracts frames at preset time intervals from among all frames included in the playback section to form a plurality of frames, and sequentially arranges the plurality of frames in chronological order to generate image data. there is.
  • control module 1300 controls the input module 1100, storage module 1200, handler module 1300, and playback module 1400 described above to play the responsive video based on at least one process. Ensure that a series of operations are performed.
  • the control module 1500 when performing a playback operation for a responsive image, performs a playback operation for a responsive image by applying a first operation pattern corresponding to an input operation, while performing the playback operation.
  • the application of the first manipulation pattern is stopped, and the second manipulation pattern corresponding to the confirmed input characteristics is applied to perform a playback operation for the responsive video. do.
  • control module 1500 stores input manipulation information and image data according to the input manipulation (image data output according to the input manipulation or movement/movement of a specific object in the responsive video according to the input manipulation) to the pre-stored deep learning learning model.
  • input manipulation image data output according to the input manipulation or movement/movement of a specific object in the responsive video according to the input manipulation
  • the control module 1500 stores input manipulation information and image data according to the input manipulation (image data output according to the input manipulation or movement/movement of a specific object in the responsive video according to the input manipulation) to the pre-stored deep learning learning model.
  • control module 1500 stores the second operation pattern reflecting the confirmed input characteristics separately for each user, so that when a user according to the input characteristics of the input operation is confirmed, the control module 1500 responds to the input operation of the confirmed user.
  • Image data can be generated by extracting a frame based on a pre-stored second manipulation pattern.
  • control module 1500 may generate image data based on this, map it to the second manipulation pattern, and store it in advance. In other words, if only the second manipulation pattern is confirmed, the video data mapped to the second manipulation pattern can be loaded and played without the need to separately generate video data based on it.
  • control module 1500 when applying the second operation pattern corresponding to the confirmed input characteristic, the control module 1500 confirms that image frame information or image data corresponding to the second operation pattern has already been created (stored). , pre-generated video frame information or video data can be used as is.
  • a communication module may be further provided, and other components may be added or some components may be excluded.
  • the communication module (not shown) transmits and receives at least one information or data to at least one user terminal.
  • at least one user terminal is a terminal of a user who wishes to receive various services related to responsive video, and can use various services related to responsive video through platforms, web pages, etc., and limits the method and means of providing them. I never do that.
  • the communication module may include one or more components that enable communication with other devices, for example, at least one of a wired communication module, a wireless communication module, a short-distance communication module, and a location information module. may include.
  • control module 1500 In addition, specific operations of the control module 1500 will be described below based on each drawing.
  • Figure 2 is a flowchart showing the operation of processing and playing video data according to the type of responsive video according to an embodiment of the present disclosure.
  • the control module 1500 of the playback device 1000 displays a responsive image, detects the user's input operation for the responsive image (S2100), and when the user's input operation is detected, Among at least one event, the event corresponding to the input operation is checked (S2200).
  • control module 1500 generates and transmits input manipulation information including information about the input manipulation according to the event confirmed in step S2200 (S2300), and performs at least one manipulation based on the input manipulation information.
  • input manipulation information including information about the input manipulation according to the event confirmed in step S2200 (S2300), and performs at least one manipulation based on the input manipulation information.
  • the patterns check the operation pattern corresponding to the input operation (S2400).
  • control module 1500 performs a playback operation on the responsive video by generating video data using video frame information corresponding to the manipulation pattern confirmed in step S2400 (S2500).
  • FIG. 3 is a diagram illustrating a specific operation of performing a playback operation for a responsive video in the operation pattern-based responsive video playback method according to an embodiment of the present disclosure.
  • the control module 1500 of the playback device 1000 when performing a playback operation for a responsive video, applies a first operation pattern corresponding to the input operation to play the responsive video. Perform the operation (S2510).
  • control module 1500 performs the playback operation and checks the input characteristics based on the input manipulation information generated in step S2300 (S2520), and creates a second manipulation pattern corresponding to the confirmed input characteristics. Check whether it exists (S2530).
  • step S2530 If, as a result of confirmation in step S2530, it is confirmed that a second manipulation pattern corresponding to the input characteristic exists, the control module 1500 stops applying the first manipulation pattern for the current playback operation (S2540) .
  • control module 1500 performs a playback operation for the responsive video by applying the confirmed second operation pattern (S2550).
  • control module 1500 determines that a second operation pattern corresponding to the input characteristic does not exist as a result of checking in step S2530, it is regarded as a new user and the input A second operation pattern corresponding to the user is additionally stored by reflecting the characteristics. That is, the second operation pattern stored in the database can be updated.
  • the above-mentioned program is C, C++, and It may include code encoded in a computer language such as JAVA or machine language. These codes may include functional codes related to functions that define the necessary functions for executing the methods, and related execution procedures necessary for the control module 1500 of the computer to execute the functions according to predetermined procedures. May contain control code. In addition, this code contains a memory reference code indicating which location (address address) of the computer's internal or external memory the additional information or media required for the computer's control module 1500 to execute the above functions should be referenced. More may be included. In addition, if the computer's control module 1500 needs to communicate with any other remote computer or server to execute the functions, the code can be sent to any other remote computer using the computer's communication module. It may further include communication-related codes on how to communicate with a server, etc., and what information or media should be transmitted and received during communication.
  • the storage medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory.
  • examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers that the computer can access or on various recording media on the user's computer. Additionally, the medium may be distributed to computer systems connected to a network, and computer-readable code may be stored in a distributed manner.
  • the steps of the method or algorithm described in connection with the embodiments of the present disclosure may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof.
  • the software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which this disclosure pertains.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an apparatus and method for playing a responsive video based on an operation pattern. The apparatus comprises: an input module that displays a responsive video and detects an input operation from a user; a storage module that stores one or more processes for playing the responsive video on the basis of one or more operation patterns and storing pieces of video frame information respectively corresponding to the one or more operation patterns; a handler module that identifies an event corresponding to the input operation among one or more events and generates and delivers input operation information including information about the input operation according to the identified event; a playback module that identifies an operation pattern corresponding to the input operation among the one or more operation patterns on the basis of the input operation information and plays the responsive video by generating video data using video frame information corresponding to the identified operation pattern; and a control module that performs a series of control operations to play the responsive video on the basis of the at one or more processes.

Description

조작패턴 기반 반응형 영상 재생 장치 및 방법Responsive video playback device and method based on operation patterns
본 개시는 반응형 영상 재생 장치 및 방법에 대한 것으로, 보다 상세하게는, 본 개시는 조작패턴 기반 반응형 영상 재생 장치 및 방법에 관한 것이다.The present disclosure relates to a responsive video playback device and method. More specifically, the present disclosure relates to a responsive video playback device and method based on an operation pattern.
최근 영상촬영기술이 매우 발전하고 있다. 캠코더, 디지털카메라뿐만 아니라 스마트폰 등의 이동단말기도 높은 해상도의 영상을 촬영할 수 있다. 또한, 360도 카메라, 3D영상 카메라 등이 등장하고 있다.Recently, video recording technology has developed greatly. Not only camcorders and digital cameras, but also mobile devices such as smartphones can capture high-resolution images. Additionally, 360-degree cameras and 3D video cameras are appearing.
영상은 영상촬영장치에 의해 촬영되어 특정한 포맷으로 저장되고, 재생 가능한 단말기에 의해 재생된다. 영상 재생은 시청자와 상호작용(Interaction)이 없이 일방적으로 시간순서대로 제공된다. 즉, 시청자는 재생되는 영상을 통해 시각적인 감각만을 느낄 수 있다.Videos are captured by a video recording device, stored in a specific format, and played back by a terminal capable of playing them. Video playback is provided unilaterally in chronological order without interaction with the viewer. In other words, the viewer can only feel the visual sense through the video being played.
이러한 영상을 사용자의 다양한 제스처(gestrue)를 기반으로 하는 입력조작에 따라 반응하는 반응형 영상으로 구현하여 제공함으로써, 사용자의 흥미를 유발할 수 있다.By implementing and providing such images as responsive images that respond to input operations based on the user's various gestures, the user's interest can be stimulated.
따라서, 이러한 입력조작에 따라 반응형 영상에 대한 신속하고 원활한 재생이 가능하도록 하는 기술이 개발될 필요가 있다.Therefore, there is a need to develop technology that enables quick and smooth playback of responsive videos according to such input operations.
본 개시는 각기 다른 사용자로부터 입력되는 조작패턴에도 그 반응형 영상이 신속하고 원활하게 재생 가능하도록 하는 조작패턴 기반 반응형 영상 재생 장치 및 방법을 제공함에 있다.The present disclosure provides a responsive video playback device and method based on operating patterns that allow the responsive video to be played quickly and smoothly even according to operating patterns input from different users.
또한, 본 개시는 웹 RTC(Web Real Time Communication, Web RTC)를 기반으로 하며, 기본조작패턴인 제1 조작패턴이 적용된 상태에서 특정 사용자로부터 제2 조작패턴이 입력되면, 제1 조작패턴의 적용을 중단하고 해당 시점부터 제2 조작패턴을 적용하여 반응형 영상을 재생 및 출력하도록 하는 조작패턴 기반 반응형 영상 재생 장치 및 방법을 제공함에 있다.In addition, the present disclosure is based on Web Real Time Communication (Web RTC), and when a second operation pattern is input from a specific user while the first operation pattern, which is the basic operation pattern, is applied, the first operation pattern is applied. To provide an operation pattern-based responsive video playback device and method that stops the operation and applies the second operation pattern from that point to play and output the responsive image.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.
상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 조작패턴 기반 반응형 영상 재생 장치는, 반응형 영상을 디스플레이하고, 사용자로부터 입력조작을 감지하는 입력모듈; 적어도 하나의 조작패턴을 기반으로 반응형 영상을 재생하도록 하기 위한 적어도 하나의 프로세스를 저장하고, 상기 적어도 하나의 조작패턴 각각에 대응하는 영상프레임정보를 저장하는 저장모듈; 적어도 하나의 이벤트 중 상기 입력조작에 대응하는 이벤트를 확인하고, 상기 확인된 이벤트에 따라 상기 입력조작에 대한 정보를 포함하는 입력조작정보를 생성하여 전달하는 핸들러모듈; 상기 입력조작정보를 기반으로 상기 적어도 하나의 조작패턴 중 상기 입력조작에 대응하는 조작패턴을 확인하고, 상기 확인된 조작패턴에 대응하는 영상프레임정보를 이용하여 영상데이터를 생성함으로써 상기 반응형 영상에 대한 재생 동작을 수행하는 재생모듈; 및 상기 적어도 하나의 프로세스를 기반으로 상기 반응형 영상을 재생시키기 위한 일련의 제어 동작을 수행하는 제어모듈을 포함하며, 상기 적어도 하나의 조작패턴은, 상기 적어도 하나의 이벤트 각각에 대해 기본적으로 설정되는 제1 조작패턴 및 각 사용자의 입력특성이 반영되어 상기 각 사용자 마다 상이하게 저장되는 제2 조작패턴을 포함할 수 있다.A responsive image playback device based on an operation pattern according to an aspect of the present disclosure for achieving the above-described technical problem includes an input module that displays a responsive image and detects an input operation from a user; a storage module that stores at least one process for playing a responsive video based on at least one operation pattern and stores image frame information corresponding to each of the at least one operation pattern; a handler module that identifies an event corresponding to the input operation among at least one event, and generates and transmits input operation information including information about the input operation according to the confirmed event; Based on the input operation information, the operation pattern corresponding to the input operation among the at least one operation pattern is confirmed, and image data is generated using the image frame information corresponding to the confirmed operation pattern to display the responsive video. a playback module that performs playback operations; and a control module that performs a series of control operations for playing the responsive image based on the at least one process, wherein the at least one operation pattern is basically set for each of the at least one event. It may include a first operation pattern and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user.
한편, 본 개시의 일 측면에 따른 조작패턴 기반 반응형 영상 재생 방법은, 반응형 영상을 디스플레이하고, 상기 반응형 영상에 대한 사용자의 입력조작을 감지하는 단계; 상기 입력조작이 감지되면, 적어도 하나의 이벤트 중 상기 입력조작에 대응하는 이벤트를 확인하는 단계; 상기 확인된 이벤트에 따라 상기 입력조작에 대한 정보를 포함하는 입력조작정보를 생성하여 전달하는 단계; 상기 입력조작정보를 기반으로 적어도 하나의 조작패턴 중 상기 입력조작에 대응하는 조작패턴을 확인하는 단계; 및 상기 확인된 조작패턴에 대응하는 영상프레임정보를 이용하여 영상데이터를 생성함으로써 상기 반응형 영상에 대한 재생 동작을 수행하는 단계를 포함하고, 상기 적어도 하나의 조작패턴은, 상기 적어도 하나의 이벤트 각각에 대해 기본적으로 설정되는 제1 조작패턴 및 각 사용자의 입력특성이 반영되어 상기 각 사용자 마다 상이하게 저장되는 제2 조작패턴을 포함할 수 있다.Meanwhile, a method of playing a responsive image based on an operation pattern according to an aspect of the present disclosure includes the steps of displaying a responsive image and detecting a user's input operation on the responsive image; When the input manipulation is detected, checking an event corresponding to the input manipulation among at least one event; generating and delivering input operation information including information about the input operation according to the confirmed event; Confirming an operation pattern corresponding to the input operation among at least one operation pattern based on the input operation information; and performing a playback operation on the responsive video by generating video data using video frame information corresponding to the identified manipulation pattern, wherein the at least one manipulation pattern is one of the at least one event. It may include a first operation pattern that is basically set for and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user.
이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, a computer program stored in a computer-readable recording medium for executing the method for implementing the present disclosure may be further provided.
이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition, a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.
본 개시의 전술한 과제 해결 수단에 의하면, 각기 다른 사용자로부터 입력되는 조작패턴에도 그 반응형 영상이 신속하고 원활하게 재생 가능하도록 한다.According to the means for solving the above-described problem of the present disclosure, the responsive video can be played quickly and smoothly even in response to operation patterns input from different users.
또한, 본 개시에 의하면, 웹 RTC(Web Real Time Communication, Web RTC)를 기반으로 하며, 기본조작패턴인 제1 조작패턴이 적용된 상태에서 특정 사용자로부터 제2 조작패턴이 입력되면, 제1 조작패턴의 적용을 중단하고 해당 시점부터 제2 조작패턴을 적용하여 반응형 영상을 재생 및 출력하도록 한다.In addition, according to the present disclosure, it is based on Web Real Time Communication (Web RTC), and when a second operation pattern is input from a specific user while the first operation pattern, which is a basic operation pattern, is applied, the first operation pattern is Stop applying and apply the second operation pattern from that point to play and output the responsive video.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.
도 1은 본 개시의 일 실시예에 따른 조작패턴 기반 반응형 영상 재생 장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a responsive video playback device based on an operation pattern according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 조작패턴 기반 반응형 영상 재생 방법을 나타내는 순서도이다.Figure 2 is a flow chart showing a responsive video playback method based on an operation pattern according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 조작패턴 기반 반응형 영상 재생 방법에서 반응형 영상에 대한 재생 동작을 수행하는 구체적인 동작을 나타내는 도면이다.FIG. 3 is a diagram illustrating a specific operation of performing a playback operation for a responsive video in the operation pattern-based responsive video playback method according to an embodiment of the present disclosure.
본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout this disclosure. The present disclosure does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present disclosure pertains is omitted. The term 'unit, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'unit, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part is said to “include” a certain component, this means that it may further include other components, rather than excluding other components, unless specifically stated to the contrary.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다. 각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다. Singular expressions include plural expressions unless the context clearly makes an exception. The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.
첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들을 설명하기에 앞서, 몇몇 용어를 아래와 같이 설명하기로 한다.Before explaining the operating principles and embodiments of the present disclosure with reference to the attached drawings, some terms will be explained as follows.
콘텐츠(contents 또는 content)는, 시각적으로 제공되는 각종 콘텐츠, 가령 동영상, 정지영상, 홀로그램 등을 포함할 수 있으며, 청각적, 미각적, 후각적 등으로 제공되는 다양한 콘텐츠를 포함할 수 있으나, 실시예가 이에 한정되는 것은 아니다. 또한, 콘텐츠는 가상 현실(VR, virtual reality)에서 제공될 수도 있으나, 실시예가 이에 한정되는 것은 아니다.Content (content or content) may include various contents provided visually, such as videos, still images, holograms, etc., and may include various contents provided through auditory, gustatory, olfactory, etc. The example is not limited to this. Additionally, content may be provided in virtual reality (VR), but the embodiment is not limited thereto.
콘텐츠에 포함된 오브젝트(대상체)는, 콘텐츠의 일부에 포함되거나 또는 콘텐츠 전체를 포함할 수 있는데, 가령, 콘텐츠가 영상인 경우, 영상의 전체 프레임 또는 일부 프레임 내에 위치하는 다양한 객체(objects)를 포함할 수 있으며, 영상 자체를 의미할 수도 있다. Objects included in content may be included in part of the content or may include the entire content. For example, if the content is a video, it includes various objects located within the entire frame or part of the frame of the video. It can be done, and it can also mean the video itself.
반응형 콘텐츠는, 콘텐츠에 포함된 오브젝트의 '반응(reation, feedback 등)을 트리거하는 명령'(입력 조작이라 할 수 있는데, 가령, 터치 조작, 사운드 명령, 모션 명령, 등을 포함하여 예약된 명령)이 입력되는 경우, 이에 대응하는 오브젝트와 관련된 다양한 콘텐츠를 포함할 수 있다. 이하에서는 본 개시에 따른 반응형 콘텐츠가 반응형 영상인 것으로 가정하여 설명하며, 본 개시에 따른 반응형 콘텐츠의 종류가 영상인 것으로 한정하진 않는다.Responsive content is a command that triggers a 'reaction (reaction, feedback, etc.)' of an object included in the content (which can be called an input operation, such as a reserved command including touch operation, sound command, motion command, etc.) ) is input, it may include various contents related to the corresponding object. Hereinafter, the description will be made on the assumption that the responsive content according to the present disclosure is a responsive video, and the type of responsive content according to the present disclosure is not limited to being a video.
여기서, 반응은 명령(입력 조작)에 따라 오브젝트의 무브먼트, 오브젝트의 형상/모양 변경, 특정 이벤트 발생, 및/또는 콘텐츠 내 변동 발생 등을 포함할 수 있으나, 실시예가 이에 한정되는 것은 아니다. Here, the response may include movement of the object, change in shape/shape of the object, occurrence of a specific event, and/or occurrence of change in content according to a command (input operation), but the embodiment is not limited thereto.
반응형 영상은 영상을 시청하는 사용자(즉, 시청자)에 의한 명령(가령, 터치 조작)에 상응하는 형태로 영상이 재생되는 영상을 의미한다. 예를 들어, 반응형 영상은, 사용자에 의해 특정한 물체(예를 들어, 베개)를 만지는 형태의 사용자 조작이 터치스크린에 가해지면, 물체를 만지는 움직임이 재생되는 영상을 의미할 수 있다. 또한, 예를 들어, 반응형 영상은, 사용자에 의해 특정한 물체를 누르는 형태의 사용자 조작이 터치스크린에 가해지면, 물체가 눌려지는 움직임과 사용자 조작 이후에 다시 복원되는 움직임이 재생되는 영상을 의미할 수 있다.Responsive video refers to a video that is played in a form corresponding to a command (eg, touch operation) by a user (ie, viewer) watching the video. For example, a responsive image may refer to an image in which the movement of touching an object is played when a user operation in the form of touching a specific object (for example, a pillow) is applied to the touch screen. Also, for example, responsive video refers to an image in which when a user manipulation in the form of pressing a specific object is applied to the touch screen, the movement of the object being pressed and the movement restored after the user manipulation are played. You can.
콘텐츠에 포함된 오브젝트의 '반응을 트리거하기 위한 명령'(입력 조작)은, 반응형 영상을 제공하는 컴퓨터의 입력 수단을 통해 수신되는 콘텐츠에 대한 사용자 조작을 포함할 수 있다. 예를 들어, 상기 사용자 조작은 마우스 또는 터치스크린과 같은 입력수단을 통해 콘텐츠 내 특정한 지점 또는 영역에 입력될 수 있는 조작(예를 들어, 클릭 조작, 드래그 조작, 특정 시간 이상의 접촉터치 조작, 포스터치 조작(즉, 터치스크린 또는 터치패드에 특정압력을 가하는 터치조작) 등)을 포함할 수 있다. 또한, 예를 들어, 상기 사용자 조작은, 컴퓨터(또는 단말기)가 구비하는 센서(예를 들어, 가속도센서, 자이로센서 등)를 입력 수단으로 하여 획득될 수 있는 단말기 자체의 배치 상태 또는 움직임 등을 포함할 수 있다. 콘텐츠가 VR 콘텐츠인 경우, 반응을 트리거하기 위한 명령은 착용한 단말의 움직임 센싱 또는 조이스틱 같은 단말의 조작에 의해 수행될 수 있으나, 실시예가 이에 한정되는 것은 아니다.A 'command for triggering a response' (input manipulation) of an object included in content may include a user manipulation of the content received through an input means of a computer that provides a responsive image. For example, the user operation is an operation that can be input at a specific point or area in the content through an input means such as a mouse or a touch screen (e.g., a click operation, a drag operation, a contact touch operation for a certain period of time, or a force touch) It may include manipulation (i.e., touch manipulation of applying specific pressure to a touch screen or touch pad), etc.). In addition, for example, the user operation involves the arrangement or movement of the terminal itself, which can be obtained by using a sensor (e.g., acceleration sensor, gyro sensor, etc.) provided by the computer (or terminal) as an input means. It can be included. When the content is VR content, a command for triggering a reaction may be performed by sensing the movement of a worn terminal or manipulating a terminal such as a joystick, but the embodiment is not limited thereto.
이하에서는, 반응형 영상을 생성하는 방법을 설명하기로 한다. 반응형 영상의 생성은 장치(일 예로, 컴퓨터)의 프로세서[제어모듈(1500)]에 의해 수행되는 것으로 상정하여 설명하기로 한다.Below, a method for creating a responsive image will be described. The description will assume that the creation of a responsive image is performed by a processor (control module 1500) of a device (eg, a computer).
제어모듈(1500)은 하나 이상의 원본 영상에 포함된 오브젝트의 반응을 트리거하기 위한 명령을 결정할 수 있다. 여기서, 원본 영상은 기초 영상이라고 할 수 있으며, 원본 영상은 반응형으로 구현되지 않은 콘텐츠일 수 있다. 가령, 원본 영상은 촬영 콘텐츠일 수 있고, 공간 상의 오브젝트의 위치 별 프레임을 저장한 복수의 프레임 조합을 포함할 수 있다. 원본 영상은 통신을 통해 수집한 콘텐츠일 수 있고, 입체적 콘텐츠일 수 있으며, VR 콘텐츠일 수 있으나, 실시예가 이에 한정되는 것은 아니다.The control module 1500 may determine a command to trigger a response of an object included in one or more original images. Here, the original video can be called a basic video, and the original video may be content that is not implemented in a responsive manner. For example, the original video may be captured content and may include a combination of a plurality of frames storing frames for each position of an object in space. The original video may be content collected through communication, may be three-dimensional content, or may be VR content, but the embodiment is not limited thereto.
제어모듈(1500)은 원본 영상의 프레임 구간을 지정하는 입력을 수신할 수 있는데, 프레임 구간은 원본 영상의 전체 프레임 중에서 반응형으로 구현될 특정 구간을 포함할 수 있다. 사용자로부터 다양한 방식을 통해 프레임 구간이 설정될 수 있다. 실시예에서, 제어모듈(1500)은 사용자로부터 원본 영상의 시작 프레임(즉, 반응형 영상으로 제작될 시간 영역의 최초 프레임)부터 최종 프레임(즉, 반응형 영상으로 제작될 시간 영역의 마지막 프레임)까지 선택받을 수 있다. 또한, 실시예에서, 사용자로부터 시간 구간을 지정받을 수도 있다. The control module 1500 may receive an input specifying a frame section of the original video, and the frame section may include a specific section to be implemented in a responsive manner among all frames of the original video. The frame section can be set by the user through various methods. In an embodiment, the control module 1500 receives from the user the starting frame of the original video (i.e., the first frame in the time domain to be produced as a responsive video) to the final frame (i.e., the last frame in the time domain to be produced as a responsive video). You can choose up to Additionally, in an embodiment, a time section may be designated by the user.
제어모듈(1500)은 반응형 영상에 연결되어, 오브젝트의 반응을 트리거하기 위한 명령을 사용자로부터 직접 수신할 수 있다. 예를 들어, 상기 제어모듈(1500)은 터치스크린을 구비한 디바이스인 경우, 사용자로부터 특정한 입력조작을 입력받는 과정을 제공하고, 해당 과정에서 터치스크린 상에 움직이는 오브젝트를 따라서 특정한 명령을 수신할 수 있다. The control module 1500 is connected to a responsive image and can directly receive commands from the user to trigger a response of an object. For example, in the case of a device equipped with a touch screen, the control module 1500 provides a process for receiving a specific input operation from the user, and in the process, can receive a specific command along an object moving on the touch screen. there is.
또한, 제어모듈(1500)은 반응형 영상에 연결될 명령 유형을 사용자로부터 선택받고, 해당 명령 유형을 대신할 수 있는 조작을 수신할 수 있다. 예를 들어, 터치스크린을 보유한 디바이스에서 반응형 영상을 생성하면서, 터치스크린을 구비하지 않은 장치인 컴퓨터(VR 장치도 포함)를 이용하는 경우, 컴퓨터는 터치스크린에 대한 터치조작을 대신하는 마우스 조작을 수신하여 즉, 반응형 영상을 생성할 수 있다.Additionally, the control module 1500 can receive a user's selection of a command type to be connected to a responsive image and receive an operation that can replace the corresponding command type. For example, when creating a responsive video on a device with a touch screen and using a computer (including VR devices) that does not have a touch screen, the computer uses mouse operations instead of touch operations on the touch screen. By receiving it, you can create a responsive video.
오브젝트의 반응을 트리거하기 위한 명령은 프레임 구간 내 포함된 오브젝트의 무브먼트와 일치하거나 오브젝트의 움직임에 상응할 수 있다. 오브젝트의 반응을 트리거하기 위한 명령이 입력되도록 설정되는 위치 또는 영역은 프레임 구간에 포함된 프레임 내 오브젝트의 움직임에 대응하는 영역에 해당할 수 있다.The command for triggering the object's response may match or correspond to the movement of the object included in the frame section. The location or area where the command for triggering the object's reaction is set to be input may correspond to the area corresponding to the movement of the object within the frame included in the frame section.
제어모듈(1500)은 오브젝트와 오브젝트의 반응을 트리거하기 위한 명령을 연결하기 위해, 원본 영상의 지정된 프레임 구간 내 각각의 프레임 전체 영역 또는 특정 영역에 가상 레이어를 생성하는 방식을 적용할 수 있다. 가상 레이어는 화면상에 시각적으로는 표현되지 않으면서 사용자의 입력을 수신할 수 있는, 원본 영상을 구성하는 프레임 위에 겹쳐지는 레이어를 의미할 수 있다.The control module 1500 can apply a method of creating a virtual layer in the entire area or a specific area of each frame within a designated frame section of the original image in order to connect an object and a command to trigger the object's response. A virtual layer may refer to a layer that is overlaid on the frames that make up the original image and that can receive user input without being visually expressed on the screen.
제어모듈(1500)은 오브젝트의 반응을 트리거하기 위한 명령이 프레임 상의 특정영역(즉, 프레임 구간 내 오브젝트가 움직이는 경로)을 움직이는 조작(예를 들어, 마우스 조작을 통해 마우스 커서 이동 또는 터치스크린 상의 제1 지점에서 제2 지점으로의 드래그 조작)인 경우, 특정한 개수의 세부셀로 구성된 가상 레이어를 프레임 상에 생성할 수 있다.The control module 1500 uses a command to trigger a response of an object by moving a specific area on the frame (i.e., the path on which the object moves within the frame section) (e.g., moving the mouse cursor through mouse manipulation or moving an object on a touch screen). In the case of a drag operation from point 1 to point 2, a virtual layer consisting of a specific number of detailed cells can be created on the frame.
또한, 제어모듈(1500)은 프레임 구간에 대응하여 복수의 세부셀로 구성된 가상 레이어를 생성할 수 있다. 제어모듈(1500)은 프레임 구간 내 포함되는 프레임 개수를 산출하고, 프레임 구간 내 프레임 개수를 세부셀의 개수로 적용할 수 있으며, 각각의 세부셀에 프레임 구간 내 각각의 프레임을 차례대로 매칭할 수 있다. Additionally, the control module 1500 may generate a virtual layer composed of a plurality of detailed cells corresponding to the frame section. The control module 1500 can calculate the number of frames included in the frame section, apply the number of frames in the frame section as the number of detailed cells, and sequentially match each frame in the frame section to each detailed cell. there is.
예를 들어, 제어모듈(1500)은, n개의 프레임이 오브젝트의 반응을 트리거하기 위한 명령에 따라 변동적으로 재생(즉, 조작 재생)되도록 콘텐츠를 생성하고자 하는 경우, 특정 영역을 n개의 세부셀로 분할할 수 있다. For example, when the control module 1500 wants to generate content so that n frames are variably played (i.e., manipulated playback) according to a command to trigger a response of an object, the control module 1500 selects a specific area as n detailed cells. It can be divided into
그 후, 제어모듈(1500)은 분할된 각각의 세부셀에 각각의 프레임을 매칭하여서, 특정한 세부셀이 선택 또는 지정되는 경우에 매칭된 프레임이 제공되도록 할 수 있다. 즉, 특정한 방향으로 물체(가령, 손)가 움직이고 물체의 이동경로를 따라 가상 레이어가 생성되는 경우, 제어모듈(1500)은 물체가 움직이기 시작하는 제1 지점의 세부셀부터 순서대로 프레임 구간 내 각각의 프레임에 매칭할 수 있다.Thereafter, the control module 1500 may match each frame to each divided detailed cell, so that the matched frame is provided when a specific detailed cell is selected or designated. That is, when an object (e.g., a hand) moves in a specific direction and a virtual layer is created along the movement path of the object, the control module 1500 operates within the frame section in order from the detailed cell at the first point where the object starts to move. It can be matched to each frame.
또한, 제어모듈(1500)은 가상 레이어를 구성하는 복수의 세부셀을 상이한 크기 또는 간격으로 생성할 수 있다. 원본 영상 내 프레임 구간에서 오브젝트가 움직이는 속도가 변하는 경우, 가상 레이어를 동일한 크기의 세부셀로 분할하면 프레임 상의 오브젝트의 위치와 세부셀의 위치가 맞지 않을 수 있다. 따라서, 제어모듈(1500)은 오브젝트의 움직임에 부합하도록 세부셀의 크기 또는 간격을 상이하게 할 수 있다. 즉, 동영상 콘텐츠 재생 시에 동일한 시간 간격으로 속도가 변하면서 움직이는 오브젝트의 프레임을 획득하므로, 빠르게 움직이는 구간에서는 연속되는 프레임 내 오브젝트 위치의 간격이 크고 느린 구간에서는 연속되는 프레임 내 오브젝트 위치의 간격이 좁게 된다. 따라서, 제어모듈(1500)은 이러한 프레임 내 오브젝트 간격에 부합하게 복수의 세부셀을 생성하여야 사용자가 입력하는 입력조작(오브젝트의 반응을 트리거하기 위한 명령)의 위치와 프레임 내의 오브젝트 위치가 매칭될 수 있다.Additionally, the control module 1500 may generate a plurality of detailed cells constituting the virtual layer with different sizes or spacing. If the speed at which an object moves changes during a frame section in the original video, if the virtual layer is divided into detail cells of the same size, the position of the object in the frame and the position of the detail cells may not match. Accordingly, the control module 1500 may vary the size or spacing of detailed cells to match the movement of the object. In other words, when playing video content, the speed changes at the same time interval to obtain frames of moving objects, so in fast-moving sections, the gap between object positions within successive frames is large, and in slow movements, the gap between object positions within successive frames is narrow. do. Therefore, the control module 1500 must create a plurality of detailed cells to match the object spacing within the frame so that the position of the user's input operation (command to trigger the object's response) and the object position within the frame can be matched. there is.
또한, 제어모듈(1500)은 가상 레이어의 길이를 결정할 수 있다. 실시예에서, 제어모듈(1500)은 프레임 구간 내 각 오브젝트(또는 오브젝트의 특정한 특징점)의 위치를 파악하여, 오브젝트가 움직이는 경로를 인식할 수 있으며, 제어모듈(1500)은 해당 경로를 포함하는 길이로 가상 레이어를 형성할 수 있다. 또한, 제어모듈(1500)은 가상 레이어 및 세부셀의 형태를 결정할 수 있다. Additionally, the control module 1500 can determine the length of the virtual layer. In an embodiment, the control module 1500 can recognize the path on which the object moves by determining the location of each object (or a specific feature point of the object) within the frame section, and the control module 1500 determines the length including the path. A virtual layer can be formed. Additionally, the control module 1500 can determine the shape of the virtual layer and detailed cells.
반응형 영상은 촬영되어 미리 저장된 콘텐츠일 수 있고, 원본 영상에 부가 콘텐츠를 추가 또는 합성한 콘텐츠일 수 있다. 가령, 반응형 영상은 동영상, 정지영상, 홀로그램 등을 포함할 수 있으며, 부가 콘텐츠는 원본 영상을 재생할 때, 함께 재생되어 원본 영상을 반응형 영상으로 만들어 줄 수 있다.Responsive video may be content that has been filmed and stored in advance, or it may be content that adds or synthesizes additional content to the original video. For example, a responsive video may include a video, still image, hologram, etc., and additional content may be played together when the original video is played, turning the original video into a responsive video.
또한, 반응형 영상은 다중 반응형 영상을 포함할 수 있는데, 다중 반응형 영상은, 콘텐츠를 시청하는 사용자(즉, 시청자)의 특정한 입력 조작에 상응하는 형태로 콘텐츠가 변화되거나 재생되는 것을 의미할 수 있다. 예를 들어, 촬영된 원본 영상의 특정한 움직임에 대응되는 사용자의 입력 조작이 연결되어, 사용자의 조작에 따라 해당 영상 내의 물체가 움직이는 것과 같이 재생되는 영상을 의미할 수 있다.Additionally, a responsive video may include multiple responsive videos, which may mean that the content changes or plays in a form corresponding to a specific input operation by a user (i.e., viewer) watching the content. You can. For example, it may mean an image that is played back as if the user's input operation corresponding to a specific movement of the captured original image is connected to the object in the image moving according to the user's operation.
실시예에서, 압축 영상은 기초 영상을 반응형 영상으로 구현하기 위해 최소 움직임 단위로 압축된 영상을 의미한다. 예를 들어, 기초 영상에 동일한 움직임이 반복적으로 포함된 경우, 압축 영상은 반복되는 움직임을 삭제하고 하나만 남긴 것이다. 또한, 예를 들어, 기초 영상에 제1 위치에서 제2 위치로의 움직임과 제2 위치에서 제1 위치로의 움직임을 모두 포함하는 경우, 압축 영상은 제1 위치에서 제2 위치로 움직이는 기초 영상만으로 남기고, 제2 위치에서 제1 위치로의 움직임은 남겨진 기초 영상을 역방향으로 재생할 수 있다.In an embodiment, a compressed image refers to an image compressed into a minimum movement unit to implement a basic image as a responsive image. For example, if the basic image contains the same movement repeatedly, the compressed image deletes the repeated movement and leaves only one. Additionally, for example, if the base image includes both movement from the first position to the second position and movement from the second position to the first position, the compressed image is the base image moving from the first position to the second position. Leaving it alone, movement from the second position to the first position can play the remaining basic image in the reverse direction.
또한, 다중 반응형 영상 생성 파일은, 복수의 기초 영상이 압축되어 생성된 것으로 사용자의 조작에 따라 여러 동작을 재생할 수 있는 콘텐츠 파일이거나, 하나 이상의 기초 영상과 함께 재생됨에 따라 다중 반응형 영상으로 구현할 수 있는 메타데이터를 의미한다. 실시예에서, 제어모듈(1500)은 중복을 허락하더라도 압축 영상을 생성하지 않고, 반응형 영상을 생성할 수 있다.In addition, a multi-responsive video creation file is a content file created by compressing a plurality of basic images and can play various actions according to the user's manipulation, or can be implemented as a multi-responsive video by being played together with one or more basic images. This means metadata that can be used. In an embodiment, the control module 1500 may generate a responsive image without generating a compressed image even if duplication is allowed.
실시예에서, 제어모듈(1500)은 압축 영상을 사용하지 않고, 반복되는 움직임도 삭제하지 않고 모두 그대로 사용하여, 기초 영상(기초 영상이 반응형 영상일 수도 있음)에서 반응형 영상을 생성하거나 출력할 수 있다.In an embodiment, the control module 1500 does not use compressed images and uses all repeated movements as is without deleting them, thereby generating or outputting a responsive image from a basic image (the basic image may be a responsive image). can do.
이하에서는, 본 개시에 따른 다중 반응형 영상의 생성 방법을 설명하기로 하며, 콘텐츠가 영상인 경우를 가정한다.Hereinafter, a method for generating a multi-responsive video according to the present disclosure will be described, assuming that the content is an video.
제어모듈(1500)은 기초 영상을 획득할 수 있다. 기초 영상은 사용자의 조작에 따른 반응형으로 구현하고자 하는 오브젝트의 움직임을 포함하는 원본 영상일 수 있다. 반응형 영상 제작자(예를 들어, 컨텐츠 공급자 또는 개인 사용자)는 반응형으로 구현하고자 하는 동작이 포함된 영상을 촬영할 수 있다.The control module 1500 can acquire a basic image. The basic image may be an original image that includes the movement of an object to be implemented in a responsive manner according to the user's manipulation. Responsive video creators (e.g., content providers or individual users) can shoot videos containing actions they want to implement in a responsive manner.
실시예에서, 제어모듈(1500)은 사용자로부터 동일한 오브젝트의 여러 움직임에 대한 영상을 획득한 후 다중 반응형 영상의 형태로 생성할 수 있다. 예를 들어, 제어모듈(1500)(190)는 오브젝트가 사용자의 손인 경우, 사용자의 검지손가락을 펼친 상태에서 여러 방향으로 움직이거나 구부리는 복수의 영상을 획득할 수 있다.In an embodiment, the control module 1500 may obtain images of multiple movements of the same object from the user and then generate them in the form of multiple responsive images. For example, when the object is the user's hand, the control module 1500 (190) can acquire a plurality of images of the user's index finger moving or bending in various directions while spread.
또한, 특정한 조작에 따른 반응으로 본인의 머리를 상하좌우로 회전하거나 얼굴 표정 변화가 제공되는 반응형 영상을 제작하고자 하는 경우, 사용자는 원하는 고개 움직임과 표정들이 모두 포함된 영상을 촬영할 수 있다. Additionally, if you want to create a responsive video that rotates your head up, down, left, right, or changes facial expressions in response to a specific manipulation, you can capture an image that includes all of the desired head movements and expressions.
또한, 사용자에 의해 입력되는 조작에 따라 물풍선이 터지거나 바닥에서 튀어져 올라오는 반응형 영상을 생성하고자 하는 경우, 사용자는 동일한 색상 및 크기의 물풍선을 떨어뜨려서 터지는 제1 영상과 물풍선이 터지지 않고 튀어오르는 제2 영상을 순차적으로 촬영할 수 있다.In addition, if you want to create a responsive video in which a water balloon bursts or bounces up from the floor according to a manipulation input by the user, the user must drop a water balloon of the same color and size so that the first image of the popping water balloon and the water balloon are You can sequentially film a second video that bounces without exploding.
또한, 특정한 움직임을 수행한 후 기존 움직임의 반복이 아닌 상이한 사건이 발생하는 하나의 기초 영상을 획득할 수 있다. 즉, 제어모듈(1500)은 오브젝트에 대해 복수의 사건이 발생하는 영상을 기초 영상으로 획득할 수 있다. Additionally, after performing a specific movement, one basic image in which a different event occurs rather than a repetition of an existing movement can be obtained. That is, the control module 1500 can acquire an image in which a plurality of events occur with respect to an object as a basic image.
제어모듈(1500)은 기초 영상을 기반으로 압축 영상을 생성할 수 있다. 압축 영상은 반응형으로 사용자의 조작에 따른 구현하고자 하는 오브젝트의 움직임만을 포함하는 것일 수 있다. 실시예에서, 압축 영상 대신 중복을 허용하는 영상도 적용될 수도 있다.The control module 1500 can generate a compressed image based on the basic image. The compressed video may be responsive and include only the movement of the object to be implemented according to the user's manipulation. In embodiments, images that allow duplication may also be applied instead of compressed images.
제어모듈(1500)은 압축 영상에 대한 다중 반응형 영상 생성조건을 수신할 수 있다. 상기 다중 반응형 영상 생성조건은 상기 압축 영상에서 생성 가능한 반응에 대응하는 복수의 조작입력일 수 있다.The control module 1500 can receive multiple responsive image creation conditions for compressed images. The multi-responsive image creation condition may be a plurality of manipulation inputs corresponding to responses that can be generated from the compressed image.
제어모듈(1500)은 압축 영상의 스택 구조를 생성할 수 있는데, 각 추출영역(가령, 제1추출영역 및 제2추출영역)은 상이한 사건에 대한 복수의 스텍을 포함할 수 있다. 예를 들어, 실선으로 표현되는 제1 스텍과 점선으로 표현되는 제2 스텍을 각 추출영역에 포함할 수 있다. 제어모듈(1500)은 사용자로부터 각 추출영역에 최초 조작이 입력되는 위치를 기반으로 제1스텍과 제2스텍 중에서 실행되는 스텍을 결정하는 것으로 구현될 수 있다. The control module 1500 may generate a stack structure of the compressed image, and each extraction area (e.g., a first extraction area and a second extraction area) may include a plurality of stacks for different events. For example, a first stack represented by a solid line and a second stack represented by a dotted line may be included in each extraction area. The control module 1500 may be implemented by determining the stack to be executed among the first stack and the second stack based on the location where the first operation is input to each extraction area from the user.
또한, 각 추출영역 내 제1 사건과 제2사건은 중첩되는 픽셀을 포함할 수 있고, 제어모듈(1500)은 제1사건에 대한 스텍과 제2사건에 대한 스텍 중에서 중첩되는 픽셀 중 하나만 남길 수 있다. 압축 영상이 특정 추출영역 내의 중첩 픽셀에 대한 데이터를 하나만 포함하더라도, 사용자의 다음 조작(예를 들어, 터치조작의 움직임 방향 또는 가해지는 압력세기의 변화)에 따라 제1사건과 제2사건 중 하나의 스텍이 결정될 수 있다. 이를 통해, 컴퓨터는 최소한의 데이터만으로 압축 영상을 생성할 수 있다.Additionally, the first event and the second event in each extraction area may include overlapping pixels, and the control module 1500 may leave only one of the overlapping pixels among the stack for the first event and the stack for the second event. there is. Even if the compressed image contains only one data about an overlapping pixel within a specific extraction area, one of the first event and the second event depending on the user's next operation (e.g., change in the direction of movement of the touch operation or the intensity of applied pressure) The stack can be determined. Through this, the computer can create compressed images with minimal data.
이하에서, 본 개시의 일 실시 예에 따른 반응형 영상을 생성하기 위한 사용자 인터페이스(User Interface)에 대하여 설명한다. 반응형 영상은 상술된 다중형 반응형 영상 및 다차원 반응형 영상을 포함할 수 있다. Below, a user interface for creating a responsive image according to an embodiment of the present disclosure will be described. Responsive images may include the above-described multi-type responsive images and multi-dimensional responsive images.
도 1은 본 개시의 일 실시예에 따른 조작패턴 기반 반응형 영상 재생 장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a responsive video playback device based on an operation pattern according to an embodiment of the present disclosure.
도 1을 참조하면, 본 개시의 일 실시예에 따른 조작패턴 기반 반응형 영상 재생 장치(이하, '재생 장치'라 칭함)(1000)는 입력모듈(1100), 저장모듈(1200), 핸들러모듈(1300), 재생모듈(1400) 및 제어모듈(또는 프로세서)(1500)을 포함하여 구성될 수 있다.Referring to FIG. 1, an operation pattern-based responsive video playback device (hereinafter referred to as 'playback device') 1000 according to an embodiment of the present disclosure includes an input module 1100, a storage module 1200, and a handler module. It may be configured to include (1300), a playback module (1400), and a control module (or processor) (1500).
먼저, 입력모듈(1100)은 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성되는 디스플레이모듈일 수 있으며, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 재생 장치(1000)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 재생 장치(1000)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.First, the input module 1100 may be a display module that forms a layered structure or is integrated with the touch sensor, and may implement a touch screen. This touch screen can function as a user input unit that provides an input interface between the playback device 1000 and the user, and at the same time, can provide an output interface between the playback device 1000 and the user.
구체적으로, 터치 스크린을 통해 정보가 입력되면, 제어부(1500)은 입력된 정보에 대응되도록 재생 장치(1000)의 동작을 제어할 수 있다. 이때, 정보는 특정 데이터일 수도 있고, 터치 제스처일 수 있다. 일 예로서, 재생 장치(1000)는 소프트웨어적인 처리를 통해 터치 스크린 상에 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)를 표시하거나, 상기 터치 스크린 이외의 부분에 배치되는 터치 키(touch key)를 더 구비할 수도 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. Specifically, when information is input through the touch screen, the control unit 1500 can control the operation of the playback device 1000 to correspond to the input information. At this time, the information may be specific data or a touch gesture. As an example, the playback device 1000 displays a virtual key, soft key, or visual key on the touch screen through software processing, or displays a virtual key, soft key, or visual key on a part other than the touch screen. A touch key may be further provided. Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of .
한편, 터치 스크린이 정전식인 경우에, 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 근접 센서(미도시)가 구성될 수도 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.Meanwhile, when the touch screen is capacitive, a proximity sensor (not shown) may be configured to detect the proximity of a conductive object through a change in the electric field according to the proximity of the object. In this case, the touch screen (or touch sensor) itself can be classified as a proximity sensor.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(1500)은 위와 같이, 근접 센서를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보(데이터, 터치 제스처 등)를 처리하며, 나아가, 처리된 정보에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어모듈(1500)은, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 정보가 처리되도록 재생 장치(1000)를 제어할 수 있다.Meanwhile, for convenience of explanation, the act of approaching an object on the touch screen without touching it so that the object is recognized as being located on the touch screen is called "proximity touch," and the touch The act of actually touching an object on the screen is called “contact touch.” The position at which an object is close-touched on the touch screen means the position at which the object corresponds perpendicularly to the touch screen when the object is close-touched. The proximity sensor may detect a proximity touch and a proximity touch pattern (e.g., proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch location, proximity touch movement state, etc.). Meanwhile, the control unit 1500 processes information (data, touch gestures, etc.) corresponding to the proximity touch operation and proximity touch pattern detected through the proximity sensor, as described above, and further provides visual information corresponding to the processed information. It can be output on the touch screen. Furthermore, the control module 1500 can control the playback device 1000 so that different actions or information are processed depending on whether a touch to the same point on the touch screen is a proximity touch or a contact touch.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린에 가해지는 터치(또는 터치입력)을 감지한다.The touch sensor detects a touch (or touch input) applied to the touch screen using at least one of several touch methods, such as a resistive method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. As an example, a touch sensor may be configured to convert changes in pressure applied to a specific part of the touch screen or capacitance occurring in a specific part into an electrical input signal. The touch sensor may be configured to detect the position, area, pressure at the time of touch, capacitance at the time of the touch, etc., at which the touch object that touches the touch screen is touched on the touch sensor. Here, the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or stylus pen, or a pointer.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기(미도시)는 그 신호(들)를 처리한 다음 대응하는 정보를 제어모듈(1500)로 전송한다. 이로써, 제어모듈(1500)은 터치 스크린의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어모듈(1500)과 별도의 구성요소일 수 있고, 제어모듈(1500) 자체일 수 있다. In this way, when there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. A touch controller (not shown) processes the signal(s) and then transmits corresponding information to the control module 1500. As a result, the control module 1500 can determine which area of the touch screen has been touched. Here, the touch controller may be a separate component from the control module 1500 or may be the control module 1500 itself.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.Meanwhile, the touch sensor and proximity sensor discussed above are used independently or in combination to provide short (or tap) touch, long touch, multi touch, and drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. Touch can be sensed.
한편, 저장모듈(1200)은 적어도 하나의 조작패턴을 기반으로 반응형 영상을 재생하도록 하기 위한 적어도 하나의 프로세스는 물론, 반응형 영상과 관련한 각종 서비스를 제공하거나 다른 동작을 수행하도록 하기 위해 필요한 적어도 하나의 프로세스를 더 저장할 수 있다. 뿐만 아니라, 저장모듈(1200)은 적어도 하나의 조작패턴 각각에 대응하는 영상프레임정보를 저장할 수 있다.Meanwhile, the storage module 1200 includes at least one process for playing a responsive video based on at least one operation pattern, as well as at least one process necessary to provide various services related to the responsive video or perform other operations. One more process can be saved. In addition, the storage module 1200 can store image frame information corresponding to each of at least one manipulation pattern.
또한, 저장모듈(1200)은 재생 장치(1000)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 뿐만 아니라, 저장모듈(1200)은 재생 장치(1000)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application), 생성 장치(1000)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 재생 장치(1000)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 저장모듈에 저장되고, 재생 장치(1000) 상에 설치되어, 제어모듈(1500)에 의하여 재생 장치(1000)의 동작(또는 기능)을 수행하도록 구동될 수 있다.Additionally, the storage module 1200 can store data supporting various functions of the playback device 1000. In addition, the storage module 1200 can store a plurality of application programs (application programs) running on the playback device 1000, data for the operation of the production device 1000, and commands. These applications At least some of the programs may exist for the basic functions of the playback device 1000. Meanwhile, the application program is stored in the storage module, installed on the playback device 1000, and played by the control module 1500. It may be driven to perform the operation (or function) of the device 1000.
특히, 저장모듈(1200)은 적어도 하나의 기초영상데이터 및 그 적어도 하나의 기초영상데이터를 기반으로 생성된 적어도 하나의 반응형 영상이 저장된다. 이때, 기초영상데이터가 저장된 폴더 내에 각종 반응형 영상 생성파일이 함께 포함되어 있거나 데이터베이스 내에 해당하는 반응형 영상 생성파일이 매칭될 수 있다. 이로써, 기초영상데이터를 재생 시에 해당하는 반응형 영상 생성파일을 함께 재생하여 반응형 영상으로 구현 가능하도록 한다. In particular, the storage module 1200 stores at least one basic image data and at least one responsive image generated based on the at least one basic image data. At this time, various responsive image creation files may be included in the folder where the basic image data is stored, or corresponding responsive image creation files may be matched in the database. As a result, it is possible to implement a responsive video by playing the corresponding responsive video creation file when playing basic video data.
또한, 저장모듈(1200)은 복수개의 기초영상데이터 및/또는 복수개의 반응형 영상에 대한 세트 정보와, 각 세트 내에 포함된 복수개의 기초영상데이터 및/또는 복수개의 반응형 영상에 대한 선택 순서에 기반한 재생패턴정보가 저장될 수도 있다. 이때, 재생패턴정보는 복수개의 기초영상데이터 또는 복수개의 반응형 영상에 대해 선택될 수 있는 순서에 대응하는 각각의 재생 패턴을 포함한다.In addition, the storage module 1200 provides set information for a plurality of basic image data and/or a plurality of responsive images, and a selection order for a plurality of basic image data and/or a plurality of responsive images included in each set. Based playback pattern information may be stored. At this time, the playback pattern information includes playback patterns corresponding to the order in which a plurality of basic video data or a plurality of responsive videos can be selected.
한편, 핸들러모듈(1300)은 적어도 하나의 이벤트 중 입력조작에 대응하는 이벤트를 확인하고, 상기 확인된 이벤트에 따라 상기 입력조작에 대한 정보를 포함하는 입력조작정보를 생성하여 전달한다. 이때, 입력조작정보는 그 반응형 영상 내의 특정 대상체에 대한 조작횟수, 조작세기, 이동길이, 조작속도, 조작시간길이, 조작방향 및 조작위치 중 적어도 하나에 대한 정보를 포함할 수 있다. 또한, 상기 적어도 하나의 이벤트는 상기 반응형 영상 내에서 일어나는 적어도 하나의 행위를 나타내는 것으로, 장면 전환(go to scene), 클립영상 재생(play clip), 장면 포인트 조정(adjust scene point), 소리 재생(play sound), 콤보 추가(add to combo), 웹 페이지 열기(open web page), 웹 메시지 보내기(send web message), broadcast event 및 show finale 중 적어도 하나를 포함할 수 있다.Meanwhile, the handler module 1300 confirms an event corresponding to an input manipulation among at least one event, and generates and delivers input manipulation information including information about the input manipulation according to the confirmed event. At this time, the input manipulation information may include information about at least one of the number of manipulations, manipulation strength, movement length, manipulation speed, manipulation time length, manipulation direction, and manipulation position for a specific object in the responsive image. In addition, the at least one event represents at least one action that occurs within the responsive video, such as scene change (go to scene), play clip, adjust scene point, and sound play. It may include at least one of (play sound), add to combo, open web page, send web message, broadcast event, and show finale.
한편, 재생모듈(1400)은 핸들러모듈(1300)에 의해 전달된 입력조작정보를 기반으로 적어도 하나의 조작패턴 중 사용자의 입력조작에 대응하는 조작패턴을 확인한다. 또한, 재생모듈(1400)은 상기 확인된 조작패턴에 대응하는 영상프레임정보를 이용하여 영상데이터를 생성함으로써 반응형 영상에 대한 재생 동작을 수행할 수 있다.Meanwhile, the playback module 1400 determines the manipulation pattern corresponding to the user's input manipulation among at least one manipulation pattern based on the input manipulation information transmitted by the handler module 1300. Additionally, the playback module 1400 can perform a playback operation on a responsive video by generating video data using video frame information corresponding to the confirmed manipulation pattern.
구체적으로, 재생모듈(1400)은 제1 플레이어모듈 및 제2 플레이어모듈을 포함하여 구성될 수 있다.Specifically, the playback module 1400 may include a first player module and a second player module.
먼저, 상기 제1 플레이어모듈은 복수의 영상프레임 중 제1 조작패턴에 대응하는 적어도 하나의 프레임을 추출하여 상기 영상프레임정보를 생성하고, 그 생성된 영상프레임정보를 이용하여 영상데이터를 생성함으로써 입력조작에 따른 반응형 영상을 재생한다.First, the first player module generates the video frame information by extracting at least one frame corresponding to the first operation pattern among a plurality of video frames, and generates video data using the generated video frame information to input the input. Plays a responsive video according to the operation.
또한, 상기 제2 플레이어모듈은 입력조작정보에 의해 사용자의 입력조작에 대한 입력특성이 확인되면, 그 복수의 영상프레임 중 그 확인된 입력특성에 대응하는 제2 조작패턴을 확인한다. 이후, 상기 제2 플레이어모듈은 그 제2 조작패턴에 대응하는 적어도 하나의 프레임을 추출하여 영상프레임정보를 생성하고, 그 생성된 영상프레임정보를 이용하여 영상데이터를 생성함으로써 입력조작에 따른 반응형 영상을 재생한다.Additionally, when the input characteristics of the user's input manipulation are confirmed based on the input manipulation information, the second player module identifies a second manipulation pattern corresponding to the confirmed input characteristics among the plurality of video frames. Afterwards, the second player module extracts at least one frame corresponding to the second operation pattern to generate video frame information, and generates video data using the generated video frame information to create a responsive type according to the input manipulation. Play the video.
여기서, 제1 조작패턴은 사용자의 입력조작에 대응하는 조작패턴으로서 그 입력조작에 대응하여 기본적으로 저장되는 기본조작패턴에 해당한다. 또한, 제2 조작패턴은 각 사용자의 입력특성에 따라 각각 저장되는 조작패턴으로서 사용자의 입력조작에 의해 입력특성이 확인됨에 따라 그 사용자에 대응하는 제2 조작패턴를 확인함으로써 그 확인된 시점부터 제1 조작패턴, 즉, 기본조작패턴의 적용이 중단되고 제2 조작패턴이 적용된다. Here, the first operation pattern is an operation pattern corresponding to the user's input operation and corresponds to a basic operation pattern basically stored in response to the input operation. In addition, the second operation pattern is an operation pattern that is stored according to the input characteristics of each user. As the input characteristics are confirmed by the user's input operation, the second operation pattern corresponding to the user is confirmed, and from the time of confirmation, the first operation pattern is confirmed. Application of the operation pattern, that is, the basic operation pattern, is stopped and the second operation pattern is applied.
다시 말해, 적어도 하나의 조작패턴은 적어도 하나의 이벤트 각각에 대해 기본적으로 설정되는 제1 조작패턴 및 각 사용자의 입력특성이 반영되어 각 사용자 마다 상이하게 저장되는 제2 조작패턴을 포함한다.In other words, the at least one operation pattern includes a first operation pattern that is basically set for each of at least one event and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user.
제어모듈(1500)은 반응형 영상을 제공하기 위한 응용 프로그램과 관련된 동작 외에도, 통상적으로 재생 장치(1000)의 전반적인 동작을 제어할 수 있다. 제어모듈(1500)은 앞서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 상기 응용 프로그램을 구동함으로써, 사용자들에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The control module 1500 may control the overall operation of the playback device 1000 in addition to operations related to an application program for providing responsive video. The control module 1500 can provide or process appropriate information or functions to users by processing signals, data, information, etc. input or output through the components discussed above, or by running the application program.
먼저, 제어모듈(1500)은 적어도 하나의 대상체가 포함된 적어도 하나의 기초영상데이터가 입력되고, 그 적어도 하나의 대상체 중 특정 대상체가 지정되면, 상기 기초영상데이터 상에서 상기 지정된 특정 대상체와 관련한 재생구간을 설정한다. 이때, 특정 대상체는 상기 기초영상데이터의 제공자의 선택에 의해 지정될 수도 있으나, 상기 기초영상데이터 내에서 특성 변화가 감지되는 특정 대상체를 자동으로 지정할 수도 있다. 상기 특성 변화는 움직임 변화, 해상도 변화, 선명도 변화 중 적어도 하나를 포함할 수 있다.First, when at least one basic image data including at least one object is input, and a specific object among the at least one objects is designated, the control module 1500 selects a playback section related to the designated specific object on the basic video data. Set . At this time, a specific object may be designated by selection by the provider of the basic image data, or a specific object for which a characteristic change is detected within the basic image data may be automatically designated. The characteristic change may include at least one of a motion change, a resolution change, and a sharpness change.
또한, 제어모듈(1500)은 상기 설정된 재생구간에 포함된 복수의 프레임으로 구성된 영상데이터를 생성하고, 상기 특정 대상체의 상태 변화에 따라 입력조작의 조작패턴을 결정한 후, 복수의 프레임에서 상기 특정 대상체를 기준으로 터치 영역을 각각 설정하고, 상기 설정된 각각의 터치 영역에 상기 입력조작의 조작패턴을 적용하여 반응형 영상을 생성한다. In addition, the control module 1500 generates image data consisting of a plurality of frames included in the set playback section, determines the operation pattern of the input operation according to the change in the state of the specific object, and then selects the specific object in the plurality of frames. Each touch area is set based on , and a responsive image is generated by applying the operation pattern of the input operation to each set touch area.
여기서, 적어도 하나의 기초영상데이터는 사용자의 입력조작에 의해 반응형으로 구현하고자 하는 대상체의 움직임을 포함하는 원본 영상일 수 있다. 여기서, 상기 입력조작은 연속되는 제스처를 기반으로 하고, 터치 제스처일 수 있으며, 터치 제스처의 조작패턴은 드래그(drag), 로테이트(rotate), 러버(rubber), 핀치(pinch) 및 스프레드(spread) 중 어느 하나를 기반으로 구성될 수 있다.Here, at least one basic image data may be an original image including the movement of an object to be implemented in a responsive manner by a user's input manipulation. Here, the input operation is based on continuous gestures and may be a touch gesture, and the operation pattern of the touch gesture is drag, rotate, rubber, pinch, and spread. It can be configured based on any one of the following.
구체적으로, 제어모듈(1500)은 터치 영역을 각각 설정 시에, 해당 영상데이터에 포함된 복수의 프레임 상에 결합하는 가상레이어를 생성하고, 복수의 세부셀로 가상레이어를 분할한 후, 그 복수의 프레임에서 각각의 세부셀에 대응되는 프레임을 상호 맵핑한다. 이때, 제어모듈(1500)은 복수의 프레임 각각에서 특정 대상체에 대한 특징점을 인식하고, 그 각각의 특징점의 위치를 파악하여 특정 대상체의 이동경로를 확인한 후, 그 이동경로를 포함하도록 가상레이어를 생성한다. 또한, 제어모듈(1500)은 가상레이어를 분할 시에 각각의 특징점의 위치를 가상레이어 상에 투영시키고, 그 각각의 특징점의 위치 사이를 분할하여 복수의 세부셀을 생성한다.Specifically, when setting each touch area, the control module 1500 creates a virtual layer that combines on a plurality of frames included in the corresponding image data, divides the virtual layer into a plurality of detailed cells, and then divides the virtual layer into a plurality of detailed cells. In the frame, the frames corresponding to each detailed cell are mapped to each other. At this time, the control module 1500 recognizes feature points for a specific object in each of a plurality of frames, determines the location of each feature point, confirms the movement path of the specific object, and then creates a virtual layer to include the movement path. do. Additionally, when dividing a virtual layer, the control module 1500 projects the position of each feature point onto the virtual layer and creates a plurality of detailed cells by dividing the positions of each feature point.
만약, 제어모듈(1500)은 각각의 특징점의 위치가 제1 위치에서 제2 위치로 이동하는 것으로 파악된 경우, 상기 제1 위치에서 상기 제2 위치로의 이동방향을 기반으로 복수의 세부셀 및 가상레이어의 형태를 결정한다. If the control module 1500 determines that the position of each feature point moves from the first position to the second position, the control module 1500 generates a plurality of detailed cells and Determines the shape of the virtual layer.
한편, 제어모듈(1500)은 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치가 이루어지는 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 상기 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할지는 현재 재생 장치(1000)의 동작 상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the control module 1500 may perform different controls or perform the same control depending on the type of object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different controls or the same controls depending on the type of object may be determined depending on the current operating state of the playback device 1000 or the application program being executed.
또한, 제어모듈(1500)은 상기 영상데이터에서 생성 가능한 반응에 대응하는 복수의 입력조작에 대한 반응형 영상 생성조건을 생성하고, 상기 반응형 영상 생성조건을 상기 영상데이터에 적용하여 반응형 영상을 생성한다. 여기서, 영상데이터는 상기 적어도 하나의 기초영상데이터를 분할 또는 보정하여 생성된 이미지의 조합에 대한 정보를 포함하는 스텍 구조의 데이터이고, 상기 반응형 영상 생성조건은 상기 영상데이터의 특정 영역에 결합되어 반응형으로 구현하기 위한 정보를 포함하는 데이터를 포함할 수 있다.In addition, the control module 1500 generates responsive image creation conditions for a plurality of input operations corresponding to reactions that can be generated from the image data, and applies the responsive image creation conditions to the image data to create a responsive image. Create. Here, the image data is data in a stack structure that includes information about the combination of images created by dividing or correcting the at least one basic image data, and the responsive image creation condition is coupled to a specific area of the image data. It may contain data containing information for responsive implementation.
이후, 제어모듈(1500)은 그 생성된 반응형 영상을 서비스 제공을 위한 플랫폼 상에 등록하되, 저장모듈(1200)에 저장된 세트 정보에 따라 복수개의 반응형 영상을 하나의 세트로서 등록할 수도 있다. 적어도 하나의 세트가 구성될 수 있는데, 이때 하나의 반응형 영상이 여러 세트에 중복되어 포함될 수 있다.Afterwards, the control module 1500 registers the generated responsive images on a platform for service provision, and may register a plurality of responsive images as one set according to the set information stored in the storage module 1200. . At least one set may be configured, and in this case, one responsive video may be included in multiple sets.
또한, 제어모듈(1500)은 재생구간에 포함된 전체 프레임들 중 기 설정된 시간 간격마다 프레임을 추출하여 복수의 프레임을 구성하고, 그 복수의 프레임을 시간순으로 순차적으로 배열하여 영상데이터를 생성할 수 있다.In addition, the control module 1500 extracts frames at preset time intervals from among all frames included in the playback section to form a plurality of frames, and sequentially arranges the plurality of frames in chronological order to generate image data. there is.
한편, 제어모듈(1300)은 앞서 설명한 입력모듈(1100), 저장모듈(1200), 핸들러모듈(1300) 및 재생모듈(1400)을 제어하여 적어도 하나의 프로세스를 기반으로 상기 반응형 영상을 재생시키기 위한 일련의 동작이 수행되도록 한다. Meanwhile, the control module 1300 controls the input module 1100, storage module 1200, handler module 1300, and playback module 1400 described above to play the responsive video based on at least one process. Ensure that a series of operations are performed.
구체적으로, 제어모듈(1500)은 반응형 영상에 대한 재생 동작을 수행 시에 입력조작에 대응하는 제1 조작패턴을 적용하여 반응형 영상에 대한 재생 동작을 수행하되, 상기 재생 동작을 수행하는 중에 입력조작정보에 의한 사용자의 입력특성이 확인되면, 제1 조작패턴의 적용을 중단하고, 상기 확인된 입력특성에 대응하는 제2 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행하도록 제어한다.Specifically, when performing a playback operation for a responsive image, the control module 1500 performs a playback operation for a responsive image by applying a first operation pattern corresponding to an input operation, while performing the playback operation. When the user's input characteristics are confirmed according to the input manipulation information, the application of the first manipulation pattern is stopped, and the second manipulation pattern corresponding to the confirmed input characteristics is applied to perform a playback operation for the responsive video. do.
한편, 제어모듈(1500)은 기 저장된 딥러닝 학습모델에 입력조작정보 및 그 입력조작에 따른 영상데이터(입력조작에 따라 출력되는 영상데이터 또는 입력조작에 따른 반응형 영상 내의 특정 대상체에 대한 움직임/상태 변화)를 입력함으로써 사용자의 입력조작에 대한 입력특성을 확인할 수 있다. Meanwhile, the control module 1500 stores input manipulation information and image data according to the input manipulation (image data output according to the input manipulation or movement/movement of a specific object in the responsive video according to the input manipulation) to the pre-stored deep learning learning model. By entering a state change), you can check the input characteristics of the user's input operation.
또한, 제어모듈(1500)은 상기 확인된 입력특성이 반영된 제2 조작패턴을 각 사용자 마다 구분하여 저장함으로써, 입력조작의 입력특성에 따른 사용자가 확인되면, 상기 확인된 사용자의 상기 입력조작에 대응하는 기 저장된 제2 조작패턴을 기반으로 프레임을 추출하여 영상데이터를 생성할 수 있다. In addition, the control module 1500 stores the second operation pattern reflecting the confirmed input characteristics separately for each user, so that when a user according to the input characteristics of the input operation is confirmed, the control module 1500 responds to the input operation of the confirmed user. Image data can be generated by extracting a frame based on a pre-stored second manipulation pattern.
나아가, 제어모듈(1500)은 제2 조작패턴을 저장할 시에 이를 기반으로 하는 영상데이터를 생성하여 제2 조작패턴과 맵핑하여 미리 저장해둘 수 있다. 즉, 제2 조작패턴만 확인이 되면, 이를 기반으로 영상데이터를 별도로 생성할 필요없이 그 제2 조작패턴에 맵핑된 영상데이터를 불러와 재생시키면 되는 것이다.Furthermore, when storing the second manipulation pattern, the control module 1500 may generate image data based on this, map it to the second manipulation pattern, and store it in advance. In other words, if only the second manipulation pattern is confirmed, the video data mapped to the second manipulation pattern can be loaded and played without the need to separately generate video data based on it.
이 경우, 제어모듈(1500)은 확인된 입력특성에 대응하는 제2 조작패턴을 적용할 시, 그 제2 조작패턴에 대응하는 영상프레임정보 또는 영상데이터가 기 생성(저장)되어 있는 것을 확인하였다면, 기 생성된 영상프레임정보 또는 영상데이터를 그대로 이용할 수 있다.In this case, when applying the second operation pattern corresponding to the confirmed input characteristic, the control module 1500 confirms that image frame information or image data corresponding to the second operation pattern has already been created (stored). , pre-generated video frame information or video data can be used as is.
한편, 도 14에는 도시하지 않았으나, 통신모듈, 자원관리모듈, 레이아웃관리모듈 등을 더 구비할 수 있으며, 그 외 구성요소들이 추가되거나 일부 구성이 제외될 수도 있다.Meanwhile, although not shown in FIG. 14, a communication module, a resource management module, a layout management module, etc. may be further provided, and other components may be added or some components may be excluded.
이때, 통신모듈(미도시)은 적어도 하나의 사용자 단말과 적어도 하나의 정보 또는 데이터를 송수신한다. 여기서, 적어도 하나의 사용자 단말은 반응형 영상과 관련한 각종 서비스를 제공받고자 하는 사용자의 단말로서, 플랫폼, 웹 페이지 등을 통해 반응형 영상과 관련한 각종 서비스를 이용할 수 있으며, 그 제공 방식 및 수단을 한정하지 않는다.At this time, the communication module (not shown) transmits and receives at least one information or data to at least one user terminal. Here, at least one user terminal is a terminal of a user who wishes to receive various services related to responsive video, and can use various services related to responsive video through platforms, web pages, etc., and limits the method and means of providing them. I never do that.
또한, 상기 통신모듈은 그 외 다른 장치들과의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다. In addition, the communication module may include one or more components that enable communication with other devices, for example, at least one of a wired communication module, a wireless communication module, a short-distance communication module, and a location information module. may include.
그 외, 제어모듈(1500)의 구체적인 동작에 대해서는 이하에서 각각의 도면을 기반으로 설명하도록 한다.In addition, specific operations of the control module 1500 will be described below based on each drawing.
도 2는 본 개시의 실시예에 따른 반응형 영상의 종류에 따라 영상데이터들을 처리하여 재생하는 동작을 나타내는 순서도이다.Figure 2 is a flowchart showing the operation of processing and playing video data according to the type of responsive video according to an embodiment of the present disclosure.
도 2를 참조하면, 재생 장치(1000)의 제어모듈(1500)은 반응형 영상을 디스플레이하고, 그 반응형 영상에 대한 사용자의 입력조작을 감지하고(S2100), 사용자의 입력조작이 감지되면, 적어도 하나의 이벤트 중 그 입력조작에 대응하는 이벤트를 확인한다(S2200).Referring to FIG. 2, the control module 1500 of the playback device 1000 displays a responsive image, detects the user's input operation for the responsive image (S2100), and when the user's input operation is detected, Among at least one event, the event corresponding to the input operation is checked (S2200).
그 다음으로, 제어모듈(1500)은 S2200 단계에 의해 확인된 이벤트에 따라 입력조작에 대한 정보를 포함하는 입력조작정보를 생성하여 전달하고(S2300), 그 입력조작정보를 기반으로 적어도 하나의 조작패턴 중 입력조작에 대응하는 조작패턴을 확인한다(S2400).Next, the control module 1500 generates and transmits input manipulation information including information about the input manipulation according to the event confirmed in step S2200 (S2300), and performs at least one manipulation based on the input manipulation information. Among the patterns, check the operation pattern corresponding to the input operation (S2400).
그 다음으로, 제어모듈(1500)은 S2400 단계에 의해 확인된 조작패턴에 대응하는 영상프레임정보를 이용하여 영상데이터를 생성함으로써 반응형 영상에 대한 재생 동작을 수행한다(S2500).Next, the control module 1500 performs a playback operation on the responsive video by generating video data using video frame information corresponding to the manipulation pattern confirmed in step S2400 (S2500).
도 3은 본 개시의 일 실시예에 따른 조작패턴 기반 반응형 영상 재생 방법에서 반응형 영상에 대한 재생 동작을 수행하는 구체적인 동작을 나타내는 도면이다.FIG. 3 is a diagram illustrating a specific operation of performing a playback operation for a responsive video in the operation pattern-based responsive video playback method according to an embodiment of the present disclosure.
도 3을 참조하면, 재생 장치(1000)의 제어모듈(1500)은 반응형 영상에 대한 재생 동작을 수행 시에, 그 입력조작에 대응하는 제1 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행한다(S2510).Referring to FIG. 3, when performing a playback operation for a responsive video, the control module 1500 of the playback device 1000 applies a first operation pattern corresponding to the input operation to play the responsive video. Perform the operation (S2510).
그 다음으로, 제어모듈(1500)은 그 재생 동작을 수행하면서 S2300 단계에 의해 생성된 입력조작정보를 기반으로 입력특성을 확인하고(S2520), 그 확인된 입력특성에 대응하는 제2 조작패턴이 존재하는지 여부를 확인한다(S2530).Next, the control module 1500 performs the playback operation and checks the input characteristics based on the input manipulation information generated in step S2300 (S2520), and creates a second manipulation pattern corresponding to the confirmed input characteristics. Check whether it exists (S2530).
만약, S2530 단계에 따른 확인 결과, 제어모듈(1500)은 그 입력특성에 대응하는 제2 조작패턴이 존재하는 것으로 확인된 경우, 현재 재생 동작을 위해 제1 조작패턴의 적용을 중단한다(S2540).If, as a result of confirmation in step S2530, it is confirmed that a second manipulation pattern corresponding to the input characteristic exists, the control module 1500 stops applying the first manipulation pattern for the current playback operation (S2540) .
그 다음으로, 제어모듈(1500)은 그 확인된 제2 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행한다(S2550).Next, the control module 1500 performs a playback operation for the responsive video by applying the confirmed second operation pattern (S2550).
한편, 도 3에는 도시하지 않았으나, 제어모듈(1500)은 S2530 단계에 따른 확인 결과, 그 입력특성에 대응하는 제2 조작패턴이 존재하지 않는 것으로 확인된 경우, 새로운 사용자인 것으로 간주하고, 그 입력특성을 반영하여 그 사용자에 대응하는 제2 조작패턴을 추가적으로 저장한다. 즉, 데이터베이스에 저장된 제2 조작패턴을 갱신(업데이트) 할 수 있다.Meanwhile, although not shown in FIG. 3, when the control module 1500 determines that a second operation pattern corresponding to the input characteristic does not exist as a result of checking in step S2530, it is regarded as a new user and the input A second operation pattern corresponding to the user is additionally stored by reflecting the characteristics. That is, the second operation pattern stored in the database can be updated.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 제어모듈(1500)(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 제어모듈(1500)가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 제어모듈(1500)가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 제어모듈(1500)가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program is C, C++, and It may include code encoded in a computer language such as JAVA or machine language. These codes may include functional codes related to functions that define the necessary functions for executing the methods, and related execution procedures necessary for the control module 1500 of the computer to execute the functions according to predetermined procedures. May contain control code. In addition, this code contains a memory reference code indicating which location (address address) of the computer's internal or external memory the additional information or media required for the computer's control module 1500 to execute the above functions should be referenced. More may be included. In addition, if the computer's control module 1500 needs to communicate with any other remote computer or server to execute the functions, the code can be sent to any other remote computer using the computer's communication module. It may further include communication-related codes on how to communicate with a server, etc., and what information or media should be transmitted and received during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory. Specifically, examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers that the computer can access or on various recording media on the user's computer. Additionally, the medium may be distributed to computer systems connected to a network, and computer-readable code may be stored in a distributed manner.
본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with the embodiments of the present disclosure may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which this disclosure pertains.
이상, 첨부된 도면을 참조로 하여 본 개시의 실시예를 설명하였지만, 본 개시가 속하는 기술분야의 통상의 기술자는 본 개시가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present disclosure have been described with reference to the attached drawings, but those skilled in the art will understand that the present disclosure can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

Claims (10)

  1. 반응형 영상을 디스플레이하고, 사용자로부터 입력조작을 감지하는 입력모듈;An input module that displays responsive images and detects input operations from the user;
    적어도 하나의 조작패턴을 기반으로 반응형 영상을 재생하도록 하기 위한 적어도 하나의 프로세스를 저장하고, 상기 적어도 하나의 조작패턴 각각에 대응하는 영상프레임정보를 저장하는 저장모듈;a storage module that stores at least one process for playing a responsive video based on at least one operation pattern and stores image frame information corresponding to each of the at least one operation pattern;
    적어도 하나의 이벤트 중 상기 입력조작에 대응하는 이벤트를 확인하고, 상기 확인된 이벤트에 따라 상기 입력조작에 대한 정보를 포함하는 입력조작정보를 생성하여 전달하는 핸들러모듈;a handler module that identifies an event corresponding to the input operation among at least one event, and generates and transmits input operation information including information about the input operation according to the confirmed event;
    상기 입력조작정보를 기반으로 상기 적어도 하나의 조작패턴 중 상기 입력조작에 대응하는 조작패턴을 확인하고, 상기 확인된 조작패턴에 대응하는 영상프레임정보를 이용하여 영상데이터를 생성함으로써 상기 반응형 영상에 대한 재생 동작을 수행하는 재생모듈; 및Based on the input operation information, the operation pattern corresponding to the input operation among the at least one operation pattern is confirmed, and image data is generated using the image frame information corresponding to the confirmed operation pattern to display the responsive video. a playback module that performs playback operations; and
    상기 적어도 하나의 프로세스를 기반으로 상기 반응형 영상을 재생시키기 위한 일련의 제어 동작을 수행하는 제어모듈을 포함하며,It includes a control module that performs a series of control operations for playing the responsive video based on the at least one process,
    상기 적어도 하나의 조작패턴은, 상기 적어도 하나의 이벤트 각각에 대해 기본적으로 설정되는 제1 조작패턴 및 각 사용자의 입력특성이 반영되어 상기 각 사용자 마다 상이하게 저장되는 제2 조작패턴을 포함하는 것을 특징으로 하는,The at least one operation pattern includes a first operation pattern that is basically set for each of the at least one event and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user. to,
    반응형 영상 재생 장치.Responsive video playback device.
  2. 제1항에 있어서,According to paragraph 1,
    상기 제어모듈은,The control module is,
    상기 반응형 영상에 대한 재생 동작을 수행 시에,When performing a playback operation for the responsive video,
    상기 입력조작에 대응하는 제1 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행하되, 상기 재생 동작을 수행하는 중에 상기 입력조작정보에 의해 입력특성이 확인되면, 상기 제1 조작패턴의 적용을 중단하고, A playback operation for the responsive video is performed by applying a first operation pattern corresponding to the input operation, and if the input characteristic is confirmed by the input operation information while performing the playback operation, the first operation pattern is used. stop applying,
    상기 확인된 입력특성에 대응하는 제2 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행하는 것을 특징으로 하는,Characterized in performing a playback operation on the responsive video by applying a second operation pattern corresponding to the confirmed input characteristic,
    반응형 영상 재생 장치.Responsive video playback device.
  3. 제2항에 있어서,According to paragraph 2,
    상기 제어모듈은,The control module is,
    기 저장된 딥러닝 학습모델에 상기 입력조작정보 및 상기 영상데이터를 입력하여 상기 각 사용자의 입력특성을 확인하고, 상기 확인된 입력특성이 반영된 상기 제2 조작패턴을 상기 각 사용자 마다 저장하는 것을 특징으로 하는,Characterized by inputting the input manipulation information and the image data into a pre-stored deep learning learning model to confirm the input characteristics of each user, and storing the second manipulation pattern reflecting the confirmed input characteristics for each user. doing,
    반응형 영상 재생 장치.Responsive video playback device.
  4. 제3항에 있어서,According to paragraph 3,
    상기 입력조작정보는,The input operation information is,
    상기 반응형 영상 내의 특정 대상체에 대한 조작횟수, 조작세기, 이동길이, 조작속도, 조작시간길이, 조작방향 및 조작위치 중 적어도 하나에 대한 정보를 포함하는 것을 특징으로 하는,Characterized in that it includes information on at least one of the number of manipulations, manipulation intensity, movement length, manipulation speed, manipulation time length, manipulation direction, and manipulation position for a specific object in the responsive image.
    반응형 영상 재생 장치.Responsive video playback device.
  5. 제4항에 있어서,According to paragraph 4,
    상기 재생모듈은,The playback module is,
    복수의 영상프레임 중 상기 제1 조작패턴에 대응하는 적어도 하나의 프레임을 추출하여 상기 영상프레임정보를 생성하고, 상기 생성된 영상프레임정보를 이용하여 상기 반응형 영상을 재생하는 제1 플레이어모듈; 및a first player module that generates video frame information by extracting at least one frame corresponding to the first manipulation pattern among a plurality of video frames, and plays the responsive video using the generated video frame information; and
    상기 입력조작정보에 의해 입력특성이 확인되면, 상기 복수의 영상프레임 중 상기 확인된 입력특성에 대응하는 상기 제2 조작패턴을 확인하고, 상기 제2 조작패턴에 대응하는 적어도 하나의 프레임을 추출하여 상기 영상프레임정보를 생성하고, 상기 생성된 영상프레임정보를 이용하여 상기 반응형 영상을 재생하는 제2 플레이모듈을 포함하는 것을 특징으로 하는,When the input characteristic is confirmed by the input manipulation information, the second manipulation pattern corresponding to the confirmed input characteristic among the plurality of video frames is confirmed, and at least one frame corresponding to the second manipulation pattern is extracted Characterized in that it includes a second play module that generates the video frame information and plays the responsive video using the generated video frame information.
    반응형 영상 재생 장치.Responsive video playback device.
  6. 제5항에 있어서,According to clause 5,
    상기 제어모듈은,The control module is,
    상기 확인된 입력특성에 대응하는 제2 조작패턴을 적용할 시,When applying the second operation pattern corresponding to the confirmed input characteristics,
    상기 제2 조작패턴에 대응하는 영상프레임정보가 기 저장되어 있는 경우, 기 생성된 영상프레임정보를 이용하도록 하는 것을 특징으로 하는, When video frame information corresponding to the second operation pattern is previously stored, the previously generated video frame information is used,
    반응형 영상 재생 장치.Responsive video playback device.
  7. 장치에 의해 수행되는, 조작패턴 기반 반응형 영상 재생 방법에 있어서,In a manipulation pattern-based responsive video playback method performed by a device,
    반응형 영상을 디스플레이하고, 상기 반응형 영상에 대한 사용자의 입력조작을 감지하는 단계;Displaying a responsive image and detecting a user's input operation on the responsive image;
    상기 입력조작이 감지되면, 적어도 하나의 이벤트 중 상기 입력조작에 대응하는 이벤트를 확인하는 단계;When the input manipulation is detected, checking an event corresponding to the input manipulation among at least one event;
    상기 확인된 이벤트에 따라 상기 입력조작에 대한 정보를 포함하는 입력조작정보를 생성하여 전달하는 단계;generating and delivering input operation information including information about the input operation according to the confirmed event;
    상기 입력조작정보를 기반으로 적어도 하나의 조작패턴 중 상기 입력조작에 대응하는 조작패턴을 확인하는 단계; 및Confirming an operation pattern corresponding to the input operation among at least one operation pattern based on the input operation information; and
    상기 확인된 조작패턴에 대응하는 영상프레임정보를 이용하여 영상데이터를 생성함으로써 상기 반응형 영상에 대한 재생 동작을 수행하는 단계를 포함하고,A step of performing a playback operation on the responsive video by generating video data using video frame information corresponding to the confirmed manipulation pattern,
    상기 적어도 하나의 조작패턴은, 상기 적어도 하나의 이벤트 각각에 대해 기본적으로 설정되는 제1 조작패턴 및 각 사용자의 입력특성이 반영되어 상기 각 사용자 마다 상이하게 저장되는 제2 조작패턴을 포함하는 것을 특징으로 하는,The at least one operation pattern includes a first operation pattern that is basically set for each of the at least one event and a second operation pattern that is stored differently for each user by reflecting the input characteristics of each user. to,
    반응형 영상 재생 방법.How to play responsive video.
  8. 제7항에 있어서,In clause 7,
    상기 반응형 영상에 대한 재생 동작을 수행하는 단계는,The step of performing a playback operation on the responsive video is,
    상기 입력조작에 대응하는 제1 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행하되, 상기 재생 동작을 수행하는 중에 상기 입력조작정보에 의해 입력특성이 확인되면, 상기 제1 조작패턴의 적용을 중단하고, A playback operation for the responsive video is performed by applying a first operation pattern corresponding to the input operation, and if the input characteristic is confirmed by the input operation information while performing the playback operation, the first operation pattern is used. stop applying,
    상기 확인된 입력특성에 대응하는 제2 조작패턴을 적용하여 상기 반응형 영상에 대한 재생 동작을 수행하는 것을 특징으로 하는,Characterized in performing a playback operation on the responsive video by applying a second operation pattern corresponding to the confirmed input characteristic,
    반응형 영상 재생 방법.How to play responsive video.
  9. 제8항에 있어서,According to clause 8,
    상기 반응형 영상에 대한 재생 동작을 수행하는 단계는,The step of performing a playback operation on the responsive video is,
    기 저장된 딥러닝 학습모델에 상기 입력조작정보 및 상기 영상데이터를 입력하여 상기 각 사용자의 입력특성을 확인하고, 상기 확인된 입력특성이 반영된 상기 제2 조작패턴을 상기 각 사용자 마다 저장하는 것을 특징으로 하는,Characterized by inputting the input manipulation information and the image data into a pre-stored deep learning learning model to confirm the input characteristics of each user, and storing the second manipulation pattern reflecting the confirmed input characteristics for each user. doing,
    반응형 영상 재생 방법.How to play responsive video.
  10. 제9항에 있어서,According to clause 9,
    상기 입력조작정보는,The input operation information is,
    상기 반응형 영상 내의 특정 대상체에 대한 조작횟수, 조작세기, 이동길이, 조작속도, 조작시간길이, 조작방향 및 조작위치 중 적어도 하나에 대한 정보를 포함하는 것을 특징으로 하는,Characterized in that it includes information on at least one of the number of manipulations, manipulation intensity, movement length, manipulation speed, manipulation time length, manipulation direction, and manipulation position for a specific object in the responsive image.
    반응형 영상 재생 방법.How to play responsive video.
PCT/KR2023/015424 2022-10-07 2023-10-06 Apparatus and method for playing responsive video based on operation pattern WO2024076206A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0128759 2022-10-07
KR20220128759 2022-10-07
KR1020230132330A KR20240049182A (en) 2022-10-07 2023-10-05 Apparatus and method for generating responsive video based on user gesture
KR10-2023-0132330 2023-10-05

Publications (1)

Publication Number Publication Date
WO2024076206A1 true WO2024076206A1 (en) 2024-04-11

Family

ID=90608459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015424 WO2024076206A1 (en) 2022-10-07 2023-10-06 Apparatus and method for playing responsive video based on operation pattern

Country Status (1)

Country Link
WO (1) WO2024076206A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200001574A (en) * 2016-09-07 2020-01-06 이철우 Device, method and program for making multi-dimensional reactive video, and method and program for playing multi-dimensional reactive video
KR20200120215A (en) * 2019-04-12 2020-10-21 조성원 Interactive digital signage advertising system that combines location-based technology and data and method of providing advertisement service
KR20200125527A (en) * 2019-04-26 2020-11-04 이철우 Method and program for producing multi reactive video, and generate meta data to make multi reactive video, and analyze into interaction data to understand human act
KR20210001069A (en) * 2019-06-26 2021-01-06 주식회사 엘지유플러스 Apparatus and method for displaying video contents
US20220191454A1 (en) * 2017-12-22 2022-06-16 Magic Leap, Inc. Methods and system for generating and displaying 3d videos in a virtual, augmented, or mixed reality environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200001574A (en) * 2016-09-07 2020-01-06 이철우 Device, method and program for making multi-dimensional reactive video, and method and program for playing multi-dimensional reactive video
US20220191454A1 (en) * 2017-12-22 2022-06-16 Magic Leap, Inc. Methods and system for generating and displaying 3d videos in a virtual, augmented, or mixed reality environment
KR20200120215A (en) * 2019-04-12 2020-10-21 조성원 Interactive digital signage advertising system that combines location-based technology and data and method of providing advertisement service
KR20200125527A (en) * 2019-04-26 2020-11-04 이철우 Method and program for producing multi reactive video, and generate meta data to make multi reactive video, and analyze into interaction data to understand human act
KR20210001069A (en) * 2019-06-26 2021-01-06 주식회사 엘지유플러스 Apparatus and method for displaying video contents

Similar Documents

Publication Publication Date Title
JP7457082B2 (en) Reactive video generation method and generation program
WO2014088343A1 (en) Display device and method of controlling the same
WO2013103275A1 (en) Method and apparatus for implementing multi-vision system by using multiple portable terminals
WO2014088355A1 (en) User terminal apparatus and method of controlling the same
WO2014017790A1 (en) Display device and control method thereof
JP5306457B2 (en) Information control system and device network method by hand movement
JP6289100B2 (en) Information processing apparatus, information processing method, and program
EP2182522A1 (en) Information processing
WO2016080596A1 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
WO2013125789A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium
WO2013191488A1 (en) Apparatus including a touch screen and screen change method thereof
WO2006011399A1 (en) Information processing device and method, recording medium, and program
WO2021258917A1 (en) Intelligent interaction method and device, and storage medium
KR101419871B1 (en) Apparatus and method for editing subtitles
WO2024076206A1 (en) Apparatus and method for playing responsive video based on operation pattern
WO2021197260A1 (en) Note creating method and electronic device
CN111679772B (en) Screen recording method and system, multi-screen device and readable storage medium
WO2018048227A1 (en) Device, method and program for generating multidimensional reaction-type image, and method and program for reproducing multidimensional reaction-type image
WO2024076205A1 (en) Device and method for providing reactive video from which flickering is removed by using background image
WO2024076202A1 (en) Electronic device for generating reactive image on basis of comparison between plurality of frames, and method therefor
JP4216881B2 (en) Terminal monitoring device and program for terminal monitoring device
EP3662357A1 (en) Display apparatus for providing preview ui and method of controlling display apparatus
KR20240049182A (en) Apparatus and method for generating responsive video based on user gesture
WO2024076201A1 (en) Electronic device for playing back responsive video on basis of intention and emotion of input operation on responsive video, and method therefor
WO2024076200A1 (en) Electronic device providing user interface for generating responsive image, and method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23875267

Country of ref document: EP

Kind code of ref document: A1