WO2024076205A1 - 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법 - Google Patents

백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법 Download PDF

Info

Publication number
WO2024076205A1
WO2024076205A1 PCT/KR2023/015422 KR2023015422W WO2024076205A1 WO 2024076205 A1 WO2024076205 A1 WO 2024076205A1 KR 2023015422 W KR2023015422 W KR 2023015422W WO 2024076205 A1 WO2024076205 A1 WO 2024076205A1
Authority
WO
WIPO (PCT)
Prior art keywords
responsive
video
video data
image
control module
Prior art date
Application number
PCT/KR2023/015422
Other languages
English (en)
French (fr)
Inventor
이철우
Original Assignee
이철우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230132329A external-priority patent/KR20240049181A/ko
Application filed by 이철우 filed Critical 이철우
Publication of WO2024076205A1 publication Critical patent/WO2024076205A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces

Definitions

  • the present disclosure relates to an apparatus and method for providing a responsive image, and more specifically, the present disclosure relates to an apparatus and method for providing a responsive image in which flicker is removed using a background image.
  • Video playback is provided unilaterally in chronological order without interaction with the viewer. In other words, the viewer can only feel the visual sense through the video being played.
  • the user's interest can be stimulated.
  • the present disclosure extracts a background image for each of a plurality of video data included in a responsive video and uses the background image between video data according to the user's touch gesture (operation) when playing the responsive video, thereby enabling Flickr
  • the aim is to provide a responsive video providing device and method that prevents the phenomenon and enables smooth playback of the responsive video.
  • a responsive image providing device for achieving the above-described technical problem includes a touch screen that displays a responsive image and receives a user's touch gesture; and a control module that controls a playback operation of the responsive video in response to the touch gesture, wherein the control module selects video data corresponding to the touch gesture among a plurality of video data included in the responsive video. It is possible to extract, extract a background image of each of the video data, and arrange and reproduce each background image between the video data.
  • a method for providing a responsive image includes, when a user's touch gesture is received, extracting image data corresponding to the touch gesture from a plurality of image data included in the responsive image; Extracting a background image from each of the video data; And it may include arranging and playing each background image between the video data.
  • a computer program stored in a computer-readable recording medium for executing the method for implementing the present disclosure may be further provided.
  • a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.
  • the background image for each of the plurality of image data included in the responsive image is extracted and the image data according to the user's touch gesture (operation) is divided when the responsive image is played.
  • flicker is prevented and smooth playback of the responsive video is possible.
  • FIG. 1 is a block diagram showing the configuration of a responsive image providing device according to an embodiment of the present disclosure.
  • Figure 2 is a flowchart showing a method of providing a responsive image according to an embodiment of the present disclosure.
  • Figure 3 is a flowchart showing the operation of processing image data corresponding to a touch gesture for a type of responsive image according to an embodiment of the present disclosure.
  • Figure 4 is a flowchart showing an operation of extracting a background image from image data corresponding to a touch gesture according to an embodiment of the present disclosure.
  • Figure 5 is a flowchart showing an example of arranging image data corresponding to a touch gesture and each background image according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of time-serially playing image data corresponding to a touch gesture according to an embodiment of the present disclosure.
  • Figure 7 is a flowchart showing the operation of processing data based on preset management conditions when playing a responsive video according to an embodiment of the present disclosure.
  • Singular expressions include plural expressions unless the context clearly makes an exception.
  • the identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.
  • 'responsive video' refers to an image that changes or plays in a form corresponding to a specific touch gesture of a user (i.e., viewer) who receives (uses) the image.
  • a user i.e., viewer
  • it may refer to an image in which a user's input operation corresponding to a specific movement of captured basic image data (original image data) is linked, and the image is played as if an object in the image moves according to the user's operation.
  • the description is limited to the 'responsive image providing device 100' in this disclosure, it is a provider terminal (provider terminal) that wants to generate a responsive image and provide it to the user, and various devices capable of performing computational processing are used. All can be included. That is, the responsive video providing device 100 may further include a server, a computer, and/or a portable terminal, or may take the form of any one of them, but is not limited thereto.
  • the server is a server that processes information by communicating with external devices, and may include an application server, computing server, database server, file server, game server, mail server, proxy server, and web server.
  • the computer may include, for example, a laptop equipped with a web browser, a desktop, a laptop, a tablet PC, a slate PC, etc.
  • 'touch gesture' refers to manipulation of a user's image received through an input means of a responsive image providing device or a user terminal in order to create or play a responsive image.
  • the input operation is an operation that can be input at a specific point or area in the image through an input means such as a mouse or touch screen (e.g., a click operation, a drag operation, a rotate operation, This may include pinch operations, spread operations, rubber operations, contact touch operations over a certain period of time, force touch operations (i.e., touch operations that apply specific pressure to the touch screen or touch pad), etc. there is.
  • the input operation may be obtained by using a responsive image providing device or a sensor provided by the user terminal (e.g., acceleration sensor, gyro sensor, etc.) as an input means, or It may include movement, etc.
  • 'object' refers to an object to be manipulated by a user.
  • the basic image data is an image of a user touching a specific object with his hand
  • the object refers to an object touched by the user.
  • the object may be a person in the image.
  • ‘manipulation object’ refers to performing manipulation on an object within an image. For example, when touching or pressing a bag or pillow with a hand in an image, the operating object refers to the hand touching the bag or pillow.
  • basic image data refers to image data that is not implemented in a responsive manner.
  • basic image data corresponds to a video generated by a general shooting method or a combination of a plurality of video frames in which video frames are stored for each object location in space.
  • 'image data' refers to image data compressed into minimum movement units to implement basic image data as a responsive image. For example, if the same movement is repeatedly included in the basic image data, the repeated movement is deleted and only one image data remains. Additionally, for example, if the basic image data includes both a movement from the first position to the second position and a movement from the second position to the first position, the image data is based on the movement from the first position to the second position. Leaving only the video data, the movement from the second position to the first position can reproduce the remaining basic video data in the reverse direction.
  • Figure 1 is a block diagram showing the configuration of a responsive image providing device according to an embodiment of the present disclosure.
  • a responsive image providing device (hereinafter referred to as 'providing device') 100 according to an embodiment of the present disclosure may be configured to include a display module 110 and a control module 130. there is.
  • the display module 151 can implement a touch screen by forming a layered structure or being integrated with the touch sensor.
  • This touch screen functions as a user input unit that provides an input interface between the provision device 100 and the user, and can simultaneously provide an output interface between the provision device 100 and the user.
  • the control module 130 can control the operation of the provision device 100 to correspond to the input information.
  • the information may be specific data or a touch gesture.
  • the provision device 100 displays a virtual key, soft key, or visual key on the touch screen through software processing, or displays a virtual key, soft key, or visual key on a part other than the touch screen.
  • a touch key may be further provided.
  • the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of .
  • a proximity sensor may be configured to detect the proximity of a conductive object through a change in the electric field according to the proximity of the object.
  • the touch screen or touch sensor itself can be classified as a proximity sensor.
  • the position at which an object is close-touched on the touch screen means the position at which the object corresponds perpendicularly to the touch screen when the object is close-touched.
  • the proximity sensor may detect a proximity touch and a proximity touch pattern (e.g., proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch location, proximity touch movement state, etc.).
  • control module 130 processes information (data, touch gestures, etc.) corresponding to the proximity touch operation and proximity touch pattern detected through the proximity sensor, as described above, and further provides visual information corresponding to the processed information. Information can be output on the touch screen. Furthermore, the control module 130 may control the provision device 100 to process different operations or information depending on whether a touch to the same point on the touch screen is a proximity touch or a contact touch.
  • the touch sensor detects a touch (or touch input) applied to the touch screen using at least one of several touch methods, such as a resistive method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method.
  • a touch sensor may be configured to convert changes in pressure applied to a specific part of the touch screen or capacitance occurring in a specific part into an electrical input signal.
  • the touch sensor may be configured to detect the position, area, pressure at the time of touch, capacitance at the time of the touch, etc., at which the touch object that touches the touch screen is touched on the touch sensor.
  • the touch object is an object that applies a touch to the touch sensor, and may be, for example, a finger, a touch pen or stylus pen, or a pointer.
  • the touch controller processes the signal(s) and then transmits corresponding information to the control module 130.
  • the control module 130 can determine which area of the touch screen has been touched.
  • the touch controller may be a separate component from the control module 130 or may be the control module 130 itself.
  • touch sensor and proximity sensor discussed above are used independently or in combination to provide short (or tap) touch, long touch, multi touch, and drag touch on the touch screen. ), flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. Touch can be sensed.
  • the control module 130 may control the overall operation of the provision device 100 in addition to operations related to an application program for providing responsive images.
  • the control module 130 can provide or process appropriate information or functions to users by processing signals, data, information, etc. input or output through the components discussed above, or by running the application program.
  • the control module 130 selects a playback section related to the specified specific object on the basic video data.
  • the specific object may be designated by selection of the provider of the basic image data, or a specific object for which a characteristic change is detected within the basic image data may be automatically designated.
  • control module 130 generates image data consisting of a plurality of frames included in the playback section, determines a pattern of input manipulation according to changes in characteristics of the specific object, and then selects the specific object in the plurality of frames.
  • Each touch area is set as a standard, and a responsive image is generated by applying the pattern of the touch gesture (manipulation) to each set touch area.
  • the at least one basic image data may be an original image including the movement of an object to be implemented in a responsive manner by a user's touch gesture.
  • the touch gesture is based on a continuous gesture, and the pattern of the touch gesture is based on any one of drag, rotate, rubber, pinch, and spread. It can be.
  • the control module 130 when setting each of the touch areas, creates a virtual layer that combines on a plurality of frames included in the corresponding image data, divides the virtual layer into a plurality of detailed cells, and In a plurality of frames, frames corresponding to each of the plurality of detailed cells are mapped to each other.
  • the control module 130 recognizes each feature point for the specific object in each of the plurality of frames, determines the location of each recognized feature point, confirms the movement path of the specific object, and then determines the movement path. Create a virtual layer to include. Additionally, when dividing the virtual layer, the control module 130 projects the position of each feature point onto the virtual layer and creates the plurality of detailed cells by dividing the positions of each feature point.
  • control module 150 determines that the position of each feature point moves from the first position to the second position, the control module 150 determines the plurality of details based on the moving direction from the first position to the second position. Determine the shape of the cell and the virtual layer.
  • control module 130 may perform different controls or the same control depending on the type of object being touched. Whether to perform different controls or the same controls depending on the type of object may be determined depending on the current operating state of the providing device 100 or the application program being executed.
  • control module 130 generates responsive image creation conditions for a plurality of touch gestures corresponding to reactions that can be generated from the image data, and applies the responsive image creation conditions to the image data to create a responsive image. Create.
  • the image data is data in a stack structure that includes information about the combination of images created by dividing or correcting the at least one basic image data, and the responsive image creation condition is linked to a specific area of the image data. It may contain data containing information for responsive implementation.
  • control module 130 registers the generated responsive image on a preset platform server for service provision, and sets a plurality of responsive images into one set according to the set information stored in the memory of the providing device 100. You can also register as . At least one set may be configured, and in this case, one responsive video may be included in multiple sets.
  • control module 130 extracts frames at preset time intervals from among all frames included in the playback section to configure a plurality of frames, and sequentially arranges the plurality of frames in chronological order to generate image data. there is.
  • the control module 130 controls the playback operation of the responsive video in response to the touch gesture.
  • the control module 130 may perform an operation to process a plurality of image data included in the responsive image in order to prevent the flicker phenomenon and enable smooth playback of the responsive image.
  • control module 130 extracts image data according to a touch gesture among a plurality of image data, then generates and plays the extracted image data as one image data depending on the type of responsive image, or plays the image data according to the touch gesture.
  • Each background image can be extracted from the video data and each extracted background image can be placed between the video data to be played.
  • a communication module and the memory may be provided, and other components may be added or some components may be excluded.
  • the communication module transmits and receives at least one information or data to and from at least one user terminal.
  • at least one user terminal is a terminal of a user who wishes to receive various services related to responsive video, and can use various services related to responsive video through platforms, web pages, etc., and limits the method and means of providing them. I never do that.
  • the communication module may include one or more components that enable communication with other devices, for example, at least one of a wired communication module, a wireless communication module, a short-distance communication module, and a location information module. may include.
  • the memory stores at least one process necessary for generating a responsive image as well as at least one process required to provide various services related to the responsive image.
  • the memory may further store processes for performing other operations, but this is not limited.
  • the memory may store data supporting various functions of the provision device 100.
  • the memory may store a plurality of application programs (application programs) running on the provision device 100, data and commands for the operation of the generation device 100. At least one of these applications Some may exist for the basic functions of the provision device 100.
  • the application program is stored in the memory, installed on the provision device 100, and used by the provision device 100 by the control module 130. ) can be driven to perform the operation (or function).
  • the memory stores at least one basic image data and at least one responsive image generated based on the at least one basic image data.
  • various responsive image creation files may be included in the folder where the at least one basic image data is stored, or corresponding responsive image creation files may be matched in the database.
  • the memory includes set information on a plurality of basic image data and/or a plurality of responsive images, and a playback pattern based on the selection order of the plurality of basic image data and/or a plurality of responsive images included in each set. Information may be stored.
  • the playback pattern information includes playback patterns corresponding to the order in which a plurality of basic video data or a plurality of responsive videos can be selected.
  • control module 130 In addition, specific operations of the control module 130 will be described below based on each drawing.
  • Figure 2 is a flowchart showing the operation of processing and playing video data according to the type of responsive video according to an embodiment of the present disclosure.
  • the control module 130 of the providing device 100 checks the type of the selected responsive image (S210 ). For example, the control module 130 determines whether a clip-type video is inserted into a responsive video and is configured to play it, or whether the responsive video is configured to play video data sequentially.
  • step S210 the control module 130 determines that a clip-type image is inserted into the selected responsive image and is configured to play it, and when a touch gesture for the selected responsive image is received, , After extracting the image data for the touch gesture, the image data is grouped into a specific preset unit to generate and reproduce one image data (S220).
  • the control module 130 determines that the selected responsive video is configured to continuously play video data, and when a touch gesture for the selected responsive video is received, the control module 130 performs the touch gesture. After extracting the video data, a background image is extracted from each of the video data, and each of the extracted background images is arranged and played (S230).
  • step S230 will be described based on FIGS. 3 to 6.
  • Figure 3 is a flowchart showing a method for providing a responsive image according to an embodiment of the present disclosure.
  • the control module 130 extracts image data corresponding to the touch gesture from the responsive image (S231). . That is, since the object in the responsive image is manipulated according to the user's touch gesture, in order to express the movement of the object using a plurality of image data included in the responsive image, the touch among the plurality of image data The method is to extract image data corresponding to gestures.
  • control module 130 extracts a background image of each of the extracted image data in step S231 (S232) and arranges each extracted background image between the extracted image data (S232). S233). At this time, each background image is placed as a background between adjacent video data so that the video data is played back naturally without flickering.
  • control module 130 performs a playback operation according to the order in which the video data and each background image are mixed and arranged (S234).
  • the playback module 130 may reproduce the background image disposed between adjacent video data so that it is displayed in a manner that overlaps with some sections (some frames) of the playback sections (playback frames) of the adjacent video data.
  • FIG. 4 is a flowchart showing an operation of extracting a background image from image data corresponding to a touch gesture according to an embodiment of the present disclosure, and shows step S232 of FIG. 3 in more detail.
  • control module 130 checks the frames constituting each of the image data extracted in step S231 (S2321), and selects one of the confirmed frames based on a preset method. Select (S2322).
  • the frame with the highest pixel similarity to the last frame of the first image data placed in front is selected as the frame with the highest pixel similarity to the last frame of the first image data placed in front of the second image data placed behind the first image data. It may be selected from among the frames, or it may be selected as the very first frame of the third image data placed after the second image data.
  • the preset method may be either a method of selecting a frame with high pixel similarity or a method of selecting a frame at an arbitrary position, but this is only one embodiment, and other methods may be applied.
  • control module 130 determines the frame selected in step S2322 as a background image to be placed between the first image data placed in front and the image data placed behind the first image data (S2323).
  • FIG. 5 is a flow chart illustrating an operation of arranging image data corresponding to a touch gesture and each background image according to an embodiment of the present disclosure, and shows step 233 of FIG. 3 in more detail.
  • control module 130 arranges the image data extracted in step S231 in time series (S2331), and arranges each background image extracted in step S232 between the image data. (S2332).
  • FIG. 6 is a diagram schematically showing an example of arranging image data corresponding to a touch gesture and each background image according to an embodiment of the present disclosure.
  • the control module 130 starts playing from the first image data corresponding to the touch area where the touch gesture was made among a plurality of image data at time t 1 . Thereafter, while the first video data is being played, for example, the second video data to be played next is extracted at time t 2 . In this way, until the reception of the touch gesture is completed, the operation of extracting video data to be played immediately after the video data being played at the relevant time is finished is performed.
  • the background image (b 1 ) is extracted from the second video data at time t 3 , and the second video data is extracted from before the time t 4 when playback of the first video data ends.
  • the background image (b 1 ) is displayed as the background until after the playback point t 5 .
  • the time for which the background image (b 1 ) is played (displayed) may be set to be greater than the space between the first image data and the second image data, and accordingly, the background image (b 1 ) is displayed between the first image data and the second image data. 2
  • FIG. 6 shows a case where a playback operation of up to the fifth image data is performed as the touch gesture is terminated.
  • the background image (b 3 ) to be placed between the image data and the fourth image data and the background image (b 4 ) to be placed between the fourth image data and the fifth image data are the second image data, the third image data, and the fourth image data. It is extracted from each of the video data and the fifth video data. However, since the first video data is the first frame to be played, there is no need to extract a background image from the first video data.
  • the background images b 1 to b 4 extracted as described above are between the first image data and the second image data, between the second image data and the third image data, between the third image data and the fourth image data, and the fourth image data. and fifth image data, respectively.
  • Figure 7 is a flowchart showing the operation of processing data based on preset management conditions when playing a responsive video according to an embodiment of the present disclosure.
  • the provision device 100 can preset management conditions to optimally manage the performance of the device.
  • Figure 7 specifically shows operations that can be performed when management conditions are set, and the control module 130 guarantees playback based on the preset management conditions.
  • the management conditions can be set based on the actual device specifications (specifications) of the provision device 100, which can be set or changed by the administrator of the provision device 100.
  • the management condition may be a time set as a multiple of the current time + fps (Frame Per Second).
  • the control module 130 monitors the status information of the providing device 100 in real time and checks whether the monitoring result reaches a threshold according to preset management conditions during the playback operation of video data. (S2351), and when the threshold is reached, at least one of the video data of the preset playback unit (or various information/data used or received to play the responsive video) and the background images is deleted (S2352) ).
  • the control module 130 may, as a result of the monitoring, store at least one of the image data and background images generated according to the present disclosure, thereby reducing the memory capacity.
  • the video data or various information/data used or received to play a responsive video
  • At least one of the background images can be deleted.
  • control module 130 when time is set as the management condition, the control module 130 counts time, and when the counted time exceeds the time set according to the management condition, video data (or responsive At least one of various information/data used or received to play the video) and background images can be deleted.
  • the control module 130 determines that at least one resolution among the video data and background images generated according to the present disclosure is managed. If the resolution is higher or different than the resolution set as a condition, video data and background images that are higher or different than the resolution set as the management condition can be deleted.
  • the above-mentioned program is C, C++, JAVA, machine language, etc. that can be read by the processor (CPU) of the computer through the device interface of the computer in order for the computer to read the program and execute the methods implemented in the program.
  • It may include code coded in a computer language. These codes may include functional codes related to functions that define the necessary functions for executing the methods, and include control codes related to execution procedures necessary for the computer's processor to execute the functions according to predetermined procedures. can do.
  • these codes may further include memory reference-related codes that indicate at which location (address address) in the computer's internal or external memory additional information or media required for the computer's processor to execute the above functions should be referenced. there is.
  • the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes regarding whether communication should be performed and what information or media should be transmitted and received during communication.
  • the storage medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as a register, cache, or memory.
  • examples of the storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., but are not limited thereto. That is, the program may be stored in various recording media on various servers that the computer can access or on various recording media on the user's computer. Additionally, the medium may be distributed to computer systems connected to a network, and computer-readable code may be stored in a distributed manner.
  • the steps of the method or algorithm described in connection with the embodiments of the present disclosure may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof.
  • the software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which this disclosure pertains.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법에 관한 것으로, 반응형 영상을 디스플레이하고, 사용자의 터치 제스처를 수신하는 터치스크린; 및 상기 터치 제스처에 대한 응답으로 상기 반응형 영상의 재생 동작을 제어하는 제어모듈을 포함하며, 상기 제어모듈은, 상기 반응형 영상에 포함된 복수의 영상데이터 중 상기 터치 제스처에 대응하는 영상데이터들을 추출하고, 상기 영상데이터들 각각의 백그라운드 이미지를 추출하고, 상기 영상데이터들 사이 마다 상기 각각의 백그라운드 이미지를 배치하여 재생할 수 있다.

Description

백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법
본 개시는 반응형 영상 제공 장치 및 방법에 대한 것으로, 보다 상세하게는, 본 개시는 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법에 관한 것이다.
최근 영상촬영기술이 매우 발전하고 있다. 캠코더, 디지털카메라뿐만 아니라 스마트폰 등의 이동단말기도 높은 해상도의 영상을 촬영할 수 있다. 또한, 360도 카메라, 3D영상 카메라 등이 등장하고 있다.
영상은 영상촬영장치에 의해 촬영되어 특정한 포맷으로 저장되고, 재생 가능한 단말기에 의해 재생된다. 영상 재생은 시청자와 상호작용(Interaction)이 없이 일방적으로 시간순서대로 제공된다. 즉, 시청자는 재생되는 영상을 통해 시각적인 감각만을 느낄 수 있다.
이러한 영상을 사용자의 다양한 제스처(gestrue)를 기반으로 하는 입력조작에 따라 반응하는 반응형 영상으로 구현하여 제공함으로써, 사용자의 흥미를 유발할 수 있다.
다만, 그 반응형 영상을 재생 시에 사용자의 조작에 따라 복수개의 영상을 연속되어 재생함에 따라 각 영상 데이터 및/또는 네트워크 환경에 따라 플리커 현상이 발생하게 되어 매끄럽지 못한 사용자 경험을 제공하게 되는 문제점이 있다.
따라서, 이러한 플리커 현상을 방지하여 반응형 영상에 대한 원활한 재생이 가능하도록 하는 기술이 개발될 필요가 있다.
본 개시는 반응형 영상에 포함된 복수개의 영상데이터 각각에 대한 백그라운드 이미지를 추출하여 반응형 영상을 재생 시에 그 사용자의 터치 제스처(조작)에 따른 영상데이터 사이에 백그라운드 이미지를 이용하도록 함으로써, 플리커 현상을 방지하여 그 반응형 영상에 대한 원활한 재생이 가능하도록 하는 반응형 영상 제공 장치 및 방법을 제공함에 있다.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 반응형 영상 제공 장치는, 반응형 영상을 디스플레이하고, 사용자의 터치 제스처를 수신하는 터치스크린; 및 상기 터치 제스처에 대한 응답으로 상기 반응형 영상의 재생 동작을 제어하는 제어모듈을 포함하며, 상기 제어모듈은, 상기 반응형 영상에 포함된 복수의 영상데이터 중 상기 터치 제스처에 대응하는 영상데이터들을 추출하고, 상기 영상데이터들 각각의 백그라운드 이미지를 추출하고, 상기 영상데이터들 사이 마다 상기 각각의 백그라운드 이미지를 배치하여 재생할 수 있다.
한편, 본 개시의 일 측면에 따른 반응형 영상 제공 방법은, 사용자의 터치 제스처가 수신되면, 반응형 영상에 포함된 복수의 영상데이터 중 상기 터치 제스처에 대응하는 영상데이터들을 추출하는 단계; 상기 영상데이터들 각각의 백그라운드 이미지를 추출하는 단계; 및 상기 영상데이터들 사이 마다 상기 각각의 백그라운드 이미지를 배치하여 재생하는 단계를 포함할 수 있다.
이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.
이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
본 개시의 전술한 과제 해결 수단에 의하면, 반응형 영상에 포함된 복수개의 영상데이터 각각에 대한 백그라운드 이미지를 추출하여 반응형 영상을 재생 시에 그 사용자의 터치 제스처(조작)에 따른 영상데이터 사이에 백그라운드 이미지를 이용하도록 함으로써, 플리커 현상을 방지하여 그 반응형 영상에 대한 원활한 재생이 가능하도록 한다.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 반응형 영상 제공 장치의 구성을 나타내는 블록도
도 2는 본 개시의 일 실시예에 따른 반응형 영상 제공 방법을 나타내는 순서도
도 3은 본 개시의 일 실시예에 따라 반응형 영상의 종류에 터치 제스처에 대응하는 영상데이터들을 처리하는 동작을 나타내는 순서도
도 4는 본 개시의 일 실시예에 따라 터치 제스처에 대응하는 영상데이터들로부터 백그라운드 이미지를 추출하는 동작을 나타내는 순서도
도 5는 본 개시의 일 실시예에 따라 터치 제스처에 대응하는 영상데이터들 및 그 각각의 백그라운드 이미지를 배치하는 일 예시를 나타내는 순서도
도 6은 본 개시의 일 실시예에 따라 터치 제스처에 대응하는 영상데이터들을 시계열적으로 재생하는 일 예시를 나타내는 도면
도 7은 본 개시의 일 실시예에 따른 반응형 영상을 재생 시에 기 설정된 관리조건을 기반으로 데이터를 처리하는 동작을 나타내는 순서도
본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다. 각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들을 설명하기에 앞서, 몇몇 용어를 아래와 같이 설명하기로 한다.
이하 설명에서 사용되는 용어에 대하여 정의하면 하기와 같다.
본 개시에서 '반응형 영상'은, 영상을 제공받는(사용하는) 사용자(즉, 시청자)의 특정한 터치 제스처에 상응하는 형태로 변화 또는 재생되는 영상을 의미한다. 예를 들어, 촬영된 기초영상데이터(원본영상데이터)의 특정한 움직임에 대응되는 사용자의 입력조작이 연결되어, 사용자의 조작에 따라 해당 영상 내의 물체가 움직이는 것과 같이 재생되는 영상을 의미할 수 있다.
본 개시에서 '반응형 영상 제공 장치(100)'로 한정하여 설명하였으나, 이는 반응형 영상을 생성하여 사용자에게 제공하고자 하는 제공자의 단말(제공자 단말)로서, 연산처리를 수행할 수 있는 다양한 장치들을 모두 포함할 수 있다. 즉, 반응형 영상 제공 장치(100)는 서버, 컴퓨터 및/또는 휴대용 단말기를 더 포함하거나, 또는 그 중 어느 하나의 형태가 될 수 있으며, 이를 한정하지 않는다.
여기에서, 상기 서버는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.
상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.
본 개시에서 '터치 제스처'는, 반응형 영상을 생성 또는 재생하기 위해 반응형 영상 제공 장치 또는 사용자 단말의 입력수단을 통해 수신되는 사용자의 영상에 대한 조작을 의미한다. 예를 들어, 상기 입력조작은 마우스 또는 터치스크린과 같은 입력수단을 통해 영상 내 특정한 지점 또는 영역에 입력될 수 있는 조작(예를 들어, 클릭 조작, 드래그(drag) 조작, 로테이트(rotate) 조작, 핀치(pinch) 조작, 스프레드(spread) 조작, 러버(rubber) 조작, 특정 시간 이상의 접촉터치 조작, 포스터치 조작(즉, 터치스크린 또는 터치패드에 특정압력을 가하는 터치조작) 등)을 포함할 수 있다. 또한, 예를 들어, 상기 입력조작은, 반응형 영상 제공 장치 또는 사용자 단말이 구비하는 센서(예를 들어, 가속도센서, 자이로센서 등)를 입력수단으로 하여 획득될 수 있는 단말기 자체의 배치상태 또는 움직임 등을 포함할 수 있다.
본 개시에서 '대상체'는 사용자에 의해 조작될 물체를 의미한다. 예를 들어, 기초영상데이터가 사용자가 손으로 특정한 물체를 만지는 동작을 촬영한 영상인 경우, 그 대상체는 사용자에 의해 만져지는 물체를 의미한다. 또한, 특정한 사람의 움직임을 촬영한 영상인 경우, 상기 대상체는 영상 내의 사람일 수 있다.
본 개시에서 '조작체'는 영상 내에서 대상체에 조작을 수행하는 것을 의미한다. 예를 들어, 영상 내에서 손으로 가방 또는 배게를 만지거나 누르는 경우, 조작체는 가방 또는 배게를 만지는 손을 의미한다.
본 개시에서 '기초영상데이터'는 반응형으로 구현되지 않은 영상데이터를 의미한다. 즉, 기초영상데이터는 일반적인 촬영방식으로 생성된 동영상 또는 공간상의 대상체 위치별로 영상프레임을 저장한 복수의 영상프레임 조합이 해당된다.
본 개시에서 '영상데이터'는 기초영상데이터를 반응형 영상으로 구현하기 위해 최소 움직임 단위로 압축한 영상데이터를 의미한다. 예를 들어, 기초영상데이터에 동일한 움직임이 반복적으로 포함된 경우, 영상데이터는 반복되는 움직임을 삭제하고 하나만 남긴 것이다. 또한, 예를 들어, 기초영상데이터에 제1 위치에서 제2 위치로의 움직임과 제2 위치에서 제1 위치로의 움직임을 모두 포함하는 경우, 영상데이터는 제1 위치에서 제2 위치로 움직이는 기초영상데이터만으로 남기고, 제2 위치에서 제1 위치로의 움직임은 남겨진 기초영상데이터를 역방향으로 재생할 수 있다.
이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 본 개시의 일 실시예에 따른 반응형 영상 제공 장치의 구성을 나타내는 블록도이다.
도 1을 참조하면, 본 개시의 일 실시예에 따른 반응형 영상 제공 장치(이하, '제공 장치'라 칭함)(100)는 디스플레이모듈(110) 및 제어모듈(130)을 포함하여 구성될 수 있다.
먼저, 디스플레이모듈(151)은 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 제공 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 제공 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
구체적으로, 터치 스크린을 통해 정보가 입력되면, 제어모듈(130)은 상기 입력된 정보에 대응되도록 제공 장치(100)의 동작을 제어할 수 있다. 이때, 정보는 특정 데이터일 수도 있고, 터치 제스처일 수 있다. 일 예로서, 제공 장치(100)는 소프트웨어적인 처리를 통해 터치 스크린 상에 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)를 표시하거나, 상기 터치 스크린 이외의 부분에 배치되는 터치 키(touch key)를 더 구비할 수도 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 터치 스크린이 정전식인 경우에, 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 근접 센서(미도시)가 구성될 수도 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다.
한편, 제어모듈(130)은 위와 같이, 상기 근접 센서를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보(데이터, 터치 제스처 등)를 처리하며, 나아가, 처리된 정보에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 제어모듈(130)은, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 정보가 처리되도록 제공 장치(100)를 제어할 수 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용하여 터치 스크린에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기(미도시)는 그 신호(들)를 처리한 다음 대응하는 정보를 제어모듈(130)로 전송한다. 이로써, 제어모듈(130)은 터치 스크린의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어모듈(130)과 별도의 구성요소일 수 있고, 제어모듈(130) 자체일 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
제어모듈(130)은 반응형 영상을 제공하기 위한 응용 프로그램과 관련된 동작 외에도, 통상적으로 제공 장치(100)의 전반적인 동작을 제어할 수 있다. 제어모듈(130)은 앞서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 상기 응용 프로그램을 구동함으로써, 사용자들에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
먼저, 제어모듈(130)은 적어도 하나의 대상체가 포함된 적어도 하나의 기초영상데이터가 입력되고, 상기 적어도 하나의 대상체 중 특정 대상체가 지정되면, 상기 기초영상데이터 상에서 상기 지정된 특정 대상체와 관련한 재생구간을 설정한다. 이때, 상기 특정 대상체는 상기 기초영상데이터의 제공자의 선택에 의해 지정될 수도 있으나, 상기 기초영상데이터 내에서 특성 변화가 감지되는 특정 대상체를 자동으로 지정할 수도 있다.
또한, 제어모듈(130)은 상기 재생구간에 포함된 복수의 프레임으로 구성된 영상데이터를 생성하고, 상기 특정 대상체의 특성 변화에 따라 입력조작의 패턴을 결정한 후, 상기 복수의 프레임에서 상기 특정 대상체를 기준으로 터치 영역을 각각 설정하고, 상기 설정된 각각의 터치 영역에 상기 터치 제스처(조작)의 패턴을 적용하여 반응형 영상을 생성한다.
여기서, 상기 적어도 하나의 기초영상데이터는 사용자의 터치 제스처에 의해 반응형으로 구현하고자 하는 대상체의 움직임을 포함하는 원본 영상일 수 있다. 여기서, 상기 터치 제스처는 연속되는 제스처를 기반으로 하고, 터치 제스처의 패턴은 드래그(drag), 로테이트(rotate), 러버(rubber), 핀치(pinch) 및 스프레드(spread) 중 어느 하나를 기반으로 구성될 수 있다.
구체적으로, 제어모듈(130)은 상기 터치 영역을 각각 설정 시에, 해당 영상데이터에 포함된 복수의 프레임 상에 결합하는 가상레이어를 생성하고, 복수의 세부셀로 가상레이어를 분할한 후, 상기 복수의 프레임에서 상기 복수의 세부셀 각각에 대응되는 프레임을 상호 맵핑한다.
이때, 제어모듈(130)은 상기 복수의 프레임 각각에서 상기 특정 대상체에 대한 특징점을 각각 인식하고, 상기 인식된 각각의 특징점의 위치를 파악하여 상기 특정 대상체의 이동경로를 확인한 후, 상기 이동경로를 포함하도록 가상레이어를 생성한다. 또한, 제어모듈(130)은 상기 가상레이어를 분할 시에 상기 각각의 특징점의 위치를 상기 가상레이어 상에 투영시키고, 상기 각각의 특징점의 위치 사이를 분할하여 상기 복수의 세부셀을 생성한다.
만약, 제어모듈(150)은 상기 각각의 특징점의 위치가 제1 위치에서 제2 위치로 이동하는 것으로 파악된 경우, 상기 제1 위치에서 상기 제2 위치로의 이동방향을 기반으로 상기 복수의 세부셀 및 상기 가상레이어의 형태를 결정한다.
한편, 제어모듈(130)은 터치가 이루어지는 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 상기 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할지는 현재 제공 장치(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
또한, 제어모듈(130)은 상기 영상데이터에서 생성 가능한 반응에 대응하는 복수의 터치 제스처에 대한 반응형 영상 생성조건을 생성하고, 상기 반응형 영상 생성조건을 상기 영상데이터에 적용하여 반응형 영상을 생성한다.
여기서, 상기 영상데이터는 상기 적어도 하나의 기초영상데이터를 분할 또는 보정하여 생성된 이미지의 조합에 대한 정보를 포함하는 스텍 구조의 데이터이고, 상기 반응형 영상 생성조건은 상기 영상데이터의 특정 영역에 결합되어 반응형으로 구현하기 위한 정보를 포함하는 데이터를 포함할 수 있다.
이후, 제어모듈(130)은 상기 생성된 반응형 영상을 서비스 제공을 위한 기 설정된 플랫폼 서버 상에 등록하되, 제공 장치(100)에 메모리에 저장된 세트 정보에 따라 복수개의 반응형 영상을 하나의 세트로서 등록할 수도 있다. 적어도 하나의 세트가 구성될 수 있는데, 이때 하나의 반응형 영상이 여러 세트에 중복되어 포함될 수 있다.
또한, 제어모듈(130)은 재생구간에 포함된 전체 프레임들 중 기 설정된 시간 간격마다 프레임을 추출하여 복수의 프레임을 구성하고, 상기 복수의 프레임을 시간순으로 순차적으로 배열하여 영상데이터를 생성할 수 있다.
한편, 제어모듈(130)은 터치 스크린을 통해 터치 제스처가 수신(감지)되면, 상기 터치 제스처에 대한 응답으로 반응형 영상의 재생 동작을 제어한다. 이때, 제어모듈(130)은 플리커 현상을 방지하여 그 반응형 영상에 대한 원활한 재생이 가능하도록 하기 위해서, 반응형 영상에 포함된 복수의 영상데이터를 처리하는 동작을 수행할 수 있다.
구체적으로, 제어모듈(130)은 복수의 영상데이터 중 터치 제스처에 따른 영상데이터들을 추출한 후, 반응형 영상의 종류에 따라 상기 추출된 영상데이터들을 하나의 영상데이터로 생성하여 재생하거나, 상기 영상데이터들로부터 각각의 백그라운드 이미지를 추출하고 상기 영상데이터들 사이 마다 상기 추출된 각각의 백그라운드 이미지를 배치하여 재생하도록 할 수 있다.
한편, 도 1에는 도시하지 않았으나, 통신모듈 및 상기 메모리를 구비할 수 있으며, 그 외 구성요소들이 추가되거나 일부 구성이 제외될 수도 있다.
상기 통신모듈은 적어도 하나의 사용자 단말과 적어도 하나의 정보 또는 데이터를 송수신한다. 여기서, 적어도 하나의 사용자 단말은 반응형 영상과 관련한 각종 서비스를 제공받고자 하는 사용자의 단말로서, 플랫폼, 웹 페이지 등을 통해 반응형 영상과 관련한 각종 서비스를 이용할 수 있으며, 그 제공 방식 및 수단을 한정하지 않는다.
또한, 상기 통신모듈은 그 외 다른 장치들과의 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 유선통신 모듈, 무선통신 모듈, 근거리 통신 모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다.
또한, 상기 메모리는 반응형 영상을 생성하기 위한 적어도 하나의 프로세스는 물론, 반응형 영상과 관련한 각종 서비스를 제공하기 위해 필요한 적어도 하나의 프로세스를 저장한다. 뿐만 아니라, 상기 메모리는 그 외 다른 동작을 수행하기 위한 프로세스들을 더 저장할 수 있으며, 이를 한정하지 않는다.
또한, 상기 메모리는 제공 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 뿐만 아니라, 상기 메모리는 제공 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application), 생성 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 제공 장치(100)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 상기 메모리에 저장되고, 제공 장치(100) 상에 설치되어, 제어모듈(130)에 의하여 제공 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
특히, 상기 메모리는 적어도 하나의 기초영상데이터 및 상기 적어도 하나의 기초영상데이터를 기반으로 생성된 적어도 하나의 반응형 영상이 저장된다. 이때, 상기 적어도 하나의 기초영상데이터가 저장된 폴더 내에 각종 반응형 영상 생성파일이 함께 포함되어 있거나 데이터베이스 내에 해당하는 반응형 영상 생성파일이 매칭될 수 있다.
이로써, 기초영상데이터를 재생 시에 해당하는 반응형 영상 생성파일을 함께 재생하여 반응형 영상으로 구현 가능하도록 한다. 또한, 상기 메모리는 복수개의 기초영상데이터 및/또는 복수개의 반응형 영상에 대한 세트 정보와, 각 세트 내에 포함된 복수개의 기초영상데이터 및/또는 복수개의 반응형 영상에 대한 선택 순서에 기반한 재생패턴정보가 저장될 수도 있다. 이때, 재생패턴정보는 복수개의 기초영상데이터 또는 복수개의 반응형 영상에 대해 선택될 수 있는 순서에 대응하는 각각의 재생 패턴을 포함한다.
그 외, 제어모듈(130)의 구체적인 동작에 대해서는 이하에서 각각의 도면을 기반으로 설명하도록 한다.
도 2는 본 개시의 실시예에 따른 반응형 영상의 종류에 따라 영상데이터들을 처리하여 재생하는 동작을 나타내는 순서도이다.
도 2를 참조하면, 제공 장치(100)의 제어모듈(130)은 사용자에 의해 적어도 하나의 반응형 영상 중 어느 하나의 반응형 영상이 선택되면, 상기 선택된 반응형 영상의 종류를 확인한다(S210). 예를 들어, 제어모듈(130)은 반응형 영상 내에 클립형 영상이 삽입되어 이를 재생하도록 구성되었는지 또는 반응형 영상이 영상데이터들을 연이어 재생하도록 구성되었는지 여부를 확인한다.
그 다음으로, S210 단계에 의한 확인 결과, 제어모듈(130)은 상기 선택된 반응형 영상 내에 클립형 영상이 삽입되어 이를 재생하도록 구성된 것으로 확인된 상태에서, 상기 선택된 반응형 영상에 대한 터치 제스처가 수신되면, 상기 터치 제스처에 대한 영상데이터들을 추출한 후, 상기 영상데이터들을 기 설정된 특정 단위로 묶어서 하나의 영상데이터로 생성하여 재생한다(S220).
한편, S210 단계에 의한 확인 결과, 제어모듈(130)은 상기 선택된 반응형 영상이 영상데이터들을 연이어 재생하도록 구성된 것으로 확인된 상태에서, 상기 선택된 반응형 영상에 대한 터치 제스처가 수신되면, 상기 터치 제스처에 대한 영상데이터들을 추출한 후, 상기 영상데이터들 각각으로부터 백그라운드 이미지를 추출하고, 상기 추출된 각각의 백그라운드 이미지들을 배치하여 재생한다(S230).
이하에서는 도 3 내지 도 6을 기반으로 S230 단계에 대한 구체적인 동작 및 방식을 설명하도록 한다.
도 3은 본 개시의 일 실시예에 따른 반응형 영상 제공 방법을 나타내는 순서도이다.
도 3을 참조하면, 제어모듈(130)은 반응형 영상을 기반으로 하는 사용자의 터치 제스처가 수신(또는 감지)되면, 상기 반응형 영상에서 상기 터치 제스처에 대응하는 영상데이터들을 추출한다(S231). 즉, 사용자의 터치 제스처에 따라 상기 반응형 영상 내의 대상체에 대한 조작이 이루어지므로, 상기 반응형 영상에 포함된 복수의 영상데이터를 이용하여 상기 대상체의 움직임을 표현하기 위해서는 복수의 영상데이터 중 상기 터치 제스처에 대응하는 영상데이터들을 추출하는 것이다.
그 다음으로, 제어모듈(130)은 S231 단계에 의해 상기 추출된 영상데이터들 각각의 백그라운드 이미지를 추출하고(S232), 상기 추출된 영상데이터들 사이 마다 상기 추출된 각각의 백그라운드 이미지를 배치한다(S233). 이때, 상기 각각의 백그라운드 이미지는 상기 영상데이터들이 플리커 현상 없이 자연스럽게 이어져 재생되도록 인접한 영상데이터들 사이에 배경으로서 배치되는 것이다.
그 다음으로, 제어모듈(130)은 상기 영상데이터들과 상기 각각의 백그라운드 이미지가 혼합되어 배치된 순서에 따라 재생 동작을 수행한다(S234). 이때, 재생모듈(130)은 인접한 영상데이터들 사이에 배치되는 해당 백그라운드 이미지를 상기 인접한 영상데이터들의 재생 구간(재생 프레임) 중 일부 구간(일부 프레임)과 중첩되어 디스플레이되도록 재생할 수 있다.
도 4는 본 개시의 일 실시예에 따라 터치 제스처에 대응하는 영상데이터들로부터 백그라운드 이미지를 추출하는 동작을 나타내는 순서도로서, 도 3의 S232 단계를 보다 구체적으로 나타낸 것이다.
도 4를 참조하면, 제어모듈(130)은 S231 단계에 의해 추출된 영상데이터들 각각을 구성하는 프레임들을 확인하고(S2321), 상기 확인된 프레임들 중 기 설정된 방식을 기반으로 어느 하나의 프레임을 선정한다(S2322).
예를 들어, 상기 추출된 영상데이터들이 순차적으로 배치된 상태에서, 앞에 배치된 제1 영상데이터의 마지막 프레임과 가장 높은 픽셀 유사도를 갖는 프레임을 상기 제1 영상데이터의 뒤에 배치된 제2 영상데이터의 프레임들 중에서 선정할 수도 있고, 상기 제2 영상데이터의 뒤에 배치된 제3 영상데이터의 가장 첫번째 프레임으로 선정할 수도 있다.
즉, 상기 기 설정된 방식은 픽셀 유사도가 높은 프레임을 선정하는 방식 및 임의의 위치의 프레임을 선정하는 방식 중 어느 하나일 수 있으나, 이는 하나의 실시예일 뿐, 그 외 다른 방식이 적용될 수도 있다.
그 다음으로, 제어모듈(130)은 S2322 단계에 의해 선정된 프레임을 앞에 배치된 제1 영상데이터와 상기 제1 영상데이터 뒤에 배치된 영상데이터들 사이에 배치할 백그라운드 이미지로 결정한다(S2323).
도 5는 본 개시의 일 실시예에 따라 터치 제스처에 대응하는 영상데이터들 및 그 각각의 백그라운드 이미지를 배치하는 동작을 나타내는 순서도로서, 도 3의 233 단계를 보다 구체적으로 나타낸 것이다.
도 5를 참조하면, 제어모듈(130)은 S231 단계에 의해 추출된 영상데이터들을 시계열 순으로 배치하고(S2331), S232 단계에 의해 추출된 각각의 백그라운드 이미지들을 상기 영상데이터들 사이 마다 각각 배치한다(S2332).
도 6은 본 개시의 일 실시예에 따라 터치 제스처에 대응하는 영상데이터들 및 그 각각의 백그라운드 이미지를 배치한 일 예시를 개략적으로 나타내는 도면이다.
도 6을 참조하면, 제어모듈(130)은 사용자의 터치 제스처가 수신되면, 시점 t1에 복수의 영상데이터 중 상기 터치 제스처가 이루어진 터치 영역에 대응하는 제1 영상데이터부터 재생을 시작한다. 이후, 제1 영상데이터가 재생되는 사이에, 예를 들어, 시점 t2에 그 다음에 재생될 제2 영상데이터를 추출한다. 이러한 방식으로 터치 제스처의 수신이 끝날 때까지 해당 시점에 재생 중인 영상데이터가 끝난 직후 이어져 재생될 영상데이터를 추출하는 동작이 수행된다.
그 다음으로, 제2 영상데이터가 추출되면, 시점 t3에 상기 제2 영상데이터로부터 백그라운드 이미지(b1)를 추출하고, 제1 영상데이터의 재생이 종료되는 시점 t4 전부터 제2 영상데이터가 재생되는 시점 t5 이후까지 백그라운드 이미지(b1)가 배경으로서 표시된다. 이때, 백그라운드 이미지(b1)가 재생(표시)되는 시간은 제1 영상데이터 및 제2 영상데이터 사이의 공백보다 크게 설정될 수 있으며, 그에 따라 백그라운드 이미지(b1)는 제1 영상데이터 및 제2 영상데이터 각각과 일부 구간이 중첩될 수 있다.
앞서 설명한 동작들을 터치 제스처가 완전히 끝날 때까지 수행할 수 있는 바, 도 6은 터치 제스처가 종료됨에 따라 제5 영상데이터까지의 재생 동작을 수행한 경우를 도시한 것이다.
도 6에 도시된 바와 같이, 제1 영상데이터 및 제2 영상데이터 사이에 배치될 백그라운드 이미지(b1), 제2 영상데이터 및 제3 영상데이터 사이에 배치될 백그라운드 이미지(b2), 제3 영상데이터 및 제4 영상데이터 사이에 배치될 백그라운드 이미지(b3) 및 제4 영상데이터 및 제5 영상데이터 사이에 배치될 백그라운드 이미지(b4)는 제2 영상데이터, 제3 영상데이터, 제4 영상데이터 및 제5 영상데이터 각각으로부터 추출된다. 다만, 제1 영상데이터는 가장 처음 재생되는 프레임이므로 제1 영상데이터로부터는 백그라운드 이미지를 추출할 필요가 없다.
상기와 같이 추출된 백그라운드 이미지 b1 내지 b4는 제1 영상데이터 및 제2 영상데이터 사이, 제2 영상데이터 및 제3 영상데이터 사이, 제3 영상데이터 및 제4 영상데이터 사이, 제4 영상데이터 및 제5 영상데이터 사이에 각각 배치될 수 있다.
도 7은 본 개시의 일 실시예에 따른 반응형 영상을 재생 시에 기 설정된 관리조건을 기반으로 데이터를 처리하는 동작을 나타내는 순서도이다.
제공 장치(100)는 본 장치의 성능을 최적으로 관리하기 위한 관리조건을 기 설정할 수 있다. 도 7은 관리조건이 설정된 상태에서 수행될 수 있는 동작을 구체적으로 나타낸 것으로, 제어모듈(130)은 기 설정된 관리조건을 기준으로 재생을 보장한다. 이때, 관리조건은 제공 장치(100)의 실제 장치 사양(스펙)을 기반으로 설정될 수 있는데, 이는 제공 장치(100)의 관리자에 의해 설정 또는 변경될 수 있다. 예를 들어, 관리조건은 현재 시간+fps(Frame Per Second) 단위의 배수로 설정되는 시간일 수 있다.
도 7을 참조하면, 제어모듈(130)은 제공 장치(100)의 상태정보를 실시간으로 모니터링 하고, 영상데이터의 재생 동작 중 상기 모니터링 결과가 기 설정된 관리조건에 따른 임계값에 도래하였는지 여부를 확인하고(S2351), 상기 임계값에 도래한 경우에 기 설정된 재생 단위의 영상데이터(또는 반응형 영상을 재생하기 위해 사용 또는 수신된 각종 정보/데이터) 및 백그라운드 이미지들 중 적어도 하나를 삭제한다(S2352).
일 예로, 상기 관리조건으로 상기 메모리의 가용 용량이 설정된 경우, 제어모듈(130)은 상기 모니터링 결과로서, 본 개시에 따라 생성되는 상기 영상데이터 및 백그라운드 이미지들 중 적어도 하나의 저장으로 인해 상기 메모리의 기 설정된 가용 용량이 상기 임계값에 도래하거나 또는 초과 시에 상기 제공 장치(100)의 성능 저하를 방지하기 위해 상기 영상데이터(또는 반응형 영상을 재생하기 위해 사용 또는 수신된 각종 정보/데이터) 및 백그라운드 이미지들 중 적어도 하나를 삭제할 수 있다.
다른 예로, 상기 관리조건으로 시간으로 설정된 경우, 제어모듈(130)은 시간을 카운트하고, 상기 카운트되는 시간이 상기 관리조건에 따라 설정된 시간을 초과하면, 기 설정된 재생 단위의 영상데이터(또는 반응형 영상을 재생하기 위해 사용 또는 수신된 각종 정보/데이터) 및 백그라운드 이미지들 중 적어도 하나를 삭제할 수 있다.
또 다른 예로, 상기 관리조건이 디스플레이모듈(110)가 최적으로 출력 가능한 해상도로 설정된 경우, 제어모듈(130)은 본 개시에 따라 생성된 상기 영상 데이터 및 백그라운드 이미지들 중 적어도 하나의 해상도가 상기 관리조건으로 설정된 해상도보다 높거나 또는 다른 경우, 상기 관리조건으로 설정된 해상도보다 높거나 또는 다른 영상 데이터 및 백그라운드 이미지를 삭제할 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 개시의 실시예를 설명하였지만, 본 개시가 속하는 기술분야의 통상의 기술자는 본 개시가 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (10)

  1. 반응형 영상을 디스플레이하고, 사용자의 터치 제스처를 수신하는 터치스크린; 및
    상기 터치 제스처에 대한 응답으로 상기 반응형 영상의 재생 동작을 제어하는 제어모듈을 포함하며,
    상기 제어모듈은,
    상기 반응형 영상에 포함된 복수의 영상데이터 중 상기 터치 제스처에 대응하는 영상데이터들을 추출하고,
    상기 영상데이터들 각각의 백그라운드 이미지를 추출하고,
    상기 영상데이터들 사이 마다 상기 각각의 백그라운드 이미지를 배치하여 재생하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  2. 제1항에 있어서,
    상기 제어모듈은,
    상기 반응형 영상이 상기 터치 제스처에 따라 상기 영상데이터들을 시계열순으로 재생하도록 구성된 것인 경우,
    상기 각각의 백그라운드 이미지를 추출 시에, 상기 영상데이터들 각각의 첫 프레임을 상기 백그라운드 이미지로서 추출하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  3. 제1항에 있어서,
    상기 제어모듈은,
    상기 각각의 백그라운드 이미지를 배치 시에,
    상기 터치 제스처에 따라 상기 영상데이터들을 시계열순으로 배치하되, 상기 영상데이터들 사이 마다 각각 다음 순서의 영상데이터로부터 추출된 백그라운드 이미지를 배치하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  4. 제3항에 있어서,
    상기 제어모듈은,
    상기 시계열순으로 배치된 영상데이터들을 순차적으로 재생하되, 상기 다음 순서의 영상데이터로부터 추출된 백그라운드 이미지는 기 설정된 시간 동안 현재 재생 중인 영상데이터 및 상기 다음 순서의 영상데이터와 각각 중첩하여 배경으로서 재생하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  5. 제4항에 있어서,
    상기 제어모듈은,
    상기 시계열순으로 배치된 영상데이터들을 순차적으로 재생 시에, 기 설정된 관리조건을 기반으로 재생을 보장하고,
    상기 관리조건은,
    현재 시간+fps(Frame Per Second) 단위의 배수로 설정되는 시간인 것을 징으로 하는,
    반응형 영상 제공 장치.
  6. 제5항에 있어서,
    상기 제어모듈은,
    상기 관리조건을 기반으로 기 설정된 재생 단위에 대한 영상데이터를 삭제하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  7. 제1항에 있어서,
    상기 제어모듈은,
    상기 반응형 영상이 상기 입력조작에 따라 상기 복수개의 영상데이터 중 기 설정된 특정 영상데이터를 재생하도록 구성된 것인 경우,
    상기 각각의 백그라운드 이미지를 추출 시에, 상기 특정 영상데이터로부터 특정 프레임을 상기 백그라운드 이미지로서 추출하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  8. 제1항에 있어서,
    상기 제어모듈은,
    상기 기 설정된 특정 영상데이터를 재생하되, 상기 기 설정된 특정 영상데이터를 재생하기 전에 상기 특정 영상데이터로부터 추출된 백그라운드 이미지를 배경으로서 재생하는 것을 특징으로 하는,
    반응형 영상 제공 장치.
  9. 장치에 의해 수행되는, 사용자 제스처 기반 반응형 영상 제공 방법에 있어서,
    사용자의 터치 제스처가 수신되면, 반응형 영상에 포함된 복수의 영상데이터 중 상기 터치 제스처에 대응하는 영상데이터들을 추출하는 단계;
    상기 영상데이터들 각각의 백그라운드 이미지를 추출하는 단계; 및
    상기 영상데이터들 사이 마다 상기 각각의 백그라운드 이미지를 배치하여 재생하는 단계를 포함하는 것을 특징으로 하는,
    반응형 영상 제공 방법.
  10. 컴퓨터와 결합되어, 제9항의 방법을 실행시키기 위한 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.
PCT/KR2023/015422 2022-10-07 2023-10-06 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법 WO2024076205A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220128759 2022-10-07
KR10-2022-0128759 2022-10-07
KR10-2023-0132329 2023-10-05
KR1020230132329A KR20240049181A (ko) 2022-10-07 2023-10-05 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2024076205A1 true WO2024076205A1 (ko) 2024-04-11

Family

ID=90608457

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015422 WO2024076205A1 (ko) 2022-10-07 2023-10-06 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2024076205A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100515650B1 (ko) * 2003-09-30 2005-09-20 엘지전자 주식회사 플라즈마 디스플레이 패널의 광역 플리커 제거를 위한비디오 화상 처리 방법
KR20140073237A (ko) * 2012-12-06 2014-06-16 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
US20180027212A1 (en) * 2015-06-05 2018-01-25 The SuperGroup Creative Omnimedia, Inc. Imaging and display system and method
US20180059868A1 (en) * 2016-08-29 2018-03-01 Apple Inc. Touch induced flicker mitigation for variable refresh rate display
US20200201414A1 (en) * 2016-07-01 2020-06-25 Weber-Stephen Products Llc Digital Power Supply With Wireless Monitoring and Control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100515650B1 (ko) * 2003-09-30 2005-09-20 엘지전자 주식회사 플라즈마 디스플레이 패널의 광역 플리커 제거를 위한비디오 화상 처리 방법
KR20140073237A (ko) * 2012-12-06 2014-06-16 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
US20180027212A1 (en) * 2015-06-05 2018-01-25 The SuperGroup Creative Omnimedia, Inc. Imaging and display system and method
US20200201414A1 (en) * 2016-07-01 2020-06-25 Weber-Stephen Products Llc Digital Power Supply With Wireless Monitoring and Control
US20180059868A1 (en) * 2016-08-29 2018-03-01 Apple Inc. Touch induced flicker mitigation for variable refresh rate display

Similar Documents

Publication Publication Date Title
WO2013172607A1 (en) Method of operating a display unit and a terminal supporting the same
WO2014119886A1 (en) Method and apparatus for multitasking
WO2013085327A1 (en) Display apparatus for displaying screen divided into a plurality of areas and method thereof
WO2012053801A2 (en) Method and apparatus for controlling touch screen in mobile terminal responsive to multi-touch inputs
WO2013073890A1 (en) Apparatus including a touch screen under a multi-application environment and controlling method thereof
WO2013125804A1 (en) Method and apparatus for moving contents in terminal
WO2014088343A1 (en) Display device and method of controlling the same
WO2019083324A1 (en) TOUCH INPUT METHOD AND ELECTRONIC DEVICE THEREFOR
WO2013125921A1 (en) Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor
WO2014003365A1 (en) Method and apparatus for processing multiple inputs
WO2013141464A1 (ko) 터치 기반의 입력제어 방법
WO2013191488A1 (en) Apparatus including a touch screen and screen change method thereof
WO2021258917A1 (zh) 智能交互方法及设备、存储介质
WO2013109079A1 (en) System and method for displaying pages on mobile device
WO2013125789A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium
WO2019054796A1 (en) INTERACTION ACTIVATION METHOD USING A DIGITAL FOOTPRINT ON A DISPLAY AND ASSOCIATED ELECTRONIC DEVICE
WO2014003448A1 (en) Terminal device and method of controlling the same
WO2024076205A1 (ko) 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법
WO2013094990A1 (en) Display apparatus for releasing locked state and method thereof
EP3662357A1 (en) Display apparatus for providing preview ui and method of controlling display apparatus
WO2014107059A1 (ko) 재생 가능 객체를 생성하는 사용자 단말 장치 및 그 인터렉션 방법
WO2024076206A1 (ko) 조작패턴 기반 반응형 영상 재생 장치 및 방법
WO2017026834A1 (ko) 반응형 영상 생성방법 및 생성프로그램
WO2014021499A1 (ko) 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 방법
KR20240049181A (ko) 백그라운드 이미지를 이용하여 플리커 현상을 제거한 반응형 영상 제공 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23875266

Country of ref document: EP

Kind code of ref document: A1