WO2017222225A1 - 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 - Google Patents

영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 Download PDF

Info

Publication number
WO2017222225A1
WO2017222225A1 PCT/KR2017/006108 KR2017006108W WO2017222225A1 WO 2017222225 A1 WO2017222225 A1 WO 2017222225A1 KR 2017006108 W KR2017006108 W KR 2017006108W WO 2017222225 A1 WO2017222225 A1 WO 2017222225A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinate
image content
tracking
server
image
Prior art date
Application number
PCT/KR2017/006108
Other languages
English (en)
French (fr)
Inventor
유성훈
진성민
Original Assignee
(주)핑거플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)핑거플러스 filed Critical (주)핑거플러스
Publication of WO2017222225A1 publication Critical patent/WO2017222225A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2542Management at additional data server, e.g. shopping server, rights management server for selling goods, e.g. TV shopping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments

Definitions

  • Various embodiments of the present invention relate to a method of preprocessing image content, and more particularly, to a technique of preprocessing image content to preset a position of a product that can be mapped to an object included in the image content.
  • viewers When viewers watch broadcast content, viewers first focus on the story about the broadcast content itself, and then accept the story, and thus, questions about non-story elements are generated. That is, the viewers are interested in the actor's wearing goods or the actor's style exposed on the broadcast content such as drama.
  • broadcasters are sponsoring PPL in order to build the social and additional revenue layer of the program.
  • broadcasters insert product information into the scenes exposed in the video contents to allow viewers to display the product information.
  • services are being provided to make them recognizable.
  • Image content including indirect advertisements such as a conventional PPL has the inconvenience that the viewer must separately look for a product that is the target of the advertisement through a web search.
  • an object of the present invention is to provide a preprocessing method of image content that tracks the position of a product that can be matched with an object included in the image content more efficiently.
  • a method of preprocessing image content is a preprocessing method of image content that tracks a position of an object mapped to an object included in the image content in a server, and coordinates the image content through an input of a product planner device. Extracting an image screen including the points; Transmitting the extracted video screen to a coordinate input device; And receiving tracking data in which a tracking point is set for each of one or more objects corresponding to the coordinate points in the image content from the coordinate input device, wherein the tracking data is determined according to the movement of the object in the image content. And receiving tracking data, the tracking point being data set to track the object.
  • extracting the image screen may include: outputting, via the product planner device, an image capture tool that provides a function of playing and capturing the image content; Outputting one or more screenshots in response to a capture input using the image capture tool from the product planner device; Setting the coordinate point indicating a specific position of the capture screen through an input received from the product planner device; And extracting the capture screen on which the coordinate point is set as the video screen.
  • a method of preprocessing image content may include generating additional information associated with at least one of the coordinate point and the image screen; And transmitting the generated additional information to the coordinate input device.
  • the additional information may include at least one of reproduction time point information of the image screen, a type of the coordinate point, and product information to be mapped to the coordinate point in the image content. It may include.
  • the extracting the image screen may include extracting a plurality of image screens including coordinate points from the image content, and extracting the extracted image screen.
  • the transmitting to the coordinate input device may include automatically distributing and transmitting the plurality of video screens to the plurality of coordinate input devices.
  • the receiving of the tracking data in the preprocessing method of the image content may include: requesting inspection of the tracking data from the coordinate provider through the product planner device; Transmitting the approval response or rejection response inputted through the product planner device to the coordinate input device with respect to the tracking data; And storing the tracking data received from the coordinate input device when the approval response is transmitted from the coordinate input device.
  • the preprocessing method of image content may further include grouping an image section corresponding to the tracking data in the image content.
  • a server may include a server that performs a preprocessing function of an image content, the communication unit connecting a product planner device or at least one coordinate input device to the server; An image screen manager which extracts an image screen including coordinate points from the image content through an input of the product planner device and transmits the extracted image screen to the coordinate input device; And a tracking manager configured to receive, from the coordinate inputter device, tracking data in which a tracking point is set for each of one or more objects corresponding to the coordinate points in the image content, wherein the tracking data includes movement of the object in the image content.
  • the tracking point may be data set to track the object.
  • a method of preprocessing image content is a method of preprocessing image content that tracks a position of a product that can be mapped to an object included in the image content in a coordinate input device, wherein the image screen includes coordinate points from a server.
  • Setting a tracking point And transmitting tracking data for which the tracking point is set for the one or more objects to the server.
  • the transmitting of the tracking data to the server may include: requesting inspection of the tracking data to the server; Receiving an approval response or rejection response to the inspection request of the tracking data from the server; And when the approval response is received from the server, uploading the tracking data to the server.
  • the method of performing preprocessing of image content through a coordinate input device may further include grouping image sections corresponding to the tracking data in the image content.
  • a coordinate input device which includes a memory; A communication module configured to connect the coordinate input device with a server; And a processor electrically connected with the memory and the communication module, wherein the memory, when executed, the processor receives an image screen including coordinate points from the server, and the coordinate points in the image content.
  • the memory when executed, the processor receives an image screen including coordinate points from the server, and the coordinate points in the image content.
  • Sets a tracking point for each of the one or more objects corresponding to stores instructions for transmitting the tracking data for which the tracking point is set to the server for the one or more objects, and the tracking point stores the object in the image content. According to the movement of the tracking point may be set to track the object.
  • the product planner can easily specify the product area of the advertisement target suitable for various video screens of the video content There is.
  • a business operator who wants to register a product in the corresponding video section may intuitively register his / her own. It is effective in identifying the advertising value of a product.
  • FIG. 1 is a block diagram of an image content preprocessing system according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram of a server according to various embodiments of the present disclosure.
  • FIG. 3 is a block diagram of a coordinate input device according to various embodiments of the present disclosure.
  • FIG. 4 is a flowchart illustrating a process of preprocessing image content in an image content preprocessing system according to various embodiments of the present disclosure.
  • 5 to 9 are exemplary diagrams of generating a coordinate list through a product planner device in a server according to various embodiments of the present disclosure.
  • 10 to 18 are exemplary diagrams illustrating an operation of generating tracking data in a coordinate input device according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an image content preprocessing system 10 according to various embodiments of the present disclosure.
  • the image content preprocessing system 10 may include a product planner device 100, a server 200, a plurality of coordinate input device devices 300_1 to 300_N, and a network 400.
  • the product planner device 100 communicates with the server 200 through the network 400 to set a location of a product that can be mapped to an object included in the image content, and to generate a coordinate list based on the set location. to be.
  • the product planner apparatus 100 may perform a function of inspecting a tracking data generation task performed by the coordinate inputter apparatus 300.
  • the product planner device 100 may be, for example, a smartphone, a tablet, a mobile phone, a desktop personal computer, a laptop personal computer, a netbook.
  • the computer may be any one of a netbook computer, a workstation, a personal digital assistant, and a wearable device, but is not limited thereto.
  • FIG. 2 is a block diagram of a server 200 according to various embodiments of the present disclosure.
  • the server 200 supports various types of interfaces for the product planner device 100 to generate a coordinate list, and assigns a tracking task related to the generated coordinate list to the at least one coordinate input device 300. Can be performed.
  • the server 200 may store / manage tracking data received from the coordinate input device 300 or support a function related to a request for inspecting the tracking data through the product planner 100.
  • the server 200 may include a communication unit 210, a controller 220, an image content manager 221, an image screen manager 223, a tracking manager 225, an interface manager 227, and a storage unit ( 230).
  • the server 200 may omit at least some of the components of FIG. 2 or may further include additional components.
  • the communicator 210 may connect the server 200 with the product planner device 100 or the coordinate input device 300 through the network 400.
  • the communication unit 210 may be connected to the network 400 through wireless or wired communication to mediate data communication between the product planner device 100 and the coordinate input device 300.
  • the controller 220 may perform a data processing function of controlling a signal flow and processing data between an overall operation such as power supply control of the server 200 and an internal configuration of the server 200.
  • the controller 220 may include at least one processor, and the processor may include a central processing unit (CPU), an application processor (AP), or a communication processor (CP). It may include one or more of.
  • the image content manager 221 may perform a function related to the collection of the image content and the division of the image content. According to various embodiments, the image content manager 221 may divide a section in which the screen is switched based on the color information and the pixel pattern of the image content frame.
  • the video screen management unit 223 may perform a function related to a task of extracting a video screen in which point coordinates are set with respect to a position of a product that can be mapped in the image content through the product planner device 100.
  • the tracking manager 225 may perform a function related to a check operation performed through the product planner device 100 on the tracking data received from the coordinate input device 300.
  • the interface manager 227 may support various types of interfaces generated by performing the image content preprocessing function, such as an interface related to the point coordinate setting or an interface related to the checking function of the tracking data.
  • the storage unit 230 may store data received or generated from the controller 220, the server 200, or other components of the image content preprocessing system 10.
  • the storage unit 230 may include, for example, a memory, a cash, a buffer, or the like, and may be configured of software, firmware, hardware, or a combination of two or more thereof.
  • the storage unit 230 may include a content DB 231 and an information DB 233.
  • the content DB 231 and the information DB 233 are illustrated as being separated on the storage unit 230, the content DB 231 and the information DB 233 are not limited thereto and may be configured as one module.
  • the content DB 231 may store the image content collected by the image content manager 221.
  • the image content may be an image content original and / or image content processed to be partitioned for each screen switching section of the image content.
  • the information DB 233 may store various types of data generated or collected according to the image content preprocessing function performed by the server 200.
  • the video content manager 221, the video screen manager 223, the tracking manager 225, and the interface manager 227 are logically or functionally classified functions of the controller 220 of the server 200. Can be. Accordingly, the video content manager 221, the video screen manager 223, the tracking manager 225, the interface manager 227, and the controller 220 may be configured as one module.
  • the functions of the video content manager 221, the video screen manager 223, the tracking manager 225, the interface manager 227, and the controller 220 may include routines and instructions stored in the storage 230 (eg, memory). instructions) or programs.
  • routines, instructions, or programs may also be stored on a computer-readable storage medium.
  • Such storage media includes all types of storage media on which programs and data are stored so that they can be read by a computer system. Examples include Read Only Memory (ROM), Random Access Memory (RAM), Compact Disk (CD), Digital Video Disk (DVD) -ROM, Magnetic Tape, Floppy Disk, Optical Data Storage, Flash Memory Devices, etc. Can be.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • CD Compact Disk
  • DVD Digital Video Disk
  • magnetic Tape Magnetic Tape
  • Floppy Disk Optical Data Storage
  • Flash Memory Devices etc.
  • these storage media can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • FIG. 3 is a block diagram of a coordinate input device 300 according to various embodiments of the present invention.
  • the coordinate inputter device 300 may generate tracking data by receiving a coordinate list from the server 200, and perform an inspection request and upload operation of the generated tracking data.
  • the coordinate input device 300 may include an input module 310, a display module 320, a storage 330, an audio processing module 340, a communication module 350, and a controller 360. It may include.
  • the input module 310 may receive numeric or text information and may include a plurality of input keys and function keys for setting various functions.
  • the function keys may include a direction key, a side key, a shortcut key, and the like, which are set to perform a function according to the execution of the coordinate input application 331.
  • the input module 310 may be implemented as a touch screen.
  • the display module 320 may display various screens generated by the operation of the coordinate input application 331 in the coordinate input device 300.
  • the display module 320 may be implemented as a display module or a touch screen. When the display module 320 is implemented as a touch screen, the screen of the display module 320 may be operated as the input module 310.
  • the storage unit 330 may store data received or generated from the controller 360, the coordinate input device 300, or other components of the image content preprocessing system 10.
  • the storage unit 130 may include, for example, a memory, a cash, a buffer, and the like.
  • the storage unit 330 may include a coordinate input application 331.
  • the coordinate input application 331 may be an application downloadable through an open market such as an app store, but is not limited thereto.
  • the coordinate input application 331 may be implemented as a home application embedded in the coordinate input device 300.
  • the coordinate input application 331 is loaded according to a call of the controller 360 or an application processor (AP, not shown) and performs a function related to coordinate input or tracking data generation through each configuration of the coordinate input device 300. can do.
  • the coordinate input application 331 may be implemented as a routine, an instruction, or a program capable of performing a function under the control of the controller 360 of the coordinate input device 300 or the application processor AP.
  • routines, instructions, or programs may be stored in a computer-readable storage medium.
  • a storage medium may have the same hardware / software configuration as the storage medium of the aforementioned server.
  • the audio processing module 340 may be configured to process various audio signals (eg, tracking setting notification sound, inspection approval / rejection notification sound) generated during the operation of the coordinate input application 331 of the coordinate input device 300. have.
  • various audio signals eg, tracking setting notification sound, inspection approval / rejection notification sound
  • the communication module 350 may connect communication between the coordinate input device 300 and an external device (eg, the product planner device 100 or the server 200).
  • the communication module 350 may be connected to the network 400 through wireless or wired communication to communicate with the external device.
  • the controller 360 may perform a data processing function of controlling a signal flow between an overall operation such as power supply control of the coordinate input device 300 and an internal configuration of the coordinate input device 300 and processing data.
  • the controller 360 may include at least one processor.
  • the network 400 may be a telecommunications network.
  • the communication network may include at least one of a computer network, the Internet, the Internet of things, a mobile network, and a telephone network. It is not.
  • FIG. 4 is a flowchart of performing a preprocessing process of the image content in the image content preprocessing system 10 according to various embodiments of the present disclosure.
  • the coordinate input device 300 is illustrated as one for convenience of description, but in various embodiments of the present disclosure, the coordinate input device 300 may be configured in plurality.
  • FIGS. 5 to 18 are exemplary views of generating a coordinate list through the product planner device 100 in the server 200, and FIGS. 10 to 18 illustrate an operation of generating tracking data in the coordinate input device 300. It is an illustration.
  • the server 200 may partition a screen change section.
  • the partitioning process of the screen switching section is performed first, but the partitioning process of the screen switching section loads the image content after the product planner device 100 accesses a web page operated by the server 200. It may be done in the process of doing so, but it is not limited to a specific point in time.
  • the process of dividing the screen change section may be a prerequisite process for grouping an image section corresponding to generation of a coordinate list, coordinate input operation, and the same product, which will be described later.
  • the server 200 may load image content.
  • the server 200 may load image content by calling image content stored in the content DB 231 or receiving image content from an external device through the communication unit 210.
  • the server 200 may check a change value of color information between successive frames (eg, the first frame and the second frame).
  • the server 100 may check color information of the first frame and the second frame, which are some consecutive frames of the image content, and detect a change value of the identified color information.
  • the server 200 may verify a pixel pattern between successive frames, and based on the verification result, By recognizing the presence or absence, the video content can be divided into a plurality of sections.
  • a predetermined condition e.g, a preset change value
  • the server 200 may divide a frame into a plurality of color areas, identify color regions matched between successive frames (eg, the first frame and the second frame), and color The change value of the color information corresponding to the area can be checked. If the change value of the color information is less than a predetermined value, the server 200 may process the respective frames so that the number of colors in the color areas of the respective frames is reduced.
  • the server 200 may divide the frame into a plurality of pixel pattern regions.
  • the server 200 may match pixel pattern areas of consecutive frames (eg, the first frame and the second frame) and check the number of pixel pattern areas that are matched by a constant deviation between the frames.
  • the server 200 may recognize that the screen is switched. In this case, the server 100 may check a contact point of time between successive frames as the screen change point, and store information related to the checked screen change point in the storage unit 230.
  • the server 200 may recognize that the screen is not switched. In addition, the server 200 may repeat the screen switching recognition process between the currently confirmed last frame and the next consecutive frame.
  • the product planner apparatus 100 may access a web page operated by the server 200. That is, the product planner device 100 may perform a coordinate list generation process (for example, a coordinate list up process) or a inspection process on tracking data on the web of the server 200, but is not necessarily limited to a web environment. For example, the product planner device 100 may perform the above operations by communicating with the server 200 by driving a separate application similarly to the coordinate input device 300.
  • a coordinate list generation process for example, a coordinate list up process
  • inspection process on tracking data on the web of the server 200, but is not necessarily limited to a web environment.
  • the product planner device 100 may perform the above operations by communicating with the server 200 by driving a separate application similarly to the coordinate input device 300.
  • the server 200 may load the image content and output the image content through the product planner device 100.
  • the server 200 may perform a coordinate list up operation of generating a coordinate list based on image content through an input received from the product planner device 100.
  • the coordinate list-up operation described with reference to FIGS. 5 to 9 is an operation performed by the product planner to set the position of the (ad target) product that can be mapped to an object included in the image content.
  • an image capture tool is shown through the screen of the product planner device 100.
  • the product planner may capture the video screen for generating the coordinate list while playing the video content through the play related area 4 of the video capture tool.
  • FIG. 6 shows a coordinate list editing screen. At the top of the coordinate list editing screen, a thumbnail counting area 1, an official product counting area 2, and a general product counting area 3 in which the number of the current capture screens are counted are exposed.
  • an official product may be actually the same product as an object (eg, glasses) included in the image content.
  • a general product may not be the same as an object included in the image content, but may be a similar item candidate provided by a product provider, but is not limited thereto.
  • the capture screens 4 with coordinate points set may be displayed separately from the capture screens with no coordinate points. That is, as shown in the screen, the capture screens 4 having the coordinate points set are added with a red border, and the edit item 5 is described as “correct or delete”, so It is distinguished from the "add or delete” character of the edit item.
  • additional information 6 related to at least one of the coordinate points and the capture screen is exposed to an area adjacent to the capture screen 4.
  • the point coordinate and additional information setting screen shown in FIG. 7 is output through the product planner apparatus 100.
  • point coordinates may be set for a location to which a product is to be mapped, and additional information related to the set point coordinates may be entered.
  • the product planner may select the additional item 4 through the product planner device 100. For example, three point coordinates 701, 703, and 705 currently added are shown on the point coordinate and additional information setting screen. These point coordinates 701, 703, and 705 may be generated in an arbitrary area of the screen and then moved to an area corresponding to a desired object through a drag input. For example, the first point coordinate 701 may be dragged and positioned on the knit object 3.
  • the product planner may set the type of the corresponding point coordinates by selecting the official or suggest check box 2, and may delete the specific point coordinates by selecting the delete item 5.
  • the type of point coordinates as described above e.g., whether they are official or general merchandise
  • product information e.g. pillow, bed, etc.
  • information on the playback point e.g. 02:18 seconds It may be set as additional information related to the coordinate point or the screenshot.
  • the point coordinate and additional information setting screen may include a scene moving area 6 through which the product planner device 100 may move to the previous capture scene or the next capture scene.
  • the server 200 sets the content shown in FIG. 7.
  • the screen of FIG. 8 may be output by reflecting the stored contents.
  • contents set by FIG. 7 by the product planner 100 are reflected and displayed (1). That is, an image screen (eg, a capture screen) and additional information including coordinate points are exposed through the product planner device 100.
  • the server 200 may output the screen of FIG. 5 again through the product planner device 100.
  • the coordinate listup-completed item 3 is input through the product planner device 100, so that the server 200 may output the final list screen of FIG. 9 through the product planner device 100.
  • FIG. 9 illustrates a final list screen by the coordinate listup operation S420 performed through FIGS. 5 to 8. At the top of the final list screen, the time information 1 in which the final list screen is registered is exposed, and at the bottom, the cancel item 2 and the product tracking request item 3 are exposed.
  • the server 200 may output the screen of FIG. 6 or 8 through the product planner device 100.
  • the server 200 may allocate a job to the at least one coordinate input device device 300.
  • the product planner apparatus 100 may request the server 200 to coordinate tracking and job distribution processing. Then, in operation S430, the server 200 may distribute a task for generating tracking data.
  • the server 200 may receive a result of the coordinate list-up operation generated through the input of the product planner device 100, that is, the video screen including the coordinate points, through the above-described operations of FIGS. 5 to 9. .
  • the tasks for tracking the coordinate points may be distributed through the plurality of coordinate input device 300 to perform the tasks.
  • the server 200 may limit the number of coordinate lists for which the tracking input is to be performed per coordinate inputter and distribute the processing to the plurality of coordinate input apparatuses 300.
  • only one coordinate list may be set per image screen (eg, the capture screen of FIG. 5), and the specific coordinate inputter tracks the number of each image screen on which one coordinate list is set. Can be estimated as the amount of work that needs to be done. Then, the coordinate inputter may perform a tracking operation to be described later through the coordinate inputter device 300.
  • the server 200 may request a tracking operation from the coordinate input device 300.
  • the coordinate input device 300 may receive an image screen including coordinate points from the server 200.
  • the coordinate input device 300 may further receive additional information related to coordinate data or an image screen from the server 200.
  • the coordinate input device 300 may execute the coordinate input application 331.
  • the coordinate input application 331 is executed in step S440, but is not limited thereto.
  • the coordinate input device 300 may receive a tracking task request from the server 200 while executing the coordinate input application 331 in advance.
  • the coordinate input device 300 may set a tracking point.
  • the coordinate input device 300 may set a tracking point for each of one or more objects corresponding to the coordinate points received from the server 200 while searching the image content.
  • the tracking point may be a marker configured to track the object according to the movement of the object in the image content.
  • the coordinate input device 300 may generate tracking data for which a tracking point is set.
  • FIG. 10 a coordinate input initial screen output through the coordinate input device 300 is illustrated.
  • the title area 1 and the list-up creation date area 2 of the product planner device 100 are exposed at the upper end of the coordinate input initial screen.
  • the coordinate workload amount area 3 assigned to the coordinate inputter is output from the server 200.
  • the coordinate inputter has been assigned a tracking task for five coordinate points.
  • the name of the product planner, the name of the coordinate inputter and the request time display area 4 are exposed.
  • an image screen including a coordinate list and additional information are displayed on the left side of the screen.
  • the video screen and the additional information may be displayed according to a job quota, but the present invention is not limited thereto, and only a partial job quota may be output as shown in FIG. 10.
  • a detailed screen 6 related to a specific image screen 5 is shown on the right side of the screen.
  • information related to the corresponding video screen is exposed, and at least some of the exposure information may be the same as additional information.
  • an image content search tool for searching for an object equal to a coordinate point is illustrated.
  • the server 200 may play all or part of the image content at the request of the coordinate input device 300.
  • the image content search tool includes an image title area (1), an image reproduction area (2), a current image section display area (4), a previous image section moving area (5), a next image section moving area (6), and an image. It may include a play / pause area 7, a tracking point generation item 8 and a timeline 9.
  • the image content search tool may classify and expose a section in which a scene is changed according to the partitioning operation according to the aforementioned screen change (3).
  • the server 200 or the coordinate input device 300 may stroke the thumbnail or “coordinate in progress”.
  • the job status display can be output.
  • the coordinate inputter may set the tracking point on the corresponding video screen by dragging the tracking point 1 to a specific object (eg, glasses) in the video screen through the coordinate input device 300.
  • the coordinate inputter may set a tracking point for each of a plurality of frames included in the corresponding video section (eg, the current video section).
  • the coordinate inputter may search for a frame before or after a frame corresponding to the current video screen at a low speed through the frame search items 3 and 4 of the image content search tool, You can set tracking points for the same object (e.g. glasses).
  • the coordinate inputter device 300 or the server 200 may assign an object area (eg, an object or a tracking point within the video screen) to which a tracking point is assigned in the corresponding video screen. Can be recognized / remembered.
  • an object area eg, an object or a tracking point within the video screen
  • the coordinate input device 300 may recognize and store or transmit image screens in which tracking points are set as tracking data.
  • the coordinate input device 300 is the same object as the object in which the coordinate point is marked in the entire image content You can set tracking points for.
  • the coordinate input device 300 may group image sections.
  • the coordinate input device 300 may group image sections corresponding to tracking data in the image content.
  • the coordinate inputter device 300 may determine a specific object in an image section of the entire image content. For example, only the image section 1 in which the tracking point is set for the glasses may be grouped. In FIG. 13, only the current image section display region of FIG. 11 is displayed as being grouped, but all image sections in which a tracking point is set for the specific object may be displayed in the same color in the entire image section.
  • the coordinate input device 300 may provide a menu for reproducing only a group of image sections in which a tracking point is set for a specific object or the specific object.
  • the coordinate input device 300 may group each tracking point set for the same object in the image content and the image screens including the tracking points, and reproduce only the grouped image screen or the image section.
  • the screen may be displayed on the screen of the product planner device 100, the server 200, or the coordinate input device 300.
  • the coordinate inputter can intuitively and efficiently check whether the task assigned to the coordinate input is performed properly on the entire contents.
  • the product planner may perform the inspection work effectively by checking the grouped image sections based on the same tracking point even when performing the inspection work to be described later.
  • a product provider who wants to register a product with respect to the image content may also recognize how the product that the product operator wants to register is exposed and appealed on the image content by checking the grouped image sections as described above.
  • the coordinate input device 300 may request a server 200 to inspect the data for setting the tracking point.
  • the server 200 may output the inspection screen requested by the product planner to the product planner device 100 or through the product planner device 100.
  • the coordinate inputter needs to check whether the tracking points set for the objects on the image screen match the area exactly intended by the product planner, and the temporary data set only the tracking points before generating the tracking data or the tracking data. May be transmitted to the product planner device 100 via the server 200.
  • the product planner may transmit the response of the inspection approval or the rejection of the approval through the product planner device 100 to the coordinate input device 300 through the server 200 in operation S470.
  • the coordinate input device 300 may perform the tracking operation again in operation S475.
  • the coordinate input device 300 may generate the final tracking data and upload it to the server 200 in step S480.
  • the coordinate inputter when the coordinate inputter selects the inspection request item 1 displayed on the screen through the coordinate inputter device 300, the coordinate inputter device 300 displays the first image screen 1501. ), The data in which the tracking point setting is performed in the image content may be transmitted to the server 200. Then, the server 200 may output the screen of FIG. 16 through the product planner device 100 connected to the web.
  • the coordinate checking screen is exposed in the product planner device 100.
  • the coordinate inspection screen includes the inspection date (1), the number of inspection requests (2) requested, the number of approvals (3), the number of rejections (4), the search items (5), and the list classification ( 6), list-up information (7), additional information (8), the image confirmation item (9), the inspection approval item (10), the inspection approval rejection item (11), the approval rejection reason creation area 12 have.
  • the server 200 may group the images based on the same tracking point in the coordinate inputter device 300 through the product planner device 100. You can play the screen or video section.
  • the inspection result page output from the coordinate input device 300 is illustrated.
  • the inspection completion tag 1 is output with respect to the data approved for inspection through the product planner device 100 among the image screens related to the work assigned to the coordinate inputter.
  • the coordinate progress tag 2 is output to the video screen in which the coordinate inputter continuously sets the tracking point.
  • the inspection progress tag 3 or the approval rejection tag 4 is output to the specific video screen, and the reason for rejection of the rejection is exposed when the coordinate inputter mouses over the approval rejection tag 4.
  • the "complete" item 5 is output to the thumbnail of the video screen as shown on the right side of the inspection result page.
  • a tracking data upload screen is shown on the coordinate input device 300.
  • the coordinate inputter device 300 may transmit tracking data, which are image screens in which a tracking point is finally set, to the server 200.
  • the product planner is suitable for the various video screens of the video target product
  • the area can be easily designated, and the product provider who wants to register the product in the corresponding video section can intuitively grasp the advertisement value of the product to be registered.
  • module or “unit” may refer to a unit including one or a combination of two or more of hardware, software, or firmware. . “Module” or “unit” is interchangeable with, for example, terms such as unit, logic, logical block, component, or circuit. Can be. “Module” or “part” may be a minimum unit or part of an integrally formed part, or may be a minimum unit or part of one or more functions. The “module” or “ ⁇ part” can be implemented mechanically or electronically.
  • a “module” or “unit” in accordance with various embodiments of the present invention may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs) that perform certain operations, known or developed in the future. ) Or at least one of a programmable-logic device.
  • ASIC application-specific integrated circuit
  • FPGA field-programmable gate arrays
  • Modules or programming modules may include at least one or more of the aforementioned components, omit some of them, or further include additional components.
  • Operations performed by modules, programming modules, or other components in accordance with various embodiments of the present invention may be executed in a sequential, parallel, repetitive, or heuristic manner. In addition, some operations may be executed in a different order, may be omitted, or other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치가 개시된다. 본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서, 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계; 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및 상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계를 포함할 수 있다.

Description

영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치
본 발명의 다양한 실시예들은 영상 컨텐츠의 전처리 방법에 관한 것으로서, 보다 구체적으로 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 미리 설정하도록 영상 컨텐츠를 전처리하는 기술에 관한 것이다.
최근 인터넷 포털 사이트의 통계에 의하면, 사람들은 인터넷 포털 사이트에서 방송 또는 연예와 관련된 키워드를 가장 많이 검색하는 것으로 알려져 있다. 이러한 방송 또는 연예와 관련된 검색이 가장 많이 이루어진 이유는 방송 컨텐츠에 대한 회자성이라는 속성, 방송 컨텐츠의 영향력, 그리고 방송 컨텐츠에 대한 사람들의 관심에 따른 결과라고 볼 수 있다.
시청자들은 방송 컨텐츠 시청할 때 방송 컨텐츠 자체에 대한 스토리에 먼저 집중하고, 이후 이러한 스토리를 수용함에 따라 스토리 외적인 요소에 대한 궁금증이 생성된다. 즉, 시청자들은 드라마와 같은 방송 컨텐츠 상에서 노출되는 연기자의 착용 상품 또는 연기자의 스타일에 관심을 갖게 된다.
한편, 방송사에서는 프로그램의 회자성 및 추가적 수익 레이어를 구축하고자 PPL 등의 협찬을 진행하고 있으며, 나아가 OTT 사업자 등과 연계하여 영상 컨텐츠 내에서 노출되는 장면에 상품 정보를 삽입하여 시청자들로 하여금 해당 상품 정보를 인식할 수 있도록 하는 서비스가 점차 제공되고 있는 실정이다.
종래 PPL 등과 같은 간접광고를 포함하는 영상 컨텐츠는 시청자가 광고의 대상이 되는 상품을 웹 검색 등을 통해 별도로 찾아보아야 한다는 불편함이 있다.
특히, 영상 컨텐츠 시청 중에는 관심있는 상품이 있더라도 스토리 자체에 집중해야 하기 때문에 영상 컨텐츠의 시청이 종료된 이후에 해당 상품을 검색하는 경우가 대부분이다. 이러한 경우, 해당 상품에 대한 정보가 정확하게 기억나지 않아 추상적인 검색 키워드 등을 통해 복잡한 검색 과정을 거쳐야 한다는 단점이 있다.
한편, 영상 컨텐츠에 대하여 상품관련 정보를 부가하는 경우, 영상 컨텐츠의 특정 구간 내에서 상품관련 정보에 매칭되는 오브젝트가 실시간으로 이동함에 따라, 해당 오브젝트를 보다 효과적으로 트래킹하기 위한 전처리 작업이 필요한 실정이다.
본 발명의 다양한 실시예는 상기와 같은 문제점들을 해결하기 위해 안출된 건으로서, 보다 효율적으로 영상 컨텐츠에 포함된 오브젝트와 매칭 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법을 제공하는데 그 목적이 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서, 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계; 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및 상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서, 상기 영상화면을 추출하는 단계는, 상기 영상 컨텐츠의 재생 및 캡쳐 기능을 제공하는 영상 캡쳐 툴을 상기 상품 기획자 장치를 통해 출력하는 단계; 상기 상품 기획자 장치로부터 상기 영상 캡쳐 툴을 이용한 캡쳐 입력에 응답하여 하나 이상의 캡쳐화면을 출력하는 단계; 상기 상품 기획자 장치로부터 수신되는 입력을 통해 상기 캡쳐화면의 특정 위치를 표시하는 상기 좌표 포인트를 설정하는 단계; 및 상기 좌표 포인트가 설정된 캡쳐화면을 상기 영상화면으로서 추출하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 상기 좌표 포인트 및 상기 영상화면 중 적어도 하나와 관련된 부가정보를 생성하는 단계; 및 생성된 부가정보를 상기 좌표 입력자 장치로 전송하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서, 상기 부가정보는, 상기 영상 컨텐츠에서 상기 영상화면의 재생시점 정보, 상기 좌표 포인트의 종류 및 상기 좌표 포인트에 매핑될 상품 정보 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서, 상기 영상화면을 추출하는 단계는 상기 영상 컨텐츠에서 좌표 포인트가 포함된 복수의 영상화면을 추출하는 단계를 포함하고, 상기 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계는 자동으로 상기 복수의 영상화면을 복수의 좌표 입력자 장치로 분산하여 전송하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서 상기 트래킹 데이터를 수신하는 단계는, 상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 상기 좌표 제공자에게 검수를 요청하는 단계; 상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 입력된 승인 응답 또는 승인거절 응답을 상기 좌표 입력자 장치로 전송하는 단계; 및 상기 좌표 입력자 장치로부터 상기 승인 응답이 전송되는 경우, 상기 좌표 입력자 장치로부터 수신된 트래킹 데이터를 저장하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 서버는 영상 컨텐츠의 전처리 기능을 수행하는 서버로서, 상품 기획자 장치 또는 적어도 하나의 좌표 입력자 장치와 상기 서버를 연결하는 통신부; 상기 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하고, 추출된 영상화면을 상기 좌표 입력자 장치로 전송하는 영상화면 관리부; 및 상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 트래킹 관리부를 포함하며, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터일 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 좌표 입력자 장치에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서, 서버로부터 좌표 포인트가 포함된 영상화면을 수신하는 단계; 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하는 단계로서, 상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 것인, 트래킹 포인트를 설정하는 단계; 및 상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 좌표 입력자 장치를 통해 영상 컨텐츠의 전처리를 수행하는 방법에서, 상기 트래킹 데이터를 상기 서버로 전송하는 단계는, 상기 트래킹 데이터에 대하여 상기 서버로 검수를 요청하는 단계; 상기 서버로부터 상기 트래킹 데이터의 검수요청에 대한 승인 응답 또는 승인거절 응답을 수신하는 단계; 및 상기 서버로부터 상기 승인 응답이 수신되는 경우, 상기 트래킹 데이터를 상기 서버에 업로드하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 좌표 입력자 장치를 통해 영상 컨텐츠의 전처리를 수행하는 방법은 상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 좌표 입력자 장치는 영상 컨텐츠의 전처리 기능을 수행하는 좌표 입력자 장치로서, 메모리; 상기 좌표 입력자 장치를 서버와 연결하도록 구성된 통신 모듈; 및 상기 메모리 및 상기 통신 모듈과 전기적으로 연결되는 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 서버로부터 좌표 포인트가 포함된 영상화면을 수신하고, 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하며, 상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하도록 하는 인스트럭션들을 저장하고, 상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따라 상품 기획자(merchandiser, MD) 장치에서 영상 컨텐츠의 좌표 포인트를 설정하고, 설정된 좌표 포인트를 기반으로 좌표 입력자 장치에서 트래킹 포인트를 설정한 트래킹 데이터를 생성함으로써, 상품의 위치를 트래킹하기 위한 영상 컨텐츠의 전처리 작업을 보다 효율적으로 수행할 수 있다는 효과가 있다.
또한, 본 발명의 다양한 실시예에 따라 서버에서 상품 기획자 장치가 좌표 포인트를 설정하기 위한 다양한 인터페이스를 제공함으로써, 상품 기획자가 영상 컨텐츠의 여러 영상화면에 적합한 광고대상의 상품 영역을 손쉽게 지정할 수 있다는 효과가 있다.
나아가, 본 발명의 다양한 실시예에 따라 서버 또는 좌표 입력자 장치에서 트래킹 데이터를 기반으로 동일 상품에 해당하는 영상구간을 그룹핑함으로써, 해당 영상 구간에 상품을 등록하고자 하는 사업자가 직관적으로 자신이 등록할 상품의 광고가치를 파악할 수 있다는 효과가 있다.
도 1은 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템의 블록도이다.
도 2는 본 발명의 다양한 실시예에 따른 서버의 블록도이다.
도 3은 본 발명의 다양한 실시예에 따른 좌표 입력자 장치의 블록도이다.
도 4는 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템에서 영상 컨텐츠의 전처리 과정을 수행하는 순서도이다.
도 5 내지 도 9는 본 발명의 다양한 실시예에 따른 서버에서 상품 기획자 장치를 통해 좌표 리스트를 생성하는 예시도이다.
도 10 내지 도 18은 본 발명의 다양한 실시예에 따른 좌표 입력자 장치에서 트래킹 데이터를 생성하는 동작을 나타내는 예시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부 도면을 참조하여 영상 컨텐츠 전처리 시스템(10) 및 영상 컨텐츠의 전처리 방법에 대하여 설명하도록 한다.
도 1은 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템(10)의 블록도이다.
영상 컨텐츠 전처리 시스템(10)은 상품 기획자 장치(100), 서버(200), 복수의 좌표 입력자 장치(300_1 내지 300_N) 및 네트워크(400)를 포함할 수 있다.
먼저, 상품 기획자 장치(100)는 네트워크(400)를 통해 서버(200)와 통신하여 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 설정하고, 설정된 위치를 기반으로 좌표 리스트를 생성하는 전자 장치이다. 이러한 상품 기획자 장치(100)는 좌표 입력자 장치(300)에서 수행되는 트래킹 데이터 생성 작업을 검수하는 기능을 수행할 수 있다.
몇몇 실시예에 따르면, 상품 기획자 장치(100)는 예컨대, 스마트폰(smartphone), 태블릿(tablet), 이동 전화기(mobile phone), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant) 또는 웨어러블 장치(wearable device) 중 어느 하나일 수 있으나 이에 한정하는 것은 아니다.
도 2는 본 발명의 다양한 실시예에 따른 서버(200)의 블록도이다.
서버(200)는 상품 기획자 장치(100)가 좌표 리스트를 생성할 수 있도록 다양한 형태의 인터페이스를 지원하고, 생성된 좌표 리스트와 관련된 트래킹 작업을 적어도 하나의 좌표 입력자 장치(300)에 할당하는 기능을 수행할 수 있다. 또한, 서버(200)는 좌표 입력자 장치(300)로부터 수신된 트래킹 데이터를 저장/관리하거나 상품 기획자 장치(100)를 통해 트래킹 데이터의 검수 요청과 관련된 기능을 지원할 수 있다.
다양한 실시예에 따르면, 서버(200)는 통신부(210), 제어부(220), 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225), 인터페이스 관리부(227) 및 저장부(230)를 포함할 수 있다. 한정되지 않는 실시예로서, 서버(200)는 도 2의 구성요소들 중 적어도 일부를 생략하거나 추가적인 구성요소를 더 구비할 수 있다.
통신부(210)는 서버(200)를 네트워크(400)를 통해 상품 기획자 장치(100) 또는 좌표 입력자 장치(300)와 통신연결 시킬 수 있다. 예를 들면, 상기 통신부(210)는 무선 통신 또는 유선 통신을 통해서 네트워크(400)에 연결되어 상품 기획자 장치(100)와 좌표 입력자 장치(300)간의 데이터 통신을 중개할 수 있다.
제어부(220)는 서버(200)의 전원공급 제어 등과 같은 전반적인 동작 및 서버(200)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(220)는 적어도 하나의 프로세서를 포함할 수 있고, 이러한 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.
영상 컨텐츠 관리부(221)는 영상 컨텐츠의 수집 및 영상 컨텐츠의 분할과 관련된 기능을 수행할 수 있다. 다양한 실시예에 따르면, 영상 컨텐츠 관리부(221)는 영상 컨텐츠 프레임의 색상 정보 및 픽셀 패턴을 기반으로 화면이 전환되는 구간을 구획할 수 있다.
영상화면 관리부(223)는 상품 기획자 장치(100)를 통해 영상 컨텐츠에서 매핑 가능한 상품의 위치에 대하여 포인트 좌표를 설정한 영상화면을 추출하는 작업과 관련된 기능을 수행할 수 있다.
트래킹 관리부(225)는 좌표 입력자 장치(300)로부터 수신된 트래킹 데이터에 대하여 상품 기획자 장치(100)를 통해 수행되는 검수 작업과 관련된 기능을 수행할 수 있다.
인터페이스 관리부(227)는 포인트 좌표 설정과 관련된 인터페이스 또는 트래킹 데이터의 검수 기능과 관련된 인터페이스와 같이 영상 컨텐츠 전처리 기능 수행에 따라 발생되는 다양한 종류의 인터페이스를 지원할 수 있다.
저장부(230)는 제어부(220), 서버(200) 또는 영상 컨텐츠 전처리 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 저장부(230)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있으며, 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
다양한 실시예에 따르면, 저장부(230)는 컨텐츠 DB(231) 및 정보 DB(233)를 포함할 수 있다. 이러한 컨텐츠 DB(231) 및 정보 DB(233)는 저장부(230)상에서 구분되는 것으로 도시되어 있으나, 이에 한정하지 않으며, 하나의 모듈로서 구성될 수도 있다.
컨텐츠 DB(231)는 영상 컨텐츠 관리부(221)에서 수집된 영상 컨텐츠를 저장할 수 있다. 이 경우, 영상 컨텐츠는 영상 컨텐츠 원본 및/또는 상기 영상 컨텐츠의 화면전환 구간마다 구획되도록 가공된 영상 컨텐츠일 수 있다.
정보 DB(233)는 서버(200)에서 영상 컨텐츠 전처리 기능 수행에 따라 발생되거나 수집되는 다양한 종류의 데이터를 저장할 수 있다.
전술한 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225) 및 인터페이스 관리부(227)는 서버(200)의 제어부(220)의 각 기능을 논리적으로 또는 기능적으로 분류한 구성일 수 있다. 따라서, 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225) 및 인터페이스 관리부(227)와 제어부(220)는 하나의 모듈로서 구성될 수도 있다.
또한, 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225), 인터페이스 관리부(227) 및 제어부(220)의 기능은 저장부(230, 예: 메모리)에 저장된 루틴, 명령어(instruction) 또는 프로그램의 형태로 구현될 수 있다.
나아가, 이러한 루틴, 명령어 또는 프로그램은 컴퓨터로 읽을 수 있는 저장매체에도 저장될 수 있다. 이러한 저장매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 저장매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 플래쉬 메모리 장치 등이 포함될 수 있다. 또한, 이러한 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 좌표 입력자 장치(300)의 블록도이다.
다양한 실시예에 따르면, 좌표 입력자 장치(300)는 서버(200)로부터 좌표 리스트를 수신하여 트래킹 데이터를 생성할 수 있고, 생성된 트래킹 데이터의 검수요청 및 업로드 동작을 수행할 수 있다.
다양한 실시예에 따르면, 좌표 입력자 장치(300)는 입력 모듈(310), 표시 모듈(320), 저장부(330), 오디오처리 모듈(340), 통신 모듈(350) 및 제어부(360)를 포함할 수 있다.
입력 모듈(310)은 숫자 또는 문자 정보를 입력 받을 수 있고, 다양한 기능을 설정하기 위한 다수의 입력 키 및 기능키들을 포함할 수 있다. 기능키들은 좌표 입력 어플리케이션(331) 실행에 따른 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 한정되지 않는 실시예에 따르면, 입력 모듈(310)는 터치스크린으로 구현될 수 있다.
표시 모듈(320)은 좌표 입력자 장치(300)에서 좌표 입력 어플리케이션(331)의 운용에 따라 발생하는 다양한 화면을 표시할 수 있다. 표시 모듈(320)은 디스플레이 모듈 또는 터치스크린 방식으로 구현될 수 있으며, 이러한 표시 모듈(320)은 터치스크린으로 구현되는 경우 표시 모듈(320)의 화면은 입력 모듈(310)로 동작될 수 있다.
저장부(330)는 제어부(360), 좌표 입력자 장치(300) 또는 영상 컨텐츠 전처리 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 저장부(130)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있다.
다양한 실시예에 따르면, 저장부(330)는 좌표 입력 어플리케이션(331)을 포함할 수 있다. 좌표 입력 어플리케이션(331)은 앱 스토어와 같은 오픈 마켓을 통해 다운로드 가능한 애플리케이션일 수 있으나, 이에 한정하는 것은 아니며 좌표 입력자 장치(300)에 내장된 홈 애플리케이션 형태로 구현될 수도 있다.
이러한 좌표 입력 어플리케이션(331)은 제어부(360) 또는 애플리케이션 프로세서(AP, 미도시)의 호출에 따라 로드되어 좌표 입력자 장치(300)의 각 구성을 통해 좌표 입력 또는 트래킹 데이터 생성과 관련된 기능을 수행할 수 있다.
그리고, 좌표 입력 어플리케이션(331)은 좌표 입력자 장치(300)의 제어부(360) 또는 어플리케이션 프로세서(AP)의 제어하에 기능을 수행할 수 있는 루틴, 명령어 또는 프로그램으로 구현될 수 있다.
뿐만 아니라, 상기 루틴, 명령어 또는 프로그램은 컴퓨터로 읽을 수 있는 저장매체에도 저장될 수 있다. 이러한 저장매체는 전술한 서버에서의 저장매체와 하드웨어/소프트웨어적으로 동일한 구성일 수 있다.
오디오처리 모듈(340)은 좌표 입력자 장치(300)의 좌표 입력 어플리케이션(331) 운용 과정에서 발생하는 다양한 오디오 신호(예: 트래킹 설정 알림음, 검수 승인/거절 알림음)를 처리하도록 구성될 수 있다.
통신 모듈(350)은 좌표 입력자 장치(300)와 외부 장치(예: 상품 기획자 장치(100) 또는 서버(200))간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 모듈(350)은 무선 통신 또는 유선 통신을 통해서 네트워크(400)에 연결되어 상기 외부 장치와 통신할 수 있다.
제어부(360)는 좌표 입력자 장치(300)의 전원공급 제어 등과 같은 전반적인 동작 및 좌표 입력자 장치(300)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(360)는 적어도 하나의 프로세서를 포함할 수 있다.
네트워크(400)는 통신 네트워크(telecommunications network)일 수 있다. 예를 들어, 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things), 모바일 네트워크(mobile network) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있으나 이에 한정하는 것은 아니다.
도 4는 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템(10)에서 영상 컨텐츠의 전처리 과정을 수행하는 순서도이다. 도 4에서 좌표 입력자 장치(300)는 설명의 편의상 하나로 도시되어 있으나, 본 발명의 다양한 실시예에서 좌표 입력자 장치(300)는 복수개로 구성될 수 있다.
또한, 도 4의 구체적인 설명을 위해 도 5 내지 도 18을 참조하여 설명하도록 한다. 도 5 내지 도 9는 서버(200)에서 상품 기획자 장치(100)를 통해 좌표 리스트를 생성하는 예시도이고, 도 10 내지 도 18은 좌표 입력자 장치(300)에서 트래킹 데이터를 생성하는 동작을 나타내는 예시도이다.
먼저, S405 단계에서 서버(200)는 화면전환 구간을 구획할 수 있다. 도 4에서 화면전환 구간의 구획 과정이 가장 먼저 수행되는 것으로 도시되나, 이러한 화면전환 구간의 구획 과정은 상품 기획자 장치(100)가 서버(200)에서 운용되는 웹 페이지로 접속한 후 영상 컨텐츠를 로딩하는 과정에서 이루어질 수도 있으며 특정 시점을 한정하는 것은 아니다. 화면전환 구간을 구획하는 과정은 후술할 좌표 리스트 생성, 좌표 입력 작업 및 동일상품에 해당하는 영상구간을 그룹핑하기 위해 전제되는 과정일 수 있다.
화면전환 구간을 구획하기 위한 다양한 실시예에 따르면, 서버(200)는 영상 컨텐츠를 로딩할 수 있다. 예를 들어, 서버(200)는 컨텐츠 DB(231)에 저장된 영상 컨텐츠를 호출하거나, 통신부(210)를 통해 외부 장치로부터 영상 컨텐츠를 수신함으로써 영상 컨텐츠를 로딩할 수 있다.
그리고, 서버(200)는 연속된 프레임들(예: 제1 프레임 및 제2 프레임)간의 색상정보의 변화값을 확인할 수 있다. 구체적으로, 서버(100)는 영상 컨텐츠 중 일부 연속된 프레임인 제1 프레임 및 제2 프레임의 색상 정보를 확인할 수 있고, 확인된 색상 정보의 변화 값을 감지할 수 있다.
다음으로, 색상정보의 변화값이 소정 조건(예: 미리 설정된 변화값)을 충족하는 경우, 서버(200)는 연속된 프레임들간의 픽셀패턴을 검증할 수 있고, 검증 결과를 기반으로 화면전환의 유무를 인식함으로써 영상 컨텐츠를 복수의 구간으로 구획할 수 있다.
몇몇 실시예에 따르면, 서버(200)는 프레임을 복수의 색상 영역들로 구획할 수 있고, 연속된 프레임들(예: 제1 프레임 및 제2 프레임)간 매칭되는 색상 영역들을 확인할 수 있으며, 색상 영역에 해당하는 색상 정보의 변화값을 확인할 수 있다. 색상 정보의 변화값이 소정 값 미만인 경우라면, 서버(200)는 각 프레임들의 색상 영역들의 색상 수가 감소하도록 각 프레임들을 가공할 수 있다.
몇몇 실시예에 따르면, 서버(200)는 프레임을 복수의 픽셀패턴 영역들로 구획할 수 있다. 서버(200)는 연속되는 프레임들(예: 제1 프레임 및 제2 프레임)의 픽셀패턴 영역을 매칭시킬 수 있고, 프레임 간 일정한 편차로 매칭되는 픽셀패턴 영역의 개수를 확인할 수 있다.
이 경우, 일정한 편차로 매칭되는 개수가 미리 설정된 개수 미만이라면, 서버(200)는 화면이 전환된 것으로 인식할 수 있다. 이 경우, 서버(100)는 연속된 프레임들간의 접점 시점을 화면전환 시점으로 체크할 수 있고, 체크된 화면전환 시점과 관련된 정보를 저장부(230)에 저장할 수 있다.
이와 반대로, 일정한 편차로 매칭되는 개수가 미리 설정된 개수 이상이라면, 서버(200)는 화면이 전환되지 않은 것으로 인식할 수 있다. 그리고, 서버(200)는 현재 확인된 마지막 프레임과 다음으로 연속되는 프레임간의 화면전환 인식 과정을 반복할 수 있다.
상기와 같이 프레임간의 색상정보뿐 아니라, 일정한 편차로 이동하는 픽셀패턴을 감지함으로써 동일한 피사체 또는 배경이 연속되는 프레임상에 여전히 존재하는지를 파악할 수 있다. 이에 의해, 화면전환이 이루어지지 않음에도 화면전환으로 인식되는 오류 과정을 최소화할 수 있다.
다음으로, S410 단계에서, 상품 기획자 장치(100)는 서버(200)가 운용하는 웹 페이지에 접속할 수 있다. 즉, 상품 기획자 장치(100)는 서버(200)의 웹 상에서 좌표 리스트 생성과정(예: 좌표 리스트업 과정) 또는 트래킹 데이터에 대한 검수 과정을 수행할 수 있으나, 반드시 웹 환경에 한정하는 것은 아니다. 예컨대, 상품 기획자 장치(100)는 좌표 입력자 장치(300)와 마찬가지로 별도의 어플리케이션을 구동하여 서버(200)와 통신함으로써 상기 동작들을 수행할 수 있다.
다음으로, S415 단계에서, 서버(200)는 영상 컨텐츠를 로딩하여 상품 기획자 장치(100)를 통해 출력할 수 있다. 그리고, S420 단계에서 서버(200)는 상품 기획자 장치(100)로부터 수신되는 입력을 통해 영상 컨텐츠를 기반으로 좌표 리스트를 생성하는 좌표 리스트업 동작을 수행할 수 있다.
이러한 좌표 리스트업 동작과 관련하여 도 5 내지 도 9를 참조하며 설명하도록 한다. 이러한 도 5 내지 도 9를 통해 설명되는 좌표 리스트업 동작은 상품 기획자가 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 (광고 대상) 상품의 위치를 설정하기 위해 수행되는 동작이다.
먼저, 도 5를 참조하면, 상품 기획자 장치(100)의 스크린을 통해 영상 캡쳐 툴이 도시된다. 상품 기획자는 상기 영상 캡쳐 툴의 재생관련 영역(4)을 통해 영상 컨텐츠를 재생하면서 좌표 리스트를 생성하기 위한 영상화면을 캡쳐할 수 있다.
이러한 영상 캡쳐 툴의 상단에는 영상 컨텐츠의 제목(1)인 “pinokio 20회”가 출력되고, 상품 기획자 장치(100)를 통해 캡쳐 아이템(3)을 클릭할때마다 섬네일 노출 영역(5)에 캡쳐화면이 추가된다. 그리고, 추가된 캡쳐화면의 개수가 카운트 영역(2)을 통해 노출된다. 이러한 방식으로 캡쳐화면을 추가한 뒤, 상품 기획자는 좌표 리스트 편집 아이템(6)을 클릭 또는 터치함으로써 도 6의 좌표 리스트 편집 화면으로 이동할 수 있다.
도 6에서는 좌표 리스트 편집 화면이 도시된다. 좌표 리스트 편집 화면의 상단에는 현재 캡쳐화면의 개수가 카운팅된 썸네일 카운팅 영역(1), 공식상품 카운팅 영역(2) 및 일반상품 카운팅 영역(3)이 노출된다.
다양한 실시예에 따르면, 공식상품(official)은 영상 컨텐츠에 포함된 오브젝트(예: 안경 등)와 실제로 동일한 상품일 수 있다. 그리고, 일반상품(suggest)은 영상 컨텐츠에 포함된 오브젝트와 동일하진 않으나, 상품 사업자 등이 제공할 수 있는 비슷한 아이템 후보일 수 있으나 이에 한정하는 것은 아니다.
또한, 좌표 리스트 편집 화면에는 좌표 포인트가 설정된 캡쳐화면(4)들이 좌표 포인트가 설정되지 않은 캡쳐화면들과 구별되어 표시될 수 있다. 즉, 화면에 도시되는 바와 같이 좌표 포인트가 설정된 캡쳐화면(4)들은 붉은색의 테두리가 부가되어 있으며, 편집 아이템(5)이 “수정 또는 삭제”로 기재됨으로써 좌표 포인트가 설정되지 않은 캡쳐화면들의 편집 아이템의 문자인 “추가 또는 삭제”와 구별된다. 또한, 좌표 포인트가 설정된 캡쳐화면(4)들은 좌표 포인트 및 캡쳐화면 중 적어도 하나와 관련된 부가정보(6)가 캡쳐화면(4)과 인접한 영역에 노출된다.
상품 기획자가 편집 아이템(5)을 선택하면 도 7과 같은 포인트 좌표 및 부가정보 설정화면이 상품 기획자 장치(100)를 통해 출력된다.
이러한 포인트 좌표 및 부가정보 설정화면에서는 상품을 매핑하고자 하는 위치에 대하여 포인트 좌표를 설정하고, 설정된 포인트 좌표와 관련된 부가 정보를 기입할 수 있다.
상품 기획자는 상품 기획자 장치(100)를 통해 추가 아이템(4)을 선택할 수 있다. 예를 들어, 포인트 좌표 및 부가정보 설정화면에는 현재 추가된 3개의 포인트 좌표(701, 703, 705)가 도시된다. 이러한 포인트 좌표들(701, 703, 705)은 화면의 임의의 영역에서 생성된 후 드래그 입력을 통해 원하는 오브젝트에 해당하는 영역으로 이동될 수 있다. 예컨대, 첫번째 포인트 좌표(701)는 니트 오브젝트(3) 상에 드래그되어 위치할 수 있다.
또한, 상품 기획자는 공식(official) 또는 일반상품(suggest) 체크 박스(2)를 선택함으로써 해당 포인트 좌표의 종류를 설정할 수 있고, 삭제 아이템(5)을 선택함으로써 특정 포인트 좌표를 삭제할 수도 있다. 상기와 같은 포인트 좌표의 종류(예: 공식 또는 일반상품인지 여부), 좌표 포인트에 매핑될 상품 정보(예: 베게, 침대 등) 또는 캡쳐화면의 재생시점 정보(예:02:18초) 등은 상기 좌표 포인트 또는 캡쳐화면과 관련된 부가정보로서 설정될 수 있다.
한편, 포인트 좌표 및 부가정보 설정화면은 상품 기획자 장치(100)가 이전 캡쳐장면 또는 다음 캡쳐장면으로 이동할 수 있는 장면이동 영역(6)을 포함할 수 있다.
최종적으로 상품 기획자 장치(100)를 통해 적용 아이템(7)이 선택되는 경우(또는 적용 아이템(7) 선택 후 창닫기 아이템(1)이 선택되는 경우), 서버(200)는 도 7에서 설정된 내용을 저장할 수 있고, 저장된 내용을 반영하여 도 8의 화면을 출력할 수 있다.
도 8을 참조하면, 상품 기획자가 상품 기획자 장치(100)를 통해 도 7에서 설정한 내용들이 반영되어 표시된다(1). 즉, 좌표 포인트가 포함된 영상화면(예: 캡쳐화면) 및 부가정보가 상품 기획자 장치(100)를 통해 노출된다. 상품 기획자에 의해 영상 다시 보기 아이템(2)의 선택 입력을 수신함으로써, 서버(200)는 상품 기획자 장치(100)를 통해 도 5의 화면을 다시 출력할 수 있다. 또는 좌표리스트업 완료 아이템(3)이 상품 기획자 장치(100)를 통해 입력됨으로써, 서버(200)는 도 9의 최종 리스트 화면을 상품 기획자 장치(100)를 통해 출력시킬 수 있다.
도 9는 도 5 내지 도 8을 통해 수행된 좌표 리스트업 작업(S420)에 의한 최종 리스트 화면이 도시된다. 최종 리스트 화면 상단에는 최종 리스트 화면이 등록된 시간정보(1)가 노출되며, 하부에는 취소 아이템(2) 및 상품 트래킹 요청 아이템(3)이 노출된다.
상품 기획자 장치(100)를 통해 취소 아이템(2)이 선택되면, 서버(200)는 도 6 또는 도 8의 화면을 상품 기획자 장치(100)를 통해 출력시킬 수 있다. 그리고, 상품 기획자 장치(100)를 통해 상품 트래킹 요청 아이템(3)이 선택되면 서버(200)는 적어도 하나의 좌표 입력자 장치(300)에 작업을 할당할 수 있다.
도 4를 다시 참조하면, S425 단계에서, 상품 기획자 장치(100)는 서버(200)로 좌표 트래킹 및 작업 분산처리 작업을 요청할 수 있다. 그러면, S430 단계에서 서버(200)는 트래킹 데이터 생성을 위한 작업을 분산할 수 있다.
구체적으로, 서버(200)는 전술한 도 5 내지 도 9의 작업을 통해 상품 기획자 장치(100)의 입력을 통해 생성된 좌표 리스트업 작업의 결과물 즉, 좌표 포인트가 포함된 영상화면을 수신할 있다. 그리고, 좌표 포인트를 트래킹하기 위한 작업들을 복수의 좌표 입력자 장치(300)를 통해 분배하여 작업을 트래킹 작업을 수행할 수 있다.
이 경우, 서버(200)는 좌표 입력자 1인당 트래킹 작업을 수행해야 하는 좌표 리스트의 개수를 제한함으로써 복수의 좌표 입력자 장치(300)들로 분산하여 작업을 처리하게 할 수 있다. 한정되지 않는 실시예에 따르면, 좌표 리스트는 영상화면(예: 도 5의 캡쳐화면) 당 1개만 설정될 수 있고, 이렇게 각각 1개의 좌표 리스트가 설정된 각 영상화면의 개수를 특정 좌표 입력자가 트래킹 작업을 수행해야 하는 작업량으로 산정할 수 있다. 그러면, 좌표 입력자는 좌표 입력자 장치(300)를 통해 이하에서 후술할 트래킹 작업을 수행할 수 있다.
구체적으로, S435 단계에서, 서버(200)는 좌표 입력자 장치(300)로 트래킹 작업을 요청할 수 있다. 구체적으로, 좌표 입력자 장치(300)는 서버(200)로부터 좌표 포인트가 포함된 영상화면을 수신할 수 있다. 다양한 실시예에 따르면, 이 경우 좌표 입력자 장치(300)는 좌표 데이터 또는 영상화면과 관련된 부가 정보를 서버(200)로부터 더 수신할 수 있다.
한편, S440 단계에서, 좌표 입력자 장치(300)는 좌표 입력 어플리케이션(331)을 실행할 수 있다. 도 4에서는 S440 단계에서 좌표 입력 어플리케이션(331)을 실행하는 것으로 도시되어 있으나 이에 한정하지 않는다. 예를 들어, 좌표 입력자 장치(300)는 미리 좌표 입력 어플리케이션(331)을 실행한 상태에서 서버(200)로부터 트래킹 작업 요청을 수신할 수도 있다.
다음으로, S445 단계에서 좌표 입력자 장치(300)는 트래킹 포인트를 설정할 수 있다. 구체적으로, 좌표 입력자 장치(300)는 영상 컨텐츠를 서치하면서 서버(200)로부터 수신된 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정할 수 있다. 이러한 트래킹 포인트는 영상 컨텐츠에서 오브젝트의 움직임에 따라 트래킹 포인트가 오브젝트를 추적하도록 설정된 마커일 수 있다.
다음으로, S450 단계에서 좌표 입력자 장치(300)는 트래킹 포인트가 설정된 트래킹 데이터를 생성할 수 있다.
상기와 같은 트래킹 포인트 설정 및 트래킹 데이터 생성과 관련된 동작을 도 10 내지 도 14을 참조하여 설명하도록 한다.
도 10에서 좌표 입력자 장치(300)를 통해 출력되는 좌표 입력 초기화면이 도시된다. 좌표 입력 초기화면의 상단에는 제목 영역(1), 상품 기획자 장치(100)의 리스트 업 작성날짜 영역(2)이 노출된다.
그리고, 서버(200)로부터 좌표 입력자에 할당된 좌표작업분량 영역(3)이 출력된다. 이 경우, 상기 좌표 입력자에게는 5개의 좌표 포인트에 대한 트래킹 작업이 할당된 것을 확인할 수 있다.
또한, 상품 기획자의 이름, 좌표 입력자의 이름 및 요청시간 표시 영역(4)이 노출된다. 화면 좌측에는 좌표 리스트가 포함된 영상 화면과 부가정보가 표시된다. 이러한 영상 화면 및 부가정보는 작업 할당량에 따라 표시될 수 있으나 이에 한정하는 것은 아니며, 도 10과 같이 일부 작업 할당량만 출력될 수도 있다.
도 10의 왼쪽에 표시된 영상 화면들 중 특정 영상 화면(5)과 관련된 상세 화면(6)이 화면의 오른쪽에 도시된다. 이 경우, 해당 영상 화면과 관련된 정보가 노출되며, 이러한 노출 정보 중 적어도 일부는 부가 정보와 동일할 수 있다.
도 11에서는 좌표 포인트와 동일한 오브젝트를 검색하기 위한 영상 컨텐츠 서치 툴이 도시된다. 이 경우, 서버(200)는 좌표 입력자 장치(300)의 요청에 따라 영상 컨텐츠의 전부 또는 일부를 재생할 수 있다. 이를 위해, 영상 컨텐츠 서치 툴은 영상 제목 영역(1), 영상 재생 영역(2), 현재 영상구간 표시 영역(4), 이전 영상구간 이동 영역(5), 다음 영상구간 이동 영역(6), 영상 재생/멈춤 영역(7), 트래킹 포인트 생성 아이템(8) 및 타임 라인(9)을 포함할 수 있다.
또한, 다양한 실시예에 따르면, 영상 컨텐츠 서치 툴은 전술한 화면전환 에 따른 구획 작업에 따라 장면이 전환되는 구간을 구분하여 노출시킬 수 있다(3).
또한, 몇몇 실시예에 따르면, 특정 영상 화면(10)에 대한 클릭 또는 터치 입력이 수신되면, 서버(200) 또는 좌표 입력자 장치(300)는 해당 썸네일을 스트로크(stroke)하거나 “좌표 진행중”이라는 작업 상태 표시를 출력할 수 있다.
도 12에서는 트래킹 포인트를 설정하는 구체적인 내용이 도시된다. 좌표 입력자가 좌표 입력자 장치(300)를 통해 트래킹 포인트(1)를 영상화면 내의 특정 오브젝트(예: 안경)에 드래그함으로써 해당 영상화면에서 트래킹 포인트를 설정할 수 있다. 그리고, 좌표 입력자는 해당 영상 구간내(예: 현재 영상 구간)에 포함된 복수의 프레임마다 트래킹 포인트를 설정할 수 있다. 이를 위해, 좌표 입력자는 영상 컨텐츠 서치 툴의 프레임 서치 아이템(3,4)을 통해 저속으로 현재 영상화면에 해당하는 프레임의 이전 또는 이후 프레임을 검색할 수 있고, 검색된 프레임(예: 영상화면)의 동일한 오브젝트(예: 안경)마다 트래킹 포인트를 설정할 수 있다. 좌표 입력자가 트래킹 활성화 아이템(5)을 선택하면, 좌표 입력자 장치(300) 또는 서버(200)는 해당 영상화면 내에서 트래킹 포인트가 할당된 오브젝트 영역(예: 영상 화면 내에서의 오브젝트 또는 트래킹 포인트의 위치 좌표)을 인식/기억할 수 있다.
다양한 실시예에 따르면, 좌표 입력자 장치(300)는 상기와 같이 트래킹 포인트가 설정된 영상 화면들을 트래킹 데이터로 인식하여 저장 또는 전송할 수 있다.
상기와 같은 동작들에 의해, 좌표 입력자 장치(300)에 할당된 영상 화면에서의 좌표 포인트를 기반으로, 좌표 입력자 장치(300)는 영상 컨텐츠 전체에서 상기 좌표 포인트가 마커된 오브젝트와 동일한 오브젝트에 대해 트래킹 포인트 설정 작업을 수행할 수 있다.
다시 도 4를 참조하면, S455 단계에서 좌표 입력자 장치(300)는 영상구간을 그룹핑할 수 있다. 구체적으로, 좌표 입력자 장치(300)는 영상 컨텐츠에서 트래킹 데이터에 해당하는 영상 구간을 그룹핑할 수 있다.
도 13을 예로서 참조하면, 좌표 입력자가 좌표 입력자 장치(300)를 통해 전체구간 미리보기 아이템(7)을 선택하는 경우, 좌표 입력자 장치(300)는 영상 컨텐츠 전체의 영상 구간에서 특정 오브젝트(예: 안경)에 대해 트래킹 포인트가 설정된 영상 구간(1)만을 그룹핑할 수 있다. 도 13에서는 도 11의 현재 영상구간 표시 영역만이 그룹핑되는 걸로 표시되어 있으나, 전체 영상 구간에서 상기 특정 오브젝트에 대해 트래킹 포인트가 설정된 모든 영상 구간이 동일한 색으로 표시될 수 있다.
그리고, 좌표 입력자 장치(300)는 도 14와 같이 특정 오브젝트 또는 상기 특정 오브젝트에 대하여 트래킹 포인트가 설정되어 그룹핑된 영상 구간만을 재생시킬 수 있는 메뉴를 제공할 수 있다.
즉, 좌표 입력자 장치(300)는 영상 컨텐츠에서 동일 오브젝트에 대해 설정된 각각의 트래킹 포인트 및 상기 각각의 트래킹 포인트가 포함된 영상 화면들을 그룹핑할 수 있고, 그룹핑된 영상 화면 내지 영상 구간만이 재생되도록 상품 기획자 장치(100), 서버(200) 또는 좌표 입력자 장치(300)의 화면에 출력시킬 수 있다.
상기와 같은 실시예에 의해, 좌표 입력자는 자신에게 할당된 작업이 전체 컨텐츠 상에서 제대로 수행되었는지를 직관적이고 효율적으로 확인할 수 있다. 또한, 상품 기획자는 후술할 검수 작업을 수행할 경우에도 동일 트래킹 포인트를 기반으로 그룹핑된 영상 구간을 확인함으로써 효과적으로 검수 작업을 수행할 수 있다. 나아가, 영상 컨텐츠에 대하여 상품을 등록하고자 하는 상품 사업자 또한 상기와 같이 그룹핑된 영상 구간을 확인함으로써 상품 사업자가 등록하고자 하는 상품이 영상 컨텐츠 상에서 어떤 식으로 노출되고 어필되는지를 인식할 수 있다.
이어지는 도 4의 S460 단계에서, 좌표 입력자 장치(300)는 트래킹 포인트를 설정한 데이터에 대해 서버(200)로 검수를 요청할 수 있다. 그러면, 서버(200)는 S465 단계에서 상품 기획자 장치(100)로 또는 상품 기획자 장치(100)를 통해 상품 기획자가 요청한 검수 화면을 출력할 수 있다.
보다 구체적으로는, 좌표 입력자는 영상 화면의 오브젝트에 대하여 각각 설정한 트래킹 포인트가 상품 기획자가 의도한 영역에 정확히 매칭되었는지를 검수받고자, 트래킹 데이터 또는 트래킹 데이터를 생성하기 전 트래킹 포인트만 설정된 임시적인 데이터를 서버(200)를 경유하여 상품 기획자 장치(100)로 전송할 수 있다.
그러면, 상품 기획자는 S470 단계에서 상품 기획자 장치(100)를 통해 검수 승인 또는 승인거절의 응답을 서버(200)를 경유하여 좌표 입력자 장치(300)로 전송할 수 있다.
만약, 검수 승인거절의 응답이 좌표 입력자 장치(300)로 회신되는 경우, 좌표 입력자 장치(300)는 S475 단계에서 트래킹 작업을 재수행할 수 있다. 이와 반대로, 검수 승인의 응답이 좌표 입력자 장치(300)로 회신되는 경우 좌표 입력자 장치(300)는 S480 단계에서 최종 트래킹 데이터를 생성하여 서버(200)에 업로드할 수 있다.
예를 들어, 도 15를 참조하면, 좌표 입력자가 좌표 입력자 장치(300)를 통해 화면에 표시된 검수 요청 아이템(1)을 선택하는 경우, 좌표 입력자 장치(300)는 상기 첫번째 영상 화면(1501)과 관련하여 영상 컨텐츠에서 트래킹 포인트 설정 작업이 수행된 데이터를 서버(200)로 전송할 수 있다. 그러면, 서버(200)는 웹에 접속한 상품 기획자 장치(100)를 통해 도 16의 화면을 출력할 수 있다.
도 16을 보다 구체적으로 살펴보면, 상품 기획자 장치(100)에서 좌표 검수 화면이 노출된다. 한정되지 않는 예로서, 좌표 검수 화면은 검수날짜(1), 해당 검수날짜에 요청된 검수요청건수(2), 승인건수(3), 거절건수(4), 검색항목(5), 목록 분류(6), 리스트업 정보(7), 부가 정보(8), 영상확인 아이템(9), 검수 승인 아이템(10), 검수 승인거절 아이템(11), 승인거절사유 작성 영역(12)을 포함할 수 있다.
다양한 실시예에 따르면, 상품 기획자가 영상확인 아이템(9)을 선택하는 경우, 서버(200)는 상품 기획자 장치(100)를 통해 좌표 입력자 장치(300)에서 동일 트래킹 포인트를 기반으로 그룹핑된 영상 화면 또는 영상 구간을 재생할 수 있다.
도 17에서는 좌표 입력자 장치(300)에서 출력되는 검수 결과 페이지가 도시된다. 좌표 입력자에게 할당된 작업과 관련된 영상 화면들 중 상품 기획자 장치(100)를 통해 검수 승인이 된 데이터에 대해서는 검수 완료 태그(1)가 출력된다. 또한, 좌표 입력자가 계속하여 트래킹 포인트를 설정하고 있는 영상 화면에 대해서는 좌표 진행 태그(2)가 출력된다. 또한, 특정 영상화면에 대해서는 검수 진행 태그(3) 또는 승인 거절 태그(4)가 출력되며, 좌표 입력자가 승인 거절 태그(4)에 마우스 오버시 승인거절 사유가 노출된다.
한편, 좌표 입력자에게 할당된 작업들에 대하여 검수 승인이 완료되면, 검수 결과 페이지의 우측과 같이 영상 화면의 썸네일에 “완료”아이템(5)이 출력된다.
최종적으로, 도 18을 참조하면 좌표 입력자 장치(300)를 트레킹 데이터 업로드 화면이 도시된다. 좌표 입력자가 트래킹 데이터 업로드 화면의 좌표데이터 업로드 아이템(1)을 선택하는 경우, 좌표 입력자 장치(300)는 최종적으로 트래킹 포인트가 설정된 영상 화면들인 트래킹 데이터를 서버(200)로 전송할 수 있다.
전술한 도 1 내지 도 18의 실시예들에 의해, 상품의 위치를 트래킹하기 위한 영상 컨텐츠의 전처리 작업을 보다 효율적으로 수행할 수 있고, 상품 기획자가 영상 컨텐츠의 여러 영상화면에 적합한 광고대상의 상품 영역을 손쉽게 지정할 수 있으며, 해당 영상 구간에 상품을 등록하고자 하는 상품 사업자가 직관적으로 자신이 등록할 상품의 광고가치를 파악할 수 있다는 효과가 있다.
본 발명의 다양한 실시예에 사용된 용어 “모듈”또는 “~부”는, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈” 또는 “~부”는 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈” 또는“~부”는 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있고, 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈” 또는“~부”는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예에 따른 “모듈” 또는“~부”는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (12)

  1. 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서,
    상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계;
    추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및
    상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계;
    를 포함하는 영상 컨텐츠의 전처리 방법.
  2. 제 1항에 있어서,
    상기 영상화면을 추출하는 단계는,
    상기 영상 컨텐츠의 재생 및 캡쳐 기능을 제공하는 영상 캡쳐 툴을 상기 상품 기획자 장치를 통해 출력하는 단계;
    상기 상품 기획자 장치로부터 상기 영상 캡쳐 툴을 이용한 캡쳐 입력에 응답하여 하나 이상의 캡쳐화면을 출력하는 단계;
    상기 상품 기획자 장치로부터 수신되는 입력을 통해 상기 캡쳐화면의 특정 위치를 표시하는 상기 좌표 포인트를 설정하는 단계; 및
    상기 좌표 포인트가 설정된 캡쳐화면을 상기 영상화면으로서 추출하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  3. 제 2항에 있어서,
    상기 좌표 포인트 및 상기 영상화면 중 적어도 하나와 관련된 부가정보를 생성하는 단계; 및
    생성된 부가정보를 상기 좌표 입력자 장치로 전송하는 단계를 더 포함하는 영상 컨텐츠의 전처리 방법.
  4. 제 3항에 있어서,
    상기 부가정보는,
    상기 영상 컨텐츠에서 상기 영상화면의 재생시점 정보, 상기 좌표 포인트의 종류 및 상기 좌표 포인트에 매핑될 상품 정보 중 적어도 하나를 포함하는 영상 컨텐츠의 전처리 방법.
  5. 제 1항에 있어서,
    상기 영상화면을 추출하는 단계는,
    상기 영상 컨텐츠에서 좌표 포인트가 포함된 복수의 영상화면을 추출하는 단계를 포함하고,
    상기 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계는,
    자동으로 상기 복수의 영상화면을 복수의 좌표 입력자 장치로 분산하여 전송하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  6. 제 1항에 있어서,
    상기 트래킹 데이터를 수신하는 단계는,
    상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 상기 좌표 제공자에게 검수를 요청하는 단계;
    상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 입력된 승인 응답 또는 승인거절 응답을 상기 좌표 입력자 장치로 전송하는 단계; 및
    상기 좌표 입력자 장치로부터 상기 승인 응답이 전송되는 경우, 상기 좌표 입력자 장치로부터 수신된 트래킹 데이터를 저장하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  7. 제 1항에 있어서,
    상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함하는 영상 컨텐츠의 전처리 방법.
  8. 영상 컨텐츠의 전처리 기능을 수행하는 서버로서,
    상품 기획자 장치 또는 적어도 하나의 좌표 입력자 장치와 상기 서버를 연결하는 통신부;
    상기 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하고, 추출된 영상화면을 상기 좌표 입력자 장치로 전송하는 영상화면 관리부; 및
    상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 트래킹 관리부를 포함하며,
    상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인 서버.
  9. 좌표 입력자 장치에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서,
    서버로부터 좌표 포인트가 포함된 영상화면을 수신하는 단계;
    상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하는 단계로서, 상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 것인, 트래킹 포인트를 설정하는 단계; 및
    상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하는 단계;
    를 포함하는 영상 컨텐츠의 전처리 방법.
  10. 제 9항에 있어서,
    상기 트래킹 데이터를 상기 서버로 전송하는 단계는,
    상기 트래킹 데이터에 대하여 상기 서버로 검수를 요청하는 단계;
    상기 서버로부터 상기 트래킹 데이터의 검수요청에 대한 승인 응답 또는 승인거절 응답을 수신하는 단계; 및
    상기 서버로부터 상기 승인 응답이 수신되는 경우, 상기 트래킹 데이터를 상기 서버에 업로드하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  11. 제 9항에 있어서,
    상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함하는 영상 컨텐츠의 전처리 방법.
  12. 영상 컨텐츠의 전처리 기능을 수행하는 좌표 입력자 장치로서,
    메모리;
    상기 좌표 입력자 장치를 서버와 연결하도록 구성된 통신 모듈; 및
    상기 메모리 및 상기 통신 모듈과 전기적으로 연결되는 프로세서를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 서버로부터 좌표 포인트가 포함된 영상화면을 수신하고, 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하며, 상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하도록 하는 인스트럭션들을 저장하고,
    상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 것인 좌표 입력자 장치.
PCT/KR2017/006108 2016-06-20 2017-06-13 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 WO2017222225A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160076441A KR101803275B1 (ko) 2016-06-20 2016-06-20 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치
KR10-2016-0076441 2016-06-20

Publications (1)

Publication Number Publication Date
WO2017222225A1 true WO2017222225A1 (ko) 2017-12-28

Family

ID=60784601

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/006108 WO2017222225A1 (ko) 2016-06-20 2017-06-13 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치

Country Status (2)

Country Link
KR (1) KR101803275B1 (ko)
WO (1) WO2017222225A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030126622A1 (en) * 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method for efficiently storing the trajectory of tracked objects in video
KR101283759B1 (ko) * 2012-04-30 2013-07-08 인하대학교 산학협력단 스마트 tv 환경의 개인화된 대화형 비디오에서 움직이는 이동 객체의 의미적 어노테이션의 표현 및 그 증강 방법
KR20130107917A (ko) * 2012-03-23 2013-10-02 삼성전자주식회사 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치
KR20140042409A (ko) * 2012-09-28 2014-04-07 삼성전자주식회사 오브젝트 부가 정보를 입력하는 장치 및 오브젝트 부가 정보를 입력하는 방법
KR101536262B1 (ko) * 2014-05-08 2015-11-23 한양대학교 에리카산학협력단 감성광고 기능을 구비한 스마트 tv 기반의 타임머신 광고 제공 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030126622A1 (en) * 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method for efficiently storing the trajectory of tracked objects in video
KR20130107917A (ko) * 2012-03-23 2013-10-02 삼성전자주식회사 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치
KR101283759B1 (ko) * 2012-04-30 2013-07-08 인하대학교 산학협력단 스마트 tv 환경의 개인화된 대화형 비디오에서 움직이는 이동 객체의 의미적 어노테이션의 표현 및 그 증강 방법
KR20140042409A (ko) * 2012-09-28 2014-04-07 삼성전자주식회사 오브젝트 부가 정보를 입력하는 장치 및 오브젝트 부가 정보를 입력하는 방법
KR101536262B1 (ko) * 2014-05-08 2015-11-23 한양대학교 에리카산학협력단 감성광고 기능을 구비한 스마트 tv 기반의 타임머신 광고 제공 방법

Also Published As

Publication number Publication date
KR101803275B1 (ko) 2017-12-01

Similar Documents

Publication Publication Date Title
WO2017135797A2 (en) Method and electronic device for managing operation of applications
WO2016028042A1 (en) Method of providing visual sound image and electronic device implementing the same
WO2015141891A1 (en) Display device and method for controlling the same
WO2014035041A1 (ko) 증강현실 기술과 대용량 데이터의 통합을 위한 상호작용 방법 및 장치
WO2017142143A1 (en) Method and apparatus for providing summary information of a video
WO2018226021A1 (en) Method and apparatus for providing product placement
US20170294213A1 (en) Method for video investigation
WO2013081405A1 (en) Method and device for providing information
WO2018048117A1 (en) Display apparatus and control method thereof
WO2024091080A1 (ko) 동영상 자동 생성 방법 및 동영상 자동 생성 서버
WO2020085558A1 (ko) 고속분석 영상처리장치 및 그 장치의 구동방법
EP3735631A1 (en) Devices, methods, and computer program for displaying user interfaces
WO2015080371A1 (en) Image search system and method
WO2016099112A1 (ko) 위치 및 시간 기반 sns정보를 제공하는 방법 및 사용자 단말
WO2017222226A1 (ko) 영상 컨텐츠에 광고상품을 등록하는 방법 및 이를 실행하는 서버
WO2020105992A1 (en) Method and system for predicting content based recommendations
WO2017222225A1 (ko) 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치
EP3465409A1 (en) Electronic apparatus and controlling method thereof
JP2023129429A (ja) 情報処理装置、情報処理方法及びプログラム
EP3295657A1 (en) Screen grab method in electronic device
WO2019139250A1 (en) Method and apparatus for playing a 360-degree video
WO2016036049A1 (ko) 검색 서비스 제공 장치, 시스템, 방법 및 컴퓨터 프로그램
WO2010098640A2 (ko) 사용자 제어 광고 시스템 및 방법
WO2021101269A1 (ko) 가상 응원봉을 이용한 인터랙션 제공 방법 및 그 장치
US20230052278A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17815638

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 01.04.2019)

122 Ep: pct application non-entry in european phase

Ref document number: 17815638

Country of ref document: EP

Kind code of ref document: A1