WO2017065334A1 - 콘텐츠 생성 방법 및 장치 - Google Patents

콘텐츠 생성 방법 및 장치 Download PDF

Info

Publication number
WO2017065334A1
WO2017065334A1 PCT/KR2015/010982 KR2015010982W WO2017065334A1 WO 2017065334 A1 WO2017065334 A1 WO 2017065334A1 KR 2015010982 W KR2015010982 W KR 2015010982W WO 2017065334 A1 WO2017065334 A1 WO 2017065334A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
image
recording
display area
page
Prior art date
Application number
PCT/KR2015/010982
Other languages
English (en)
French (fr)
Inventor
임종훈
함윤수
Original Assignee
한미아이티 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한미아이티 주식회사 filed Critical 한미아이티 주식회사
Priority to CN201580079785.9A priority Critical patent/CN107615327A/zh
Priority to MYPI2018701451A priority patent/MY190442A/en
Priority to JP2017559697A priority patent/JP6569876B2/ja
Priority to PCT/KR2015/010982 priority patent/WO2017065334A1/ko
Priority to EP15906297.5A priority patent/EP3364365A4/en
Publication of WO2017065334A1 publication Critical patent/WO2017065334A1/ko
Priority to US15/951,206 priority patent/US10999553B2/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the present invention relates to a method and apparatus for generating content, and more particularly, to a method and apparatus for easily generating video content at once without editing.
  • creating and editing video content is still difficult for the general public.
  • the process of re-editing only the necessary parts after shooting a video is not only easy but cumbersome.
  • Korean Patent Laid-Open Publication No. 10-2012-0121624 discloses a method of generating a video of a method of playing lectures. This method inputs the instrument playing sound source, inputs the playing video, receives the detailed playing video, generates the score for the instrument of the song of the playing sound, and synchronizes it with the video and sound source. Create a video by editing.
  • the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
  • an embodiment of the present invention has an object to generate video content by easily recording at a time so that the editing process is not required.
  • an embodiment of the present invention is to provide a content generating method and apparatus that does not need to separately synchronize the image and the speaker image by acquiring the image of the material and the image of the speaker through a single device. .
  • one embodiment of the present invention is to provide a method and apparatus for generating a content such that there is no time or cost burden even if the speaker in the video generates different customized video for each receiving object.
  • the content generating method performed by the content generating apparatus including a touch screen receives a data file including a plurality of pages from a user step;
  • the touch screen includes a data display area in which images of each page included in the selected data file are sequentially output one by one, and a control area for selecting a touch input mode for the data display area.
  • Providing an interface If a user's touch input to the data display area of the recording interface is detected, changing and displaying an image displayed on the data display area according to a touch input mode selected through the control area; Recording the image change of the data display area which is changed by performing the step of changing and displaying the image when recording starts until recording ends; Activating a microphone included in the content generating device when recording starts, and recording a change in the received sound until recording ends; And when the recording ends, generating the moving image content by synchronously storing the recorded image change and the sound change from the start point of recording to the end point of recording.
  • a content generating device including a touch screen includes: a data registration unit for selecting a data file including a plurality of pages from a user; When recording starts, the touch screen includes a recording interface including a data display area in which images of each page included in the selected data file are sequentially output one by one, and a control area for selecting a touch input mode for the data display area.
  • An interface providing unit configured to change an image displayed on the data display area according to the touch input mode selected through the control area when the user inputs the touch input to the data display area of the recording interface;
  • An image acquisition unit for recording an image change of the data display area when recording starts until recording ends;
  • a voice acquisition unit activating a microphone included in the content generation device when recording starts, and recording a change in the received sound until the recording ends;
  • the content generating unit may generate a video content by synchronously storing the recorded image change and the sound change from the start point of recording to the end point of recording.
  • an embodiment of the present invention can provide a content generating method and apparatus that does not need to be edited separately so that recording can be easily performed at a time.
  • any one of the problem solving means of the present invention it is possible to provide a content generating method and apparatus that does not need to separately synchronize the material image and the speaker image by acquiring the image of the material and the image of the speaker through a single device. Can be.
  • any one of the problem solving means of the present invention even if the speaker in the video generates a different customized video for each receiving object, it is possible to provide a content generating method and apparatus without time or cost.
  • FIG. 1 is a network diagram of a content delivery system according to an embodiment of the present invention.
  • FIG. 2 is a conceptual diagram schematically showing a content delivery process using a content delivery system according to an embodiment of the present invention.
  • FIG. 3 is a block diagram illustrating a functional configuration of an apparatus for generating content according to an embodiment of the present invention.
  • FIG. 4 is a block diagram showing a functional configuration of a content delivery server according to an embodiment of the present invention.
  • FIG. 5 is a block diagram illustrating a functional configuration of a content receiving device according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a method of generating content according to an embodiment of the present invention in stages.
  • FIG. 7 and 8 are exemplary diagrams for describing a method for generating content according to an embodiment of the present invention.
  • FIG. 1 is a network diagram of a content delivery system according to an embodiment of the present invention
  • Figure 2 is a conceptual diagram schematically showing a content delivery process using a content delivery system according to an embodiment of the present invention.
  • the content delivery system according to an embodiment of the present invention, the content generating device 10, the content delivery server 20 and the content receiving device (exchanging data with each other through the network (N) ( 30).
  • the network N may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), a personal local area network (PAN), a mobile communication network. It can be implemented in all kinds of wired / wireless networks such as mobile radio communication network (Wibro), wireless broadband Internet (Wibro), mobile WiMAX, high speed downlink packet access (HSDPA), or satellite communication network.
  • LAN local area network
  • WAN wide area network
  • VAN value added network
  • PAN personal local area network
  • Wibro mobile radio communication network
  • Wibro wireless broadband Internet
  • HSDPA high speed downlink packet access
  • the content generating apparatus 10 and the content receiving apparatus 30 may be connected to a remote server through a network N, or may be a computer, a portable terminal, a television, a wearable device, or the like that can be connected to other terminals and servers.
  • a network N may be a computer, a portable terminal, a television, a wearable device, or the like that can be connected to other terminals and servers.
  • the computer includes, for example, a laptop, desktop, laptop, etc., which is equipped with a web browser
  • the portable terminal is, for example, a wireless communication device that ensures portability and mobility.
  • PCS Personal Communication System
  • PDC Personal Digital Cellular
  • PHS Personal Handyphone System
  • PDA Personal Digital Assistant
  • GSM Global System for Mobile communications
  • IMT International Mobile Telecommunication
  • CDMA CDMA
  • CDMA Code Division Multiple Access
  • W-CDMA Wireless Broadband Internet
  • Wibro Wireless Broadband Internet
  • WiMAX Mobile Worldwide Interoperability for Microwave Access
  • smartphone tablet
  • Tablet may include all kinds of handheld based wireless communication devices such as PC.
  • the television may include an Internet Protocol Television (IPTV), an Internet Television (Internet Television), a terrestrial TV, a cable TV, or the like.
  • the wearable device is, for example, an information processing device of a type that can be worn directly on a human body such as a watch, glasses, accessories, clothes, shoes, etc., and is connected to a remote server or another terminal via a network directly or through another information processing device. It can be connected with.
  • the content generating device 10 is composed of a terminal including a touch screen
  • the front of the touch screen of the content generating device 10 includes a camera for taking an image toward the front.
  • the content generation device 10 may be provided with a microphone for detecting and recording a sound generated in the vicinity of the content generation device 10. Accordingly, the content generation device 10 may switch the screen displayed in response to the user's touch input applied to the touch screen, and acquire and record an image and an audio.
  • the content generation device 10 may be installed with a content generation application for generating new video content using the above-described touch screen, hardware, such as a camera, a microphone, the content generation application generates a new content, By communicating with the content delivery server 20 to be described later, the generated content can be delivered to the content receiving device 30 to be described later.
  • the content receiving device 30 may be implemented as a computer, a portable terminal, a television, a wearable device, or the like as described above, and may receive and play content from the content delivery server 20.
  • the content delivery server 20 is a computer that exchanges data with a terminal or another server such as the content generating device 10 or the content receiving device 30 through the network N, in particular, the content.
  • the content generated by the generating device 10 is received and delivered to the content receiving device 30.
  • the content delivery server 20 may communicate with the above-described content generation application installed in the content generation device 10, and the content reception device 30 may communicate with the web browser installed in the content reception device 30.
  • the web page may be provided or the content may be transmitted to a separate application program installed in the content receiving device 30.
  • the content generating apparatus 10 may generate new video content.
  • the content generated by the content generating device 10 is transmitted to the content delivery server 20 together with the information of the content receiving target selected by the user of the content generating device 10.
  • the reception target may not be specified.
  • the content delivery server 20 that has received the content accordingly stores the received content and provides the received content to the one or more content receiving devices 30.
  • the content delivery server 20 specifies a specific reception destination in the content generation device 10
  • the content reception device 30 accessing the content delivery server 20 by using a user account corresponding to the reception destination. As such, it may notify that new content is delivered. Accordingly, when a user of the content receiving device 30 requests to provide new content, the stored content may be provided.
  • the content may be provided in a streaming manner or downloadable.
  • the content delivery server 20 may provide the content through the web page as described above.
  • the content receiving device 30 confirms the reception of the content using a web browser installed in the content receiving device 30. And request playback of the content to the content delivery server 20.
  • the content delivery server 20 may communicate with a separate application (hereinafter, referred to as a "content playback application") installed in the content receiving device 30 to provide the content to the recipient.
  • the corresponding user may execute a content playback application installed in the content receiving device 30, confirm receipt of new content through the executed content playback application, and request playback of the checked content.
  • the content delivery server 20 receives new contents to the reception target through a push notification to the reception target. It may also inform separately that. For example, the content delivery server 20 may send a push notification for the content playback application installed in the content receiving device 30 to notify that the new content has been delivered to the reception target. Alternatively, the mobile terminal may register whether the new content is received in the form of a short message using a mobile communication phone number registered in advance for the reception target.
  • the content receiving device 30 can play by reading the content provided from the content delivery server 20.
  • the content delivery server 20 may check whether the content providing request is received from the content receiving device 30 to manage information on whether or not each content is received, and the content generating device 10 delivering the content. ) Can provide information on whether or not the content is received. That is, the information about whether the content receiving target has confirmed the received content may be provided to the user who created and transmitted the content.
  • the content delivery server 20 receives the feedback data from the content receiving device 30 that has received the content, and includes feedback data including a message or request to be delivered back to the content creator for the delivered content. Can be stored and provided to the content generation device 10.
  • FIGS. 3 to 5 the contents generating apparatus 10, the contents delivering server 20, and the contents receiving apparatus 30 included in the contents delivery system according to an embodiment of the present invention will be described.
  • FIGS. 3 to 5 the contents generating apparatus 10, the contents delivering server 20, and the contents receiving apparatus 30 included in the contents delivery system according to an embodiment of the present invention will be described.
  • FIGS. 3 to 5 the contents generating apparatus 10, the contents delivering server 20, and the contents receiving apparatus 30 included in the contents delivery system according to an embodiment of the present invention will be described.
  • FIGS. 3 to 5 the contents generating apparatus 10
  • FIGS. 3 to 5 the contents generating apparatus 10
  • FIGS. 3 to 5 the contents receiving apparatus 30 included in the contents delivery system according to an embodiment of the present invention.
  • the content generating apparatus 10 includes a data registration unit 11 for selecting a data file from a user.
  • the data registration unit 11 may receive at least one data file from the user.
  • the 'data file' is a general document file, and may be, for example, an electronic document having an extension of 'pdf', 'doc', 'hwp', 'ppt', and 'html', but is not limited thereto.
  • the data file may include a plurality of image files.
  • the data file may be composed of one or more pages.
  • the 'page' may be a division unit of data constituting the data file, and in particular, may be a division unit according to the amount of data displayed on the screen at one time.
  • the user may select two or more data files, and in this case, the data register 11 may pre-set the priority between the two or more data files from the user.
  • the data registration unit 11 selects a data file before recording of video content starts.
  • the data registration unit 11 may be selectively selected from the user, that is, the video creator, or the object.
  • the object is an object corresponding to the subject of the content included in the video content to be newly created, for example, when the content creator wants to include content describing a specific product in the video content, The user can select the product as an object.
  • the data registration unit 11 provides the user with a list of materials registered in advance corresponding to the selected object, and the user can select the corresponding data.
  • the data registration unit 11 may receive both a data file and an object.
  • the object register or the list of materials provided to receive the object selection from the user or the pre-registered material for the selected object may be provided by the data registration unit 11 from the content delivery server 20.
  • the content generating apparatus 10 includes an interface providing unit 12.
  • the interface providing unit 12 provides a user interface for generating video content in the content generating apparatus 10 through the touch screen of the content generating apparatus 10.
  • the interface providing unit 12 displays a data display area in which images of each page included in the data file selected by the data registration unit 11 are sequentially output one by one when the video recording starts, that is, when the user inputs a video recording start command.
  • a recording interface including a control area for selecting a touch input mode for the data display area through a touch screen.
  • the recording interface may further include a speaker display area, and an image obtained through a camera provided in the front of the content generating apparatus 10 may be displayed in the speaker display area.
  • the image displayed in the speaker display area may be an image obtained through a camera provided in the rear portion of the content generating device 10 may be displayed.
  • the speaker display area 110, the control area 120, and the data display area 130 may be arranged separately from each other on the touch screen of the content generating device 10. .
  • each page included in the selected data file may be displayed one by one in the data display area.
  • an image of the first page may be displayed in the data display area, and then the next order page may be sequentially displayed according to a user's command.
  • the image of the first page of the first data file is displayed first, and if the image of all pages of the first data file has been converted by the user's command, the first of the next data file The image of the page may be sequentially switched and displayed again.
  • control area may be provided with a software button for selecting whether to start, end, or pause recording.
  • at least one selection button for selecting a touch input mode for determining whether to process a user's touch input generated in the above-described data display area may be provided.
  • the selection button here is provided as a software button.
  • the touch input mode is not necessarily changed by the selection button included in the control area, but may be changed according to the touch input pattern applied to the data display area.
  • the touch input mode may be changed by applying a touch input for a predetermined time or more at the same position.
  • a selection button for selecting a touch input mode may not be provided in the control area.
  • the touch input mode determines whether the user's touch input sensed in the data display area is determined as an input for changing the display state of the page image displayed in the data display area, or new data on the page image displayed in the data display area. It includes at least two different input modes for whether to determine as an input for further display. That is, the touch input mode may include a page control mode for performing at least one of enlarging, reducing, moving, or switching to another page of an image of the currently displayed page according to the user's touch input, and the user on the image of the currently displayed page. And an image addition mode for adding and displaying a new image corresponding to the trajectory of the touch input. At this time, the content generating device 10 displays a specific image for distinguishing whether the current touch input mode is a page control mode or an image addition mode in a specific area of the recording interface, so that the user visually recognizes the current touch input mode. Can be verified through
  • control area occupies only a minimum area which does not overlap with the data display area during recording, and may be displayed on the data display area as a separate layer while encroaching at least a part of the data display area when recording is paused. That is, the size and position of the control area may be changed depending on whether the control area is being recorded or paused after recording is started. In addition, the type, size, shape, etc. of the software button displayed in the control area may also be changed. Of course, the control area may be displayed in the same manner regardless of whether it is being recorded or paused.
  • control area displays only the recording pause button or the button for selecting the touch input mode during recording, but extends over the data display area as a separate layer in the recording pause state, depending on the touch input trajectory in the image additional mode.
  • buttons for setting the color or thickness of the added line image may be further displayed.
  • the color or thickness of the line image added to the data display area is not necessarily selected by the user.
  • the color or thickness of the line may be automatically selected by the content generating device 10 or fixed to a certain color or thickness.
  • the content generating apparatus 10 may select the color of the line image added to the material display screen according to the color of the material image serving as the background.
  • the content generating apparatus 10 may adjust or select the color of the line image with a color that is distinguished from a color of at least a part of the area of the data display area to which the line image is added, for example, complementary color, by the image addition mode. .
  • the image obtained by the camera provided in the front portion of the content generating device 10 is displayed in real time in the speaker display area, and accordingly, the video content is created using the current content generating device 10.
  • the image of the speaker that is, the content creator, may be displayed in the speaker display area. That is, since the image acquired in real time from the camera is displayed as it is in the speaker display area included in the recording interface, the speaker who is recording is confirming his / her appearance in real time through the speaker display area and at the same time the display state of the data display area. It can also be confirmed.
  • the interface providing unit 12 which provides a recording interface divided into at least three different areas as described above, when a user's touch input to the data display area is detected, the touch input selected through a selection button provided in the control area. Depending on the mode, the image displayed in the data display area can be changed and displayed.
  • the interface providing unit 12 when the page control mode is selected through the selection button provided in the control area, when the user's touch input occurs in the data display area, the currently displayed page image is enlarged, reduced, moved or Switch to an image on another page.
  • the interface providing unit 12 when a user's touch input corresponding to a swipe operation in a predetermined direction is detected in the data display area, converts the image of the currently displayed page into an image of another page. You can switch to display. For example, if the interface providing unit 12 detects the occurrence of a swipe operation in the left direction (touch and drag operation from the right to the left) in the data display area, the current page image is displayed. Stops the output and displays the next page image in the data display area.
  • each page image may be displayed while slidingly moving in a direction corresponding to the swipe operation.
  • the interface providing unit 12 may stop the output of the current page image and output the image of the previous page when a swipe operation in the right direction is detected in the data display area.
  • the switching of the page image may be made by a separate software button or by the user's selection of the thumbnail image of each page of the data file.
  • the swipe operation may be recognized as a page change command.
  • the page change command is not necessarily recognized only through a touch input in the data display area, and as shown in the embodiment shown in FIG. 7, one side of the data display area 120 (data display area (data display area (The software button for page switching may be displayed on the outside of the display panel 120, or may be a control area, and the page switching may be performed by the user touching the button to select the page.
  • the content creator in generating a video using a data file including a plurality of pages, can simultaneously record the pages of the data without interrupting the recording while recording the video.
  • the change of the image in the data display area displayed by switching to the same can be convenient by making the video content together with other recording data, that is, the video and audio data of the speaker.
  • the interface providing unit 12 is the page control mode in which the touch input mode is the above-described mode, and when the user's touch input is a pinch-to-zoom operation (when two touch points are close to each other, zooming in and away from each other) Zoom-out), the image of the currently displayed page may be enlarged or reduced.
  • the interface providing unit 12 may be configured to track the touch and drag input. Accordingly, the display position of the page currently displayed in the data display area can be moved.
  • the interface providing unit 12 displays an image having a trajectory of a shape corresponding to the trajectory of the user's touch input generated in the data display area. Display additionally on the page image. That is, if a user draws a line, draws a circle, or writes a text as desired, a line, figure, or text may be additionally displayed on the already displayed data.
  • the touch input mode provided by the interface providing unit 12 may further include a text input mode in addition to the above-described page control mode and image addition mode.
  • a virtual keypad may be displayed on one side of the data display area as a separate layer on the page image, and the user may input desired text through the virtual keypad.
  • Input text can also be overlaid on the page image.
  • the virtual keypad displayed in the text input mode may be displayed together with the extended control region only in the recording pause state.
  • the interface providing unit 12 may separately display the data display area, the control area, and additionally, the speaker display area on the touch screen. Particularly, for the user's touch input detected in the data display area, the control area Through the touch input mode selected by the user through the processing method can be different.
  • the content generation device 10 includes an image acquisition unit 13.
  • the image acquisition unit 13 acquires a moving picture by recording the change of the image displayed in the data display area provided by the interface provider 12 from the start of recording to the end of recording. At this time, the image acquisition unit 13 records the change of the image displayed in the data display area as it is until the recording is finished from the start of recording of the video content, that is, from the time when the user instructs to start recording. For example, in the page control mode, when the display state of a page is enlarged, reduced or moved, or when the page is switched to another page, the change of the image displayed in all data display areas including the changing process is displayed in time. Record as it is.
  • the image of the data display area including the process of drawing such a line and a circle is drawn. Record the change as it is.
  • the image acquisition unit 13 may record and record the change of the image displayed on the speaker display area as described above from the start of recording to the end of recording. That is, the image acquisition unit 13 may record an image acquired by the camera provided in the front portion of the content generation device 10.
  • the image acquisition unit 13 simultaneously captures the image change of the data display area and the speaker display area included in the recording interface as it is, so as to capture a single video including both the video of the material and the video of the speaker without any separate synchronization work. Can be created at once. Furthermore, the image acquisition unit 13 may acquire an image change of the entire screen on which the recording interface is displayed as one video at a time.
  • the image acquisition unit 13 may separately generate independent sub-images each time a recording pause command is input according to an embodiment.
  • Each sub-image may include an image change of the data display area and the speaker display area acquired during the corresponding time interval.
  • the content generator 15 to be described later subsumes a change in the sound obtained by the sound acquirer 14 to be described later during the time interval in which the sub-image is obtained.
  • Each sub content may be generated in synchronization with the image.
  • the content generating apparatus 10 includes a voice acquisition unit 14.
  • the voice acquisition unit 14 may record a change in the sound detected by the microphone provided in the content generation device 10 from the start of recording to the end of recording.
  • the change of the sound recorded by the voice acquisition unit 14 may be recorded while being synchronized with the change of the image displayed in the data display area and the speaker display area of the touch screen.
  • the audio acquisition unit 14 may generate each sub-audio each time recording is paused so as to be synchronized with the above-described sub-image.
  • the content generating apparatus 10 further includes a content generating unit 15.
  • the content generation unit 15 stores the image change and the sound change in the data display area and the speaker display area, which are recorded from the recording start time until the input of the end command. Create video content.
  • the content generation unit 15 stores the data and the video and audio of the speaker in a single package according to the time when the respective data are actually obtained.
  • the content generation unit 15 may encode or compress such content into a predetermined file type if necessary.
  • the content generating unit 15 may generate a sub content each time the recording is paused, and connect the contents in chronological order to complete one content.
  • the clips of the sub contents generated by the image acquisition unit 13 may be arranged in chronological order, and the speaker selects and deletes some of them, or selects another sub content. You can replace it or change the order.
  • the user can play back and check each sub content before generating one content by combining each sub content.
  • the background music may be selected and inserted for each sub content or one video content generated finally.
  • the volume of the background music can be automatically tuned according to the volume of the content before the background music is inserted, so that the double voice, that is, the voice acquired through the background music and the voice acquisition unit 14 can be simultaneously encoded.
  • the content generation unit 15 may tag the newly generated content with information of the object selected by the data registration unit 11 from the user.
  • the content delivery server 20 may recognize whether the content is content for which object.
  • the content generation device 10 may further include a content transmission unit 16.
  • the content transmission unit 16 transmits the content finally generated by the content generation unit 15 to the content delivery server 20 to receive the content selected by the content creator or to request the content delivery server 20 to view the content. Can be delivered to In this case, the content transmission unit 16 may receive a selection of a content receiver to receive the content in advance before or after the content is generated.
  • the selection of the reception target may be performed by selecting a user account of the reception target used in the content providing service provided by the content delivery server 20 to the plurality of content reception apparatuses 30 or user identification information corresponding thereto.
  • the content delivery server 20 may provide identification information of one or more other users who can deliver the content to the content generation device 10, and the content creator may select at least one of them to specify a reception target.
  • the content generation device 10 may not select a reception target.
  • the user of the content generating device 10 is a member who subscribes to the content providing service provided by the content delivery server 20, and may form a friend or acquaintance with other members.
  • the content creator may select another user who is friends or acquaintances with the user and designates the content as a receiving target.
  • the content generator 10 of the content creator may be provided with a list of identification information of all members that are different from the content creator, and the content creator may specify any one of them as a reception target.
  • the content transmission unit 16 may transmit the specified information on the reception target and the generated content to the content delivery server 20 so that the content delivery server 20 may deliver the content to the reception target.
  • the transmission history confirmation unit 17 may be additionally configured in the content generation device 10.
  • the transmission history confirmation unit 17 may provide the user with information on the details of the contents generated and transmitted by the content generation device 10. That is, the user can check what content is sent to whom and when.
  • the information about the transmission history may be accumulated and recorded in the content generating apparatus 10, or may be provided by the content delivery server 20 and provided when the user of the content generating apparatus 10 wants to confirm the transmission history. .
  • the content transmission history may further include information on whether the content receiving target has received the content.
  • the feedback information received by the receiving target through the content receiving device 30 and then transmitted to the content creator is collected through the content delivery server 20 to be provided back to the content generating device 10 of the content creator. It may be. That is, the content transmission history may include not only the content of the reception target but also the feedback information when the reception target inputs the feedback information.
  • the data registration unit 11, the interface providing unit 12, the image acquisition unit 13, the audio acquisition unit 14, and the content generation unit 15 may include the above-described contents.
  • the content transmission unit 16 and the delivery history confirmation unit 17 implement a web page provided by the content delivery server 20 to the content generation device 10, and the web browser of the content generation device 10. Can be implemented by executing Alternatively, all the components may be implemented in one content generating application.
  • the content delivery server 20 may include a user manager 21.
  • the user manager 21 assigns a different user account to each member who has subscribed to the content providing service provided by the content delivery server 20, and the content generating device 10 or the content receiving device 30 provides a content delivery server. Approaching (20), it can be confirmed which user account corresponds to the user.
  • the user manager 21 may manage a list of friends or acquaintances of the member corresponding to each user account.
  • the content delivery server 20 may include a content management unit 22.
  • the content manager 22 stores the contents received by the content generating devices 10.
  • the content manager 22 may store the content creator's information, the reception target information, the reception time, and the like in association with the content.
  • the content management server 22 may further include a notification unit 23 for notifying the reception of the content to the personalized device of the member.
  • the notification unit 23 may send a push notification to a corresponding user account when a content corresponding to a member corresponding to a specific user account is received or transmit a short message to a mobile communication terminal of the corresponding member.
  • the push notification or the short message may include information of the content creator and the fact that the content has been received.
  • a short message or a push notification may include a web page URL capable of streaming or downloading the received content, or a URI scheme for executing a content playing application installed in the content receiving device 30 to immediately play the corresponding content. It can also be included.
  • the content delivery server 20 includes a content provider 24.
  • the content provider 24 may provide information on the received content for each member to be the target member. For example, when a member accesses the content delivery server 20 through the content receiving device 30, all the contents delivered by receiving the member or new contents delivered by the member are received. The list may be provided to the content receiving device 30.
  • the content provider 24 when a member corresponding to the reception target selects a specific content from the content list provided by the content delivery server 20 to request playback, the content provider 24 content the content stored by the content manager 22. The content may be transmitted to the reception device 30 so that the content may be played on the content reception device 30.
  • the content delivery server 20 may further include a feedback manager 25.
  • the feedback management unit 25 records the content of the reproduction request for the content received from the content receiving device 30 to the content delivery server 20 or the content from the content delivery server 20 to the specific content receiving device 30. By recording the provided details, it is possible to manage information on whether or not the reception target has received each content.
  • the feedback management unit 25 receives the feedback information from the content receiving device 30 with respect to the content delivered from the content providing unit 24 to the content receiving device 30 again, that is, the receiving object plays the content and related thereto. In the case of re-delivering a comment, such as a comment or request, the feedback information thus transmitted is recorded.
  • the content delivery server 20 may further include a transmission history management unit 26.
  • the transmission history management unit 26 centers on each of the contents, the information on the time when the content generating apparatus 10 generates the content and transmits the content to the content delivery server 20, the information on the content creator and the receiving object, and
  • the feedback management unit 25 may synthesize the information on whether or not the content of the reception target has been received, and further provide feedback information to the transmission history confirmation unit 17 of the content generation device 10 described above.
  • the content receiving device 30 corresponding to the reception target of the content may also transmit various types of information centered on the content.
  • the content delivery server 20 may selectively identify which object the content is the content by using the object information tagged to each received content, and the same object information is tagged Contents may be classified by grouping a plurality of contents.
  • the content delivery server 20 may store information about a plurality of objects in advance and provide a list of objects to the content generation device 10 so that the content creator may indicate which object the content is. Furthermore, when the data file is uploaded to the content delivery server 20 for each object, the list of data files associated with the specific object is likewise delivered to the content generating device 10, so that even if the content creator does not directly register the data file. You can select a source file so that you can create video content.
  • the content delivery server 20 may also provide other additional information corresponding to the object associated with the content.
  • the content receiving device 30 includes a content receiving unit 31. If there is content received from the content delivery server 20 to the content delivery server 20 from the content delivery server 20, the content receiver 31 first receives the content list from the content delivery server 20. To pass. At this time, when a user selects and plays a desired content included in the list delivered to the content receiving device 30, the content receiving unit 31 delivers the selected content to the content receiving device 30.
  • the content reproducing unit 32 of the content receiving device 30 plays the delivered content.
  • the content playback unit 32 outputs the synchronized video and audio together
  • the content receiving device 30 includes an image containing the image change displayed on the data display area and a video displayed on the speaker display area, respectively. Can be displayed and played on another area of the screen.
  • the content receiving device 30 may further include a feedback input unit 33.
  • the feedback input unit 33 may receive or receive feedback information from the user while the content player 32 plays the specific content or after the specific content is played.
  • the feedback information may be, for example, text information including a new request or a question related to the content of the video content, or may be information about a selected one or more requests previously formatted by the content delivery server 20.
  • the kind of feedback information designated in advance by the content delivery server 20 is predetermined as 'visit request', 'product order', and the like
  • the receiving target may select at least one of the predetermined feedbacks to be delivered to the content creator. Can be.
  • the object may be delivered to the content receiving device 30 together, or other content associated with the object may be provided as the recommended content. Accordingly, the hyper-object or the recommended content list may be displayed on one side of the content played by the content player 32.
  • FIGS. 6 to 8 are exemplary diagrams for describing a content generating method according to an embodiment of the present invention.
  • a step (S12) of selecting a data file to be displayed in a material display area of a video content is performed.
  • the user may select at least one of the data files stored in the content generating device 10 or at least one of the material files provided by the content delivery server 20.
  • the user may first select an object first and then select a corresponding data file, or may independently select an object and a data file.
  • the user may select a content receiving target.
  • the content generating device 10 may receive a recording start command from the user (S13). To this end, the content generation device 10 may display a recording start button on the touch screen to be selected by the user.
  • the content generating apparatus 10 may provide a recording interface including the data display area as described above (S14).
  • the recording interface may also include a control area and a speaker display area.
  • the touch screen of the content generating apparatus 10 may display the speaker display area 110, the control area 120, and the data display area 130 separately from each other.
  • an image acquired through the front camera of the content generating apparatus 10 may be displayed in the speaker display area 110 in real time.
  • control region 120 may be provided with one or more selection buttons for controlling the progress of recording.
  • a recording button 123 may be provided to determine a recording start time and an end time.
  • the recording button 123 is a button for inputting a recording start command before recording starts, and may be switched to an input button for commanding recording ending after recording starts.
  • a pause button 124 for selectively pausing the recording may be further provided.
  • the control area 120 may include at least one software button for determining the touch input mode.
  • a pen button 121 and a memo button 122 may be provided.
  • the content generating device 10 is detected in the data display area. It operates in the page control mode in which all touch inputs are recognized as signals for controlling the enlargement, reduction, movement, and switching of the page image displayed in the data display area.
  • the pen button 121 while the pen button 121 is activated, the content generating device 10 operates in an image addition mode that recognizes all touch inputs in the data display area as touch pen inputs.
  • the trajectory is represented as an image as it is.
  • a user interface for selecting a color and a thickness of a pen may be displayed at least temporarily in the control area 120 while the pen button 121 is selected.
  • the user may input text through the virtual keyboard.
  • the content generating device 10 displays the virtual keyboard on at least one side of the data display area as an upper layer.
  • the video generated by the content generating apparatus 10 only an image change of the data display area, which is a lower layer than the virtual keyboard, may be recorded, and the virtual keyboard layer displayed during the recording process may be excluded.
  • the pen button 121 and the memo button 122 may alternatively be activated.
  • the recording interface may be changed as shown in FIG. 8. That is, the control region 120 may extend while encroaching at least a portion of the data display region 130 as an upper layer.
  • software buttons that were not displayed before the pause may be additionally displayed in the control region 120.
  • thumbnail images 140 of each sub content may be arranged and displayed in the order of generation time. Therefore, the user may check each sub content in the pause state and delete some of them or change their order.
  • the thumbnail image 140 may be displayed as a separate layer on the data display area.
  • the content generating apparatus 10 determines whether the current touch input mode is the page control mode or the image unit. It may be determined whether the mode (S16).
  • the content generating apparatus 10 may switch the page image of the data display area to another page or enlarge, reduce or move the page image according to the pattern of the generated touch input ( S17).
  • the graph is centered while performing a pinch-to-zoom operation to enlarge the graph displayed in the data display area.
  • the page image may be displayed while being changed according to a user's touch input. That is, the user can freely control the image of the material according to the description while performing video recording.
  • the content generating apparatus 10 displays the pen image corresponding to the trajectory of the user's touch input by superimposing the pen image on the data page image ( S18), the user can add a necessary mark according to the description, such as highlighting or underlining at a desired position of the material image.
  • the thickness of the pen ie, the line corresponding to the touch input trace, the color, the pattern, and the like may be selected in the pause state as shown in FIG. 8.
  • the speaker of the video may change the touch input mode by using one mode switch button and input free commands in the data display area while concentrating on the description. That is, since the user can easily perform page control and proper marking by focusing on the data display area, the recording can be completed at once without the need of repeating the recording and the stopping for each page.
  • the content generating apparatus 10 simultaneously records the change of the page image displayed on the data display area and performs recording of the speaker's voice input to the microphone at the same time as performing the above-described steps S14 to S18 (S19). .
  • the content generating apparatus 10 may simultaneously record image changes of the speaker display area 110 and the data display area 130 at once, and may record the entire recording interface at once. have.
  • the video content package is generated by integrating the data acquired in step S19 until immediately before the input of the recording end command (S21). That is, one video content package may be generated by synchronizing the sound change acquired during the recording time to the video recorded with the image change of the speaker display area and the data display area together.
  • the video content packages may be generated by connecting them in chronological order. In this case, a video effect may be inserted into a connection portion between each sub content so that the connection portion may be naturally edited. For example, in the connecting portion, the previous sub content may be connected by applying a fade-out effect and the new sub content by applying a fade-in effect.
  • the content generating apparatus 10 transmits the generated content to the content delivery server 20 together with the reception target information selected in step S11.
  • the information of the object selected in step S12 may be tagged and delivered to the content delivery server 20.
  • the delivered content may be provided to the content receiving device 30 corresponding to the receiving object, and the feedback thereof may be delivered to the content generating device 10 as described above in the content delivery system.
  • the content generation method according to the embodiment shown in FIG. 6 includes steps processed in time series in the content generation device 10 shown in FIGS. 1 to 5. Therefore, even if omitted below, the above descriptions of the content generating apparatus 10 shown in FIGS. 1 to 5 may be applied to the content generating method according to the embodiment shown in FIG. 6.
  • the content generating method according to the embodiment described with reference to FIG. 6 may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 편집 없이도 한번에 용이하게 동영상 콘텐츠를 생성하는 방법 및 장치에 관한 것이다. 본 발명은 녹화가 개시되면, 터치스크린에 선택된 자료 파일에 포함된 각 페이지의 이미지가 하나씩 순차적으로 출력되는 자료표시영역을 포함하는 녹화인터페이스를 제공하고, 자료표시영역에 대한 사용자의 터치입력이 감지되면, 터치입력모드에 따라 자료표시영역에 표시된 이미지를 변경하여 표시하면서, 녹화가 개시된 때로부터 녹화가 종료될 때까지, 변화되는 자료표시영역의 이미지 변화와 녹음되는 화자의 음성을 기록하여 동영상 콘텐츠를 생성하는 콘텐츠 생성 방법을 포함한다. 이러한 본 발명에 의하면 별도의 편집 작업 없이 한번에 동영상의 녹화를 수행할 수 있다.

Description

콘텐츠 생성 방법 및 장치
본 발명은 콘텐츠 생성 방법 및 장치에 관한 것으로, 보다 상세하게는 편집 없이도 한번에 용이하게 동영상 콘텐츠를 생성하는 방법 및 장치에 관한 것이다.
최근 들어 개개인마다 개인화된 정보처리장치를 보유함과 동시에 고속의 유무선 통신망이 확충됨에 따라 온라인으로 정보와 자료를 공유하는 문화가 일반화되었다.
특히 무선 통신망의 데이터 전송 속도가 현저히 증가하면서, 기존의 텍스트, 스틸 이미지 중심의 자료 및 정보 공유를 넘어서 동영상을 이용한 정보의 공유가 대중화되고 있다.
그러나 텍스트나 스틸 이미지 중심의 콘텐츠를 작성하는 것이 일반인들에게도 더 이상 어려운 일이 아닌 것과는 달리, 동영상 콘텐츠의 생성 및 편집은 일반인들에게 여전히 어려운 일이다. 특히 동영상을 촬영한 후 이 중 필요한 일부분만을 다시 이어 편집하는 과정은 쉽지 않을 뿐 아니라 번거롭다.
특히 제품 설명이나 교육 목적의 동영상을 생성하는 경우, 동영상 내의 화자의 영상 및 음성과, 설명에 필요한 자료의 영상 등을 함께 녹화하여야 하고, 이를 편집하는 경우에도 자료 영상을 중심으로 화자의 영상도 정확한 시점에 함께 편집되도록 하여야 하기 때문에 누구나 쉽게 동영상을 생성하고 편집하기 어렵다는 문제점이 있었다.
한국 특허공개 10-2012-0121624호에는 '연주법 강의 동영상 생성 방법'이 개시되어 있다. 이 방법은 악기 연주 음원을 입력하고, 연주 동영상을 입력하며, 세부적인 연주 동영상을 입력받은 후, 연주되는 음원의 곡의 해당 악기에 대한 악보를 생성하고 이를 동영상 및 음원 등과 모두 동기화하는 작업을 거쳐 편집함으로써 동영상을 생성한다.
그러나 이러한 종래기술에 따르면 콘텐츠를 구성하는 각각의 음원과 영상 등을 수동으로 동기화하여야 하는 등 복잡한 편집 과정이 필요하기 때문에 일반인들이 이러한 방법을 통해 동영상을 생성하기 어렵다는 문제점이 있다.
따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
따라서 본 발명의 일실시예는 편집 과정이 필요치 않도록 한번에 용이하게 녹화를 수행하여 동영상 콘텐츠를 생성하는 데에 목적이 있다.
또한, 본 발명의 일실시예는 자료의 영상과 화자의 영상을 하나의 장치를 통해 획득하여 자료 영상과 화자의 영상을 별도로 동기화할 필요가 없는 콘텐츠 생성 방법 및 장치를 제공하는 데에 목적이 있다.
나아가 본 발명의 일실시예는, 동영상 내의 화자가 수신 대상마다 서로 다른 맞춤의 동영상을 생성하더라도 시간이나 비용 부담이 없도록 한 콘텐츠 생성 방법 및 장치를 제공하는 데에 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따르면 터치스크린을 포함하는 콘텐츠 생성 장치에 의하여 수행되는 콘텐츠 생성 방법은, 사용자로부터 복수의 페이지를 포함하는 자료 파일을 선택 받는 단계; 녹화가 개시되면, 상기 터치스크린에, 선택된 자료 파일에 포함된 각 페이지의 이미지가 하나씩 순차적으로 출력되는 자료표시영역과, 상기 자료표시영역에 대한 터치입력모드를 선택 받기 위한 제어영역을 포함하는 녹화인터페이스를 제공하는 단계; 상기 녹화인터페이스의 상기 자료표시영역에 대한 사용자의 터치입력이 감지되면, 상기 제어영역을 통해 선택된 터치입력모드에 따라 상기 자료표시영역에 표시된 이미지를 변경하여 표시하는 단계; 녹화가 개시되면 녹화가 종료될 때까지, 상기 이미지를 변경하여 표시하는 단계의 수행에 의해 변화되는 자료표시영역의 이미지 변화를 기록하는 단계; 녹화가 개시되면 상기 콘텐츠 생성 장치에 포함된 마이크로폰을 활성화하여, 수신되는 소리의 변화를 녹화가 종료될 때까지 기록하는 단계; 그리고 녹화가 종료되면, 녹화의 개시 시점부터 녹화의 종료 시점까지 기록된 이미지 변화와 소리의 변화를 동기하여 저장함으로써 동영상 콘텐츠를 생성하는 단계를 포함한다.
본 발명의 제 2 측면에 따르면, 터치스크린을 포함하는 콘텐츠 생성 장치는, 사용자로부터 복수의 페이지를 포함하는 자료 파일을 선택 받는 자료등록부; 녹화가 개시되면, 선택된 자료 파일에 포함된 각 페이지의 이미지가 하나씩 순차적으로 출력되는 자료표시영역과, 상기 자료표시영역에 대한 터치입력모드를 선택 받기 위한 제어영역을 포함하는 녹화인터페이스를 상기 터치스크린을 통해 제공하고, 상기 녹화인터페이스의 상기 자료표시영역에 대한 사용자의 터치입력이 감지되면, 상기 제어영역을 통해 선택된 터치입력모드에 따라 상기 자료표시영역에 표시된 이미지를 변경하여 표시하는 인터페이스제공부; 녹화가 개시되면 녹화가 종료될 때까지, 상기 자료표시영역의 이미지 변화를 기록하는 영상획득부; 녹화가 개시되면 상기 콘텐츠 생성 장치에 포함된 마이크로폰을 활성화하여, 수신되는 소리의 변화를 녹화가 종료될 때까지 기록하는 음성획득부; 그리고 녹화가 종료되면, 녹화의 개시 시점부터 녹화의 종료 시점까지 기록된 이미지 변화와 소리의 변화를 동기하여 저장함으로써 동영상 콘텐츠를 생성하는 콘텐츠생성부를 포함할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일실시예는 한번에 용이하게 녹화를 수행할 수 있도록 하여 별도로 편집 작업을 거치지 않아도 되는 콘텐츠 생성 방법 및 장치를 제공할 수 있다.
또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 자료의 영상과 화자의 영상을 하나의 장치를 통해 획득하여 자료 영상과 화자의 영상을 별도로 동기화할 필요가 없는 콘텐츠 생성 방법 및 장치를 제공할 수 있다.
나아가 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 동영상 내의 화자가 수신 대상마다 서로 다른 맞춤의 동영상을 생성하더라도 시간이나 비용 부담이 없는 콘텐츠 생성 방법 및 장치를 제공할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예에 따른 콘텐츠 전달 시스템의 망구성도이다.
도 2는 본 발명의 일실시예에 따른 콘텐츠 전달 시스템을 이용한 콘텐츠 전달 과정을 개략적으로 도시한 개념도이다.
도 3은 본 발명의 일실시예에 따른 콘텐츠 생성 장치의 기능적 구성을 도시한 블록도이다.
도 4는 본 발명의 일실시예에 따른 콘텐츠 전달 서버의 기능적 구성을 도시한 블록도이다.
도 5는 본 발명의 일실시예에 따른 콘텐츠 수신 장치의 기능적 구성을 도시한 블록도이다.
도 6은 본 발명의 일실시예에 따른 콘텐츠 생성 방법을 단계적으로 도시한 흐름도이다.
도 7 및 도 8은 본 발명의 일실시예에 따른 콘텐츠 생성 방법을 설명하기 위한 예시도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 콘텐츠 전달 시스템의 망구성도이고, 도 2는 본 발명의 일실시예에 따른 콘텐츠 전달 시스템을 이용한 콘텐츠 전달 과정을 개략적으로 도시한 개념도이다.
도 1및 2에 도시된 바와 같이 본 발명의 실시예에 의한 콘텐츠 전달 시스템은, 네트워크(N)를 통해 서로 데이터를 교환하는 콘텐츠 생성 장치(10), 콘텐츠 전달 서버(20) 및 콘텐츠 수신 장치(30)를 포함하여 구성될 수 있다.
여기서 네트워크(N)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet), Mobile WiMAX, HSDPA(High Speed Downlink Packet Access) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
또한 콘텐츠 생성 장치(10)와 콘텐츠 수신 장치(30)는 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000 단말, CDMA(Code Division Multiple Access)-2000 단말, W-CDMA(W-Code Division Multiple Access) 단말, Wibro(Wireless Broadband Internet) 단말, 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 단말, 스마트폰(Smart phone), 태블릿(Tablet) PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
특히 콘텐츠 생성 장치(10)는 터치스크린을 포함하는 단말로 구성되며, 콘텐츠 생성 장치(10)의 터치스크린이 구비되는 전면에는 전방을 향해 영상을 촬영하는 카메라가 포함한다. 나아가 콘텐츠 생성 장치(10)에는 상기 콘텐츠 생성 장치(10)의 주변에서 발생하는 소리를 감지하여 녹음하는 마이크로폰이 구비될 수 있다. 그에 따라 콘텐츠 생성 장치(10)는 터치스크린에 가해지는 사용자의 터치입력에 대응하여 표시되는 화면을 전환할 수 있으며, 영상 및 음성을 획득하여 녹화할 수 있다.
또한 콘텐츠 생성 장치(10)에는 상술한 터치스크린과, 카메라, 마이크로폰 등의 하드웨어를 이용하여 새로운 동영상 콘텐츠를 생성하는 콘텐츠 생성 애플리케이션이 설치될 수 있으며, 콘텐츠 생성 애플리케이션은 새로운 콘텐츠를 생성함과 아울러, 후술할 콘텐츠 전달 서버(20)와 통신하여, 생성된 콘텐츠를 후술할 콘텐츠 수신 장치(30)로 전달되도록 할 수 있다.
한편 콘텐츠 수신 장치(30)는 상술한 바와 같이 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있으며, 콘텐츠 전달 서버(20)로부터 콘텐츠를 수신하고 재생할 수 있다.
한편 본 발명의 일실시예에서 콘텐츠 전달 서버(20)는 네트워크(N)를 통해 콘텐츠 생성 장치(10)나 콘텐츠 수신 장치(30) 등의 단말 또는 타 서버와 데이터를 교환하는 컴퓨터로서, 특히 콘텐츠 생성 장치(10)에서 생성된 콘텐츠를 수신하여 콘텐츠 수신 장치(30)로 전달한다. 이를 위하여 콘텐츠 전달 서버(20)는 콘텐츠 생성 장치(10)에 설치된 상술한 콘텐츠 생성 애플리케이션과 통신할 수 있고, 콘텐츠 수신 장치(30)와는 콘텐츠 수신 장치(30)에 설치된 웹브라우저로 콘텐츠 전달을 위한 웹페이지를 제공하거나 콘텐츠 수신 장치(30)에 설치된 별도의 응용 프로그램으로 콘텐츠를 전송할 수 있다.
도 2에 도시된 바를 참조하여 각각의 구성요소들의 상호 동작을 보다 구체적으로 살펴보면, ①우선 콘텐츠 생성 장치(10)에서 새로운 동영상 콘텐츠를 생성할 수 있다.
② 이어서, 콘텐츠 생성 장치(10)에서 생성된 콘텐츠는, 콘텐츠 생성 장치(10)의 사용자가 선택한 콘텐츠 수신 대상의 정보와 함께 콘텐츠 전달 서버(20)로 전송된다. 이때 수신 대상은 특정되지 않을 수도 있다.
③ 그에 따라 콘텐츠를 수신한 콘텐츠 전달 서버(20)는 수신된 콘텐츠를 저장하고, 하나 이상의 콘텐츠 수신 장치(30)로 수신된 콘텐츠를 제공한다. 예를 들어, 콘텐츠 전달 서버(20)는 콘텐츠 생성 장치(10)에서 특정 수신 대상을 특정한 경우, 수신 대상에 대응하는 사용자 계정을 이용하여 콘텐츠 전달 서버(20)에 접속한 콘텐츠 수신 장치(30)로, 새로운 콘텐츠가 전달됨을 통지할 수 있다. 그에 따라 콘텐츠 수신 장치(30)의 사용자가 새로운 콘텐츠의 제공을 요청하면, 저장된 콘텐츠를 제공할 수 있다. 물론 이때 콘텐츠는 스트리밍 방식으로 제공되거나 또는 다운로드 가능하게 제공될 수 있다.
여기서 콘텐츠 전달 서버(20)는 상술한 바와 같이 웹페이지를 통해 콘텐츠를 제공할 수 있고, 이 경우 콘텐츠 수신 장치(30)에 설치된 웹브라우저를 이용하여 콘텐츠 수신 장치(30)가 콘텐츠의 수신을 확인하고 콘텐츠 전달 서버(20)로 콘텐츠의 재생 요청할 수 있도록 할 수 있다. 또 한편 콘텐츠 전달 서버(20)는 콘텐츠 수신 장치(30)에 설치된 별도의 응용 프로그램(이하 '콘텐츠 재생 애플리케이션’이라 함)과 통신하여 콘텐츠를 수신 대상에게 제공할 수 있는데, 이 경우에는 수신 대상에 대응하는 사용자가 콘텐츠 수신 장치(30)에 설치된 콘텐츠 재생 애플리케이션을 실행하고, 실행된 콘텐츠 재생 애플리케이션을 통해 새로운 콘텐츠의 수신을 확인하며, 확인된 콘텐츠의 재생을 요청하도록 할 수 있다.
이때 콘텐츠 전달 서버(20)는 수신 대상에 해당하는 사용자가 콘텐츠 수신 단말(30)을 이용하여 콘텐츠 전달 서버(20)로 접근하지 않더라도, 수신 대상에 대한 푸시 통지 등을 통해, 수신 대상에게 새로운 콘텐츠가 전달되었음을 따로 안내할 수도 있다. 예를 들어, 콘텐츠 전달 서버(20)는 콘텐츠 수신 장치(30)에 설치된 콘텐츠 재생 애플리케이션에 대한 푸시 통지를 발송하여 새로운 콘텐츠가 수신 대상에게 전달되었음을 통지할 수 있다. 또는 수신 대상에 대해 미리 등록된 이동통신전화번호를 이용하여 단문 메시지의 형태로 새로운 콘텐츠의 수신 여부를 안내할 수도 있다.
④ 그리고 콘텐츠 수신 장치(30)에서는 콘텐츠 전달 서버(20)로부터 제공받은 콘텐츠를 재생하여 열람할 수 있다.
⑤ 이때 콘텐츠 전달 서버(20)는 콘텐츠 수신 장치(30)로부터 콘텐츠의 제공 요청이 수신되었는지 여부를 확인하여 각각의 콘텐츠의 수신 여부에 대한 정보를 관리할 수 있고, 콘텐츠를 전달한 콘텐츠 생성 장치(10)로 콘텐츠의 수신 여부에 대한 정보를 제공할 수 있다. 즉, 콘텐츠의 수신 대상이 수신된 콘텐츠를 확인 하였는지 여부에 대한 정보를, 콘텐츠를 생성하여 전송한 사용자에게 제공할 수 있다. 또한 이때 콘텐츠 전달 서버(20)는, 콘텐츠를 수신한 콘텐츠 수신 장치(30)로부터, 수신 대상이 전달된 콘텐츠에 대하여 콘텐츠 생성자에게 다시 전달하고 싶은 메시지나 요청 등을 포함하는 피드백 데이터를 수신하여 이를 저장하고 콘텐츠 생성 장치(10)로 제공할 수 있다.
이하에서는 도 3 내지 도 5를 참조하여, 본 발명의 일실시예에 의한 콘텐츠 전달 시스템에 포함되는, 상술한 콘텐츠 생성 장치(10), 콘텐츠 전달 서버(20), 그리고 콘텐츠 수신 장치(30)의 기능적 구성을 보다 구체적으로 살펴본다. 도 3은 본 발명의 일실시예에 따른 콘텐츠 생성 장치의 기능적 구성을 도시한 블록도이고, 도 4는 본 발명의 일실시예에 따른 콘텐츠 전달 서버의 기능적 구성을 도시한 블록도이며, 도 5는 본 발명의 일실시예에 따른 콘텐츠 수신 장치의 기능적 구성을 도시한 블록도이다.
우선 도 3에 도시된 바에 따라 콘텐츠 생성 장치(10)의 구성을 살펴보면, 도면에 도시된 바와 같이 콘텐츠 생성 장치(10)는 사용자로부터 자료 파일을 선택받는 자료등록부(11)를 포함한다. 자료등록부(11)는 사용자로부터 적어도 하나의 자료 파일을 선택받을 수 있다. 여기서 '자료 파일'은 일반적인 문서 파일로서, 예를 들어, 확장자 ‘pdf’, ‘doc’, ‘hwp’, ‘ppt’, ‘html’등의 전자문서가 될 수 있으나 예시된 바에 한정되지 않는다. 예를 들어, 자료 파일은 복수의 이미지 파일을 포함할 수도 있다.
특히 자료 파일은 하나 이상의 페이지로 구성될 수 있는데, 이때 '페이지'는 자료 파일을 구성하는 데이터들의 구분 단위이며, 특히 화면에 한번에 표시되는 데이터 분량에 따른 구분 단위일 수 있다. 이때 사용자는 둘 이상의 자료 파일을 선택할 수도 있고, 이 경우 자료등록부(11)는 둘 이상의 자료 파일들 사이의 우선순위를 사용자로부터 미리 설정 받을 수 있다. 자료등록부(11)는 동영상 콘텐츠의 녹화가 개시되기 이전에 자료 파일을 선택 받는다.
또한 선택적으로 자료등록부(11)는 사용자 즉, 동영상 생성자로부터 자료를 선택받거나 객체를 선택받을 수 있다. 여기서 객체는 새로 생성하고자 하는 동영상 콘텐츠에 포함된 내용의 주제에 해당하는 객체로서 예를 들어, 콘텐츠 생성자가 동영상 콘텐츠에 특정 상품에 대해 설명하는 내용을 담고자 하는 경우, 콘텐츠 생성 장치(10)의 사용자는 해당 상품을 객체로서 선택할 수 있다. 이때 자료등록부(11)는 선택된 객체에 대응하여 미리 등록된 자료의 목록을 사용자에게 제공하고, 사용자는 해당 자료를 선택할 수 있다.
또는 자료등록부(11)는 자료 파일과 객체를 모두 선택 받을 수도 있다.
이때 사용자로부터 객체를 선택 받거나, 선택된 객체에 대해 미리 등록된 자료를 선택 받기 위하여 제공되는 객체의 목록이나 자료의 목록은 자료등록부(11)가 콘텐츠 전달 서버(20)로부터 제공받을 수 있다.
또한 본 발명의 실시예에 의한 콘텐츠 생성 장치(10)는 인터페이스제공부(12)를 포함한다. 인터페이스제공부(12)는 콘텐츠 생성 장치(10)에서 동영상 콘텐츠를 생성하는데 필요한 사용자 인터페이스를 콘텐츠 생성 장치(10)의 터치스크린을 통해 제공한다.
인터페이스제공부(12)는 동영상 녹화가 개시되면, 즉 사용자가 동영상 녹화 시작 명령을 입력하면, 자료등록부(11)에서 선택 받은 자료 파일에 포함된 각 페이지의 이미지가 하나씩 순차적으로 출력되는 자료표시영역과, 자료표시영역에 대한 터치입력모드를 선택받기 위한 제어영역을 포함하는 녹화인터페이스를 터치스크린을 통해 제공한다. 또한 녹화인터페이스에는 화자표시영역이 더 포함될 수 있으며, 화자표시영역에는 콘텐츠 생성 장치(10)의 전면부에 구비되는 카메라를 통해 획득되는 영상이 표시될 수 있다. 물론 여기서 화자표시영역에 표시되는 영상은 콘텐츠 생성 장치(10)의 후면부에 구비되는 카메라를 통해 획득되는 영상이 표시될 수도 있음은 물론이다.
예를 들어, 도 7에 도시된 바와 같이 콘텐츠 생성 장치(10)의 터치스크린에는, 화자표시영역(110)과 제어영역(120), 그리고 자료표시영역(130)이 서로 구분되어 배열될 수 있다.
이때 자료표시영역에는 선택받은 하나 이상의 자료 파일에 포함된 각 페이지가 하나씩 표시될 수 있다. 예를 들어, 복수의 페이지를 포함하는 하나의 자료 파일이 선택된 경우, 우선 첫 페이지의 이미지가 자료표시영역에 표시된 후, 사용자의 명령에 따라 순차적으로 차순위 페이지가 전환되어 표시될 수 있다. 또한 예를 들어, 둘 이상의 자료 파일이 선택된 경우, 첫 번째 자료 파일의 첫 페이지의 이미지부터 표시하고, 사용자의 명령에 따라 첫 번째 자료 파일의 모든 페이지의 이미지가 전환 완료된 경우, 다음 자료 파일의 첫 페이지의 이미지부터 다시 순차적으로 전환되며 표시될 수 있다.
이때 페이지를 전환하는 방법에 대해서는 후술한다.
또한 제어영역에는, 녹화의 개시나 종료, 일시중지 여부를 선택받기 위한 소프트웨어 버튼이 구비될 수 있다. 또한 상술한 자료표시영역 내에서 발생하는 사용자의 터치 입력을 어떻게 처리할지 여부를 결정하는 터치입력모드를 선택받기 위한 적어도 하나의 선택 버튼이 구비될 수 있다. 물론 여기서 선택 버튼은 소프트웨어 버튼으로 구비된다.
여기서 터치입력모드는 반드시 제어영역에 포함된 선택 버튼에 의하여 변경되는 것은 아니고 자료표시영역에 가해지는 터치입력 패턴에 따라 변경될 수도 있다. 일례로 같은 위치에 설정 시간 이상의 터치입력을 가하면 터치입력모드가 변경되도록 할 수도 있다. 이 경우 제어영역에는 터치입력모드의 선택을 위한 선택 버튼이 구비되지 않을 수도 있다.
이때 터치입력모드는, 자료표시영역 내에서 감지되는 사용자의 터치입력을, 자료표시영역 내에 표시된 페이지 이미지의 표시 상태를 변경하기 위한 입력으로 판단할 것인지, 아니면 자료표시영역 내에 표시된 페이지 이미지 위에 새로운 데이터를 추가 표시하기 위한 입력으로 판단할 것인지 여부에 대한 적어도 두 가지의 서로 다른 입력 모드를 포함한다. 즉 터치입력모드는, 사용자의 터치입력에 따라 현재 표시된 페이지의 이미지의 확대, 축소, 이동 또는 다른 페이지의 이미지로의 전환 중 적어도 하나를 수행하기 위한 페이지제어모드와, 현재 표시된 페이지의 이미지 위에 사용자의 터치입력의 궤적에 대응하는 새로운 이미지를 추가하여 표시하기 위한 이미지부가모드를 포함할 수 있다. 이때 콘텐츠 생성 장치(10)는 녹화 인터페이스의 특정 영역에 현재의 터치입력모드가 페이지제어모드인지 이미지부가모드인지 등을 구분할 수 있도록 하는 특정 이미지를 표시함으로써, 사용자가 현재의 터치입력모드를 육안을 통해 확인하도록 할 수 있다.
이때 제어영역은, 녹화 중에는 자료표시영역과 겹치지 않는 최소한의 영역만을 차지하고, 녹화가 일시중지될 때, 자료표시영역의 적어도 일부를 잠식하면서 별개의 레이어로 자료표시영역 위에 표시될 수도 있다. 즉 제어영역은 녹화 중인지, 또는 녹화가 개시된 이후 일시중지된 상태인지에 따라 그 영역의 크기 및 위치가 변경될 수 있다. 또한 제어영역 내에 표시되는 소프트웨어 버튼의 종류나 크기, 모양 등도 함께 변경될 수 있다. 물론 제어영역은 녹화 중인지, 또는 일시중지된 상태인지 여부와 무관하게 동일하게 표시될 수도 있음은 물론이다.
예를 들어 제어영역은 녹화 중에는 단순히 녹화 일시중지 버튼 또는 터치입력모드의 선택을 위한 버튼만을 표시하다가, 녹화 일시중지 상태에서는 별개의 레이어로서 자료표시영역 위로 확장되면서 이미지부가모드에서 터치입력 궤적에 따라 부가되는 선 이미지의 색상이나 굵기를 설정받기 위한 다양한 버튼을 더 표시할 수도 있다. 물론 자료표시영역에 부가되는 선 이미지의 색상이나 굵기는 반드시 사용자에 의하여 선택되어야 하는 것은 아니다.
선의 색상이나 굵기가 콘텐츠 생성 장치(10)에 의해 자동으로 선택되거나 일정한 색상이나 굵기로 고정될 수도 있다. 예를 들어, 콘텐츠 생성 장치(10)는 자료표시화면에 부가되는 선 이미지의 색상을 그 배경이 되는 자료이미지의 색상에 맞추어 선택할 수도 있다. 예를 들어, 콘텐츠 생성 장치(10)는 이미지부가모드에 의해 선 이미지가 부가되는 자료표시영역 내의 적어도 일부 영역의 색과 구별되는 색, 예를 들어 보색으로 선 이미지의 색상을 조절하거나 선택할 수 있다.
한편 화자표시영역에는 이미 설명한 바와 같이 콘텐츠 생성 장치(10)의 전면부에 구비된 카메라에서 획득되는 영상이 실시간으로 표시되며, 그에 따라 현재 콘텐츠 생성 장치(10)를 이용하여 동영상 콘텐츠를 작성하고 있는 화자, 즉 콘텐츠 생성자가 촬영되는 영상이 화자표시영역에 표시될 수 있다. 즉 녹화인터페이스에 포함되는 화자표시영역에는, 카메라에서 실시간으로 획득되는 영상이 그대로 표시되므로, 녹화를 진행하고 있는 화자는 자신의 모습을 화자표시영역을 통해 실시간으로 확인하면서 동시에 자료표시영역의 표시 상태도 확인할 수 있다.
이렇게 적어도 세 개의 서로 다른 영역으로 구분되는 녹화인터페이스를 제공하는 인터페이스제공부(12)는, 상술한 자료표시영역에 대한 사용자의 터치입력이 감지되면, 제어영역에 구비된 선택 버튼을 통해 선택된 터치입력모드에 따라 자료표시영역에 표시된 이미지를 변경하여 표시할 수 있다.
즉 인터페이스제공부(12)는, 제어영역에 구비된 선택 버튼을 통해서 페이지제어모드가 선택된 상태에서는, 자료표시영역 내에서 사용자의 터치입력이 발생하면, 현재 표시된 페이지 이미지를 확대, 축소, 이동 또는 다른 페이지의 이미지로 전환한다.
예를 들어, 인터페이스제공부(12)는 페이지제어모드에서, 자료표시영역에 미리 정해진 방향의 스와이프 동작에 해당하는 사용자의 터치입력이 감지된 경우, 현재 표시된 페이지의 이미지를 다른 페이지의 이미지로 전환하여 표시할 수 있다. 예를 들어 인터페이스제공부(12)는 자료표시영역 내에서 좌측방향의 스와이프(Swipe) 동작(우측에서 좌측으로의 터치 앤 드래그(Touch and Drag) 동작)의 발생이 감지되면, 현재의 페이지 이미지의 출력을 중단하고 다음 페이지의 이미지를 자료표시영역에 표시한다. 여기서 현재 표시되는 페이지의 이미지를 다음 페이지의 이미지로 전환하여 표시하는 과정에서는 각각의 페이지 이미지가 스와이프 동작에 대응하는 방향으로 슬라이딩 이동하면서 표시되도록 할 수 있다. 또한 예를 들어 인터페이스제공부(12)는 우측방향의 스와이프 동작이 자료표시영역 내에서 감지되면 현재의 페이지 이미지의 출력을 중단하고 이전 페이지의 이미지를 출력할 수 있다.
물론 이와 병행하여, 페이지 이미지의 전환은 별도의 소프트웨어 버튼이나 자료 파일의 각 페이지의 썸네일 이미지에 대한 사용자의 선택에 의하여 이루어질 수도 있다.
즉, 본 발명의 실시예에서 터치입력모드가 페이지제어모드일 때에는 스와이프 동작이 페이지 전환 명령으로서 인식될 수 있다. 물론 본 발명의 실시예에서 페이지 전환 명령이 반드시 자료표시영역 내의 터치입력을 통해서만 인식되는 것은 아니고, 도 7에 도시된 실시예에서 보는 바와 같이, 자료표시영역(120)의 일측(자료표시영역(120)의 외부일 수도 있고, 제어영역일 수도 있다)에 페이지 전환을 위한 소프트웨어 버튼이 표시되고, 사용자가 버튼을 터치하여 선택함으로써 페이지 전환이 이루어질 수도 있다.
이와 같이 본 발명에서 콘텐츠 생성자는 복수의 페이지를 포함하는 자료 파일을 이용하여 동영상을 생성함에 있어서, 동영상 녹화 중에, 녹화를 중단하지 않고도 자료의 페이지를 전환하면서 동시에 녹화를 수행할 수 있으며, 이때 페이지가 전환하여 표시되는 자료표시영역의 이미지 변화도 그대로 다른 녹화 데이터, 즉 화자를 촬영한 영상과 음성 데이터와 함께 하나의 동영상 콘텐츠를 이루도록 함으로써 녹화 과정을 편리하게 할 수 있다.
또한 인터페이스제공부(12)는 터치입력모드가 상술한 페이지제어모드이고, 사용자의 터치입력이 핀치-투-줌(Pinch-to-Zoom) 동작(두 터치 지점이 서로 가까워지면 줌인, 서로 멀어지면 줌아웃하는 동작)에 해당하는 경우, 현재 표시된 페이지의 이미지를 확대 또는 축소하여 표시할 수 있다.
나아가 인터페이스제공부(12)는 터치입력모드가 페이지제어모드이고, 현재 표시되는 페이지의 이미지가 확대된 상태인 경우에, 자료표시영역에서 터치 앤 드래그 동작이 발생하면, 터치 앤 드래그 입력의 궤적에 따라 자료표시영역에 현재 표시된 페이지의 표시 위치가 이동될 수 있다.
한편 인터페이스제공부(12)는 터치입력모드가 이미지부가모드인 경우, 자료표시영역에 발생한 사용자의 터치입력의 궤적과 대응하는 모양의 궤적을 갖는 이미지를 자료표시영역에 이미 표시되어 있는 자료 파일의 페이지 이미지 위에 추가적으로 표시한다. 즉, 사용자가 원하는 대로 선을 긋거나, 동그라미를 그리고, 글씨를 쓰면, 이미 표시된 자료 위에 선이나, 도형이나, 글씨가 추가적으로 표시되도록 할 수 있다.
나아가 인터페이스제공부(12)가 제공하는 터치입력모드에는 상술한 페이지제어모드와 이미지부가모드와 더불어 텍스트입력모드가 더 포함될 수 있다. 텍스트입력모드에서는 자료표시영역의 일측에 가상키패드가 페이지 이미지 위에 별개의 레이어로 겹쳐 표시될 수 있고, 가상키패드를 통해 사용자는 원하는 텍스트를 입력할 수 있다. 입력된 텍스트도 페이지 이미지 위에 겹쳐 표시될 수 있다. 이때 텍스트입력모드에서 표시되는 가상키패드도 녹화의 일시중지상태에서만 확장된 제어영역과 함께 표시되도록 할 수도 있다.
이와 같이 인터페이스제공부(12)는 자료표시영역과 제어영역, 부가적으로 화자표시영역을 터치스크린에 각각 구분하여 표시할 수 있으며, 특히 자료표시영역에서 감지되는 사용자의 터치입력에 대해서는, 제어영역을 통해 사용자로부터 선택 받은 터치입력모드에 따라 그 처리 방식을 달리할 수 있다.
한편 본 발명의 실시예에 의한 콘텐츠 생성 장치(10)는 영상획득부(13)를 포함한다. 영상획득부(13)는 녹화 개시 시점으로부터 녹화 종료 시점까지 상기 인터페이스제공부(12)가 제공하는 자료표시영역에 표시되는 이미지의 변화를 기록하여 동영상을 획득한다. 이때 영상획득부(13)는 동영상 콘텐츠의 녹화 개시 시점, 즉 사용자가 녹화 시작을 명령한 시점으로부터 녹화가 종료될 때까지 자료표시영역에 표시된 이미지의 변화를 그대로 기록한다. 예를 들어, 페이지제어모드에서 페이지의 표시 상태를 확대, 축소, 이동시키거나, 또는 페이지를 다른 페이지로 전환한 경우, 이와 같이 변화되는 과정을 포함한 모든 자료표시영역에 표시된 이미지의 변화를 시간에 따라 그대로 녹화한다. 또한 예를 들어, 이미지부가모드에서 현재 표시된 페이지의 이미지의 특정 텍스트열을 따라 사용자가 선을 긋고 특정 단어에 동그라미를 그린 경우, 이러한 선이 그려지고 동그라미가 그려지는 과정을 포함한 자료표시영역의 이미지 변화를 그대로 기록한다.
또한 영상획득부(13)는 녹화 개시 시점에서 녹화 종료 시점까지 상술한 화자표시영역에 표시된 영상의 변화를 그대로 기록하여 녹화할 수 있다. 즉, 영상획득부(13)는 콘텐츠 생성 장치(10)의 전면부에 구비된 카메라가 획득하는 영상을 기록할 수 있다.
특히 영상획득부(13)는 녹화인터페이스에 포함된 자료표시영역과 화자표시영역의 이미지 변화를 그대로 동시에 캡쳐함으로써 별도의 동기화 작업을 거치지 않고도 자료의 영상과 화자의 영상이 모두 포함되는 하나의 동영상을 한번에 생성할 수 있다. 나아가 영상획득부(13)는 녹화인터페이스가 표시되는 전체 화면의 이미지 변화를 한번에 하나의 동영상으로서 획득할 수도 있다.
이때 영상획득부(13)는 실시예에 따라 녹화의 일시중지 명령이 입력될 때마다 각각 독립된 서브영상을 따로 생성할 수 있다. 각 서브영상에는 해당 시간 구간 동안에 획득된 자료표시영역과 화자표시영역의 이미지 변화가 함께 포함될 수 있다. 또한 본 발명의 실시예에서 각각의 서브영상이 획득될 때에는, 후술할 콘텐츠생성부(15)가 해당 서브영상이 획득된 시간 구간 동안에 후술할 음성획득부(14)가 획득한 소리의 변화를 서브영상과 동기하여 각각의 서브콘텐츠를 생성할 수 있다.
그리고 본 발명의 실시예에 의한 콘텐츠 생성 장치(10)는 음성획득부(14)를 포함한다. 음성획득부(14)는 녹화 개시 시점에서 녹화 종료 시점까지 콘텐츠 생성 장치(10)에 구비된 마이크로폰에 감지되는 소리의 변화를 녹음할 수 있다. 이때 음성획득부(14)가 녹음하는 소리의 변화는 상술한 터치스크린의 자료표시영역과 화자표시영역에 표시되는 이미지의 변화와 함께 동기되면서 기록될 수 있다. 이때 음성획득부(14)는 녹화가 일시중지될 때마다 각각의 서브음성을 생성하여 상술한 서브영상과 동기화되도록 할 수 있다.
또한 본 발명의 실시예에 의한 콘텐츠 생성 장치(10)는 콘텐츠생성부(15)를 더 포함한다. 콘텐츠생성부(15)는 사용자가 녹화의 종료 명령을 입력하면, 녹화 개시 시점으로부터 종료 명령이 입력된 시점까지 기록된, 자료표시영역과 화자표시영역의 이미지 변화와 소리의 변화를 함께 저장하여 하나의 동영상 콘텐츠를 생성한다. 이때 콘텐츠생성부(15)는 각각의 데이터들이 실제 획득된 시간에 맞춰 자료 및 화자의 영상과 음성을 동기화하여 하나의 패키지로 저장한다. 이때 콘텐츠생성부(15)는 필요한 경우, 이러한 콘텐츠를 미리 정해진 파일형으로 인코딩하거나 압축할 수 있다.
또한 콘텐츠생성부(15)는 녹화가 한 번에 이루어지지 않고 중간에 일시중지된 경우, 일시중지될 때마다 서브콘텐츠를 생성하고, 이를 시간 순으로 연결하여 하나의 콘텐츠를 완성할 수도 있다.
그리고 녹화가 일시중지되거나 녹화가 종료될 때, 영상획득부(13)가 각각 생성한 서브콘텐츠들의 클립이 시간 순으로 배열될 수 있고, 화자는 이들 중 일부를 선택하여 삭제하거나, 다른 서브콘텐츠로 대체하거나, 순서를 변경할 수 있다.
이때 녹화 종료 후에 사용자는, 각각의 서브콘텐츠를 결합하여 하나의 콘텐츠를 생성하기 전에, 각각의 서브콘텐츠를 미리 재생하여 확인할 수 있다. 또한, 이때 각각의 서브콘텐츠에 대해 또는 최종적으로 생성되는 하나의 동영상 콘텐츠에 대해 배경음악을 선택하여 삽입되도록 할 수 있다. 이 경우 배경음악이 삽입되기 전의 콘텐츠의 음량에 따라 배경음악의 음량을 자동 조율하여 이중의 음성, 즉 배경음악과 음성획득부(14)를 통해 획득된 음성을 동시에 인코딩되도록 할 수 있다.
또한 실시예에 따라 콘텐츠생성부(15)는 자료등록부(11)가 사용자로부터 선택받은 객체의 정보를 새로 생성된 콘텐츠에 태깅할 수도 있다. 그에 따라 생성된 콘텐츠가 콘텐츠 전달 서버(20)로 전달되었을 때, 콘텐츠 전달 서버(20)가 해당 콘텐츠가 어떤 객체에 대한 콘텐츠인지 여부를 인식할 수 있도록 할 수 있다.
한편 본 발명의 실시예에 의한 콘텐츠 생성 장치(10)는 콘텐츠전송부(16)를 더 포함할 수 있다. 콘텐츠전송부(16)는 콘텐츠생성부(15)에서 최종 생성한 콘텐츠를 콘텐츠 전달 서버(20)로 전송하여 콘텐츠 생성자가 선택한 수신 대상 또는 해당 콘텐츠의 열람을 콘텐츠 전달 서버(20)로 요청한 수신 대상에게 전달될 수 있도록 할 수 있다. 여기서 콘텐츠전송부(16)는 콘텐츠의 생성 이전에 미리 또는 콘텐츠의 생성이 완료된 이후에, 콘텐츠를 수신할 수신 대상을 콘텐츠 생성자로부터 선택 받을 수 있다.
여기서 수신 대상의 선택은, 콘텐츠 전달 서버(20)가 복수의 콘텐츠 수신 장치(30)로 제공하는 콘텐츠 제공 서비스 내에서 사용되는 수신 대상의 사용자계정 또는 그에 대응하는 사용자 식별정보를 선택함으로써 이루어질 수 있다. 즉, 콘텐츠 전달 서버(20)는 콘텐츠 생성 장치(10)로, 콘텐츠를 전달할 수 있는 하나 이상의 다른 사용자의 식별정보를 제공하고 콘텐츠 생성자는 이들 중 적어도 하나를 선택하여 수신 대상을 특정할 수 있다. 물론 콘텐츠 생성 장치(10)에서는 수신 대상을 선택하지 않을 수도 있다.
예를 들어, 본 발명의 실시예에서 콘텐츠 생성 장치(10)의 사용자는 콘텐츠 전달 서버(20)가 제공하는 콘텐츠 제공 서비스에 가입한 회원으로서, 다른 회원들과 친구 또는 지인 관계를 형성할 수 있으며, 이 경우 콘텐츠 생성자는 자신과 친구 또는 지인 관계에 있는 다른 사용자를 선택하여 콘텐츠의 수신 대상으로 지정할 수 있다.
또는 예를 들어, 본 발명의 실시예에서 콘텐츠 전달 서버(20)가 제공하는 콘텐츠 제공 서비스에는, 서로 다른 두 종류의 회원이 존재하며, 이 중 하나의 종류의 회원들이 콘텐츠 생성자가 되고, 나머지 종류의 회원들이 수신 대상이 될 수 있다. 즉, 이 경우 콘텐츠 생성자의 콘텐츠 생성 장치(10)에는 콘텐츠 생성자와는 다른 종류에 해당하는 모든 회원들의 식별정보의 목록이 제공될 수 있고 콘텐츠 생성자는 이들 중 누구라도 수신 대상으로 특정할 수 있다.
그에 따라 콘텐츠전송부(16)는 특정된 수신 대상의 정보와 생성된 콘텐츠를 콘텐츠 전달 서버(20)로 전송하여 콘텐츠 전달 서버(20)가 콘텐츠를 수신 대상에게 전달할 수 있도록 할 수 있다.
한편 본 발명의 실시예에서 콘텐츠 생성 장치(10)에는 전송내역확인부(17)가 추가적으로 구성될 수 있다. 전송내역확인부(17)는 콘텐츠 생성 장치(10)에서 콘텐츠가 생성되고 전송된 내역에 대한 정보를 사용자에게 제공할 수 있다. 즉, 사용자는 이를 통해 어떤 콘텐츠를 누구에게 언제 보냈는지 확인할 수 있다. 이러한 전송내역에 대한 정보는 콘텐츠 생성 장치(10)에 누적하여 기록될 수도 있고, 콘텐츠 전달 서버(20)가 기록해두었다가 콘텐츠 생성 장치(10)의 사용자가 전송내역을 확인하고자 할 때 제공할 수도 있다.
특히 콘텐츠 전송 내역에는 콘텐츠의 수신 대상이 콘텐츠를 수신하였는지 여부에 대한 정보가 더 포함될 수 있다. 또한 나아가 수신 대상이 콘텐츠 수신 장치(30)를 통해 콘텐츠를 수신한 후 다시 콘텐츠 생성자에게 전송한 피드백 정보가 콘텐츠 전달 서버(20)를 통해 수집되어 다시 콘텐츠 생성자의 콘텐츠 생성 장치(10)로 제공될 수도 있다. 즉, 콘텐츠 전송 내역에는 수신 대상의 콘텐츠 수신 여부와 더불어, 수신 대상이 피드백 정보를 입력한 경우 피드백 정보도 함께 포함될 수 있다.
이때 상술한 콘텐츠 생성 장치(10)의 구성요소 중 자료등록부(11), 인터페이스제공부(12), 영상획득부(13), 음성획득부(14), 콘텐츠생성부(15)는 상술한 콘텐츠 생성 애플리케이션에 의해 구현되고, 콘텐츠전송부(16)와 전송내역확인부(17)는 콘텐츠 전달 서버(20)가 콘텐츠 생성 장치(10)로 제공하는 웹페이지를 콘텐츠 생성 장치(10)의 웹브라우저가 실행함으로써 구현될 수 있다. 또는 모든 구성요소가 모두 하나의 콘텐츠 생성 애플리케이션으로 구현될 수도 있음은 물론이다.
한편 도 4에 도시된 바와 같이, 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 사용자관리부(21)를 포함할 수 있다. 사용자관리부(21)는 콘텐츠 전달 서버(20)가 제공하는 콘텐츠 제공 서비스에 가입한 회원들 개개에게 서로 다른 사용자계정을 부여하고, 콘텐츠 생성 장치(10) 또는 콘텐츠 수신 장치(30)가 콘텐츠 전달 서버(20)로 접근하면 어떤 사용자계정에 대응하는 사용자인지 확인할 수 있다. 또한 사용자관리부(21)는 각각의 사용자계정에 대응하는 회원의 친구 또는 지인 회원의 목록을 관리할 수 있다.
또한 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 콘텐츠관리부(22)를 포함할 수 있다. 콘텐츠관리부(22)는 콘텐츠 생성 장치(10)들에서 수신되는 콘텐츠들을 저장한다. 이때 콘텐츠관리부(22)는 콘텐츠의 생성자의 정보와 수신 대상 정보, 수신 시간 등을 콘텐츠와 함께 연관하여 저장할 수 있다.
그리고 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 콘텐츠관리부(22)가 콘텐츠 생성 장치(10)로부터 콘텐츠를 수신하면, 해당 콘텐츠의 수신 대상에 대응하는 회원의 콘텐츠 수신 장치(30) 또는 그 외 회원의 개인화된 장치로 콘텐츠의 수신을 통지하는 통지부(23)를 더 포함할 수 있다. 통지부(23)는 특정 사용자계정에 대응하는 회원을 수신 대상으로 하는 콘텐츠가 수신된 경우, 해당 사용자계정으로 푸시 통지를 발송하거나, 해당 회원의 이동통신단말로 단문 메시지를 전달할 수 있다. 이때 푸시 통지나 단문 메시지에는 콘텐츠 생성자의 정보와 콘텐츠가 수신되었다는 사실에 대한 정보가 포함될 수 있다. 나아가 부가적으로는 수신된 콘텐츠를 스트리밍하거나 다운로드할 수 있는 웹페이지 URL 또는 콘텐츠 수신 장치(30)에 설치된 콘텐츠 재생 애플리케이션이 실행되어 해당 콘텐츠를 바로 재생할 수 있도록 하는 URI scheme을 단문메시지나 푸시 통지에 포함시킬 수도 있다.
한편 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 콘텐츠제공부(24)를 포함한다. 콘텐츠제공부(24)는 각각의 회원마다 해당 회원을 수신 대상으로 하여 수신된 콘텐츠에 대한 정보를 제공할 수 있다. 예를 들어, 임의의 회원이 콘텐츠 수신 장치(30)를 통해 콘텐츠 전달 서버(20)로 접근하면 해당 회원을 수신 대상으로 하여 전달된 모든 콘텐츠, 또는 해당 회원을 수신 대상으로 하여 전달된 새로운 콘텐츠들의 목록을 콘텐츠 수신 장치(30)로 제공할 수 있다. 또한 이를 통해 수신 대상에 대응하는 회원이 콘텐츠 전달 서버(20)가 제공한 콘텐츠 목록에서 특정 콘텐츠를 선택하여 재생을 요청하면, 콘텐츠제공부(24)는 콘텐츠관리부(22)에 의하여 저장된 콘텐츠를 콘텐츠 수신 장치(30)로 전달하여 콘텐츠가 콘텐츠 수신 장치(30)에서 재생되도록 할 수 있다.
나아가 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 피드백관리부(25)를 더 포함할 수 있다. 피드백관리부(25)는 콘텐츠 수신 장치(30)로부터 콘텐츠 전달 서버(20)로 콘텐츠에 대한 재생 요청이 수신된 내역을 기록하거나, 또는 콘텐츠 전달 서버(20)로부터 특정 콘텐츠 수신 장치(30)로 콘텐츠가 제공된 내역을 기록함으로써, 각 콘텐츠를 수신 대상이 수신하였는지 여부에 대한 정보를 관리할 수 있다. 또한 피드백관리부(25)는 콘텐츠제공부(24)로부터 콘텐츠 수신 장치(30)로 전달한 콘텐츠에 대하여 콘텐츠 수신 장치(30)에서 다시 피드백 정보가 수신되면, 즉 수신 대상이 콘텐츠를 재생해보고 그와 관련한 의견이나 요청 등의 코멘트를 재전달한 경우, 이와 같이 전달된 피드백 정보를 기록한다.
또한 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 전송내역관리부(26)를 더 포함할 수 있다. 전송내역관리부(26)는 각각의 콘텐츠를 중심으로, 콘텐츠 생성 장치(10)가 콘텐츠를 생성하여 콘텐츠 전달 서버(20)로 전송한 시간에 대한 정보와, 콘텐츠 생성자 및 수신 대상에 대한 정보, 그리고 피드백관리부(25)가 기록한 수신 대상의 콘텐츠 수신 여부에 대한 정보, 나아가 피드백 정보를 종합하여 상술한 콘텐츠 생성 장치(10)의 전송내역확인부(17)로 제공할 수 있다. 또한 해당 콘텐츠의 수신 대상에 대응하는 콘텐츠 수신 장치(30)로도 이와 같이 콘텐츠를 중심으로 한 다양한 정보를 전달할 수도 있다.
나아가 본 발명의 실시예에 의한 콘텐츠 전달 서버(20)는 선택적으로, 수신된 각각의 콘텐츠에 태깅된 객체 정보를 이용하여, 콘텐츠가 어떤 객체에 대한 콘텐츠인지 확인할 수 있고, 동일한 객체 정보가 태깅된 복수의 콘텐츠를 그룹핑하여 콘텐츠들을 분류할 수도 있다.
나아가 이와 같이 콘텐츠 생성자가 콘텐츠를 어떤 객체에 대한 것인지 나타낼 수 있도록, 콘텐츠 전달 서버(20)는 미리 복수의 객체에 대한 정보를 저장하고 콘텐츠 생성 장치(10)로 객체의 목록을 제공할 수 있다. 나아가 각각의 객체에 대해 자료 파일이 콘텐츠 전달 서버(20)에 업로드 되는 경우, 특정 객체와 연관된 자료 파일의 목록을 마찬가지로 콘텐츠 생성 장치(10)로 전달함으로써, 콘텐츠 생성자가 직접 자료 파일을 등록하지 않더라도 자료 파일을 선택하여 동영상 콘텐츠를 작성할 수 있도록 할 수 있다.
나아가 콘텐츠 전달 서버(20)는 콘텐츠 수신 장치(30)로 특정 객체와 연관된 콘텐츠를 제공함에 있어서, 콘텐츠에 연관된 객체와 대응하는 다른 부가적인 정보를 함께 제공할 수도 있다.
한편 도 5에 도시된 바와 같이, 본 발명의 실시예에 의한 콘텐츠 수신 장치(30)는 콘텐츠수신부(31)를 포함한다. 콘텐츠수신부(31)는 우선 콘텐츠 전달 서버(20)로부터 콘텐츠 수신 장치(30)의 사용자를 수신 대상으로 하여 콘텐츠 전달 서버(20)로 수신된 콘텐츠가 있는 경우, 콘텐츠 목록을 콘텐츠 수신 장치(30)로 전달한다. 이때 콘텐츠 수신 장치(30)로 전달된 목록에 포함된 임의의 콘텐츠를 사용자가 선택하여 재생을 요청하면 콘텐츠수신부(31)는 선택된 콘텐츠를 콘텐츠 수신 장치(30)로 전달한다.
그에 따라 콘텐츠 수신 장치(30)에 동영상 콘텐츠가 전달되면, 콘텐츠 수신 장치(30)의 콘텐츠재생부(32)가 전달된 콘텐츠를 재생한다. 이때 콘텐츠재생부(32)는 동기화된 영상과 음성을 함께 출력하되, 콘텐츠 녹화 시에 자료표시영역에 표시되었던 이미지 변화를 담은 영상과, 화자표시영역에 표시되었던 영상을 각각 콘텐츠 수신 장치(30)의 한 화면의 다른 영역에 표시하여 재생할 수 있다.
또한 본 발명의 실시예에 의한 콘텐츠 수신 장치(30)는 피드백입력부(33)를 더 포함할 수 있다. 피드백입력부(33)는 콘텐츠재생부(32)가 특정 콘텐츠를 재생하는 동안에 또는 특정 콘텐츠의 재생이 완료된 후에 사용자로부터 피드백 정보를 선택 받거나 입력 받을 수 있다.
피드백 정보는 예를 들어, 동영상 콘텐츠의 내용과 관련한 질문이나 새로운 요청을 포함하는 텍스트 정보일 수도 있고, 또는 콘텐츠 전달 서버(20)에서 미리 정형화한 하나 이상의 요청 중 선택된 것에 대한 정보일 수 있다. 예를 들어 콘텐츠 전달 서버(20)에서 미리 지정한 피드백 정보의 종류가 ‘방문 요청’, ‘제품 주문’등으로 미리 정해진 경우, 수신 대상은 이렇게 정해진 피드백 중 적어도 하나를 선택하여 콘텐츠 생성자에게 전달되도록 할 수 있다.
한편 실시예에 따라 콘텐츠 전달 서버(20)는 콘텐츠 수신 장치(30)로 콘텐츠를 제공할 때, 해당 콘텐츠에 태깅된 객체의 정보에 기초하여, 해당 객체의 온라인 판매 또는 주문 페이지로 하이퍼링크되는 하이퍼객체를 콘텐츠 수신 장치(30)로 함께 전달하거나, 또는 해당 객체와 연관된 다른 콘텐츠를 추천 콘텐츠로 제공할 수도 있다. 그에 따라 콘텐츠재생부(32)가 재생하는 콘텐츠 일측에 이러한 하이퍼객체나 추천 콘텐츠 목록이 표시되도록 할 수도 있다.
이하에서는 도 6 내지 도 8을 참조하여 상술한 본 발명의 실시예에 의한 콘텐츠 전달 시스템을 이용한 콘텐츠 생성 방법을 단계적으로 설명한다. 다만 아래에서 설명하는 방법은 콘텐츠 생성 장치(10)가 수행하는 단계를 중심으로 설명된다. 도 6은 본 발명의 일실시예에 따른 콘텐츠 생성 방법을 단계적으로 도시한 흐름도이고, 도 7 및 도 8은 본 발명의 일실시예에 따른 콘텐츠 생성 방법을 설명하기 위한 예시도이다.
도 6에 도시된 바와 같이 본 발명의 실시예에 의한 콘텐츠 생성 방법은 우선 동영상 콘텐츠의 자료표시영역에 표시될 자료 파일을 선택받는 단계(S12)를 수행한다. 여기서 사용자는 콘텐츠 생성 장치(10)에 저장된 자료 파일 중 적어도 하나를 선택하거나 콘텐츠 전달 서버(20)가 제공하는 자료 파일 중 적어도 하나를 선택할 수 있다. 특히 실시예에 따라서는, 사용자는 우선 객체를 먼저 선택하고 그에 대응하는 자료 파일을 선택할 수도 있으며, 또는 객체와 자료 파일을 독립적으로 선택할 수도 있다. 또한 이때 사용자는 콘텐츠의 수신 대상을 함께 선택할 수도 있다.
이어서 콘텐츠 생성 장치(10)는 사용자로부터 녹화 시작 명령을 입력받을 수 있다(S13). 이를 위해서 콘텐츠 생성 장치(10)는 터치스크린에 녹화시작 버튼을 표시하여 사용자로부터 선택 받을 수 있다.
녹화가 시작되면 콘텐츠 생성 장치(10)는 상술한 자료표시영역을 포함하는 녹화인터페이스를 제공할 수 있다(S14). 또한 녹화인터페이스는 제어영역과 화자표시영역을 함께 포함할 수 있다. 예를 들어, 도 7에 도시된 바와 같이 콘텐츠 생성 장치(10)의 터치스크린은 화자표시영역(110), 제어영역(120), 그리고 자료표시영역(130)을 서로 구획하여 표시할 수 있다.
이때 화자표시영역(110)에는 콘텐츠 생성 장치(10)의 전면부 카메라를 통해 획득되는 영상이 실시간으로 표시될 수 있다.
또한 제어영역(120)에는 녹화 진행을 제어하는 하나 이상의 선택 버튼이 구비될 수 있는데, 우선 녹화 시작 시점과 종료 시점을 결정하는 녹화 버튼(123)이 구비될 수 있다. 녹화 버튼(123)은 녹화 시작 전에는 녹화 개시 명령을 입력하는 버튼으로, 녹화 시작 이후에는 녹화 종료를 명령하는 입력 버튼으로 전환될 수 있다. 또한 선택적으로 녹화를 일시중지하기 위한 일시중지버튼(124)이 더 구비될 수도 있다.
또한 본 발명의 실시예에서 제어영역(120)은 터치입력모드를 결정하기 위한 적어도 하나의 소프트웨어 버튼을 구비할 수 있다. 예를 들어, 도 7에 도시된 바와 같이 펜 버튼(121)과 메모 버튼(122)이 구비될 수 있는데, 두 버튼이 모두 활성화되지 않은 상태에서 콘텐츠 생성 장치(10)는 자료표시영역에서 감지되는 터치입력을 모두 자료표시영역에 표시된 페이지 이미지의 확대, 축소, 이동, 전환 등의 제어를 위한 신호로 인식하는 페이지제어모드로 동작한다. 한편 예를 들어, 펜 버튼(121)이 활성화된 상태에서 콘텐츠 생성 장치(10)는 자료표시영역 내의 터치입력을 모두 터치펜 입력으로 인식하는 이미지부가모드로 동작하여, 자료표시영역 위에 터치입력의 궤적을 그대로 이미지로 나타낸다. 실시예에 따라서는 펜 버튼(121)이 선택된 상태에서 제어영역(120)에는 펜의 색상과 굵기를 선택 받기 위한 사용자 인터페이스가 적어도 일시적으로 표시될 수 있다.
또한 메모 버튼(122)이 활성화된 상태에서 사용자는 가상 키보드를 통해 텍스트를 입력할 수 있는데, 이 경우 콘텐츠 생성 장치(10)는 자료표시영역의 적어도 일측에 가상 키보드를 상위 레이어로 겹쳐 표시하지만, 콘텐츠 생성 장치(10)가 생성하는 동영상에는 가상 키보드보다 하위 레이어인 자료표시영역의 이미지 변화만 녹화되고, 녹화 과정에서 표시되었던 가상 키보드 레이어는 제외될 수 있다.
이때 펜 버튼(121)과 메모 버튼(122)은 택일적으로 활성화될 수 있다.
한편 이때 일시중지버튼(124)이 선택되면, 녹화인터페이스는 도 8에 도시된 바와 같이 변경될 수 있다. 즉, 제어영역(120)이 상위 레이어로서 자료표시영역(130)의 적어도 일부를 잠식하면서 확장될 수 있다. 그리고 일시중지 전에는 표시되지 않던 소프트웨어 버튼들이 추가적으로 제어영역(120) 내에 표시될 수 있다.
또한 일시중지 상태에서는 각각의 서브콘텐츠의 썸네일 이미지(140)가 생성 시간 순서로 배열되어 표시될 수 있다. 따라서 사용자는 일시중지 상태에서 각각의 서브콘텐츠를 확인하고 이 중 일부를 삭제하거나 순서를 변경할 수도 있다. 썸네일 이미지(140)는 자료표시영역 위에 별개의 레이어로 플로팅되어 표시될 수 있다.
이와 같이 제공되는 녹화인터페이스를 이용하여 녹화가 진행되는 동안에, 자료표시영역에 터치입력의 발생이 감지되면(S15), 콘텐츠 생성 장치(10)는 현재의 터치입력모드가 페이지제어모드인지 또는 이미지부가모드인지 판단할 수 있다(S16).
현재의 터치입력모드가 페이지제어모드이면, 콘텐츠 생성 장치(10)는 발생된 터치입력의 패턴에 따라 자료표시영역의 페이지 이미지를 다른 페이지로 전환하거나 페이지 이미지를 확대, 축소, 이동시킬 수 있다(S17).
예를 들어, 도 7과 같은 녹화인터페이스에서, 사용자가 자료표시영역에 표시된 자료를 보면서 동영상을 녹화하던 도중에 자료표시영역에 표시된 그래프를 확대 표시하기 위해 핀치-투-줌 동작을 하면서 그래프가 가운데에 표시되도록 페이지 이미지를 이동시키면, 사용자의 터치입력에 따라 페이지 이미지가 변경되면서 표시될 수 있다. 즉, 사용자는 동영상 녹화를 수행하면서 자유롭게 자료의 이미지를 설명에 맞추어 제어할 수 있다.
한편 S16단계에서 현재 터치입력모드가 페이지제어모드가 아닌 이미지부가모드인 것으로 확인된 경우, 콘텐츠 생성 장치(10)는 사용자의 터치입력의 궤적에 대응하는 펜 이미지를 자료 페이지 이미지 위에 겹쳐 표시함으로써(S18), 사용자가 자료 이미지의 원하는 위치에 강조 표시를 하거나 밑줄을 긋는 등 설명에 맞추어 필요한 표시를 부가할 수 있도록 할 수 있다. 이때 펜, 즉 터치입력 궤적에 대응하는 선의 굵기나 색상, 패턴 등은 도 8과 같이 일시중지 상태에서 선택할 수도 있음은 실시예에 따라 다르다.
이와 같이 동영상의 화자는 하나의 모드 전환 버튼을 이용하여 터치입력모드를 전환하면서 자료표시영역에 자유로운 명령을 입력하면서 동시에 설명하는 내용에 집중할 수 있다. 즉, 사용자는 실질적으로 자료표시영역에 집중하여 페이지 제어 및 적절한 표기를 용이하게 수행할 수 있기 때문에, 각 페이지별로 녹화의 수행 및 중단을 반복할 필요가 없이 한 번에 녹화를 완료할 수 있다.
즉, 자료표시영역에 표시된 페이지 이미지를 터치입력만으로 전환하거나 확대, 축소할 수 있기 때문에, 자료 이미지를 전환하거나 확대 축소하는 제어를 하기 위하여 녹화를 중단할 필요가 전혀 없다.
한편 콘텐츠 생성 장치(10)는 상술한 S14 내지 S18단계의 수행과 동시에, 자료표시영역에 표시되는 페이지 이미지의 변화를 실시간 녹화하고, 마이크로폰으로 입력되는 화자의 음성을 녹음하여 이를 기록한다(S19). 실시예에 따라 콘텐츠 생성 장치(10)는 화자표시영역(110)과 자료표시영역(130)의 이미지 변화를 한 번에 함께 실시간 녹화할 수 있으며, 나아가 전체적인 녹화인터페이스를 한 번에 실시간 녹화할 수도 있다.
이어서 사용자로부터 녹화 종료 명령이 입력되면(S20), 녹화 종료 명령의 입력 직전까지 S19단계에서 획득된 데이터들을 통합하여 하나의 동영상 콘텐츠 패키지를 생성한다(S21). 즉, 화자표시영역과 자료표시영역의 이미지 변화를 함께 녹화한 영상에, 녹화 시간 동안에 획득된 소리의 변화를 동기화하여 하나의 동영상 콘텐츠 패키지를 생성할 수 있다. 물론 일시중지에 의하여 복수의 서브콘텐츠가 생성된 경우 이들을 시간 순으로 연결하여 하나의 동영상 콘텐츠 패키지를 생성할 수도 있다. 이때 각 서브콘텐츠 사이의 연결 부분에는 영상 효과를 삽입하여 연결 부분이 자연스럽게 편집되도록 할 수 있다. 예를 들어, 연결 부분에서 이전 서브콘텐츠는 페이드-아웃 효과를 새로운 서브콘텐츠는 페이드-인 효과를 적용하여 연결되도록 할 수 있다.
그리고 콘텐츠 생성 장치(10)는 이와 같이 생성된 콘텐츠를 S11단계에서 선택 받은 수신 대상의 정보와 함께 콘텐츠 전달 서버(20)로 전송한다. 이때 S12단계에서 선택받은 객체의 정보를 콘텐츠에 태깅하여 콘텐츠 전달 서버(20)로 전달할 수도 있다.
이어서 전달된 콘텐츠는 수신 대상에 대응하는 콘텐츠 수신 장치(30)로 제공될 수 있고 이에 대한 피드백이 다시 콘텐츠 생성 장치(10)로 전달될 수 있음은 앞서 콘텐츠 전달 시스템에서 설명한 바와 같다.
도 6에 도시된 실시예에 따른 콘텐츠 생성 방법은 도1내지 5에 도시된 콘텐츠 생성 장치(10)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 5에 도시된 콘텐츠 생성 장치(10)에 관하여 이상에서 기술한 내용은 도 6에 도시된 실시예에 따른 콘텐츠 생성 방법에도 적용될 수 있다.
도 6을 통해 설명된 실시예에 따른 콘텐츠 생성 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 터치스크린을 포함하는 콘텐츠 생성 장치에 의하여 수행되고,
    사용자로부터 복수의 페이지를 포함하는 자료 파일을 선택 받는 단계;
    녹화가 개시되면, 상기 터치스크린에, 선택된 자료 파일에 포함된 각 페이지의 이미지가 하나씩 순차적으로 출력되는 자료표시영역을 포함하는 녹화인터페이스를 제공하는 단계;
    상기 녹화인터페이스의 상기 자료표시영역에 대한 사용자의 페이지 전환 명령이 입력되면, 상기 자료표시영역에 현재 표시된 페이지 이미지를 다른 페이지 이미지로 전환함으로써 상기 자료표시영역에 표시된 이미지를 변경하여 표시하는 단계;
    녹화가 개시되면 녹화가 종료될 때까지, 상기 이미지를 변경하여 표시하는 단계의 수행에 의해 변화되는 자료표시영역의 이미지 변화를 기록하는 단계;
    녹화가 개시되면 상기 콘텐츠 생성 장치에 포함된 마이크로폰을 활성화하여, 녹화가 종료될 때까지 수신되는 소리의 변화를 기록하는 단계; 그리고
    녹화가 종료되면, 녹화의 개시 시점부터 녹화의 종료 시점까지 기록된 이미지 변화와 소리의 변화를 동기하여 저장함으로써 동영상 콘텐츠를 생성하는 단계를 포함하는, 콘텐츠 생성 방법.
  2. 제1항에 있어서,
    상기 녹화인터페이스는,
    상기 녹화의 개시, 일시중지 또는 종료 명령을 선택받기 위한 제어영역을 더 포함하고,
    상기 이미지를 변경하여 표시하는 단계는,
    상기 자료표시영역에 대한 터치입력이 감지되면, 상기 제어영역을 통해 선택되거나 상기 자료표시영역에 대한 기설정된 터치패턴의 입력에 의해 선택된 터치입력모드에 따라 상기 자료표시영역에 표시된 이미지를 변경하여 표시하는 단계를 포함하는, 콘텐츠 생성 방법.
  3. 제2항에 있어서,
    상기 터치입력모드는,
    사용자의 터치입력에 따라 현재 표시된 페이지의 이미지의 확대, 축소, 이동 또는 다른 페이지의 이미지로의 전환 중 적어도 하나를 수행하기 위한 페이지제어모드; 그리고
    현재 표시된 페이지의 이미지 위에 사용자의 터치입력의 궤적에 대응하는 새로운 이미지를 추가하여 표시하기 위한 이미지부가모드를 포함하는, 콘텐츠 생성 방법.
  4. 제3항에 있어서,
    상기 이미지를 변경하여 표시하는 단계는,
    상기 터치입력모드가 상기 페이지제어모드인 경우, 사용자의 터치입력에 따라 현재 표시된 페이지의 이미지를 현재 표시된 페이지의 이미지를 확대, 축소, 이동 또는 다른 페이지의 이미지로 전환하여 표시하는 단계; 그리고
    상기 터치입력모드가 상기 이미지부가모드인 경우, 사용자의 터치입력의 궤적을 따라 현재 표시된 페이지의 이미지 위에 새로운 이미지를 추가하여 표시하는 단계를 포함하는, 콘텐츠 생성 방법.
  5. 제1항에 있어서,
    상기 녹화인터페이스는,
    녹화가 개시되면 상기 콘텐츠 생성 장치의 카메라를 활성화하여, 상기 카메라에 의해 획득되는 영상의 변화를 실시간으로 표시하는 화자표시영역을 더 포함하는, 콘텐츠 생성 방법.
  6. 제5항에 있어서,
    상기 이미지 변화를 기록하는 단계는,
    상기 자료표시영역의 이미지 변화와 함께 상기 화자표시영역의 이미지 변화를 동시에 획득하여 하나의 영상으로 기록하는 단계를 포함하는, 콘텐츠 생성 방법.
  7. 제1항에 있어서,
    상기 콘텐츠 생성 방법은,
    생성되는 동영상 콘텐츠를 수신할 수신 대상을 선택받거나 수신 대상의 정보를 입력받는 단계를 더 포함하는, 콘텐츠 생성 방법.
  8. 제7항에 있어서,
    상기 방법은,
    상기 수신 대상에게 상기 동영상 콘텐츠를 생성하는 단계에서 생성된 콘텐츠가 전달되도록 하기 위하여, 상기 수신 대상의 정보와 상기 동영상 콘텐츠를 생성하는 단계에서 생성된 콘텐츠를 콘텐츠 전달 서버로 전송하는 단계를 더 포함하는, 콘텐츠 생성 방법.
  9. 제4항에 있어서,
    상기 이미지를 변경하여 표시하는 단계는,
    상기 터치입력모드가 상기 페이지제어모드이고, 사용자의 터치입력이 미리 정해진 방향의 스와이프 동작에 해당하는 경우, 현재 표시된 페이지의 이미지를 다른 페이지의 이미지로 전환하여 표시하는 단계; 그리고
    상기 터치입력모드가 상기 페이지제어모드이고, 사용자의 터치입력이 핀치-투-줌 동작에 해당하는 경우, 현재 표시된 페이지의 이미지를 확대 또는 축소하여 표시하는 단계를 포함하는, 콘텐츠 생성 방법.
  10. 제2항에 있어서,
    상기 제어영역은,
    녹화가 개시되면, 상기 자료표시영역과는 구분되는 별개의 영역으로 형성되고,
    녹화가 일시중지되면, 상기 자료표시영역의 적어도 일부를 잠식하면서 확대되고, 상기 자료표시영역 위에 별개의 레이어로 표시되는, 콘텐츠 생성 방법.
  11. 제6항에 있어서,
    상기 이미지 변화를 기록하는 단계는,
    녹화가 일시중지되면, 녹화가 일시중지될 때까지 획득된 이미지 변화를 기록하여 하나의 독립된 서브영상을 생성하는 단계를 포함하고,
    상기 소리의 변화를 기록하는 단계는,
    녹화가 일시중지되면, 녹화가 일시중지될 때까지 획득된 소리의 변화를 기록하여 하나의 독립된 서브음성을 생성하는 단계를 포함하며,
    상기 동영상 콘텐츠를 생성하는 단계는,
    녹화가 일시중지되면, 상기 서브영상을 생성하는 단계와 상기 서브음성을 생성하는 단계에서 각각 생성된 서브영상과 서브음성을 동기하여 저장함으로써 서브콘텐츠를 생성하는 단계; 그리고
    녹화가 종료되면, 상기 서브콘텐츠를 연결하여 하나의 동영상 콘텐츠를 생성하는 단계를 포함하는, 콘텐츠 생성 방법.
  12. 제11항에 있어서,
    상기 방법은,
    녹화가 일시중지되거나 종료되면, 녹화가 일시중지되거나 종료된 시점까지 생성된 서브콘텐츠들을 나열하여 표시하고, 표시된 서브콘텐츠의 연결 순서를 변경하거나 적어도 일부의 서브콘텐츠를 삭제하거나 또는 선택된 서브콘텐츠를 다른 서브콘텐츠로 대체할 수 있도록 하는, 콘텐츠 생성 방법.
  13. 터치스크린을 포함하는 콘텐츠 생성 장치에 있어서,
    사용자로부터 복수의 페이지를 포함하는 자료 파일을 선택 받는 자료등록부;
    녹화가 개시되면, 선택된 자료 파일에 포함된 각 페이지의 이미지가 하나씩 순차적으로 출력되는 자료표시영역을 포함하는 녹화인터페이스를 상기 터치스크린을 통해 제공하고, 상기 녹화인터페이스의 상기 자료표시영역에 대한 사용자의 페이지 전환 명령이 입력되면, 상기 자료표시영역에 현재 표시된 페이지 이미지를 다른 페이지 이미지로 전환함으로써 상기 자료표시영역에 표시된 이미지를 변경하여 표시하는 인터페이스제공부;
    녹화가 개시되면 녹화가 종료될 때까지, 상기 자료표시영역의 이미지 변화를 기록하는 영상획득부;
    녹화가 개시되면 상기 콘텐츠 생성 장치에 포함된 마이크로폰을 활성화하여, 수신되는 소리의 변화를 녹화가 종료될 때까지 기록하는 음성획득부; 그리고
    녹화가 종료되면, 녹화의 개시 시점부터 녹화의 종료 시점까지 기록된 이미지 변화와 소리의 변화를 동기하여 저장함으로써 동영상 콘텐츠를 생성하는 콘텐츠생성부를 포함하는, 콘텐츠 생성 장치.
  14. 제13항에 있어서,
    상기 녹화인터페이스는,
    상기 녹화의 개시, 일시중지 또는 종료 명령을 선택받기 위한 제어영역을 더 포함하고,
    상기 인터페이스제공부는,
    상기 자료표시영역에 대한 터치입력이 감지되면, 상기 제어영역을 통해 선택되거나 상기 자료표시영역에 대한 기설정된 터치패턴의 입력에 의해 선택된 터치입력모드에 따라 상기 자료표시영역에 표시된 이미지를 변경하여 표시하는, 콘텐츠 생성 장치.
  15. 제14항에 있어서,
    상기 터치입력모드는,
    사용자의 터치입력에 따라 현재 표시된 페이지의 이미지의 확대, 축소, 이동 또는 다른 페이지의 이미지로의 전환 중 적어도 하나를 수행하기 위한 페이지제어모드; 그리고
    현재 표시된 페이지의 이미지 위에 사용자의 터치입력의 궤적에 대응하는 새로운 이미지를 추가하여 표시하기 위한 이미지부가모드를 포함하는, 콘텐츠 생성 장치.
  16. 제15항에 있어서,
    상기 인터페이스제공부는,
    상기 터치입력모드가 상기 페이지제어모드인 경우, 사용자의 터치입력에 따라 현재 표시된 페이지의 이미지를 확대, 축소, 이동 또는 다른 페이지의 이미지로 전환하여 표시하고,
    상기 터치입력모드가 상기 이미지부가모드인 경우, 사용자의 터치입력의 궤적을 따라 현재 표시된 페이지의 이미지 위에 새로운 이미지를 추가하여 표시하는, 콘텐츠 생성 장치.
  17. 제13항에 있어서,
    상기 녹화인터페이스는,
    상기 콘텐츠 생성 장치에 구비된 카메라에 의해 획득되는 이미지의 변화를 실시간으로 표시하는 화자표시영역을 더 포함하고,
    상기 영상획득부는,
    녹화가 개시되면 상기 자료표시영역과 함께 상기 화자표시영역에 표시되는 이미지의 변화를 동시에 함께 기록하여 하나의 영상을 획득하는, 콘텐츠 생성 장치.
  18. 제13항에 있어서,
    상기 콘텐츠 생성 장치는,
    사용자로부터 상기 콘텐츠생성부가 생성한 콘텐츠를 수신할 수신 대상의 정보와 상기 콘텐츠생성부가 생성한 콘텐츠를 콘텐츠 전달 서버로 전송하는 콘텐츠전송부를 더 포함하는, 콘텐츠 생성 장치.
  19. 제18항에 있어서,
    상기 콘텐츠 생성 장치는,
    상기 콘텐츠생성부가 생성하여 상기 콘텐츠전송부를 통해 상기 콘텐츠 전달 서버로 전달된 하나 이상의 콘텐츠 각각에 대하여, 각 콘텐츠의 수신 대상의 수신 여부에 대한 정보, 그리고 수신 대상으로부터 상기 콘텐츠 전달 서버로 전달된 피드백 데이터를 포함하는 콘텐츠 전송 내역을 상기 콘텐츠 전달 서버로부터 수신하여 사용자에게 제공하는 전송내역확인부를 더 포함하는, 콘텐츠 생성 장치.
  20. 제15항에 있어서,
    상기 콘텐츠 생성 장치는,
    상기 이미지부가모드에서, 상기 자료표시영역에 현재 표시된 페이지의 적어도 일부 영역의 색상에 기초하여, 상기 적어도 일부 영역의 색상과 구별될 수 있는 색상으로 사용자의 터치입력의 궤적에 대응하는 새로운 이미지를 추가하는, 콘텐츠 생성 장치.
PCT/KR2015/010982 2015-10-16 2015-10-16 콘텐츠 생성 방법 및 장치 WO2017065334A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201580079785.9A CN107615327A (zh) 2015-10-16 2015-10-16 内容生成方法及装置
MYPI2018701451A MY190442A (en) 2015-10-16 2015-10-16 Method and device for generating content
JP2017559697A JP6569876B2 (ja) 2015-10-16 2015-10-16 コンテンツ生成方法及び装置
PCT/KR2015/010982 WO2017065334A1 (ko) 2015-10-16 2015-10-16 콘텐츠 생성 방법 및 장치
EP15906297.5A EP3364365A4 (en) 2015-10-16 2015-10-16 METHOD AND DEVICE FOR PRODUCING CONTENT
US15/951,206 US10999553B2 (en) 2015-10-16 2018-04-12 Method and device for generating content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/010982 WO2017065334A1 (ko) 2015-10-16 2015-10-16 콘텐츠 생성 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/951,206 Continuation US10999553B2 (en) 2015-10-16 2018-04-12 Method and device for generating content

Publications (1)

Publication Number Publication Date
WO2017065334A1 true WO2017065334A1 (ko) 2017-04-20

Family

ID=58517338

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/010982 WO2017065334A1 (ko) 2015-10-16 2015-10-16 콘텐츠 생성 방법 및 장치

Country Status (6)

Country Link
US (1) US10999553B2 (ko)
EP (1) EP3364365A4 (ko)
JP (1) JP6569876B2 (ko)
CN (1) CN107615327A (ko)
MY (1) MY190442A (ko)
WO (1) WO2017065334A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198553B (zh) * 2018-01-23 2021-08-06 北京百度网讯科技有限公司 语音交互方法、装置、设备和计算机可读存储介质
CN110769177B (zh) * 2018-07-26 2021-07-06 亿度慧达教育科技(北京)有限公司 计算机可读存储介质、基于通讯软件的多媒体资源录制方法及系统
KR102207663B1 (ko) * 2019-05-29 2021-01-26 주식회사 웹웨어 그랩 기반의 컨텐츠 처리 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100459668B1 (ko) * 2003-08-11 2004-12-03 주식회사 리얼타임테크 색인기반 동영상 콘텐츠의 녹화 및 편집 시스템
US20080120546A1 (en) * 2006-11-21 2008-05-22 Mediaplatform On-Demand, Inc. System and method for creating interactive digital audio, video and synchronized media presentations
KR20110047389A (ko) * 2009-10-30 2011-05-09 숙명여자대학교산학협력단 학습 콘텐츠 서비스 제공 방법 및 시스템
KR20120076609A (ko) * 2010-12-07 2012-07-09 주식회사 자이닉스 소정의 시간 간격 또는 슬라이드 페이지마다 레이아웃을 설정할 수 있는 멀티미디어 콘텐츠 저작 방법 및 장치
KR101518482B1 (ko) * 2014-08-01 2015-05-08 (주)자이닉스 스마트기기의 이벤트신호 동기화를 이용한 실시간 프리젠테이션 컨텐츠 저작 시스템

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331429A (ja) * 2000-05-19 2001-11-30 Sony Corp ネットワーク会議システム及び機器管理方法、会議管理サーバ及び機器管理方法
JP3854900B2 (ja) * 2002-06-19 2006-12-06 キヤノン株式会社 記録装置及び記録方法
JP2006236455A (ja) * 2005-02-24 2006-09-07 Funai Electric Co Ltd 記録再生装置
JP4353483B2 (ja) * 2005-12-15 2009-10-28 株式会社 Bsnアイネット デジタルコンテンツ製作システム
US7823056B1 (en) * 2006-03-15 2010-10-26 Adobe Systems Incorporated Multiple-camera video recording
JP2007256781A (ja) * 2006-03-24 2007-10-04 Hajime Mori 映像生成方法、映像配信方法および記録媒体
US20080288890A1 (en) * 2007-05-15 2008-11-20 Netbriefings, Inc Multimedia presentation authoring and presentation
US8559732B2 (en) * 2007-08-06 2013-10-15 Apple Inc. Image foreground extraction using a presentation application
US9105298B2 (en) * 2008-01-03 2015-08-11 International Business Machines Corporation Digital life recorder with selective playback of digital video
US20090228798A1 (en) * 2008-03-07 2009-09-10 Tandem Readers, Llc Synchronized display of media and recording of audio across a network
TWI463111B (zh) * 2008-11-25 2014-12-01 Elan Microelectronics Corp 地圖導覽系統及其控制方法
JP5074537B2 (ja) * 2009-01-26 2012-11-14 木村情報技術株式会社 プレゼンテーション録画装置
KR101592990B1 (ko) * 2009-05-20 2016-02-26 엘지전자 주식회사 적어도 2개의 디스플레이 영역을 구비한 휴대 단말기의 동작방법
US8799775B2 (en) * 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for displaying emphasis animations for an electronic document in a presentation mode
US20120081391A1 (en) * 2010-10-05 2012-04-05 Kar-Han Tan Methods and systems for enhancing presentations
WO2012088443A1 (en) * 2010-12-24 2012-06-28 Kevadiya, Inc. System and method for automated capture and compaction of instructional performances
US9385889B2 (en) * 2011-08-16 2016-07-05 Keynetics Inc. Universal delivery notification for digital messages
JP2014153688A (ja) * 2013-02-14 2014-08-25 Talkie System Co Ltd 講義用システム
JP2014167701A (ja) * 2013-02-28 2014-09-11 Nikon Corp 投映制御装置
US9654521B2 (en) * 2013-03-14 2017-05-16 International Business Machines Corporation Analysis of multi-modal parallel communication timeboxes in electronic meeting for automated opportunity qualification and response
US10168882B2 (en) * 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
CN103414957A (zh) * 2013-07-30 2013-11-27 广东工业大学 一种音视频数据同步的方法和装置
WO2015134866A1 (en) * 2014-03-06 2015-09-11 Rutgers, The State University Of New Jersey Methods and systems of annotating local and remote display screens
US20150281459A1 (en) * 2014-03-28 2015-10-01 Vonage Network Llc Method and system for voicemail operations management
US20150378577A1 (en) * 2014-06-30 2015-12-31 Genesys Telecommunications Laboratories, Inc. System and method for recording agent interactions
WO2016195659A1 (en) * 2015-06-02 2016-12-08 Hewlett-Packard Development Company, L. P. Keyframe annotation
US10129579B2 (en) * 2015-10-15 2018-11-13 At&T Mobility Ii Llc Dynamic video image synthesis using multiple cameras and remote control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100459668B1 (ko) * 2003-08-11 2004-12-03 주식회사 리얼타임테크 색인기반 동영상 콘텐츠의 녹화 및 편집 시스템
US20080120546A1 (en) * 2006-11-21 2008-05-22 Mediaplatform On-Demand, Inc. System and method for creating interactive digital audio, video and synchronized media presentations
KR20110047389A (ko) * 2009-10-30 2011-05-09 숙명여자대학교산학협력단 학습 콘텐츠 서비스 제공 방법 및 시스템
KR20120076609A (ko) * 2010-12-07 2012-07-09 주식회사 자이닉스 소정의 시간 간격 또는 슬라이드 페이지마다 레이아웃을 설정할 수 있는 멀티미디어 콘텐츠 저작 방법 및 장치
KR101518482B1 (ko) * 2014-08-01 2015-05-08 (주)자이닉스 스마트기기의 이벤트신호 동기화를 이용한 실시간 프리젠테이션 컨텐츠 저작 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3364365A4 *

Also Published As

Publication number Publication date
MY190442A (en) 2022-04-21
EP3364365A1 (en) 2018-08-22
CN107615327A (zh) 2018-01-19
JP6569876B2 (ja) 2019-09-04
EP3364365A4 (en) 2019-04-17
US10999553B2 (en) 2021-05-04
JP2018533233A (ja) 2018-11-08
US20180302588A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
US8910225B2 (en) System and method for capturing, editing, searching, and delivering multi-media content with local and global time
WO2015050924A2 (en) Image with audio conversation system and method
US20100141661A1 (en) Content generation system, content generation device, and content generation program
WO2015122627A1 (ko) 영상 편집 방법 및 이를 위한 장치
JP2008070954A (ja) ブログ利用支援機能を備えたシールプリント装置
CN109905749B (zh) 视频播放方法和装置、存储介质及电子装置
WO2017065334A1 (ko) 콘텐츠 생성 방법 및 장치
US20240146863A1 (en) Information processing device, information processing program, and recording medium
US20240107087A1 (en) Server, terminal and non-transitory computer-readable medium
KR101957282B1 (ko) 동영상 제어장치 및 방법
JP4129162B2 (ja) コンテンツ作成実演システム及びコンテンツ作成実演方法
WO2015037761A1 (ko) 멀티앵글영상서비스 제공 방법 및 시스템
WO2017051955A1 (ko) 동영상 이펙트 적용 장치 및 방법
JP2012156965A (ja) ダイジェスト生成方法、ダイジェスト生成装置及びプログラム
JP2007243605A (ja) 通信装置、通信方法及びプログラム
JP4791213B2 (ja) 通信装置、通信方法及びプログラム
JP7062328B1 (ja) コンテンツ配信サーバ
KR101562670B1 (ko) 콘텐츠 생성 방법 및 장치
US11322184B1 (en) System and method for synchronizing media files with audio track
NZ795958B2 (en) Information processing device, information processing program, and recording medium
JP5051229B2 (ja) 情報機器、プログラム、媒体、および方法
CN113949919A (zh) 一种可回溯批注动态屏幕画面的方法
JP2005045430A (ja) コンテンツ編集装置及びコンテンツ編集方法
JP2018157407A (ja) 収録方法および端末装置
JP2009021883A (ja) オンライン動画編集システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15906297

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017559697

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2015906297

Country of ref document: EP