WO2023008838A1 - 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법 - Google Patents

음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2023008838A1
WO2023008838A1 PCT/KR2022/010766 KR2022010766W WO2023008838A1 WO 2023008838 A1 WO2023008838 A1 WO 2023008838A1 KR 2022010766 W KR2022010766 W KR 2022010766W WO 2023008838 A1 WO2023008838 A1 WO 2023008838A1
Authority
WO
WIPO (PCT)
Prior art keywords
document
voice
edited
editing
time point
Prior art date
Application number
PCT/KR2022/010766
Other languages
English (en)
French (fr)
Inventor
전성필
박지훈
Original Assignee
주식회사 플렉슬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 플렉슬 filed Critical 주식회사 플렉슬
Publication of WO2023008838A1 publication Critical patent/WO2023008838A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing

Definitions

  • the present invention relates to an electronic device capable of synchronizing a document and a voice through matching between a voice and an editing object when a user edits a document while recording a voice, and an operating method thereof.
  • the editing object means a predetermined item such as a figure, image, text box, etc. that can be inserted into a document by a user.
  • the present invention provides an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object when a user edits a document while recording a voice, and an operating method thereof, so that the user can perform voice recording.
  • an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object is a plurality of different documents - the above A unique identifier for identifying each document is assigned to each of a plurality of documents.
  • voice data is generated by recording a voice applied through a microphone.
  • a voice data generation unit that performs the voice recording, and whenever an editing object is inserted into any one of the plurality of documents by the user while the voice is being recorded, information about the editing object and the editing object are inserted into an object table.
  • a table recording unit that records the recorded time and the unique identifier assigned to any one document in correspondence with each other, and when a voice recording end command is received by the user, the recording of the voice and the recording of data in the object table are terminated.
  • a command to reproduce the voice data is received by the user after the end of the recording of the voice and the recording of the data in the entity table, the voice data is reproduced and recorded in the entity table.
  • the reproduction time corresponding to the time when each editing object in the file is inserted is completed, information on the edited object according to each reproduction time recorded in the object table and the unique identifier of the document are checked, and the unique identifier according to each reproduction time is checked.
  • a playback unit displaying on a screen a scene in which an editing object is inserted according to each reproduction time point on a document having an identifier.
  • an operating method of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object may include a plurality of different operating methods.
  • each of the plurality of documents is assigned a unique identifier for identifying each document - by recording a voice applied through a microphone when a voice recording start command is received by the user in the editing state generating voice data, whenever an edit object is inserted into any one of the plurality of documents by the user while recording the voice, information about the edit object and edit object on the object table recording the insertion time and the unique identifier assigned to any one document in correspondence with each other; when a voice recording end command is received by the user, the voice recording and the data recording in the entity table are recorded.
  • the voice data is reproduced and recorded in the object table Whenever the reproduction time corresponding to the time when each editing object in the file is inserted is completed, information on the edited object according to each reproduction time recorded in the object table and the unique identifier of the document are checked, and the unique identifier according to each reproduction time is checked. and displaying on a screen a scene in which an edited object according to each playback time is inserted on a document having an identifier.
  • the present invention provides an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object when a user edits a document while recording a voice, and an operating method thereof, so that the user can perform voice recording. It is possible to support viewing the editing objects inserted into the document at the time in chronological order.
  • FIG. 1 is a diagram showing the structure of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an operating method of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object according to an embodiment of the present invention.
  • each component, functional block, or means may be composed of one or more sub-components, and the electrical, electronic, and mechanical functions performed by each component are electronic It may be implemented with various known elements or mechanical elements such as circuits, integrated circuits, ASICs (Application Specific Integrated Circuits), and may be implemented separately or two or more may be integrated into one.
  • ASICs Application Specific Integrated Circuits
  • the blocks of the accompanying block diagram or the steps of the flowchart are computer program instructions that perform designated functions by being loaded into a processor or memory of a device capable of data processing, such as a general-purpose computer, a special purpose computer, a portable notebook computer, and a network computer.
  • a device capable of data processing such as a general-purpose computer, a special purpose computer, a portable notebook computer, and a network computer.
  • these computer program instructions may be stored in a memory included in a computer device or in a computer readable memory
  • the functions described in blocks of a block diagram or steps of a flowchart are produced as a product containing instruction means for performing them. It could be.
  • each block or each step may represent a module, segment or portion of code that includes one or more executable instructions for executing specified logical function(s).
  • FIG. 1 is a diagram showing the structure of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object according to an embodiment of the present invention.
  • an electronic device 110 is a device capable of performing synchronization between a document and a voice through matching between a voice and an editing object when a user proceeds to edit a document while recording a voice. It includes a data generation unit 111, a table recording unit 112, an end unit 113 and a playback unit 114.
  • the voice data generation unit 111 When a voice recording start command is received from the user while a plurality of different documents are being edited, the voice data generation unit 111 generates voice data by recording voice applied through a microphone.
  • a unique identifier for identifying each document is assigned to each of the plurality of documents.
  • the table recorder 112 inserts information about the edited object and the edited object into the object table whenever the user finishes inserting an edited object in any one of the plurality of documents while recording the voice.
  • the recorded time and the unique identifier assigned to any one of the documents are recorded in correspondence with each other.
  • the editing object means a predetermined item such as a figure, image, text box, etc. that can be inserted into a document by a user.
  • the ending unit 113 ends recording of the voice and recording of data in the entity table.
  • the reproducing unit 114 reproduces the voice data and stores the data in the entity table. Whenever the playback time corresponding to the time when each edited object is inserted is completed, the information on the edited object according to each playback time recorded in the object table and the unique identifier of the document are checked, and at each playback time, On a document having a unique identifier, a scene in which an edited object according to each play point is inserted is displayed on the screen.
  • the voice data generator 111 transmits the voice data through the microphone. By recording the applied voice, voice data can be generated.
  • the table recording unit 112 records information about the editing object on the object table whenever an editing object is inserted into any one of 'document 1, document 2, and document 3' by the user while recording the voice. , the time when the editing object is inserted, and the unique identifier assigned to any one of the documents can be recorded in association with each other.
  • the table recorder 112 records the information on the edited object on the object table, the time the edited object was inserted, and the unique identifier assigned to each document in correspondence with each other as shown in Table 1 below. can do.
  • object table edit object 1 Insertion time 1 (1 minute 5 seconds) Unique identifier for document 1 1 edit object 2 Insertion time 2 (1 minute 10 seconds) Unique identifier for document 1 1 Edit object 3 Insert Time 3 (1 minute 25 seconds) Unique identifier for document 1 1 edit object 4 Insert Time 4 (2:15) Unique identifier for document 2 2 Edit object 5 Insert Time 5 (2 minutes 20 seconds) Unique identifier for document 2 2 Edit object 6 Insert Time 6 (3:05) Unique identifier for document 3 3
  • the termination unit 113 may end the voice recording and data recording of the object table.
  • the playback unit 114 reproduces the audio data, and the time when each edited object recorded in the object table is inserted. Insertion time 1 (1 minute 5 seconds), insertion time 2 (1 minute 10 seconds), insertion time 3 (1 minute 25 seconds), insertion time 4 (2 minutes 15 seconds), insertion time 5 (2 minutes 20 seconds) ), playback time 1 (1 minute 5 seconds), playback time 2 (1 minute 10 seconds), playback time 3 (1 minute 25 seconds) corresponding to insertion time 6 (3 minutes 5 seconds), playback Whenever time point 4 (2 minutes and 15 seconds), playback time point 5 (2 minutes and 20 seconds), and playback time point 6 (3 minutes and 5 seconds) are ', the edit object according to each playback time recorded in the object table is ' Information on Editing Object 1, Editing Object 2, Editing Object 3, Editing Object 4, Editing Object 5, and Editing Object 6, and unique identifiers of 'Document 1, Document 2, and Document 3', 'Unique Identifier
  • the reproducing unit 114 selects documents according to respective reproduction time points on 'document 1, document 2, and document 3' having unique identifiers 'unique identifier 1, unique identifier 2, and unique identifier 3' according to each playback time.
  • a scene in which edited objects 'Edited Object 1, Edited Object 2, Edited Object 3', Edited Object 4, Edited Object 5, and Edited Object 6' are inserted may be displayed on the screen.
  • the playback unit 114 displays a scene in which 'edited object 1' is inserted in 'document 1' on the screen when the playback time of audio data is 'playback time 1 (1 minute 5 seconds)'. and when the playback time of the voice data becomes 'playback time 2 (1 minute 10 seconds)', a scene in which 'edited object 2' is inserted in 'document 1' can be displayed on the screen,
  • the playback time of the voice data is 'playback time 3 (1 minute 25 seconds)'
  • a scene in which 'edited object 3' is inserted in 'document 1' can be displayed on the screen
  • the playback of the audio data When the point of time is 'playback time 4 (2 minutes 15 seconds)', a scene where 'editing object 4' is inserted in 'document 2' can be displayed on the screen, and the playback time of the audio data is 'playback time 5 (2 minutes and 20 seconds)', a scene in which 'editing object 5' is inserted
  • the user can view the editing objects inserted into documents by the user at the time of voice recording in chronological order.
  • the electronic device 110 may further include a stop portion 115 .
  • the interrupting unit 115 refers to the object table when a command to stop playback of the voice data is received from the user at the first playback time point while the voice data is being reproduced, and the insertion time before the first playback time point. After inserting the editing objects having the plurality of documents into the plurality of documents, the plurality of documents are converted into an editable state and displayed on the screen.
  • the first reproduction time point is 'playback time point 7 (1 minute 30 seconds)', and while the voice data is being reproduced through the reproducing unit 114, at 'playback time point 7 (1 minute 30 seconds)' Assume that the electronic device 110 receives a command to stop playback of the voice data from the user.
  • the interruption unit 115 refers to the object table as shown in Table 1 above, and selects 'Edited Object 1, Edited Object 2, and Edited Object 3', which are edited objects having an insertion time prior to 'playback time 7 (1 minute and 30 seconds)'. After inserting ' into 'document 1', the plurality of documents 'document 1, document 2, and document 3' can be converted into editable states and displayed on the screen.
  • the user can newly edit 'document 1, document 2, and document 3' in a state in which an editing object up to 'playback point 7 (1 minute 30 seconds)' is inserted.
  • the electronic device 110 may further include an intermediate view playback unit 116 .
  • the intermediate view reproducing unit 116 reproduces the audio data from the second playback time, referring to the object table. After inserting the edited objects having an insertion time prior to the second reproduction time into the plurality of documents, the reproduction time corresponding to the insertion time of each edited object recorded in the object table from the second reproduction time Whenever this occurs, the information on the edited object according to each reproduction time recorded in the object table and the unique identifier of the document are checked, and the edited object according to each reproduction time is located on the document having the unique identifier according to each reproduction time. A scene in which is inserted is displayed on the screen.
  • the second reproduction time point is 'playback time 8 (2 minutes 17 seconds)'
  • the audio data is reproduced from 'playback time 8 (2 minutes 17 seconds)' by the user
  • an intermediate view playback command is issued. Assume that it is received by the electronic device 110.
  • the intermediate view reproducing unit 116 reproduces the voice data from 'playback time 8 (2 minutes 17 seconds)', referring to the entity table as shown in Table 1 above, and 'playback time 8 (2 minutes 17 seconds)' 'Editing object 1, Editing object 2, Editing object 3', which are edit objects with previous insertion time, can be inserted into 'Document 1' and 'Edited object 4' can be inserted into 'Document 2'.
  • the intermediate view reproducing unit 116 starts at 'playback time 8 (2 minutes 17 seconds)' and inserts 'insertion time 5 (2 minutes 20 seconds)', which is the time when each edited object recorded in the object table is inserted. Every time 'playback time 5 (2 minutes 20 seconds), playback time 6 (3 minutes 5 seconds)', which is the playback time point corresponding to time 6 (3 minutes 5 seconds)', each playback recorded in the object table Information on 'Edited Object 5, Edited Object 6', which are edited entities according to the viewpoint, and 'Unique Identifier 2, Unique Identifier 3', which are unique identifiers of 'Documents 2 and 3', can be checked.
  • the intermediate view reproducing unit 116 selects 'document 2 and document 3', which are documents having 'unique identifier 2 and unique identifier 3', which are unique identifiers according to each reproduction time, and edit object ' A scene in which the editing object 5 and the editing object 6' are inserted may be displayed on the screen.
  • the intermediate view playback unit 116 displays a scene in which 'editing object 5' is inserted in 'document 2' on the screen.
  • the playback time of the voice data is 'playback time 6 (3 minutes and 5 seconds)'
  • a scene in which 'edited object 6' is inserted in 'document 3' can be displayed on the screen.
  • the electronic device 110 may further include a confirmation unit 117 and a list display unit 118.
  • the confirmation unit 117 refers to the object table, It is checked whether there is an edited object having an insertion time within a preset first time before and after .
  • the list display unit 118 is an edited object having an insertion time that falls within the first time before and after the third reproduction point, and if it is confirmed that at least one first edited object exists, the at least one first edited object is displayed from the object table. After extracting the unique identifier of the document corresponding to the information on one editing object and the information on the at least one first editing object, the information on the at least one first editing object and the at least one first editing object are extracted.
  • An edited object list including a unique identifier of a document corresponding to each information about is configured and displayed on the screen.
  • the preset first time is '15 seconds'
  • the third reproduction time is 'playback time 9 (1 minute and 15 seconds)'
  • the 'playback time 9 (1 minute 15 seconds)' of the audio data minute 15 second)' it is assumed that the electronic device 110 receives a list display command instructing to display a list of edited objects inserted.
  • the verification unit 117 refers to the object table as shown in Table 1 above and checks whether an edited object having an insertion time belonging to within '15 seconds' before and after 'replay point 9 (1 minute and 15 seconds)' exists.
  • 'edited object 1, edited object 2, edited object 3' are edit objects having insertion times belonging to '15 seconds' before and after 'playback time 9 (1 minute 15 seconds)'. Since there exists, the list display unit 118 displays information on 'Edited Object 1, Edited Object 2, and Edited Object 3' and 'Edited Object 1, Edited Object 2, and Edited Object 3' respectively from the object table.
  • 'Unique identifier 1' which is a unique identifier of 'document 1', which is a corresponding document, can be extracted.
  • the list display unit 118 constructs an edited object list including information on 'edited object 1, edited object 2, and edited object 3' and 'unique identifier 1', which is a unique identifier of 'document 1', and displays the edited object list on the screen. can be displayed on
  • the electronic device 110 may further include a selected view playback unit 119 .
  • the selection point playback unit 119 displays the edited object list on the screen, the second edited object that is any one of the information on the at least one first edited object included in the edited object list by the user
  • the voice data is reproduced from the fourth playback time point corresponding to the time the second editing object is inserted, and the insertion time before the fourth playback time point is determined by referring to the object table.
  • the selected point of view playback unit 119 starts the playback time of 'playback time 3 (1 minute 25 seconds)' corresponding to 'insertion time 3 (1 minute 25 seconds)', which is the time 'edited object 3' is inserted.
  • 'Editing Object 1 and Editing Object 2' which are editing objects having an insertion time prior to 'Playback Time 3 (1 minute 25 seconds)', are referred to as 'Document 1' by referring to the entity table as shown in Table 1 above. can be inserted into
  • the selected point playback unit 119 starts at 'playback point 3 (1 minute 25 seconds)' and inserts 'insertion time 4 (2 minutes 15 seconds)', which is the time when each edited object recorded in the object table is inserted.
  • 'Playback time 4 (2 minutes 15 seconds)
  • playback time 5 (2 minutes 20 seconds)
  • playback time 6 3 minutes and 5 seconds
  • 'Edited Object 4 Edited Object 5
  • Document 3' which are edit objects according to each playback point recorded in the object table.
  • 'Unique Identifier 2 Unique Identifier 3', which are unique identifiers, can be identified.
  • the selected view playback unit 119 selects 'Editor', which is an editing object according to each playback time, on 'Document 2 and Document 3', which are documents having 'unique identifier 2 and unique identifier 3', which are unique identifiers according to each playback time.
  • 'Editor' which is an editing object according to each playback time
  • Document 3' which are documents having 'unique identifier 2 and unique identifier 3', which are unique identifiers according to each playback time.
  • a scene in which object 4, edited object 5, and edited object 6' are inserted may be displayed on the screen.
  • the selected time playback unit 119 displays a scene in which 'editing object 4' is inserted in 'document 2' on the screen.
  • the playback time of the voice data is 'playback time 5 (2 minutes and 20 seconds)'
  • a scene in which 'editing object 5' is inserted in 'document 2' can be displayed on the screen.
  • the playback time of the voice data is 'playback time 6 (3 minutes 5 seconds)'
  • a scene in which 'edited object 6' is inserted in 'document 3' can be displayed on the screen.
  • FIG. 2 illustrates an operating method of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object when a user proceeds to edit a document while recording a voice, according to an embodiment of the present invention. It is a flow chart.
  • step S210 when a voice recording start command is received by the user while a plurality of different documents (a unique identifier for identifying each document is assigned to each of the plurality of documents) are being edited, the microphone Voice data is generated by recording the voice applied through the .
  • step S220 whenever an edit object is inserted in any one of the plurality of documents by the user while the voice is being recorded, information about the edit object and the edit object are inserted into the object table. The time and the unique identifier assigned to any one document are recorded in association with each other.
  • step S230 when a voice recording end command is received from the user, the voice recording and data recording of the object table are ended.
  • step S240 if a reproduction command for the voice data is received by the user after the recording of the voice and the recording of the data in the entity table are finished, the voice data is reproduced and recorded in the entity table. Whenever the reproduction time corresponding to the time when each edited object is inserted is completed, the information on the edited object according to each reproduction time recorded in the object table and the unique identifier of the document are checked. On a document having a unique identifier, a scene in which an edited object according to each play point is inserted is displayed on a screen.
  • the object table may further include inserting edit objects having an insertion time prior to the first playback point into the plurality of documents with reference to, and then converting the plurality of documents into an editable state and displaying the plurality of documents on a screen.
  • the operating method of the electronic device may include, when a mid-view reproduction command for reproducing the voice data from the second reproduction time point is received by the user, the audio data from the second reproduction time point. While reproducing data, after inserting edit objects having an insertion time prior to the second reproduction time point into the plurality of documents with reference to the object table, each edit recorded in the object table from the second reproduction time point is inserted. Whenever the playback time corresponding to the time when the object is inserted is reached, the unique identifier of the document and the information on the edited object according to each playback time recorded in the object table are checked, and the unique identifier according to each playback time is obtained. The method may further include displaying on a screen a scene in which an editing object according to each playback time point is inserted on the document.
  • the operating method of the electronic device when a list display command instructing to display a list of edited objects inserted at a third playback time of the voice data is received by the user, Checking whether an edited object having an insertion time belonging to a preset first time before and after the third playback time exists with reference to the object table, and insertion within the first time before and after the third playback time.
  • an editing object having a time if it is confirmed that at least one first editing object exists, the information on the at least one first editing object and the information on the at least one first editing object, respectively, from the object table After extracting the unique identifier of the corresponding document, an editing object list including information on the at least one first editing object and a unique identifier of the document corresponding to each of the information on the at least one first editing object is configured, The step of displaying on the screen may be further included.
  • the operating method of the electronic device may include, after the edited object list is displayed on the screen, the at least one first edited object included in the edited object list by the user.
  • the audio data is reproduced from the fourth playback time point corresponding to the time the second editing object is inserted, with reference to the object table.
  • a step of displaying the scene to be played on the screen may be further included.
  • the operating method of the electronic device according to an embodiment of the present invention has been described with reference to FIG. 2 .
  • the operating method of the electronic device according to an embodiment of the present invention may correspond to the configuration of the operation of the electronic device 110 described with reference to FIG. 1 , a detailed description thereof will be omitted.
  • An operating method of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object according to an embodiment of the present invention is implemented as a computer program stored in a storage medium for execution through combination with a computer.
  • the operating method of an electronic device capable of performing synchronization between a document and a voice through matching between a voice and an editing object is implemented in the form of a computer program command to be executed through a combination with a computer. It can be recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the present invention or those known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

Abstract

음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법이 개시된다. 본 발명은 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법을 제시함으로써, 사용자가 음성 녹음을 수행할 당시에 자신이 문서에 삽입했던 편집 개체들을 시간 순으로 볼 수 있도록 지원할 수 있다.

Description

음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법
본 발명은 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법에 대한 것이다.
최근, 태블릿 PC나 노트북 등과 같은 전자 장치가 널리 보급되면서, 사용자들이 이러한 전자 장치를 통해 강의 음성이나 자신의 음성을 녹음하면서, 문서 편집을 수행하는 경우가 증가하고 있다.
이와 관련하여, 기존의 기술에서는 사용자가 음성을 녹음하면서 문서 편집을 수행할 때, 음성과 편집 개체 간의 매칭이 수행되지 않아서, 추후 사용자가 음성 데이터를 재생시켰을 때, 문서 상에, 음성 데이터의 재생 시점에 따른 각 편집 개체가 삽입되는 화면을 보여주는 것이 쉽지 않았다.
여기서, 편집 개체란 사용자에 의해 문서 상에 삽입될 수 있는 도형, 이미지, 텍스트 박스 등과 같은 소정의 아이템을 의미한다.
만약, 사용자가 음성을 녹음하면서 문서 편집을 수행할 때, 음성과 편집 개체 간의 매칭이 가능하도록 함으로써, 사용자가 추후 녹음된 음성을 청취할 때, 음성의 재생 시점에 따라 삽입 완료된 각 편집 개체가 문서 상에 삽입되는 장면을 표현할 수 있는 기술이 도입된다면, 사용자는 음성 녹음을 수행할 당시에 자신이 문서에 삽입했던 편집 개체들을 시간 순으로 볼 수 있다는 점에서 문서에 대한 보다 빠른 숙지가 가능할 수 있을 것이다.
따라서, 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화가 가능하도록 지원하는 기술에 대한 연구가 필요하다.
본 발명은 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법을 제시함으로써, 사용자가 음성 녹음을 수행할 당시에 자신이 문서에 삽입했던 편집 개체들을 시간 순으로 볼 수 있도록 지원하고자 한다.
본 발명의 일실시예에 따른, 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치는 서로 다른 복수의 문서들 - 상기 복수의 문서들 각각에는 각 문서를 식별하기 위한 고유 식별자가 할당되어 있음 - 이 편집 중인 상태에서 상기 사용자에 의해 음성 녹음 시작 명령이 수신되면, 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성하는 음성 데이터 생성부, 상기 음성을 녹음하는 도중에 상기 사용자에 의해 상기 복수의 문서들 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록하는 테이블 기록부, 상기 사용자에 의해 음성 녹음 종료 명령이 수신되면, 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료하는 종료부 및 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록이 종료된 이후, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 수신되면, 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 재생부를 포함한다.
또한, 본 발명의 일실시예에 따른, 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 동작 방법은 서로 다른 복수의 문서들 - 상기 복수의 문서들 각각에는 각 문서를 식별하기 위한 고유 식별자가 할당되어 있음 - 이 편집 중인 상태에서 상기 사용자에 의해 음성 녹음 시작 명령이 수신되면, 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성하는 단계, 상기 음성을 녹음하는 도중에 상기 사용자에 의해 상기 복수의 문서들 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록하는 단계, 상기 사용자에 의해 음성 녹음 종료 명령이 수신되면, 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료하는 단계 및 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록이 종료된 이후, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 수신되면, 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 단계를 포함한다.
본 발명은 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법을 제시함으로써, 사용자가 음성 녹음을 수행할 당시에 자신이 문서에 삽입했던 편집 개체들을 시간 순으로 볼 수 있도록 지원할 수 있다.
도 1은 본 발명의 일실시예에 따른 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 구조를 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 동작 방법을 도시한 순서도이다.
이하에서는 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명하기로 한다. 이러한 설명은 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였으며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서 상에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 사람에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
본 문서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다. 또한, 본 발명의 다양한 실시예들에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있고, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.
한편, 첨부된 블록도의 블록들이나 흐름도의 단계들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터 등 데이터 프로세싱이 가능한 장비의 프로세서나 메모리에 탑재되어 지정된 기능들을 수행하는 컴퓨터 프로그램 명령들(instructions)을 의미하는 것으로 해석될 수 있다. 이들 컴퓨터 프로그램 명령들은 컴퓨터 장치에 구비된 메모리 또는 컴퓨터에서 판독 가능한 메모리에 저장될 수 있기 때문에, 블록도의 블록들 또는 흐름도의 단계들에서 설명된 기능들은 이를 수행하는 명령 수단을 내포하는 제조물로 생산될 수도 있다. 아울러, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 명령들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 가능한 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 정해진 순서와 달리 실행되는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 실질적으로 동시에 수행되거나, 역순으로 수행될 수 있으며, 경우에 따라 일부 블록들 또는 단계들이 생략된 채로 수행될 수도 있다.
도 1은 본 발명의 일실시예에 따른 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 구조를 도시한 도면이다.
도 1을 참조하면, 본 발명에 따른 전자 장치(110)는 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 장치로서, 음성 데이터 생성부(111), 테이블 기록부(112), 종료부(113) 및 재생부(114)를 포함한다.
음성 데이터 생성부(111)는 서로 다른 복수의 문서들이 편집 중인 상태에서 상기 사용자에 의해 음성 녹음 시작 명령이 수신되면, 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성한다.
여기서, 상기 복수의 문서들 각각에는 각 문서를 식별하기 위한 고유 식별자가 할당되어 있다.
테이블 기록부(112)는 상기 음성을 녹음하는 도중에 상기 사용자에 의해 상기 복수의 문서들 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록한다.
여기서, 편집 개체란 사용자에 의해 문서 상에 삽입될 수 있는 도형, 이미지, 텍스트 박스 등과 같은 소정의 아이템을 의미한다.
종료부(113)는 상기 사용자에 의해 음성 녹음 종료 명령이 수신되면, 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료한다.
재생부(114)는 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록이 종료된 이후, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 수신되면, 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시한다.
이하에서는, 음성 데이터 생성부(111), 테이블 기록부(112), 종료부(113) 및 재생부(114)의 동작을 예를 들어, 상세히 설명하기로 한다.
먼저, 서로 다른 복수의 문서들을 '문서 1, 문서 2, 문서 3'이라고 가정하자. 이때, 상기 복수의 문서들인 '문서 1, 문서 2, 문서 3'이 편집 중인 상태에서 사용자에 의해 음성 녹음 시작 명령이 전자 장치(110)에 수신되면, 음성 데이터 생성부(111)는 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성할 수 있다.
테이블 기록부(112)는 상기 음성을 녹음하는 도중에 상기 사용자에 의해 '문서 1, 문서 2, 문서 3' 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록할 수 있다.
만약, 상기 음성을 녹음하는 도중에 상기 사용자에 의해 '문서 1, 문서 2, 문서 3' 순으로 '문서 1'에서 3회, '문서 2'에서 2회, '문서 3'에서 1회, 편집 개체가 삽입 완료되었다고 가정하는 경우, 테이블 기록부(112)는 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 각 문서에 할당되어 있는 고유 식별자를 하기의 표 1과 같이 서로 대응시켜 기록할 수 있다.
개체 테이블
편집 개체 1 삽입 시각 1(1분 5초) 문서 1의 고유 식별자 1
편집 개체 2 삽입 시각 2(1분 10초) 문서 1의 고유 식별자 1
편집 개체 3 삽입 시각 3(1분 25초) 문서 1의 고유 식별자 1
편집 개체 4 삽입 시각 4(2분 15초) 문서 2의 고유 식별자 2
편집 개체 5 삽입 시각 5(2분 20초) 문서 2의 고유 식별자 2
편집 개체 6 삽입 시각 6(3분 5초) 문서 3의 고유 식별자 3
이때, 상기 사용자에 의해 음성 녹음 종료 명령이 전자 장치(110)에 수신되면, 종료부(113)는 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료할 수 있다.
관련해서, 종료부(113)에 의해 상기 음성에 대한 녹음이 '3분 30초'로 종료되었다고 하고, 상기 개체 테이블에 대한 데이터 기록이 종료되었다고 가정하자.
이때, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 전자 장치(110)에 수신되면, 재생부(114)는 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각인 '삽입 시각 1(1분 5초), 삽입 시각 2(1분 10초), 삽입 시각 3(1분 25초), 삽입 시각 4(2분 15초), 삽입 시각 5(2분 20초), 삽입 시각 6(3분 5초)'에 대응되는 재생 시점인 '재생 시점 1(1분 5초), 재생 시점 2(1분 10초), 재생 시점 3(1분 25초), 재생 시점 4(2분 15초), 재생 시점 5(2분 20초), 재생 시점 6(3분 5초)'이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체인 '편집 개체 1, 편집 개체 2, 편집 개체 3, 편집 개체 4, 편집 개체 5, 편집 개체 6'에 대한 정보와 '문서 1, 문서 2, 문서 3'의 고유 식별자인 '고유 식별자 1, 고유 식별자 2, 고유 식별자 3'을 확인할 수 있다.
그 이후, 재생부(114)는 각 재생 시점에 따른 고유 식별자인 '고유 식별자 1, 고유 식별자 2, 고유 식별자 3'을 갖는 문서인 '문서 1, 문서 2, 문서 3' 상에서 각 재생 시점에 따른 편집 개체인 '편집 개체 1, 편집 개체 2, 편집 개체 3', 편집 개체 4, 편집 개체 5, 편집 개체 6'이 삽입되는 장면을 화면 상에 표시할 수 있다.
보다 자세히 설명하면, 재생부(114)는 음성 데이터의 재생 시점이 '재생 시점 1(1분 5초)'이 되었을 때, '문서 1'에서 '편집 개체 1'이 삽입되는 장면을 화면 상에 표시할 수 있고, 상기 음성 데이터의 재생 시점이 '재생 시점 2(1분 10초)'가 되었을 때, '문서 1'에서 '편집 개체 2'가 삽입되는 장면을 화면 상에 표시할 수 있으며, 상기 음성 데이터의 재생 시점이 '재생 시점 3(1분 25초)'이 되었을 때, '문서 1'에서 '편집 개체 3'이 삽입되는 장면을 화면 상에 표시할 수 있고, 상기 음성 데이터의 재생 시점이 '재생 시점 4(2분 15초)'가 되었을 때, '문서 2'에서 '편집 개체 4'가 삽입되는 장면을 화면 상에 표시할 수 있고, 상기 음성 데이터의 재생 시점이 '재생 시점 5(2분 20초)'가 되었을 때, '문서 2'에서 '편집 개체 5'가 삽입되는 장면을 화면 상에 표시할 수 있고, 상기 음성 데이터의 재생 시점이 '재생 시점 6(3분 5초)'이 되었을 때, '문서 3'에서 '편집 개체 6'이 삽입되는 장면을 화면 상에 표시할 수 있다.
이를 통해, 상기 사용자는 음성 녹음을 수행할 당시에 자신이 문서들에 삽입했던 편집 개체들을 시간 순으로 볼 수 있다.
본 발명의 일실시예에 따르면, 전자 장치(110)는 중단부(115)를 더 포함할 수 있다.
중단부(115)는 상기 음성 데이터를 재생하는 도중, 제1 재생 시점에서 상기 사용자에 의해 상기 음성 데이터에 대한 재생 중단 명령이 수신되면, 상기 개체 테이블을 참조하여 상기 제1 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 복수의 문서들을 편집 가능한 상태로 전환해서 화면 상에 표시한다.
예컨대, 상기 제1 재생 시점을 '재생 시점 7(1분 30초)'이라고 하고, 재생부(114)를 통해 상기 음성 데이터가 재생되는 도중, '재생 시점 7(1분 30초)'에서 상기 사용자에 의해 상기 음성 데이터에 대한 재생 중단 명령이 전자 장치(110)에 수신되었다고 가정하자.
그러면, 중단부(115)는 상기 표 1과 같은 개체 테이블을 참조하여 '재생 시점 7(1분 30초)' 이전의 삽입 시각을 갖는 편집 개체들인 '편집 개체 1, 편집 개체 2, 편집 개체 3'을 '문서 1'에 삽입한 후, 상기 복수의 문서들인 '문서 1, 문서 2, 문서 3'을 편집 가능한 상태로 전환해서 화면 상에 표시할 수 있다.
이를 통해, 사용자는 '재생 시점 7(1분 30초)'까지의 편집 개체가 삽입된 상태에서의 '문서 1, 문서 2, 문서 3'에 대해서 새롭게 편집을 진행할 수 있다.
본 발명의 일실시예에 따르면, 전자 장치(110)는 중간 시점 재생부(116)를 더 포함할 수 있다.
중간 시점 재생부(116)는 상기 사용자에 의해 제2 재생 시점부터 상기 음성 데이터가 재생되도록 하는 중간 시점 재생 명령이 수신되면, 상기 제2 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제2 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 제2 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시한다.
예컨대, 상기 제2 재생 시점을 '재생 시점 8(2분 17초)'이라고 하고, 상기 사용자에 의해 '재생 시점 8(2분 17초)'부터 상기 음성 데이터가 재생되도록 하는 중간 시점 재생 명령이 전자 장치(110)에 수신되었다고 가정하자.
그러면, 중간 시점 재생부(116)는 '재생 시점 8(2분 17초)'부터 상기 음성 데이터를 재생하되, 상기 표 1과 같은 개체 테이블을 참조하여 '재생 시점 8(2분 17초)' 이전의 삽입 시각을 갖는 편집 개체들인 '편집 개체 1, 편집 개체 2, 편집 개체 3'을 '문서 1'에, '편집 개체 4'를 '문서 2'에 삽입할 수 있다.
그 이후, 중간 시점 재생부(116)는 '재생 시점 8(2분 17초)'부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각인 '삽입 시각 5(2분 20초), 삽입 시각 6(3분 5초)'에 대응되는 재생 시점인 '재생 시점 5(2분 20초), 재생 시점 6(3분 5초)'이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체인 '편집 개체 5, 편집 개체 6'에 대한 정보와 '문서 2, 문서 3'의 고유 식별자인 '고유 식별자 2, 고유 식별자 3'을 확인할 수 있다.
그러고 나서, 중간 시점 재생부(116)는 각 재생 시점에 따른 고유 식별자인 '고유 식별자 2, 고유 식별자 3'을 갖는 문서인 '문서 2, 문서 3' 상에서, 각 재생 시점에 따른 편집 개체인 '편집 개체 5, 편집 개체 6'이 삽입되는 장면을 화면 상에 표시할 수 있다.
보다 자세히 설명하면, 중간 시점 재생부(116)는 음성 데이터의 재생 시점이 '재생 시점 5(2분 20초)'가 되었을 때, '문서 2'에서 '편집 개체 5'가 삽입되는 장면을 화면 상에 표시할 수 있고, 상기 음성 데이터의 재생 시점이 '재생 시점 6(3분 5초)'이 되었을 때, '문서 3'에서 '편집 개체 6'이 삽입되는 장면을 화면 상에 표시할 수 있다.
본 발명의 일실시예에 따르면, 전자 장치(110)는 확인부(117) 및 목록 표시부(118)를 더 포함할 수 있다.
확인부(117)는 상기 사용자에 의해 상기 음성 데이터의 제3 재생 시점에서 삽입된 편집 개체의 목록을 표시할 것을 지시하는 목록 표시 명령이 수신되면, 상기 개체 테이블을 참조하여, 상기 제3 재생 시점을 전후로 사전 설정된 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체가 존재하는지 여부를 확인한다.
목록 표시부(118)는 상기 제3 재생 시점을 전후로 상기 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체로, 적어도 하나의 제1 편집 개체가 존재하는 것으로 확인되면, 상기 개체 테이블로부터 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 추출한 후, 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 포함하는 편집 개체 목록을 구성하여 화면 상에 표시한다.
예컨대, 상기 사전 설정된 제1 시간을 '15초'라고 하고, 상기 제3 재생 시점을 '재생 시점 9(1분 15초)'라고 하며, 상기 사용자에 의해 상기 음성 데이터의 '재생 시점 9(1분 15초)'에서 삽입된 편집 개체의 목록을 표시할 것을 지시하는 목록 표시 명령이 전자 장치(110)에 수신되었다고 가정하자.
그러면, 확인부(117)는 상기 표 1과 같은 개체 테이블을 참조하여, '재생 시점 9(1분 15초)'를 전후로 '15초' 이내에 속하는 삽입 시각을 갖는 편집 개체가 존재하는지 여부를 확인할 수 있다.
이때, 상기 표 1과 같은 개체 테이블에서는 '재생 시점 9(1분 15초)'를 전후로 '15초' 이내에 속하는 삽입 시각을 갖는 편집 개체로, '편집 개체 1, 편집 개체 2, 편집 개체 3'이 존재하기 때문에, 목록 표시부(118)는 상기 개체 테이블로부터 '편집 개체 1, 편집 개체 2, 편집 개체 3'에 대한 정보와 '편집 개체 1, 편집 개체 2, 편집 개체 3'에 대한 정보 각각에 대응되는 문서인 '문서 1'의 고유 식별자인 '고유 식별자 1'을 추출할 수 있다.
그 이후, 목록 표시부(118)는 '편집 개체 1, 편집 개체 2, 편집 개체 3'에 대한 정보와 '문서 1'의 고유 식별자인 '고유 식별자 1'을 포함하는 편집 개체 목록을 구성하여 화면 상에 표시할 수 있다.
본 발명의 일실시예에 따르면, 전자 장치(110)는 선택 시점 재생부(119)를 더 포함할 수 있다.
선택 시점 재생부(119)는 상기 편집 개체 목록이 화면 상에 표시된 이후, 상기 사용자에 의해 상기 편집 개체 목록 상에 포함된 상기 적어도 하나의 제1 편집 개체에 대한 정보 중 어느 하나인 제2 편집 개체에 대한 정보의 선택 명령이 수신되면, 상기 제2 편집 개체가 삽입된 시각에 대응되는 제4 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제4 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 반영한 후, 상기 제4 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시한다.
예컨대, 전술한 예와 같이, 목록 표시부(118)에 의해 '편집 개체 1, 편집 개체 2, 편집 개체 3'에 대한 정보와 '고유 식별자 1'이 포함된 상기 편집 개체 목록이 화면 상에 표시된 이후, 상기 사용자에 의해 상기 편집 개체 목록 상에 포함된 '편집 개체 1, 편집 개체 2, 편집 개체 3'에 대한 정보 중 어느 하나인 '편집 개체 3'에 대한 정보의 선택 명령이 전자 장치(110)에 수신되었다고 가정하자.
그러면, 선택 시점 재생부(119)는 '편집 개체 3'이 삽입된 시각인 '삽입 시각 3(1분 25초)'에 대응되는 재생 시점인 '재생 시점 3(1분 25초)'부터 상기 음성 데이터를 재생하되, 상기 표 1과 같은 개체 테이블을 참조하여 '재생 시점 3(1분 25초)' 이전의 삽입 시각을 갖는 편집 개체들인 '편집 개체 1, 편집 개체 2'를 '문서 1'에 삽입할 수 있다.
그 이후, 선택 시점 재생부(119)는 '재생 시점 3(1분 25초)'부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각인 '삽입 시각 4(2분 15초), 삽입 시각 5(2분 20초), 삽입 시각 6(3분 5초)'에 대응되는 재생 시점인 '재생 시점 4(2분 15초), 재생 시점 5(2분 20초), 재생 시점 6(3분 5초)'이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체인 '편집 개체 4, 편집 개체 5, 편집 개체 6'에 대한 정보와 '문서 2, 문서 3'의 고유 식별자인 '고유 식별자 2, 고유 식별자 3'을 확인할 수 있다.
그러고 나서, 선택 시점 재생부(119)는 각 재생 시점에 따른 고유 식별자인 '고유 식별자 2, 고유 식별자 3'을 갖는 문서인 '문서 2, 문서 3' 상에서 각 재생 시점에 따른 편집 개체인 '편집 개체 4, 편집 개체 5, 편집 개체 6'이 삽입되는 장면을 화면 상에 표시할 수 있다.
보다 자세히 설명하면, 선택 시점 재생부(119)는 음성 데이터의 재생 시점이 '재생 시점 4(2분 15초)'가 되었을 때, '문서 2'에서 '편집 개체 4'가 삽입되는 장면을 화면 상에 표시할 수 있고, 상기 음성 데이터의 재생 시점이 '재생 시점 5(2분 20초)'가 되었을 때, '문서 2'에서 '편집 개체 5'가 삽입되는 장면을 화면 상에 표시할 수 있으며, 상기 음성 데이터의 재생 시점이 '재생 시점 6(3분 5초)'이 되었을 때, '문서 3'에서 '편집 개체 6'이 삽입되는 장면을 화면 상에 표시할 수 있다.
도 2는 본 발명의 일실시예에 따른, 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 동작 방법을 도시한 순서도이다.
단계(S210)에서는 서로 다른 복수의 문서들(상기 복수의 문서들 각각에는 각 문서를 식별하기 위한 고유 식별자가 할당되어 있음)이 편집 중인 상태에서 상기 사용자에 의해 음성 녹음 시작 명령이 수신되면, 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성한다.
단계(S220)에서는 상기 음성을 녹음하는 도중에 상기 사용자에 의해 상기 복수의 문서들 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록한다.
단계(S230)에서는 상기 사용자에 의해 음성 녹음 종료 명령이 수신되면, 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료한다.
단계(S240)에서는 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록이 종료된 이후, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 수신되면, 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시한다.
이때, 본 발명의 일실시예에 따르면, 상기 전자 장치의 동작 방법은 상기 음성 데이터를 재생하는 도중, 제1 재생 시점에서 상기 사용자에 의해 상기 음성 데이터에 대한 재생 중단 명령이 수신되면, 상기 개체 테이블을 참조하여 상기 제1 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 복수의 문서들을 편집 가능한 상태로 전환해서 화면 상에 표시하는 단계를 더 포함할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 전자 장치의 동작 방법은 상기 사용자에 의해 제2 재생 시점부터 상기 음성 데이터가 재생되도록 하는 중간 시점 재생 명령이 수신되면, 상기 제2 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제2 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 제2 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 단계를 더 포함할 수 있다.
또한, 본 발명의 일실시예에 따르면, 상기 전자 장치의 동작 방법은 상기 사용자에 의해 상기 음성 데이터의 제3 재생 시점에서 삽입된 편집 개체의 목록을 표시할 것을 지시하는 목록 표시 명령이 수신되면, 상기 개체 테이블을 참조하여, 상기 제3 재생 시점을 전후로 사전 설정된 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체가 존재하는지 여부를 확인하는 단계 및 상기 제3 재생 시점을 전후로 상기 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체로, 적어도 하나의 제1 편집 개체가 존재하는 것으로 확인되면, 상기 개체 테이블로부터 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 추출한 후, 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 포함하는 편집 개체 목록을 구성하여 화면 상에 표시하는 단계를 더 포함할 수 있다.
이때, 본 발명의 일실시예에 따르면, 상기 전자 장치의 동작 방법은 상기 편집 개체 목록이 화면 상에 표시된 이후, 상기 사용자에 의해 상기 편집 개체 목록 상에 포함된 상기 적어도 하나의 제1 편집 개체에 대한 정보 중 어느 하나인 제2 편집 개체에 대한 정보의 선택 명령이 수신되면, 상기 제2 편집 개체가 삽입된시각에 대응되는 제4 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제4 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 반영한 후, 상기 제4 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 단계를 더 포함할 수 있다.
이상, 도 2를 참조하여 본 발명의 일실시예에 따른 전자 장치의 동작 방법에 대해 설명하였다. 여기서, 본 발명의 일실시예에 따른 전자 장치의 동작 방법은 도 1을 이용하여 설명한 전자 장치(110)의 동작에 대한 구성과 대응될 수 있으므로, 이에 대한 보다 상세한 설명은 생략하기로 한다.
본 발명의 일실시예에 따른 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 동작 방법은 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다.
또한, 본 발명의 일실시예에 따른 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 동작 방법은 컴퓨터와의 결합을 통해 실행시키기 위한 컴퓨터 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (12)

  1. 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치에 있어서,
    서로 다른 복수의 문서들 - 상기 복수의 문서들 각각에는 각 문서를 식별하기 위한 고유 식별자가 할당되어 있음 - 이 편집 중인 상태에서 상기 사용자에 의해 음성 녹음 시작 명령이 수신되면, 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성하는 음성 데이터 생성부;
    상기 음성을 녹음하는 도중에 상기 사용자에 의해 상기 복수의 문서들 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록하는 테이블 기록부;
    상기 사용자에 의해 음성 녹음 종료 명령이 수신되면, 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료하는 종료부; 및
    상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록이 종료된 이후, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 수신되면, 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 재생부
    를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 음성 데이터를 재생하는 도중, 제1 재생 시점에서 상기 사용자에 의해 상기 음성 데이터에 대한 재생 중단 명령이 수신되면, 상기 개체 테이블을 참조하여 상기 제1 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 복수의 문서들을 편집 가능한 상태로 전환해서 화면 상에 표시하는 중단부
    를 더 포함하는 전자 장치.
  3. 제1항에 있어서,
    상기 사용자에 의해 제2 재생 시점부터 상기 음성 데이터가 재생되도록 하는 중간 시점 재생 명령이 수신되면, 상기 제2 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제2 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 제2 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 중간 시점 재생부
    를 더 포함하는 전자 장치.
  4. 제1항에 있어서,
    상기 사용자에 의해 상기 음성 데이터의 제3 재생 시점에서 삽입된 편집 개체의 목록을 표시할 것을 지시하는 목록 표시 명령이 수신되면, 상기 개체 테이블을 참조하여, 상기 제3 재생 시점을 전후로 사전 설정된 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체가 존재하는지 여부를 확인하는 확인부; 및
    상기 제3 재생 시점을 전후로 상기 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체로, 적어도 하나의 제1 편집 개체가 존재하는 것으로 확인되면, 상기 개체 테이블로부터 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 추출한 후, 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 포함하는 편집 개체 목록을 구성하여 화면 상에 표시하는 목록 표시부
    를 더 포함하는 전자 장치.
  5. 제4항에 있어서,
    상기 편집 개체 목록이 화면 상에 표시된 이후, 상기 사용자에 의해 상기 편집 개체 목록 상에 포함된 상기 적어도 하나의 제1 편집 개체에 대한 정보 중 어느 하나인 제2 편집 개체에 대한 정보의 선택 명령이 수신되면, 상기 제2 편집 개체가 삽입된 시각에 대응되는 제4 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제4 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 반영한 후, 상기 제4 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 선택 시점 재생부
    를 더 포함하는 전자 장치.
  6. 사용자가 음성을 녹음하면서 문서 편집을 진행할 때, 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치의 동작 방법에 있어서,
    서로 다른 복수의 문서들 - 상기 복수의 문서들 각각에는 각 문서를 식별하기 위한 고유 식별자가 할당되어 있음 - 이 편집 중인 상태에서 상기 사용자에 의해 음성 녹음 시작 명령이 수신되면, 마이크로폰을 통해 인가되는 음성을 녹음함으로써, 음성 데이터를 생성하는 단계;
    상기 음성을 녹음하는 도중에 상기 사용자에 의해 상기 복수의 문서들 중 어느 하나의 문서에서 편집 개체가 삽입 완료될 때마다, 개체 테이블 상에 편집 개체에 대한 정보와 편집 개체가 삽입된 시각 및 상기 어느 하나의 문서에 할당되어 있는 고유 식별자를 서로 대응시켜 기록하는 단계;
    상기 사용자에 의해 음성 녹음 종료 명령이 수신되면, 상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록을 종료하는 단계; 및
    상기 음성에 대한 녹음과 상기 개체 테이블에 대한 데이터 기록이 종료된 이후, 상기 사용자에 의해 상기 음성 데이터에 대한 재생 명령이 수신되면, 상기 음성 데이터를 재생하되, 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입 완료된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 단계
    를 포함하는 전자 장치의 동작 방법.
  7. 제6항에 있어서,
    상기 음성 데이터를 재생하는 도중, 제1 재생 시점에서 상기 사용자에 의해 상기 음성 데이터에 대한 재생 중단 명령이 수신되면, 상기 개체 테이블을 참조하여 상기 제1 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 복수의 문서들을 편집 가능한 상태로 전환해서 화면 상에 표시하는 단계
    를 더 포함하는 전자 장치의 동작 방법.
  8. 제6항에 있어서,
    상기 사용자에 의해 제2 재생 시점부터 상기 음성 데이터가 재생되도록 하는 중간 시점 재생 명령이 수신되면, 상기 제2 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제2 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 삽입한 후, 상기 제2 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 단계
    를 더 포함하는 전자 장치의 동작 방법.
  9. 제6항에 있어서,
    상기 사용자에 의해 상기 음성 데이터의 제3 재생 시점에서 삽입된 편집 개체의 목록을 표시할 것을 지시하는 목록 표시 명령이 수신되면, 상기 개체 테이블을 참조하여, 상기 제3 재생 시점을 전후로 사전 설정된 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체가 존재하는지 여부를 확인하는 단계; 및
    상기 제3 재생 시점을 전후로 상기 제1 시간 이내에 속하는 삽입 시각을 갖는 편집 개체로, 적어도 하나의 제1 편집 개체가 존재하는 것으로 확인되면, 상기 개체 테이블로부터 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 추출한 후, 상기 적어도 하나의 제1 편집 개체에 대한 정보와 상기 적어도 하나의 제1 편집 개체에 대한 정보 각각에 대응되는 문서의 고유 식별자를 포함하는 편집 개체 목록을 구성하여 화면 상에 표시하는 단계
    를 더 포함하는 전자 장치의 동작 방법.
  10. 제9항에 있어서,
    상기 편집 개체 목록이 화면 상에 표시된 이후, 상기 사용자에 의해 상기 편집 개체 목록 상에 포함된 상기 적어도 하나의 제1 편집 개체에 대한 정보 중 어느 하나인 제2 편집 개체에 대한 정보의 선택 명령이 수신되면, 상기 제2 편집 개체가 삽입된시각에 대응되는 제4 재생 시점부터 상기 음성 데이터를 재생하되, 상기 개체 테이블을 참조하여 상기 제4 재생 시점 이전의 삽입 시각을 갖는 편집 개체들을 상기 복수의 문서들에 반영한 후, 상기 제4 재생 시점부터 상기 개체 테이블에 기록되어 있는 각 편집 개체가 삽입된 시각에 대응되는 재생 시점이 될 때마다, 상기 개체 테이블에 기록되어 있는 각 재생 시점에 따른 편집 개체에 대한 정보와 문서의 고유 식별자를 확인하여, 각 재생 시점에 따른 고유 식별자를 갖는 문서 상에서, 각 재생 시점에 따른 편집 개체가 삽입되는 장면을 화면 상에 표시하는 단계
    를 더 포함하는 전자 장치의 동작 방법.
  11. 제6항 내지 제10항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  12. 제6항 내지 제10항 중 어느 한 항의 방법을 컴퓨터와의 결합을 통해 실행시키기 위한 저장매체에 저장된 컴퓨터 프로그램.
PCT/KR2022/010766 2021-07-26 2022-07-22 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법 WO2023008838A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0097527 2021-07-26
KR1020210097527A KR102497085B1 (ko) 2021-07-26 2021-07-26 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
WO2023008838A1 true WO2023008838A1 (ko) 2023-02-02

Family

ID=85087051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/010766 WO2023008838A1 (ko) 2021-07-26 2022-07-22 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법

Country Status (2)

Country Link
KR (1) KR102497085B1 (ko)
WO (1) WO2023008838A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090048210A (ko) * 2007-11-09 2009-05-13 (주)드림투리얼리티 음원 재생이 가능한 문서 변환 및 실행 방법, 이를수행하는 기록 매체 및 이를 수행하는 프로그램
KR20090048211A (ko) * 2007-11-09 2009-05-13 (주)드림투리얼리티 음원 재생이 가능한 문서 변환 및 실행 방법, 이를수행하는 기록 매체 및 이를 수행하는 프로그램
KR20130113218A (ko) * 2012-04-05 2013-10-15 강신태 전자노트 기능을 갖는 시스템 및 그 운용방법
KR20140006503A (ko) * 2012-07-06 2014-01-16 삼성전자주식회사 휴대 단말기의 사용자 음성 녹음 및 재생 방법 및 장치
KR20140114238A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 오디오와 결합된 이미지 표시 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090048210A (ko) * 2007-11-09 2009-05-13 (주)드림투리얼리티 음원 재생이 가능한 문서 변환 및 실행 방법, 이를수행하는 기록 매체 및 이를 수행하는 프로그램
KR20090048211A (ko) * 2007-11-09 2009-05-13 (주)드림투리얼리티 음원 재생이 가능한 문서 변환 및 실행 방법, 이를수행하는 기록 매체 및 이를 수행하는 프로그램
KR20130113218A (ko) * 2012-04-05 2013-10-15 강신태 전자노트 기능을 갖는 시스템 및 그 운용방법
KR20140006503A (ko) * 2012-07-06 2014-01-16 삼성전자주식회사 휴대 단말기의 사용자 음성 녹음 및 재생 방법 및 장치
KR20140114238A (ko) * 2013-03-18 2014-09-26 삼성전자주식회사 오디오와 결합된 이미지 표시 방법

Also Published As

Publication number Publication date
KR102497085B1 (ko) 2023-02-07
KR20230016281A (ko) 2023-02-02

Similar Documents

Publication Publication Date Title
CN100549970C (zh) 通过播放列表执行音频/视频内容同步的方法和设备
KR101242040B1 (ko) 포터블 기기의 재생 목록 자동 생성 방법 및 장치
WO2016060358A1 (en) Video processing apparatus and method
EP2499612A2 (en) Method and apparatus for managing data
JP2005523555A (ja) インタラクティブコンテンツバージョン情報が記録された情報保存媒体、その記録方法及び再生方法
WO2014181969A1 (ko) 멀티 트랙 미디어 파일이 기록된 기록 매체, 멀티 트랙 미디어 파일 편집 방법, 및 멀티 트랙 미디어 파일 편집 장치
US5790236A (en) Movie processing system
WO2013154267A1 (ko) 강의 교재와 동기되는 데이터를 이용하는 강의 컨텐츠 제공 시스템 및 강의 컨텐츠 제공 방법
WO2023008838A1 (ko) 음성과 편집 개체 간의 매칭을 통해 문서와 음성 간의 동기화를 수행할 수 있는 전자 장치 및 그 동작 방법
JP2004227514A (ja) メモリユニット、プレゼンテーションデータ作成装置、プレゼンテーションデータ作成システム、プレゼンテーションデータ作成方法およびプレゼンテーション方法
KR20020018907A (ko) 실시간 강의 기록 장치 및 그에 따른 파일 기록방법
US7430564B2 (en) Performance information reproducing apparatus and method and performance information reproducing program
WO2022239988A1 (ko) 댄스 매칭 방법 및 시스템
JP6089874B2 (ja) 多言語同時再生システム
WO2021167220A1 (ko) 내용 기반 동영상 목차 자동생성 방법 및 시스템
WO2022080670A1 (ko) 컨텐츠 제공 방법 및 장치와, 컨텐츠 재생 방법
JP3788298B2 (ja) プレゼンテーション支援システムおよびプレゼンテーション支援プログラム
WO2012043981A2 (ko) 콘텐츠 데이터의 메타 정보 생성 방법 및 장치
WO2019226031A1 (ko) 반응 비디오를 위한 에디터를 포함하는 멀티 윈도우 감상 시스템 및 이를 이용한 반응 비디오의 제작방법
KR100459668B1 (ko) 색인기반 동영상 콘텐츠의 녹화 및 편집 시스템
WO2019050117A1 (ko) 멀티미디어 북 제작 장치 및 방법
WO2022092328A1 (ko) 미디어 데이터와 센싱 데이터의 관리 방법
WO2013154369A1 (ko) 곡에 적합한 자동 디제잉 방법 및 장치
KR102523814B1 (ko) 음성 인식을 기반으로 영상이 재생되는 화면에 자막을 출력하는 전자 장치 및 그 동작 방법
WO2006030995A9 (en) Index-based authoring and editing system for video contents

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22849814

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE