WO2006134883A1 - コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法 - Google Patents

コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法 Download PDF

Info

Publication number
WO2006134883A1
WO2006134883A1 PCT/JP2006/311773 JP2006311773W WO2006134883A1 WO 2006134883 A1 WO2006134883 A1 WO 2006134883A1 JP 2006311773 W JP2006311773 W JP 2006311773W WO 2006134883 A1 WO2006134883 A1 WO 2006134883A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
playback
tag
correction
tagging
Prior art date
Application number
PCT/JP2006/311773
Other languages
English (en)
French (fr)
Inventor
Mitsuru Endo
Hiroyasu Kuwano
Akira Ishida
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP20060757258 priority Critical patent/EP1892717A1/en
Priority to US11/917,063 priority patent/US20090103901A1/en
Publication of WO2006134883A1 publication Critical patent/WO2006134883A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Definitions

  • the present invention relates to a content tagging support apparatus and a content tagging support method for tagging content.
  • FIG. 1 is a block diagram showing an example of a conventional content tagging support apparatus.
  • the content playback unit 11 1 decodes the content, sends the playback signal to the monitor unit 12 and displays it, and also displays a time code indicating the time axis of the content Is sent to the tag generating means 13.
  • the voice recognition unit 14 recognizes the voice input from the input unit 16 such as a microphone and sends the voice recognition result to the tag generation unit 13.
  • the tag generation means 13 combines the voice recognition result and the time code, and sends them to the monitor means 12 to display the video with the tag attached (tagging work).
  • the tag correction means 15 is based on the tag correction information input from the input means 17 such as a keyboard or a mouse by the operator. Is instructed to the tag generation means 13 (tag correction work).
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-86124 (paragraphs 0012 to 0015, FIG. 1) Disclosure of Invention
  • the tag correction operation is performed after the content reproduction and tagging operations are completed. However, in this case, it takes time to check whether the tag is correct and to correct it by remembering the correct answer. It is also possible to perform tag correction work during content playback and tagging work. However, in this case, it is necessary to pause the content according to the tagging work so that the content playback position does not advance during the tag correction work. Then, if you move the mouse between the various operation buttons, you will need additional time for the operation and additional work time for the correction itself.
  • An object of the present invention is to solve the above-described conventional problems, and a single worker can perform tagging work and tag correction work, and at the time of work for tag correction.
  • Content tagging support apparatus and content tagging support method that can suppress the increase between the two.
  • a content tagging support apparatus is a content tagging support apparatus that supports content tagging work, a voice input means for inputting voice, a voice recognition means for recognizing input voice, Content playback means for playing back content and tag generation means for outputting data obtained by recognizing input sound as content tags in association with the playback position of the content when the sound is input And Tag correction means for outputting tag correction information for correcting a tag assigned to a content to the tag generation means, and content for outputting reproduction control information for controlling the reproduction of content to the content reproduction means Reproduction control means, and the tag correction means outputs tag correction start / end notification information for notifying start and end of tag correction work based on the tag correction information to the content reproduction control means, and Based on the tag correction start / end notification information output by the tag correction means, the playback control means pauses playback of the content in synchronization with the start of the tag correction work, and synchronizes with the end of the tag correction work.
  • a configuration is adopted in which the content reproduction means is controlled
  • the content tagging support method of the present invention is based on the content tagging support method for supporting the content tagging work, and the tag correction work for correcting the tag given to the content that has been started to be played back.
  • a tag correction start monitoring step for monitoring the start of content
  • a content playback pause step for pausing content playback when the start of tag correction work is detected in the tag correction start monitoring step
  • the content playback pause When the playback of the content is paused in the stop step, the tag correction end monitoring step for monitoring the end of the tag correction operation and the end of the tag correction operation in the tag correction end monitoring step are detected.
  • a content playback restart step for restarting playback.
  • FIG. 1 is a block diagram showing an example of a configuration of a conventional content tagging support apparatus
  • FIG. 2 is a block diagram showing a configuration of a content tagging support apparatus according to an embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of a tagging screen of the content tagging support apparatus in the present embodiment
  • FIG. 4 An example of a tag confirmation screen of the content tagging support apparatus in the present embodiment Illustration
  • FIG. 5 is a diagram showing an example of a tag correction screen of the content tagging support apparatus in the present embodiment
  • FIG. 6 is a flowchart showing the procedure of tagging work of the content tagging support apparatus in the present embodiment.
  • FIG. 7 Flow chart showing the procedure of the tag correction work of FIG.
  • FIG. 8 is a diagram showing an example of a playback speed setting screen of the content tagging support apparatus in the present embodiment
  • FIG. 2 is a block diagram showing a configuration of a content tagging support apparatus according to an embodiment of the present invention.
  • content tagging support apparatus 100 includes content reproduction means 101, monitor means 102, tag generation means 103, voice recognition means 104, and input means 106. 107, tag correction means 108, and content reproduction control means 109.
  • the content reproduction means 101 decodes the content, sends a reproduction signal to the monitor means 102 for display, and sends a time code to the tag generation means 103.
  • the voice recognition unit 104 recognizes the voice input from the input unit 106 for inputting sound, such as a microphone, and sends the voice recognition result to the tag generation unit 103. Specifically, the recognized speech is sequentially text-edited and the text data is output to the tag generation means 103.
  • the tag generation unit 103 combines the voice recognition result and the time code, and sends them to the monitor unit 102 to display the video with the tag attached. That is, the tag generation means 103 combines the text-to-speech information with the time code of the content related to the text data, and assigns the set of the text data and the time code to the content as a tag. For example, when the name of an object shown on the monitor means 102 is uttered, the time when the object is shown is the time code. In addition, this time code and text data indicating the sound of the generated name are added to the content as a tag, and the monitoring means 102 Is displayed.
  • the tag generation means 103 takes a time code output as a tag for a predetermined time in consideration of the time required for the corresponding text data to be input to the tag generation means 103 after the voice is input to the input means 106. You may make it return by the minute.
  • the operator inputs the correction content via the input unit 107 such as a keyboard or a mouse.
  • Tag correction means 108 sends tag correction information having a content for correcting a tag to tag generation means 103 based on the input information from input means 107. Further, the tag correction means 108 outputs tag correction start / end notification information which is information for notifying the start and end of tag correction.
  • the content reproduction control means 109 Based on the tag correction start / end notification information output from the tag correction means 108, the content reproduction control means 109 provides the content reproduction means 101 with reproduction control information for controlling the reproduction and reproduction speed of the content. send.
  • the playback control information is information for controlling the content playback to be paused in synchronization with the start of tag correction and the content playback to be automatically restarted in synchronization with the end of tag correction.
  • the monitor means 102 Based on the playback signal input from the content playback means 101 and the tag input from the tag generation means 103, the monitor means 102 constitutes a tagging screen for performing tagging work.
  • a tag confirmation screen is configured to allow the operator to confirm whether tag correction is necessary, and is displayed together with the tagging screen. Further, the monitor unit 102 configures and displays a tag correction screen for correcting a tag when tag correction is necessary.
  • the content tagging support device 100 functions as a CPU (Central Processing Unit), a ROM (Read Only Memory) storing a control program executed by the CPU, and a CPU working memory, not shown! RAM (Random Access Memory) is provided. That is, the function of each part of the content tagging support apparatus 100 shown in FIG. 2 is realized by the CPU executing the control program.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • FIG. 3 is a diagram showing an example of a tagging screen as a user interface provided in the monitor unit 102.
  • the tagging screen 200 shown in FIG. 3 includes a content display screen 201, a tag display screen 202, Recording start button 203, recording time display bar 204, playback time display bar 205, voice recognition start button 206, forward skip button 207, stop button 208, pause button 209, playback start button 210, fast playback button 211, and backward Skip button 212 is located.
  • the content display screen 201 displays the content to be played back, and the tag display screen 202 displays the latest tag added to the content to be played back.
  • the displayed tag is composed of the time code and text data as described above.
  • the recording start button 203 is for starting and ending recording
  • the voice recognition start button 206 is for starting and ending voice recognition.
  • the recording time display bar 204 displays the recording time of the video for which content is to be generated
  • the playback time display bar 205 displays the time of playback of the recorded video (hereinafter simply referred to as “playback”!).
  • the forward skip button 207 is for skipping forward playback
  • the backward skip button 212 is for skipping backward playback.
  • the high-speed playback button 211 is for performing playback at high speed.
  • buttons and bars shown in Fig. 3 employ a GUI (Graphical User Interface). Therefore, the operation start by the button operation is performed by moving the mouse pointer 220 using a mouse or the like and clicking a predetermined button.
  • “clicking” is expressed as “pressing” for convenience.
  • FIG. 4 is a diagram showing an example of a tag confirmation screen provided on the monitor unit 102.
  • a tag history screen 301 and a tag correction button 302 are provided in the tag confirmation screen 300 shown in FIG. 4, a tag history screen 301 and a tag correction button 302 are provided.
  • the tag history screen 301 displays a history of tags added to the content.
  • a tag correction button 302 is used to select which tag displayed on the tag history screen 301 is to be corrected.
  • the tag confirmation screen 300 also uses the same GUI as the content display screen 201.
  • FIG. 5 is a diagram showing an example of a tag correction screen provided in the monitor unit 102.
  • a tag correction screen 400 shown in FIG. 5 includes a pre-tag correction screen 401, a post-tag correction screen 402, and an end button 403.
  • the pre-tag correction screen 401 displays the contents of the tag selected to be corrected on the tag confirmation screen 300.
  • tag correction screen 402 tag correction The same tag as the previous screen 401 is copied and displayed, and corrections to the display contents are accepted.
  • An end button 403 is used to determine that the tag is to be corrected with the display content after the correction on the tag correction screen 402.
  • the tag correction screen 400 also employs the same GUI as the content display screen 201 and the tag confirmation screen 300.
  • a video signal is input with force such as a photographing camera (not shown), and the video is displayed on the content display screen 201.
  • the operator presses the recording start button 203 while looking at the content display screen 201.
  • the recording means (not shown) of the content tagging support apparatus 100 starts content recording when the recording start button 203 is pressed (step S1100).
  • the content playback means 101 starts playback of the content (step S1200). Specifically, the tagging screen 200 shown in FIG. 3 is displayed on the monitor means 102 by outputting the reproduction signal.
  • step S1300 the voice recognition means 104 starts voice recognition (step S1300).
  • the worker utters the tag to be added while watching the playback video displayed on the content display screen 201, and repeats the utterance for generating the tag until the work is completed. That is, the voice recognition means 104 monitors the input of such voices (step S 1400).
  • step S 1400 the voice recognition means 104 performs a voice recognition process on each of the input voices by the voice recognition means 104, and a text input. Hesitate (step S1500).
  • Tag generation means 103 generates a tag by combining the text data as the recognition result and the time code of the utterance time, and outputs the generated tag to monitor means 102 (step S160). 0).
  • the utterance time is preferably the utterance start time.
  • the time code is received from the content reproduction means 101.
  • the monitoring means 102 updates the display content of the tag display screen 202 of the tagging screen 200 shown in FIG. 3, and displays the tag confirmation screen 300 shown in FIG. 4 to display the input tag ( Step S1700). If the tag confirmation screen 300 is already displayed, the entered tag is additionally displayed.
  • step S1100 to step S1300 can be executed by pressing one button in conjunction with each other. And waste of operation time can be eliminated.
  • the tag history screen 301 of the tag confirmation screen 300 displays the history of the generated tags, the operator should check between the utterances for tagging. Is possible.
  • the operator finds a tag error due to a voice recognition error, he presses a tag correction button 302 on the right side of the tag confirmation screen 300.
  • the “back hand” on the second line is corrected to “back volley”, and it is assumed that the tag correction button 3 02 located on the right side is pressed.
  • step S1700 the tag correction means 108 monitors whether the tag correction button 302 is pressed (step S1800). Even when no sound is input (step S1400: NO), the process of content tagging support apparatus 100 proceeds to step S1800.
  • step S1800 YES
  • step S1900 content tagging support apparatus 100 executes tag correction processing
  • the operator presses the pause button 209.
  • the content reproduction control means 109 pauses content reproduction (step S 1910).
  • the tag correction screen 400 includes the pre-tag correction screen 401 and the post-tag correction screen 402, and the pre-correction tags are copied in advance as post-correction tags. Therefore, the operator can correct the tag before correction using the input means 107 such as a mouse and a keyboard. In this way, the tag is corrected (step S 1920). In the example of Fig. 5, This shows the case where “Do” is modified to “Back volley”.
  • step S1930 YES
  • the tag correction means 108 notifies the content reproduction control means 109 to that effect.
  • the content reproduction control means 109 sets content reproduction (step S1940). Specifically, the content playback speed is set higher than the standard speed. This playback speed setting will be described in detail later.
  • the tag correction means 108 notifies the content reproduction control means 109 of the end of the tag correction work.
  • the content reproduction control means 109 resumes the content reproduction with the paused place force at the reproduction speed set in step S 1940 (step S1950), and returns to the processing of FIG.
  • step S1800 in FIG. 6 and step S1910 in FIG. 7 are linked and executed with one button, thereby simplifying the operation, moving the mouse, checking the button, etc. It is possible to eliminate waste of operation time required for the operation.
  • the tag correction means 108 when detecting that the tag correction button 302 has been pressed, the tag correction means 108 notifies the content reproduction control means 109 of the start of tag correction, and the content reproduction control means 109 notifies this notification.
  • the content playback means 101 may be instructed to pause playback of the content.
  • the same effect can be obtained by linking steps S1930 to S1950 in FIG. 7 in the same manner. Specifically, for example, the tag correction means 108 finishes the tag correction work when the end button 403 is pressed, and the content reproduction control means 109 reproduces the content when the content reproduction setting is completed. It is sufficient to resume the process.
  • step S2000 NO
  • the process returns to step S1400.
  • Step S 1400 to Step S 2000 are repeated, and when tagging and tag correction are all completed (Step S 2000: YES), the speech recognition means 104 ends the speech recognition (Step S 2100).
  • the content reproduction means 101 ends the content reproduction ( In step S2200)
  • the recording means ends the content recording (step S2300).
  • the content tagging support apparatus 100 ends a series of processes.
  • the end procedures of step S2000 to step S2300 are linked and executed by pressing one button, the operation can be simplified and the waste of operation time can be saved.
  • the recording may be terminated when the recording start button 203 is pressed again, and the content reproduction and the voice recognition may be terminated when all the recorded content is reproduced.
  • speech recognition errors include a substitution error in which the recognition result is different from the utterance, an insertion error in which the recognition result is output even when not speaking, and a deletion error in which the recognition result is not output even when speaking.
  • substitution error in which the recognition result is different from the utterance
  • insertion error in which the recognition result is output even when not speaking
  • deletion error in which the recognition result is not output even when speaking.
  • step S1800 of Fig. 6 After each error is found and the correction button is pressed in step S1800 of Fig. 6, the contents of the correction in step S1920 of Fig. 7 are different. In other words, for substitution errors, the speech recognition result part is corrected. In this case, it is possible to make corrections faster than entering with the keyboard by displaying the lower candidate results only with the result of the first candidate speech recognition result and selecting from among them. Keyboard input is only required if there is no correct answer in the candidate. Or, if there is a candidate that matches partially, after selecting the candidate, you can correct the mismatched part using the keyboard.
  • step S1920 in FIG. 7 the time information portion of the tag is corrected (the time corresponding to the delay due to rewording is subtracted).
  • step S1940 in Fig. 7 the playback speed of the resumed content is set to 1 times the playback speed before paused playback of the content. Set it as soon as possible, and resume the content playback in step S1950 of FIG. This makes it possible to play back at high speed until it catches up with the delay from the video being recorded, and to play back at a speed of 1x if it catches up, and to perform tagging along the playback video.
  • the setting of the playback speed of the content after the restart is performed as follows, for example.
  • FIG. 8 shows a playback speed setting screen 701 for setting such playback speed.
  • the playback speed setting screen 701 is provided in the monitor means 102 and is displayed prior to content recording, for example.
  • the operator inputs the number of corrections per minute and the correction time per minute, which are blank on this screen, and presses the calculation button 702.
  • the computing device (not shown) provided in the content tagging support device 100 has a recommended playback speed, for example, unit time Z ⁇ unit time (number of corrections per unit time) X (per time Correction time (sec)) ⁇ is calculated and displayed.
  • the numerical value displayed here is input to the content reproduction control means 109 as a reproduction speed after resumption of reproduction (hereinafter referred to as “reproduction speed after resumption” t) by a system setting function (not shown) prepared separately. .
  • the number of corrections per unit time (1 minute) and the correction time per time may be determined from experience, or tag input and tag correction are actually performed with a short sample. You may try and actually measure it.
  • the number of corrections per unit time (1 minute) can be obtained by multiplying the number of utterances per unit time (1 minute) (occurrence frequency) by the false recognition probability (false recognition frequency) of speech recognition. Monkey.
  • the content playback control means 109 sets the playback speed after restarting input in this way to the content playback speed in step S1940 of FIG. Then, for example, the content reproduction control means 109 monitors whether the reproduced video catches up with the recorded video, and returns the content reproduction speed to the standard speed when it catches up. Thereby, it is possible to recover the delay of the reproduced video with respect to the recorded video due to the tag correction, and it is possible to suppress an increase in the tagging work time.
  • the playback speed after restarting may be determined dynamically each time tag correction is completed. Good.
  • the playback speed after restart may be set in accordance with the content such as the type of sports, such as double speed for baseball and 1.2 speed for basketball.
  • the content such as the type of sports, such as double speed for baseball and 1.2 speed for basketball.
  • the content playback control means 109 prepares a table describing the setting value of the playback speed after restart in association with the content type, determines or selects the type of content to be played back, Adopt playback speed after restart.
  • the playback speed after restart can be set within an appropriate range.
  • the playback control means 109 is provided with a swell detector that monitors whether the volume of the content exceeds the threshold, and the content playback control means 109 exceeds the threshold.
  • the section where is detected is set as a rising section. Details of such a technique are described in, for example, Japanese Patent No. 2960939, and thus the description thereof is omitted here. Then, when content playback is resumed after tag correction, the climax section is played back at the standard speed, and the other sections are played back at a speed higher than the standard speed.
  • a button is provided on the tag correction screen 400 for returning to a preset time, such as 10 seconds for a paused place. Then, when this button is pressed, the content reproduction control means 109 starts reproduction when the paused place force returns for the set time and continues tagging.
  • a preset time such as 10 seconds for a paused place.
  • the content reproduction control means 109 determines or selects that a section from the place where it was temporarily stopped to the place corresponding to the current recording time is an area that does not require tagging. Then, skip the section that does not require tagging and start playback from the current recording time.
  • a section from the place where it was temporarily stopped to the place corresponding to the current recording time is an area that does not require tagging. Then, skip the section that does not require tagging and start playback from the current recording time.
  • the content currently being recorded is being played back and tagging is not necessary, such as during a time-out, in the case of a sport relay, it is possible to skip to the current recording time. Accordingly, it is possible to suppress an increase in the tagging work time without impairing the tagging workability.
  • the skip time is set by moving the scene change detection means for detecting the change of the scene of the content only at the current recording time, and the content reproduction control means 109 is used to list the still images at the scene change time. May be presented as a skip destination candidate, and the operator may select one of them. This allows the operator to specify a more appropriate skip destination.
  • the scene change detection means may calculate the histogram of the image intermittently, and determine the timing when the histogram changes greatly as the scene change time. Details of such a technique are described in, for example, Japanese Patent No. 3175632, and a description thereof is omitted here.
  • the content reproduction control means 109 is provided, so that content can be synchronized with the start of tag correction. Playback control linked with the correction work can be performed so that the playback of the video is paused and the content playback is resumed in synchronization with the completion of the tag correction.
  • both tagging and tag correction can be performed by one person, and an increase in work time can be suppressed. Therefore, the task of adding a tag that facilitates secondary use of the content to the content can be realized at a lower cost, and the content distribution service can be improved.
  • the power described in the example of performing video recording and replaying and tagging is also the same framework for performing tagging while replaying prerecorded video. Only possible.
  • the target time for the end of tagging can be set, and the playback speed for high-speed playback can be set dynamically as described above.
  • the content tagging support apparatus of the present invention is a content tagging support apparatus that outputs audio as a content tag after text-to-speech, and includes content playback means for playing back the content, and the tag.
  • Notifying the tag generation means to generate the tag correction means for sending tag correction information to the tag generation means so as to correct the tag attached to the content, and the start and end of tag correction from the tag correction means
  • Content correction control means for controlling the reproduction of the content based on the tag correction start / end notification information, wherein the content reproduction control means pauses the reproduction of the content in synchronization with the start of the tag correction, Playback control information for controlling playback of the content to be resumed in synchronization with the end of the tag correction. That having a configuration to be sent to the raw means.
  • the content playback control means when the content playback control means resumes playback of the content after pausing, it is faster than 1 times the playback speed before pausing the playback of the content.
  • the content playback means is controlled to play back at a high playback speed.
  • the content reproduction control means is configured so that the high-speed reproduction speed faster than 1 time is a unit time Z (the number of corrections per unit time per unit time X correction time per time)
  • the expression force is set to a calculated value.
  • the content tagging support device has a configuration in which the content reproduction control means presets the reproduction speed of 1 or more times in accordance with the content of digital content such as the type of sports competition.
  • the content tagging support apparatus has a configuration in which the content reproduction control means returns to the previous time and resumes content reproduction.
  • the content tagging support apparatus of the present invention further includes a climax detection means, and the content reproduction control means force When the digital content reproduction is stopped and resumed, reproduction is performed so that the reproduction speed is in accordance with the climax. It has a configuration for controlling the speed.
  • the content tagging support device of the present invention includes a recording unit, and the content tagging support device includes a recording unit, and when the digital content playback is stopped and restarted, the current recording time It has a configuration that can be skipped.
  • the content tagging support apparatus of the present invention has a configuration in which the content playback control means presents one or more skip destination candidates when the digital content playback is stopped and restarted.
  • the content tagging support method of the present invention is a content tagging support method that uses voice recognition, reproduces content, and attaches a tag to the content.
  • the content tagging support method uses a tag attached to the content.
  • the reproduction of the content is paused in synchronization with the start of the tag correction to be corrected, the tag is corrected, and the reproduction of the content is resumed in synchronization with the end of the tag correction.
  • the content tagging support method of the present invention has a configuration in which the playback speed of the content after the playback of the content is resumed is set faster than the playback speed before the playback of the content is paused.
  • the content tagging support apparatus and content tagging support method according to the present invention are useful as part of a business system because they produce tagged content and increase the asset value of the content. It can also be applied to applications such as home movies and home video servers.

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

 一人でタグ付け作業とタグ修正作業を行うことができ、かつ、作業時間の増加を抑制することができるコンテンツタグ付け支援装置。この装置において、音声認識手段(104)は、入力された音声を認識処理する。タグ生成手段(103)は、音声認識処理で得られたデータを、コンテンツ再生手段(101)が再生するコンテンツにタグとして付与する。タグ修正手段(108)は、タグ修正情報をタグ生成手段(103)へ送るとともに、タグ修正開始終了通知情報をコンテンツ再生制御手段(109)へ送る。コンテンツ再生制御手段(109)は、タグ修正作業の開始と同期してコンテンツの再生を一時停止し、タグ修正作業の終了と同期してコンテンツの再生の再開を行うように、コンテンツ再生手段(101)を制御する。

Description

明 細 書
コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法 技術分野
[0001] 本発明は、コンテンツにタグ付けを行うコンテンツタグ付け支援装置およびコンテン ッタグ付け支援方法に関する。
背景技術
[0002] 映像データや音声データなどの時間軸を有するディジタルコンテンツ(以下単に「コ ンテンッ」という)に対して、時間軸に対応付けた情報を付加する技術が、従来より存 在している。「タグ付け」と呼ばれるこのような技術は、コンテンツの二次利用の利便性 を向上させることから、近年、注目されている。従来のコンテンツタグ付け支援装置と しては、音声認識を利用して、発声によるタグ付け作業を行うものがある(例えば、特 許文献 1参照)。
[0003] また、図 1は、従来のコンテンツタグ付け支援装置の一例を示すブロック図である。
[0004] 図 1に示す従来のコンテンツタグ付け支援装置 10において、コンテンツ再生手段 1 1は、コンテンツをデコードし、再生信号をモニタ手段 12に送って表示するとともに、 コンテンツの時間軸を示すタイムコードをタグ生成手段 13に送る。音声認識手段 14 は、マイクなどの入力手段 16から入力された音声を認識し、音声認識結果をタグ生 成手段 13に送る。タグ生成手段 13では、音声認識結果とタイムコードとを結びつけ、 モニタ手段 12に送ってタグを付与した映像を表示する(タグ付け作業)。
[0005] タグ修正手段 15は、モニタ手段 12に表示されたタグに修正の必要がある場合に、 作業者がキーボードやマウスなどの入力手段 17から入力されたタグ修正情報に基づ き、タグの修正をタグ生成手段 13に指示する(タグ修正作業)。
[0006] ところで、近年、ハードディスクや DVD— RAM (Digital Video Disc - Random Acce ss Memory)などのメディアに録画'再生する巿販製品には、いわゆる「追つかけ再生 」という機能が搭載されている。この機能によれば、映像を録画しながら、録画中のコ ンテンッを、遅れて頭力も再生したり、録画済の時間内で早送りするなど、様々な再 生制御を行うことができる。 [0007] このようなコンテンツのタグ(またはメタデータと呼ぶ)については、スポーツ中継な どの場合、試合後すぐにタグが欲し 、と 、う要求がある。
[0008] 従来のコンテンツタグ付け支援装置においては、発声によるタグ付け作業において 、誤認識などの不都合が生じた場合に、タグ修正作業が必要となる。
特許文献 1:特開 2004— 86124号公報 (第 0012段落〜第 0015段落、図 1 ) 発明の開示
発明が解決しょうとする課題
[0009] し力しながら、図 1に示す従来のコンテンツタグ付け支援装置においては、タグ付け 作業とタグ修正作業を一人で同時に行うことが困難であるため、両作業をタグ発声者 とタグ修正者の二人体制で行う必要があった。
[0010] もし、それらの作業を一人で行おうとすると、コンテンツ再生およびタグ付け作業が 終了した後に、タグ修正作業を行うことになる。ところが、この場合、タグが正確かを確 認し、間違っている場合には正解を思い出して修正するという時間が必要になる。ま たは、コンテンツ再生およびタグ付け作業の途中で、タグ修正作業を行うことも考えら れる。ところが、この場合には、タグ修正作業中にコンテンツ再生位置が先に進んで しまわないように、タグ付け作業に合わせてコンテンツを一時停止しておく必要がある 。すると、各種の操作ボタンの間を、マウスなどを移動させては、何度も操作するとい う時間と、修正そのもののための作業時間が別途必要になる。
[0011] 本発明の目的は、前記従来の課題を解決するためになされたもので、一人の作業 者でタグ付け作業とタグ修正作業を行うことができ、かつ、タグ修正のための作業時 間の増加を抑制することができるコンテンツタグ付け支援装置およびコンテンツタグ 付け支援方法を提供することである。
課題を解決するための手段
[0012] 本発明のコンテンツタグ付け支援装置は、コンテンツのタグ付け作業を支援するコ ンテンッタグ付け支援装置において、音声を入力する音声入力手段と、入力された 音声を認識処理する音声認識手段と、コンテンツを再生するコンテンツ再生手段と、 入力された音声を認識処理して得られたデータを、当該音声が入力された時のコン テンッの再生位置に関連付けて、コンテンツのタグとして出力するタグ生成手段と、コ ンテンッに付与されたタグを修正するためのタグ修正情報を、前記タグ生成手段に 出力するタグ修正手段と、コンテンツの再生を制御するための再生制御情報を、前 記コンテンツ再生手段に出力するコンテンツ再生制御手段と、を有し、前記タグ修正 手段は、前記タグ修正情報に基づくタグ修正作業の開始および終了を通知するタグ 修正開始終了通知情報を、前記コンテンツ再生制御手段に出力し、前記コンテンツ 再生制御手段は、前記タグ修正手段によって出力されるタグ修正開始終了通知情 報に基づいて、タグ修正作業の開始と同期してコンテンツの再生を一時停止し、タグ 修正作業の終了と同期してコンテンツの再生を再開するように前記コンテンツ再生手 段を制御する構成を採る。
[0013] 本発明のコンテンツタグ付け支援方法は、コンテンツのタグ付け作業を支援するコ ンテンッタグ付け支援方法にぉ 、て、再生が開始されたコンテンツに付与されるタグ を修正するためのタグ修正作業の開始を監視するタグ修正開始監視ステップと、前 記タグ修正開始監視ステップでタグ修正作業の開始が検出されると、コンテンツの再 生を一時停止させるコンテンツ再生一時停止ステップと、前記コンテンツ再生一時停 止ステップでコンテンツの再生が一時停止されると、前記タグ修正作業の終了を監視 するタグ修正終了監視ステップと、前記タグ修正終了監視ステップでタグ修正作業の 終了が検出されると、コンテンツの再生を再開するコンテンツ再生再開ステップと、を 有するようにした。
発明の効果
[0014] 本発明によれば、一人の作業者で、タグ付け作業とタグ修正作業を行っても、タグ 修正作業の付カ卩による作業時間の増加を抑制することができる。
図面の簡単な説明
[0015] [図 1]従来のコンテンツタグ付け支援装置の構成の一例を示すブロック図
[図 2]本発明の一実施の形態に係るコンテンツタグ付け支援装置の構成を示すブロッ ク図
[図 3]本実施の形態におけるコンテンツタグ付け支援装置のタグ付け画面の一例を示 す図
[図 4]本実施の形態におけるコンテンツタグ付け支援装置のタグ確認画面の一例を 示す図
[図 5]本実施の形態におけるコンテンツタグ付け支援装置のタグ修正画面の一例を 示す図
[図 6]本実施の形態におけるコンテンツタグ付け支援装置のタグ付け作業の手順を示 すフローチャート
[図 7]図 6のタグ修正作業の手順を示すフローチャート
[図 8]本実施の形態におけるコンテンツタグ付け支援装置の再生速度設定画面の一 例を示す図
発明を実施するための最良の形態
[0016] 以下、本発明の実施の形態について、図面を参照しながら説明する。
[0017] 図 2は、本発明の一実施の形態に係るコンテンツタグ付け支援装置の構成を示す ブロック図である
[0018] 図 2に示すように、本実施の形態におけるコンテンツタグ付け支援装置 100は、コン テンッ再生手段 101と、モニタ手段 102と、タグ生成手段 103と、音声認識手段 104 と、入力手段 106、 107と、タグ修正手段 108と、コンテンツ再生制御手段 109とを備 える。
[0019] コンテンツ再生手段 101は、コンテンツをデコードし、再生信号をモニタ手段 102に 送って表示するとともに、タイムコードをタグ生成手段 103に送る。
[0020] 音声認識手段 104は、マイクなど、音を入力するための入力手段 106から入力され た音声を認識し、音声認識結果をタグ生成手段 103に送る。具体的には、認識した 音声を逐次テキストイ匕して、テキストデータをタグ生成手段 103へ出力する。
[0021] タグ生成手段 103は、音声認識結果とタイムコードとを結びつけ、モニタ手段 102 に送ってタグを付与した映像を表示する。すなわち、タグ生成手段 103は、音声をテ キストイ匕した情報と、そのテキストデータに関連するコンテンツのタイムコードとを結び つけ、これらテキストデータとタイムコードとの組を、タグとしてコンテンツに付与する。 例えば、モニタ手段 102に映った物体の名前が発声された場合、その物体が映って いる時刻が、タイムコードとなる。また、このタイムコードと、発生された名前の音声を 示すテキストデータとが、タグとしてコンテンツに付加されるとともに、モニタ手段 102 に表示される。なお、タグ生成手段 103は、音声が入力手段 106に入力されてから 対応するテキストデータがタグ生成手段 103に入力されるまでに要する時間を考慮し て、タグとして出力するタイムコードを、所定時間分だけ戻すようにしてもよい。
[0022] モニタ手段 102に表示されたタグに修正の必要がある場合には、作業者によって、 キーボードやマウスなどの入力手段 107を介して修正内容が入力される。
[0023] タグ修正手段 108は、入力手段 107からの入力情報に基づき、タグを修正する内 容を有するタグ修正情報をタグ生成手段 103に送る。さらに、タグ修正手段 108は、 タグ修正の開始と終了などを通知する情報であるタグ修正開始終了通知情報を出力 する。
[0024] コンテンツ再生制御手段 109は、タグ修正手段 108から出力されるタグ修正開始終 了通知情報に基づ 、て、コンテンツの再生および再生速度を制御する再生制御情 報をコンテンツ再生手段 101に送る。再生制御情報は、タグ修正の開始と同期してコ ンテンッの再生を一時停止し、タグ修正の終了と同期してコンテンツの再生の再開を 自動的に行うように制御するための情報である。
[0025] モニタ手段 102は、コンテンツ再生手段 101から入力される再生信号およびタグ生 成手段 103から入力されるタグに基づいて、タグ付け作業を行うためのタグ付け画面 を構成する。また、タグ修正の必要の有無を作業者に対して確認させるためのタグ確 認画面を構成し、タグ付け画面と共に表示する。さらに、モニタ手段 102は、タグ修正 が必要となった際に、タグを修正するためのタグ修正画面を構成し、表示する。
[0026] コンテンツタグ付け支援装置 100は、図示しな!、が、 CPU (Central Processing Unit )、 CPUが実行する制御プログラムを格納した ROM (Read Only Memory)、および C PUの作業用メモリとして機能する RAM (Random Access Memory)を備えている。す なわち、図 2に示すコンテンツタグ付け支援装置 100の各部の機能は、 CPUが制御 プログラムを実行することにより実現される。
[0027] まず、モニタ手段 102に表示される各画面について説明する。
[0028] 図 3は、モニタ手段 102に設けられたユーザーインターフェースとしてのタグ付け画 面の一例を示す図である。
[0029] 図 3に示すタグ付け画面 200には、コンテンツ表示画面 201、タグ表示画面 202、 録画開始ボタン 203、録画時間表示バー 204、再生時間表示バー 205、音声認識 開始ボタン 206、前方スキップボタン 207、停止ボタン 208、一時停止ボタン 209、再 生開始ボタン 210、高速再生ボタン 211、および後方スキップボタン 212が配置され ている。
[0030] コンテンツ表示画面 201は、再生されるコンテンツを表示し、タグ表示画面 202は、 再生されるコンテンツに付加されたタグのうち最新のものを表示する。表示されるタグ は、上記したように、タイムコードとテキストデータにより構成される。
[0031] 録画開始ボタン 203は、録画を開始および終了するためのものであり、音声認識開 始ボタン 206は、音声認識を開始および終了するためのものである。録画時間表示 バー 204は、コンテンツの生成の対象となる映像の録画時間を表示し、再生時間表 示バー 205は、録画された映像の再生(以下単に「再生」と!、う)の時間を表示する。 前方スキップボタン 207は、前方への再生のスキップを行うためのものであり、後方ス キップボタン 212は、後方への再生のスキップを行うためのものである。また、高速再 生ボタン 211は、再生を高速に行うためのものである。
[0032] なお、図 3に示す各種のボタンとバーは、 GUI (Graphical User Interface)が採用さ れている。したがって、ボタン操作による動作開始などは、マウスなどを用いてマウス ポインタ 220を移動させて所定のボタンをクリックすることで行われることになる。以降 、「クリックする」ことを「押す」と便宜上表現することにする。
[0033] 図 4は、モニタ手段 102に設けられたタグ確認画面の一例を示す図である。
[0034] 図 4に示すタグ確認画面 300には、タグ履歴画面 301とタグ修正ボタン 302が設け られている。タグ履歴画面 301は、コンテンツに付加されたタグの履歴を表示する。ま た、タグ修正ボタン 302は、タグ履歴画面 301に表示されたタグのいずれを修正する かを選択するためのものである。なお、タグ確認画面 300も、コンテンツ表示画面 20 1と同様の GUIが採用されて 、る。
[0035] 図 5は、モニタ手段 102に設けられたタグ修正画面の一例を示す図である。
[0036] 図 5に示すタグ修正画面 400には、タグ修正前画面 401、タグ修正後画面 402、お よび終了ボタン 403が設けられている。タグ修正前画面 401は、タグ確認画面 300で 修正することが選択されたタグの内容を表示する。タグ修正後画面 402は、タグ修正 前画面 401と同じタグをコピーして表示し、表示内容に対する修正を受け付ける。終 了ボタン 403は、タグ修正後画面 402の修正後の表示内容でタグを修正することを 決定するためのものである。なお、タグ修正画面 400も、コンテンツ表示画面 201お よびタグ確認画面 300と同様の GUIが採用されている。
[0037] 次に、上記コンテンツタグ付け支援装置 100を用いたタグ付け作業およびタグ修正 作業の各手順について、図 6および図 7に示すフローチャートを用いて説明する。
[0038] まず、タグ付け作業の手順について、図 6を用いて説明する。
[0039] はじめに、映像信号が撮影カメラ(図示せず)など力も入力され、その映像がコンテ ンッ表示画面 201に表示される。作業者は、コンテンツ表示画面 201を見ながら、録 画開始ボタン 203を押す。コンテンツタグ付け支援装置 100の録画手段(図示せず) は、録画開始ボタン 203が押されると、コンテンツ録画を開始する(ステップ S1100)
[0040] 続いて、コンテンツ再生手段 101は、再生開始ボタン 210が押されると、コンテンツ 再生を開始する (ステップ S1200)。具体的には、前記した再生信号を出力すること により、モニタ手段 102に対して、図 3に示すタグ付け画面 200を表示させる。
[0041] 続いて、音声認識手段 104は、音声認識開始ボタン 206が押されると、音声認識を 開始する(ステップ S 1300)。
[0042] 次に、作業者は、コンテンツ表示画面 201に表示された再生映像を見ながら、付け たいタグを発声し、作業を終了するまで、タグを生成するための発声を繰り返す。す なわち、音声認識手段 104は、このような発声による音声が入力されるのを監視する (ステップ S 1400)。
[0043] 例えば、テニスの試合の映像であれば、作業者は、「サーブ」、「バックハンド」、「ボ レー」、「フォアハンド」、「スマッシュ」などの、タグを生成するための単語を発声する。 音声認識手段 104は、入力手段 106を介して音声が入力されると (ステップ S 1400 : YES)、入力された音声のそれぞれに対して、音声認識手段 104により音声認識処 理を行い、テキストイ匕する(ステップ S1500)。
[0044] タグ生成手段 103は、認識結果であるテキストデータと発声時刻のタイムコードとを 結びつけてタグを生成し、生成したタグをモニタ手段 102へ出力する (ステップ S160 0)。発声時刻は、発声開始時刻であることが望ましい。タイムコードは、コンテンツ再 生手段 101から受け取る。
[0045] モニタ手段 102は、図 3に示すタグ付け画面 200のタグ表示画面 202の表示内容 を更新するとともに、図 4に示すタグ確認画面 300を表示して、入力されたタグを表示 する(ステップ S1700)。すでにタグ確認画面 300を表示している場合には、入力さ れたタグを追加表示する。
[0046] なお、上記タグ付け作業の手順にぉ 、て、ステップ S1100〜ステップ S 1300の開 始手順は、連動させて、一つのボタンを押すことで実行するようにすれば、作業の簡 素化が図れ、操作時間の無駄を省くことができる。
[0047] 図 4に示すように、タグ確認画面 300のタグ履歴画面 301には、生成されたタグの 履歴が表示されるので、作業者は、タグ付けのための発声の合間に確認することが できる。作業者は、音声認識の誤りによるタグの誤りを見つけた場合、タグ確認画面 3 00の右側に付いているタグ修正ボタン 302を押す。この例では、 2行目の「バックハ ンド」を「バックボレー」に修正する場合として、その右側に位置するタグ修正ボタン 3 02力押されたとする。
[0048] タグ修正手段 108は、ステップ S1700でタグが表示されると、タグ修正ボタン 302が 押されるのを監視する (ステップ S1800)。なお、音声が入力されない場合も (ステツ プ S1400 :NO)、コンテンツタグ付け支援装置 100の処理は、このステップ S1800 へ進む。タグ修正ボタン 302が押されると(ステップ S1800 : YES)、コンテンツタグ付 け支援装置 100は、タグ修正処理を実行する (ステップ S1900)。
[0049] ここで、タグ修正作業の手順にっ 、て、図 7を用いて説明する。
[0050] 作業者は、タグの修正を行うのに先立って、一時停止ボタン 209を押す。コンテンツ 再生制御手段 109は、一時停止ボタン 209が押されると、コンテンツ再生を一時停止 させる(ステップ S 1910)。
[0051] タグ修正画面 400には、前述のように、タグ修正前画面 401とタグ修正後画面 402 があり、修正後タグとして、予め修正前タグをコピーしてある。したがって、作業者は、 修正前タグをマウスとキーボードなどの入力手段 107を使って修正することができる。 このようにして、タグの修正が行われる(ステップ S 1920)。図 5の例では、「バックハン ド」を「バックボレー」に修正した場合を示して 、る。
[0052] 作業者は、その修正結果を確認した後、終了ボタン 403を押す。タグ修正手段 108 は、終了ボタン 403が押されると (ステップ S1930 : YES)、コンテンツ再生制御手段 109に対してその旨を通知する。コンテンツ再生制御手段 109は、この通知を受けて 、コンテンツ再生の設定を行う(ステップ S1940)。具体的には、コンテンツの再生速 度を、標準の速度よりも高く設定する。この再生速度の設定については、後に詳しく 説明する。
[0053] 次に、作業者は、再生開始ボタン 210を押す。タグ修正手段 108は、再生開始ボタ ン 210が押されると、タグ修正作業の終了をコンテンツ再生制御手段 109に通知する 。コンテンツ再生制御手段 109は、この通知を受けて、ステップ S 1940で設定された 再生速度で、一時停止された場所力もコンテンツ再生を再開させ (ステップ S1950) 、図 6の処理へ戻る。
[0054] なお、上記手順において、図 6のステップ S1800と図 7のステップ S1910は連動さ せて、一つのボタンで実行させることにより、作業の簡素化が図れ、マウスの移動や ボタンの確認等に要する操作時間の無駄を省くことができる。具体的には、たとえば 、タグ修正手段 108は、タグ修正ボタン 302が押されたことを検出すると、タグ修正の 開始をコンテンツ再生制御手段 109へ通知し、コンテンツ再生制御手段 109は、この 通知を受けたときに、コンテンツ再生手段 101に対してコンテンツの再生の一時停止 を指示するようにすればよい。また、図 7のステップ S1930〜ステップ S1950も同様 に連動させることで、同様の効果が得られる。具体的には、たとえば、タグ修正手段 1 08は、終了ボタン 403が押されたときをタグ修正作業の終了とし、コンテンツ再生制 御手段 109は、コンテンツ再生の設定を完了したときにコンテンツの再生を再開させ るようにすればよい。
[0055] 図 6に戻って説明を続ける。タグ付けおよびタグ修正がまだ終了していない場合に は(ステップ S2000: NO)、ステップ S 1400へ戻る。
[0056] 以降、ステップ S 1400〜ステップ S2000を繰り返し、タグ付けおよびタグ修正がす ベて終了すると (ステップ S2000 : YES)、音声認識手段 104は、音声認識を終了す る(ステップ S2100)。次いで、コンテンツ再生手段 101は、コンテンツ再生を終了し( ステップ S2200)、録画手段は、コンテンツ録画を終了する(ステップ S2300)。これ により、コンテンツタグ付け支援装置 100は、一連の処理を終了する。また、同様に、 ステップ S2000〜ステップ S2300の終了手順も、連動させて、一つのボタンを押すこ とで実行するようにすれば、作業の簡素化が図れ、操作時間の無駄を省くことができ る。例えば、録画開始ボタン 203が再度押された場合に録画を終了し、録画されたコ ンテンッが全て再生されたときに、コンテンツの再生と音声認識を終了するようにす ればよい。
[0057] ところで、音声認識の誤りは、発声と認識結果が異なる置換誤りと、発声していない のに認識結果が出力される挿入誤りと、発声しても認識結果が出力されない削除誤 りとの 3通りに分類される。
[0058] 図 6のステップ S1800において、それぞれの誤りが発見されて修正ボタンが押され た後、図 7のステップ S1920における修正の内容は異なる。すなわち、置換誤りにお いては、音声認識結果部分を修正する。この場合、音声認識結果の 1位候補の結果 だけでなぐ下位の候補結果を表示し、その中から選択させることで、キーボードで入 力するよりも高速な修正が可能となる。キーボードでの入力は、候補内に正解が無い 場合のみでよい。または、部分的に合っている候補がある場合には、その候補を選 択した後に、合っていない部分を、キーボードを使って修正すればよい。
[0059] また、挿入誤りの場合には、タグ全体を消去することで修正が行える。この場合には 、消去ボタンを用意しておけば、一瞬で修正が行える。さらに、削除誤りの場合には、 図 6のステップ S1800の後に、認識結果が出力されるまで、発声し直す必要がある。 必要に応じて、図 7のステップ S1920において、タグの時間情報部分を修正する(言 い直しによる遅れに相当する時間を差し引く)。
[0060] 以上の手順により、タグ修正作業中には、コンテンツの再生を一時停止するので、 タグ修正作業中に先へと進んでしまったコンテンツの再生位置を戻すと 、つた作業 が不要となる。したがって、このような作業による時間増加を抑制して、一人でのタグ 付け作業が可能になる。しかし、コンテンツの再生を止めている間の時間は、タグ付 け作業である再生時間にカ卩えて必要になる。そこで、図 7のステップ S1940で、再開 後のコンテンツの再生速度を、コンテンツの再生の一時停止前の再生速度の 1倍より も早く設定しておき、図 7のステップ S1950でコンテンツの再生を再開する。これによ り、録画中の映像からの遅れに追いつくまでは高速に再生し、追いついたら 1倍の速 度で再生し、その再生映像に沿って、タグ作業を行うことが可能となる。
[0061] 前記再開後のコンテンツの再生速度の設定は、具体的には、例えば、以下のように して行う。
[0062] 図 8は、このような再生速度を設定するための再生速度設定画面 701を示している 。再生速度設定画面 701は、モニタ手段 102に設けられており、例えば、コンテンツ 録画に先立って表示される。作業者は、この画面で空欄になっている、 1分当りの修 正回数と 1回当りの修正時間とを入力し、計算ボタン 702を押す。コンテンツタグ付け 支援装置 100に設けられた演算装置 (図示せず)は、推奨する再生速度を、例えば、 一例として、単位時間 Z{単位時間 (単位時間当りの修正回数) X (1回当りの修正 時間(sec) ) }なる式より算出して、表示する。そして、ここに表示される数値を、別途 用意したシステム設定機能 (図示せず)により、再生再開後の再生速度 (以下「再開 後再生速度」 t 、う)としてコンテンツ再生制御手段 109へ入力する。
[0063] 以上の、単位時間(1分)当りの修正回数や、 1回当りの修正時間は、経験から把握 してもよいし、実際に、短時間のサンプルでタグ入力、タグ修正を行ってみて、実測し てもよい。また、単位時間(1分)当りの修正回数は、単位時間(1分)当りの発声回数 (発生頻度)に音声認識の誤認識確率 (誤認識頻度)を掛け算することにより求めるこ とがでさる。
[0064] コンテンツ再生制御手段 109は、このようにして入力された再開後再生速度を、図 7 のステップ S1940で、コンテンツ再生速度に設定する。そして、例えば、コンテンツ再 生制御手段 109で、再生映像が録画映像に追いつくのを監視し、追いついた時点 でコンテンツ再生速度を標準速度に戻すようにする。これにより、タグ修正による再生 映像の録画映像に対する遅れを取り戻すことができ、タグ付け作業時間の増大を抑 ff¾することができる。
[0065] なお、コンテンツ再生速度の設定にっ 、て、上記以外の各種手法を適用することも 可能である。
[0066] 例えば、コンテンツの総再生時間が予め分力つている場合には、コンテンツを一時 停止せずに再生した場合の本来の再生残り時間と、タグ修正で発生した遅れ時間の 累積との関係で、タグ修正が終了するたびに動的に再開後再生速度を決定するよう にしてもよい。
[0067] また、野球ならば 2倍速、バスケットボールならば 1.2倍速など、スポーツの種類など のコンテンツ内容に応じて再開後再生速度を設定するようにしてもよい。具体的には
、例えば、コンテンツ再生制御手段 109で、コンテンツ種類に対応付けて再開後再 生速度の設定値を記述したテーブルを用意しておき、再生されるコンテンツの種類を 判別または選択して、テーブルで該当する再開後再生速度を採用する。これにより、 コンテンツの種類ごとにタグ付け作業が可能な再生速度が異なる場合に、適切な範 囲で再開後再生速度を設定することができる。
[0068] コンテンツ内容の種類を判別するには、たとえば、コンテンツの種類ごとに専門用 語や選手名などを記述したテーブルをさらに用意しておき、コンテンッの最初の所定 区間で音声認識を行 、、抽出された言葉をこのテーブルで検索するようにすればよ い。
[0069] また、コンテンツの再生内容の盛り上がりの度合いを検出する盛り上がり検出手段 を動力しておき、盛り上がっていないところはより高速に再生するなど、盛り上がり度 に応じてコンテンツの再生速度を制御するようにしてもよい。具体的には、例えば、コ ンテンッ再生制御手段 109に、コンテンツの音量がしきい値を超える力否かを監視す る盛り上がり検出部を設け、コンテンツ再生制御手段 109で、しきい値を超えることが 検出された区間を盛り上がり区間に設定する。このような技術の詳細については、例 えば、特許第 2960939号公報に記載されているため、ここでの説明を省略する。そ して、タグ修正後にコンテンツ再生を再開した際には、盛り上がり区間は標準の速度 で再生させ、他の区間は標準速度よりも高い速度で再生させる。
[0070] スポーツの試合などでは、通常、見どころの場面で観客の声が大きくなる。このよう な場面では、タグ付けが頻繁に行われる場合が多い。したがって、このように盛り上が り度に対応して再生速度を設定することにより、タグ付けの頻度に応じて再生速度を 変化させることができ、タグ付けの作業性を損なうことなぐタグ付け作業時間の増大 を抑制することが可能となる。 [0071] また、コンテンツ再生を設定する際に、再生を開始する場所を設定するようにしても よい。
[0072] 例えば、タグ修正画面 400に、一時停止された場所ではなぐ 10秒など、予め設定 した時間だけ戻るためのボタンを用意する。そして、コンテンツ再生制御手段 109は 、このボタンが押された場合には、一時停止された場所力も設定された時間だけ戻つ たところ力も再生を開始させ、タグ付けを続行させる。これにより、例えば、タグ修正ボ タン 302を押すタイミングが遅れた場合や、再生再開時に直前の再生内容を確認す る必要があるような場合でも、少し前力 コンテンツ再生が開始されるため、作業者は 高速再生時においても安心してタグ付け作業を行うことができる。
[0073] また、コンテンツ再生を設定する際に、コンテンツ再生速度を設定するのではなぐ 再生を開始する場所のみを設定するようにしてもょ ヽ。
[0074] 例えば、コンテンツ再生制御手段 109は、一時停止された場所から現在の録画時 刻に対応する場所までが、タグ付けが不要な区間であることを、判別または選択する 。そして、タグ付けが不要な区間をスキップして、現在の録画時刻から再生を開始さ せる。これにより、例えば、現在録画中のコンテンツを再生している場合であって、ス ポーッ中継で、タイムアウトの途中などタグ付け不要の場合に、現在の録画時刻まで スキップすることができる。したがって、タグ付けの作業性を損なうことなぐタグ付け 作業時間の増大を抑制することができる。
[0075] また、スキップする時刻は、録画の現在時刻だけでなぐコンテンツの場面の切り替 わりを検出するシーンチェンジ検出手段を動かしておき、コンテンツ再生制御手段 1 09が、シーンチェンジ時刻の静止画一覧をスキップ先候補として提示し、作業者に いずれかを選択させるようにしてもよい。これにより、作業者がより適切なスキップ先を 指定することができる。シーンチェンジ検出手段は、例えば、画像のヒストグラムを間 欠的に算出し、ヒストグラムが大きく変化したタイミングをシーンチェンジ時刻と判別す るようにすればよい。このような技術の詳細については、例えば、特許第 3175632号 公報に記載されているため、ここでの説明を省略する。
[0076] 以上説明したように、本実施の形態のコンテンツタグ付け支援装置 100によれば、 コンテンツ再生制御手段 109を備えることにより、タグ修正の開始と同期してコンテン ッの再生を一時停止し、タグ修正の終了と同期してコンテンツの再生を再開するよう に、修正作業と連動した再生制御が可能となる。その結果、タグ付けとタグ修正の両 作業を一人で行うことができ、かつ、作業時間の増加を抑制することができる。したが つて、コンテンツの二次利用を容易にするタグをコンテンツに付加させる作業を、より 低コストで実現することができ、コンテンツ配信サービスの向上を図ることができる。
[0077] なお、本実施の形態にお!、て、タグ修正作業時の入力手段として、キーボードやマ ウスを使用する例を説明したが、マイクなどを使用してもよい。
[0078] また、本実施の形態にお!、ては、映像を録画しながら再生し、タグ付けを行う例に ついて説明した力 予め録画した映像を再生しながらタグ付けを行うことも同じ枠組 みで可能である。その際、タグ付け終了の目標時間を設定して、上記したように高速 再生の再生速度を動的に設定することができる。
[0079] 要するに、本発明のコンテンツタグ付け支援装置は、音声をテキストイ匕してコンテン ッのタグとして出力するコンテンッタグ付け支援装置であって、前記コンテンッを再生 するコンテンツ再生手段と、前記タグを生成するタグ生成手段と、前記コンテンツに 付与されたタグを修正するようにタグ修正情報を前記タグ生成手段に送るタグ修正手 段と、前記タグ修正手段からのタグ修正の開始と終了を通知するタグ修正開始終了 通知情報に基づき、前記コンテンツの再生を制御するコンテンツ再生制御手段とを 備え、前記コンテンツ再生制御手段は、前記タグ修正の開始と同期して前記コンテン ッの再生を一時停止し、前記タグ修正の終了と同期して前記コンテンツの再生の再 開を行うように制御する再生制御情報を前記コンテンツ再生手段に送る構成を有す る。
[0080] この構成により、一人でタグ付け作業とタグ修正作業を行っても、タグ修正作業の付 加に伴う作業時間の増加を抑制することができる。
[0081] 本発明のコンテンツタグ付け支援装置は、前記コンテンツ再生制御手段が、前記コ ンテンッの再生を一時停止後に再開する場合に、前記コンテンツの再生の一時停止 前の再生速度の 1倍より早い高速再生速度で再生するように前記コンテンツ再生手 段を制御する構成を有する。
[0082] この構成により、一人でタグ付け作業とタグ修正作業を行っても、タグ修正作業の付 加に伴う作業時間の増加分を減少することができる。
[0083] 本発明のコンテンツタグ付け支援装置は、前記コンテンツ再生制御手段が、前記 1 倍より早い高速再生速度を、単位時間 Z (単位時間 単位時間当りの修正回数 X 1 回当りの修正時間)なる式力も算出した値に設定する構成を有する。
[0084] この構成により、一人でタグ付け作業とタグ修正作業を行っても、コンテンツの時間 長とほぼ同じ作業時間でタグ付けおよびタグ修正作業を終了することが可能となる。
[0085] 本発明のコンテンツタグ付け支援装置は、前記コンテンツ再生制御手段が、上記 1 倍以上の再生速度を、スポーツの競技の種類などディジタルコンテンツ内容に応じて 予め設定する構成を有する。
[0086] この構成により、ディジタルコンテンツ内容に応じて、コンテンツの再生を一時停止 後に再開する場合の再生速度を変えることができる。
[0087] 本発明のコンテンツタグ付け支援装置は、上記コンテンツ再生制御手段が、予め設 定された時間だけ前に戻ってコンテンツ再生を再開させる構成を有する。
[0088] この構成により、一時停止させるタイミングが遅れた場合や、再生再開時に直前の 再生内容を確認する必要があるような場合でも、少し前力 コンテンツ再生を開始で きるため、作業者は高速再生時においても安心してタグ付け作業を行うことができる
[0089] 本発明のコンテンツタグ付け支援装置は、さらに盛り上がり検出手段を含み、上記 コンテンツ再生制御手段力 前記ディジタルコンテンツ再生を停止して再開する際に 、盛り上がりに応じた再生速度になるように再生速度を制御する構成を有する。
[0090] この構成により、タグ付けの頻度がコンテンツの盛り上がりに応じて変化する場合に 、タグ付けの頻度に対応して再生速度を変化させることができ、タグ付けの作業性を 損なうことなぐタグ付け作業時間の増大を抑制することができる。
[0091] 本発明のコンテンツタグ付け支援装置は、上記コンテンツタグ付け支援装置はさら に録画手段を含み、上記コンテンツ再生制御手段力 前記ディジタルコンテンツ再生 を停止して再開する際に、現在の録画時刻までスキップできる構成を有する。
[0092] この構成により、コンテンツの一時停止された場所力も現在の録画時刻までの区間 でタグ付けが不要な場合に、この区間の再生をスキップすることができ、タグ付けの 作業性を損なうことなぐタグ付け作業時間の増大を抑制することができる。
[0093] 本発明のコンテンツタグ付け支援装置は、上記コンテンツ再生制御手段が、前記 ディジタルコンテンツ再生を停止して再開する際に、 1つまたはそれ以上のスキップ 先候補を提示する構成を有する。
[0094] この構成により、コンテンツにタグ付けが不要な区間が含まれる場合に、この区間の 再生をスキップすることができ、タグ付けの作業性を損なうことなぐタグ付け作業時 間の増大を抑制することができる。また、作業者がより適切なスキップ先を指定するこ とがでさる。
[0095] 本発明のコンテンツタグ付け支援方法は、音声認識を利用し、コンテンツを再生し て、前記コンテンツにタグを付与するコンテンツタグ付け支援方法であって、前記コン テンッに付与されたタグを修正するタグ修正の開始と同期して前記コンテンツの再生 を一時停止して、タグの修正を行い、前記タグ修正の終了と同期して前記コンテンツ の再生を再開する構成を有する。
[0096] この構成により、一人でタグ付け作業とタグ修正作業を行っても、タグ修正作業の付 加に伴う作業時間の増加を抑制することができる。
[0097] 本発明のコンテンツタグ付け支援方法は、前記コンテンツの再生再開後の前記コン テンッの再生速度を、前記コンテンツの再生の一時停止前の再生速度より早く設定 した構成を有する。
[0098] この構成により、一人でタグ付け作業とタグ修正作業を行っても、タグ修正作業の付 加に伴う作業時間の増加分を減少することができる。
[0099] 本明細書は、 2005年 6月 13日出願の特願 2005— 172001及び 2006年 6月 8日 出願の特願 2006— 160310に基づく。この内容はすべてここに含めておく。
産業上の利用可能性
[0100] 本発明に係るコンテンツタグ付け支援装置およびコンテンツタグ付け支援方法は、 タグ付きのコンテンツを制作し、コンテンツの資産価値を増大させるので、業務用シス テムの一部として有用である。また、ホームムービーや家庭用ビデオサーバー等の用 途にも応用できる。

Claims

請求の範囲
[1] コンテンツのタグ付け作業を支援するコンテンツタグ付け支援装置にぉ 、て、
音声を入力する音声入力手段と、
入力された音声を認識処理する音声認識手段と、
コンテンツを再生するコンテンツ再生手段と、
入力された音声を認識処理して得られたデータを、当該音声が入力された時のコ ンテンッの再生位置に関連付けて、コンテンツのタグとして出力するタグ生成手段と、 コンテンツに付与されたタグを修正するためのタグ修正情報を、前記タグ生成手段 に出力するタグ修正手段と、
コンテンツの再生を制御するための再生制御情報を、前記コンテンツ再生手段に 出力するコンテンツ再生制御手段と、を有し、
前記タグ修正手段は、
前記タグ修正情報に基づくタグ修正作業の開始および終了を通知するタグ修正開 始終了通知情報を、前記コンテンツ再生制御手段に出力し、
前記コンテンツ再生制御手段は、
前記タグ修正手段によって出力されるタグ修正開始終了通知情報に基づいて、タ グ修正作業の開始と同期してコンテンツの再生を一時停止し、タグ修正作業の終了 と同期してコンテンツの再生を再開するように前記コンテンツ再生手段を制御する、 コンテンツタグ付け支援装置。
[2] 前記コンテンツ再生制御手段は、
コンテンツの再生を一時停止後に再開するときの再生速度としての再開後再生速 度を、コンテンツの再生の一時停止前の再生速度の 1倍よりも高く設定する、 請求項 1記載のコンテンツタグ付け支援装置。
[3] 前記コンテンツ再生制御手段は、
前記再開後再生速度を、単位時間 Z (単位時間 単位時間当りの修正回数 X 1回 当りの修正時間)なる式力 算出した値に設定する、
請求項 2記載のコンテンツタグ付け支援装置。
[4] 前記コンテンツ再生制御手段は、 前記再開後再生速度を、前記コンテンツ再生手段が再生するコンテンツの種類に 応じて変更する、
請求項 2記載のコンテンツタグ付け支援装置。
[5] 前記コンテンツ再生制御手段は、
コンテンツの再生を一時停止後に再開するときに、予め設定された時間だけ前にコ ンテンッの再生位置を前に戻す、
請求項 2記載のコンテンツタグ付け支援装置。
[6] 前記コンテンツ再生手段が再生するコンテンツの再生内容の盛り上がりの度合いを 検出する盛り上がり検出手段をさらに有し、
前記コンテンツ再生制御手段は、
前記盛り上がり検出手段による検出結果に応じて前記コンテンツ再生手段によるコ ンテンッの再生速度を変化させる、
請求項 2記載のコンテンツタグ付け支援装置。
[7] 映像を録画しながらコンテンッを生成する録画手段をさらに有し、
前記コンテンツ再生制御手段は、
前記録画手段が生成するコンテンツの再生を一時停止後に再開するときに、最も 後の再生可能位置までスキップする、
請求項 1記載のコンテンツタグ付け装置。
[8] 前記コンテンツ再生制御手段は、
コンテンツの再生を一時停止後に再開するとき、 1つまたはそれ以上の再生位置を 選択肢として提示し、選択された再生可能位置までスキップする、
請求項 1記載のコンテンツタグ付け支援装置。
[9] コンテンツのタグ付け作業を支援するコンテンツタグ付け支援方法にぉ 、て、 再生が開始されたコンテンッに付与されるタグを修正するためのタグ修正作業の開 始を監視するタグ修正開始監視ステップと、
前記タグ修正開始監視ステップでタグ修正作業の開始が検出されると、コンテンツ の再生を一時停止させるコンテンツ再生一時停止ステップと、
前記コンテンッ再生一時停止ステップでコンテンッの再生が一時停止されると、前 記タグ修正作業の終了を監視するタグ修正終了監視ステップと、
前記タグ修正終了監視ステップでタグ修正作業の終了が検出されると、コンテンッ の再生を再開するコンテンツ再生再開ステップと、
を有するコンテンツタグ付け支援方法。
前記コンテンツ再生再開ステップは、
コンテンツの再生の一時停止前の再生速度の 1倍よりも高い再生速度で、コンテン ッの再生を再開する、
請求項 9記載のコンテンツタグ付け支援方法。
PCT/JP2006/311773 2005-06-13 2006-06-12 コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法 WO2006134883A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20060757258 EP1892717A1 (en) 2005-06-13 2006-06-12 Content tag attachment support device and content tag attachment support method
US11/917,063 US20090103901A1 (en) 2005-06-13 2006-06-12 Content tag attachment support device and content tag attachment support method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-172001 2005-06-13
JP2005172001 2005-06-13
JP2006-160310 2006-06-08
JP2006160310A JP4659681B2 (ja) 2005-06-13 2006-06-08 コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法

Publications (1)

Publication Number Publication Date
WO2006134883A1 true WO2006134883A1 (ja) 2006-12-21

Family

ID=37532245

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/311773 WO2006134883A1 (ja) 2005-06-13 2006-06-12 コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法

Country Status (4)

Country Link
US (1) US20090103901A1 (ja)
EP (1) EP1892717A1 (ja)
JP (1) JP4659681B2 (ja)
WO (1) WO2006134883A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11114129B2 (en) 2017-05-30 2021-09-07 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5072492B2 (ja) * 2007-09-05 2012-11-14 パナソニック株式会社 超音波診断装置
US8935204B2 (en) * 2009-08-14 2015-01-13 Aframe Media Services Limited Metadata tagging of moving and still image content
GB2472650A (en) * 2009-08-14 2011-02-16 All In The Technology Ltd Metadata tagging of moving and still image content
JP4865068B1 (ja) 2010-07-30 2012-02-01 株式会社東芝 録再装置及び録再装置のタグリスト生成方法及び録再装置の制御装置
KR101336256B1 (ko) * 2012-02-03 2013-12-06 한국과학기술원 음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치
US20150066925A1 (en) * 2013-08-27 2015-03-05 Qualcomm Incorporated Method and Apparatus for Classifying Data Items Based on Sound Tags
US9304657B2 (en) 2013-12-31 2016-04-05 Abbyy Development Llc Audio tagging
CN106453654B (zh) * 2016-12-01 2019-10-22 北京云族佳科技有限公司 一种远程工作计时方法及系统
JP6893606B2 (ja) 2017-03-20 2021-06-23 達闥机器人有限公司 画像のタグ付け方法、装置及び電子機器
TWI626432B (zh) * 2017-06-15 2018-06-11 明新科技大學 光束品質量測裝置
US20220312079A1 (en) * 2021-03-23 2022-09-29 Rovi Guides, Inc. Systems and methods to provide adaptive play settings

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03175632A (ja) 1989-12-04 1991-07-30 Mitsubishi Electric Corp 半導体装置およびその製造方法
JP2003272361A (ja) * 2002-03-18 2003-09-26 Ricoh Co Ltd 情報記録再生装置とプログラムとコンピュータ読み取り可能な記録媒体
JP2004086124A (ja) 2002-06-24 2004-03-18 Matsushita Electric Ind Co Ltd メタデータ制作装置及び制作方法
JP2005172001A (ja) 2003-12-12 2005-06-30 Ford Global Technologies Llc エンジンの気筒休止方法
JP2006160310A (ja) 2004-12-07 2006-06-22 Shin Meiwa Ind Co Ltd 荷箱における開閉蓋の開閉支持装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993007562A1 (en) * 1991-09-30 1993-04-15 Riverrun Technology Method and apparatus for managing information
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
JP2003086124A (ja) * 2001-09-14 2003-03-20 Canon Inc 画像形成装置とその製造方法
CN1663249A (zh) * 2002-06-24 2005-08-31 松下电器产业株式会社 元数据生成装置、其生成方法以及检索装置
EP1611570B1 (en) * 2003-03-31 2017-06-28 Nuance Communications Austria GmbH System for correction of speech recognition results with confidence level indication

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03175632A (ja) 1989-12-04 1991-07-30 Mitsubishi Electric Corp 半導体装置およびその製造方法
JP2003272361A (ja) * 2002-03-18 2003-09-26 Ricoh Co Ltd 情報記録再生装置とプログラムとコンピュータ読み取り可能な記録媒体
JP2004086124A (ja) 2002-06-24 2004-03-18 Matsushita Electric Ind Co Ltd メタデータ制作装置及び制作方法
JP2005172001A (ja) 2003-12-12 2005-06-30 Ford Global Technologies Llc エンジンの気筒休止方法
JP2006160310A (ja) 2004-12-07 2006-06-22 Shin Meiwa Ind Co Ltd 荷箱における開閉蓋の開閉支持装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11114129B2 (en) 2017-05-30 2021-09-07 Sony Corporation Information processing apparatus and information processing method
US11694725B2 (en) 2017-05-30 2023-07-04 Sony Group Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
US20090103901A1 (en) 2009-04-23
JP2007025648A (ja) 2007-02-01
JP4659681B2 (ja) 2011-03-30
EP1892717A1 (en) 2008-02-27

Similar Documents

Publication Publication Date Title
JP4659681B2 (ja) コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法
JP4692775B2 (ja) 映像コンテンツ再生支援方法、映像コンテンツ再生支援システム、及び情報配信プログラム
US20090175596A1 (en) Playback apparatus and method
JP2007522722A (ja) 先行変更位置からのメディア・ストリームの再生
JP2003101939A (ja) 映像情報要約装置、映像情報要約方法及び映像情報要約プログラム
US7149365B2 (en) Image information summary apparatus, image information summary method and image information summary processing program
JP2007060060A (ja) 再生システム、再生装置、再生方法、情報処理装置、情報処理方法、およびプログラム
JP2008312183A (ja) 情報処理装置および方法、並びにプログラム
JP2011211481A (ja) 動画再生装置
JP2007250097A (ja) コンテンツ再生装置、コンテンツ再生再開方法およびコンテンツ再生プログラム
US8768144B2 (en) Video image data reproducing apparatus
JP2002262228A (ja) ダイジェスト作成装置
WO2011158399A1 (ja) コンテンツ再生装置、コンテンツ再生方法、およびコンテンツ再生プログラム
JP2005352330A (ja) 音声分割記録装置
JP2005302155A (ja) 情報再生装置、情報再生方法、コンピュータで実行可能なプログラム、及び記録媒体
JP2002084505A (ja) 映像閲覧時間短縮装置及び方法
JP2010003383A (ja) 放送番組記録再生装置
JP2008154258A (ja) 動画再生装置、動画再生方法及びそのコンピュータ・プログラム
JP2007228624A (ja) 動画再生装置、動画再生方法及びそのコンピュータ・プログラム
JP2009141586A (ja) マルチメディアデータ再生方法
JP2007174074A (ja) 再生装置
JP2003223176A (ja) スピーチ近似データによる字幕用データ作成・編集支援システム
US20200236440A1 (en) Media-aware navigation metadata
JP5516641B2 (ja) 放送番組記録再生装置
JP3704968B2 (ja) マルチメディア編集装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680021157.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006757258

Country of ref document: EP

Ref document number: 11917063

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006757258

Country of ref document: EP