WO2015019774A1 - データ生成装置、データ生成方法、翻訳処理装置、プログラム、およびデータ - Google Patents

データ生成装置、データ生成方法、翻訳処理装置、プログラム、およびデータ Download PDF

Info

Publication number
WO2015019774A1
WO2015019774A1 PCT/JP2014/068053 JP2014068053W WO2015019774A1 WO 2015019774 A1 WO2015019774 A1 WO 2015019774A1 JP 2014068053 W JP2014068053 W JP 2014068053W WO 2015019774 A1 WO2015019774 A1 WO 2015019774A1
Authority
WO
WIPO (PCT)
Prior art keywords
translation
data
scene
video content
unit
Prior art date
Application number
PCT/JP2014/068053
Other languages
English (en)
French (fr)
Inventor
毅 金子
伊藤 典男
嬋斌 倪
アルムガム ジャワハ
ラジャゴパル アヌパマ
ナタラジャン シータラマン
ジャヤンティ スダカ
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2015019774A1 publication Critical patent/WO2015019774A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Definitions

  • the present invention mainly relates to a data generation device that generates data to be referred to for translation of text or speech by a translation processing device, and a translation processing device that translates text or speech using the data.
  • each content includes subtitle data in the language of the country in which the content is distributed and audio data in the language in addition to video data.
  • subtitle data in the language of the country in which the content is distributed
  • audio data in the language in addition to video data.
  • Creators of content can take the following two methods to perform such translation work.
  • Method 1 A machine translation device (for example, a computer installed with machine translation software) that translates a sentence written in a source language into a target language is introduced, and translation work is performed using the machine translation device.
  • a machine translation device for example, a computer installed with machine translation software
  • Method 2 A translator who is familiar with both the source language and the target language is secured, and the translation work is performed without using a machine translation device.
  • Patent Document 1 various techniques for improving the quality of machine translation have been developed. Examples of such a technique are disclosed in Patent Document 1 and Patent Document 2. Technology.
  • Patent Document 1 discloses a machine translation device including an XC translation engine that translates a sentence described in a source language X into an intermediate language C, and a CY translation engine that translates the intermediate language C into a target language Y.
  • the XC translation engine translates an original sentence described in the source language X into a predetermined intermediate language C sentence, and adds annotation information obtained by this translation to the intermediate language C sentence. It is like that.
  • the CY translation engine refers to the annotation information added to the intermediate language C sentence, and translates the intermediate language C sentence into the target language Y sentence.
  • Patent Document 2 uses a first predefined symbol assigned to a variable text element such as a verb, a second predefined symbol, and supplementary information (gender of the verb subject, etc.) in the target language.
  • a variable text element such as a verb, a second predefined symbol, and supplementary information (gender of the verb subject, etc.) in the target language.
  • supplementary information gender of the verb subject, etc.
  • Patent No. 4410486 Japanese Patent Publication “Patent No. 4410486” (published on November 25, 2004) Japanese Patent Publication “Patent No. 5172348” (announced on June 12, 2008)
  • the machine translation device disclosed in Patent Document 1 has a problem in that it cannot adequately translate the lines. This is because the annotation information referred to when the machine translation device of Patent Literature 1 translates the sentence of the intermediate language C into the sentence of the target language Y is not obtained in consideration of the situation where the words are used.
  • Method 1 As is well known, with respect to method 1, it is not possible to obtain a translation with sufficient quality even if a general machine translation device is used. Also, Method 2 has a problem that it takes time and money to secure translators who are familiar with both the source language and the target language when the source language sentences are translated into various target languages. .
  • the present invention has been made in view of the above problems, and its main purpose is to require a translator who is familiar with both the source language and the target language for appropriate translation considering the situation in which the language is used. It is to realize a translation processing apparatus that can be realized without the above. It is also possible to realize a data generation apparatus capable of generating auxiliary translation data that is referred to when such a translation processing apparatus translates a sentence in the source language into a target language by the operation of an operator who is familiar only with the source language. Included in the purpose.
  • a data generation device includes a video presentation unit that presents video content including data indicating subtitles or audio in a source language to a user, and the video content being presented
  • accepting means for accepting designation of translation auxiliary information to be used for translating the subtitles or the audio of the scene from the user, a period during which the scene is reproduced and the scene Generating means for generating auxiliary translation data in which the correspondence relationship with the auxiliary translation information to be used for subtitle or audio translation is indicated for each scene.
  • a data generation method is a data generation method of a data generation device, and presents video content including data indicating subtitles or audio in a source language to a user.
  • This is a data generation method.
  • a translation processing device includes a translation processing unit that machine-translates subtitles or audio in a source language indicated by data included in video content into a target language.
  • the translation processing means is configured to translate, for each scene, the subtitle or the audio of the scene into the target language using a bilingual dictionary and the translation auxiliary information of the scene. ing.
  • the data according to one embodiment of the present invention includes, for each scene of video content including data indicating source language subtitles or audio, a period during which the scene is reproduced, and the above-described data of the scene. This is data indicating the correspondence with subtitles or translation assistance information used for translation of the voice.
  • the translation processing apparatus and the translation processing method according to the present invention can realize appropriate translation in consideration of situations where words are used without requiring a translator who is familiar with both the source language and the target language.
  • the data generation apparatus and the data generation method according to the present invention generate translation auxiliary data that is referred to when such a translation processing apparatus translates a sentence in the source language into a target language by an operation of an operator who is familiar with only the source language. it can.
  • Embodiment 1 A distribution system according to an embodiment of the present invention will be described.
  • the distribution system includes a distribution device and a television receiver (hereinafter abbreviated as “TV”).
  • TV television receiver
  • the distribution device distributes video content including subtitles and audio in the original language to the television.
  • the television is configured to reproduce the distributed video content so that the subtitles in the language according to the subtitle setting of the own device are displayed.
  • the television machine translates the caption of the original language into the language according to the caption setting of the device. ing.
  • the TV uses a bilingual dictionary in which the meaning of each word of the source language is indicated by the target language in order to machine-translate subtitles, and supplementarily uses translation assistance data distributed from the distribution device It is like that.
  • the distribution apparatus has not only a function of distributing video content but also a function that enables an operator to create translation assistance data. This function will be described in detail later.
  • FIG. 1 is a block diagram illustrating a main configuration of a distribution system according to the present embodiment, and a distribution apparatus and a television included in the distribution system.
  • the distribution system includes a distribution device 100 and a television 200. First, the configuration of the distribution apparatus 100 will be described.
  • the distribution apparatus 100 includes an operation reception unit 110, a reproduction unit 120, a display unit 130, a caption analysis unit 140, an HDD (hard disk drive) 150, a distribution unit 160, a broadcast transmission unit 170, and a communication I / O.
  • An F (communication interface) unit 180 is provided.
  • the operation reception unit 110 receives various operations for creating auxiliary translation data used by the television 200 to machine-translate video content subtitles (original language subtitles) into a target language. For example, the operation reception unit 110 receives an operation of an operator who specifies a target language.
  • Playback unit 120 When the operation accepting unit 110 accepts a user operation that activates the auxiliary data creation tool, the reproduction unit 120 activates the auxiliary data creation tool.
  • the playback unit 120 displays video and original language subtitles on the display unit 130 by playing back the video content designated on the auxiliary data creation tool, and the original language audio is displayed on a speaker (not shown). Output from.
  • Display unit 130 It is a display on which video and original language subtitles are displayed.
  • the caption analysis unit 140 analyzes captions in the original language. Specifically, for each word constituting the subtitle, it is determined whether or not translation auxiliary information is necessary for translating the word into the target language designated by the operator.
  • the caption analysis unit 140 determines whether the noun “hiromi” that can be used as both a male name and a female name is a male noun or a female noun. Is determined to be necessary.
  • the caption analysis unit 140 determines that translation assistance information is necessary, the caption analysis unit 140 displays a UI object for allowing the operator to designate the translation assistance information. For example, the caption analysis unit 140 displays a list box for allowing the operator to select either “male noun” or “female noun” for the noun “hiromi”.
  • the HDD 150 is a recording medium that stores auxiliary data creation tools, video content, dictionary data of various bilingual dictionaries, and font data of various languages.
  • the HDD 150 stores translation assistance data including the translation assistance information specified by the operator.
  • the distribution unit 160 encodes each stream of video content (video stream, audio stream, subtitle stream, data broadcast stream, etc.) for each stream via the broadcast transmission unit 170.
  • Distribution section 160 distributes the multiplexed stream obtained by multiplexing the encoded stream group by broadcasting, and distributes the translation assistance data to television 200 via communication I / F section 180. .
  • the broadcast transmission unit 170 transmits the data supplied from the distribution unit 160 on a broadcast wave.
  • the communication I / F unit 180 transmits a communication signal including data supplied from the distribution unit 160 to the network.
  • a television 200 includes a data acquisition unit 210, a tuner unit 220, a communication I / F (communication interface) unit 230, a playback unit 240, a translation processing unit 250, an HDD (hard disk drive) 260, and a display unit. 270.
  • the data acquisition unit 210 acquires data (such as video content and auxiliary translation data) from the broadcast signal and communication signal transmitted by the distribution apparatus 100.
  • the tuner unit 220 is a tuner that receives a broadcast signal including video content.
  • the communication I / F unit 230 is a communication interface used for communication with the distribution apparatus 100.
  • the reproduction unit 240 reproduces the video content so that the subtitles in the language corresponding to the subtitle setting of the television 200 are displayed.
  • the translation processing unit 250 translates the captions of the video content (original language (source language) captions) into a language (target language) according to the caption setting of the television 200.
  • the translation processing unit 250 uses dictionary data (bilingual dictionary data in which the meaning of each word in the source language is indicated by the target language) held in the HDD 260 and translation assistance data acquired from the distribution device 100. The above translation is performed by referring.
  • the HDD 260 is a recording medium that holds dictionary data of various bilingual dictionaries and font data of various languages.
  • the HDD 260 stores video content and translation assistance data distributed by the distribution device 100.
  • Display unit 270 It is a display on which video and target language subtitles are displayed.
  • the configuration of the distribution device 100 and the television 200 has been described above.
  • FIG. 2 is a flowchart showing the operation.
  • FIG. 3 is a diagram illustrating a UI screen (UI screen for allowing the operator to specify a source language) of the auxiliary data creation tool.
  • FIG. 4 is a diagram exemplifying a UI screen (UI screen for allowing the operator to specify translation assistance information) of the auxiliary data creation tool.
  • the auxiliary data creation tool is installed in the HDD 150, and the operator can create translation auxiliary data by starting the auxiliary data creation tool.
  • the playback unit 120 After starting the auxiliary data creation tool, the playback unit 120 displays the initial screen of the auxiliary data creation tool as shown in FIG. 2 (step S1). When the operator selects a file name of video content for which translation assistance data is to be created on the initial screen, the playback unit 120 displays the UI screen shown in FIG. 3 and starts playback of the video content.
  • the reproduction unit 120 determines whether or not the “end” button has been pressed (step S2) and whether or not the source language has been specified (step S3). In step S2, the “end” button is pressed. It repeats until it determines, or it determines with the source language having been designated in step S3.
  • the reproduction unit 120 determines that the “end” button has been pressed in step S2, the reproduction unit 120 ends the operation for creating the auxiliary translation data by ending the auxiliary data creation tool.
  • step S3 when the playback unit 120 determines that the source language is specified in step S3, the playback unit 120 ends the playback of the video content and displays a UI screen for allowing the operator to specify the target language, and then proceeds to step S4.
  • This UI screen may be configured so that only one target language can be selected, or may be configured so that a plurality of target languages can be selected.
  • the playback unit 120 repeats the determination of whether or not the target language has been specified (step S4) until it is determined that the target language has been specified.
  • step S4 If the playback unit 120 determines that the target language has been specified in step S4, the playback unit 120 sets the first scene of the video content (first scene among a plurality of predefined scenes) as the target scene (step S5). ) And repeat reproduction of the target scene is started (step S6).
  • step S6 in parallel with the repeated reproduction by the reproduction unit 120, the distribution apparatus 100 executes the following steps S7 and S8.
  • the caption analysis unit 140 analyzes the caption text of the target scene, and for all or a part of the words included in the caption text, an object (for example, an object necessary for the operator to specify translation assistance information to be given to the words) , The aforementioned list box) is displayed (step S7).
  • an object for example, an object necessary for the operator to specify translation assistance information to be given to the words
  • the aforementioned list box is displayed (step S7).
  • the UI screen illustrated in FIG. 4 is displayed. Step S7 will be described in detail later.
  • step S7 the reproducing unit 120 repeats the determination of whether or not the designation of the translation auxiliary information has been completed (step S8) until it is determined that the designation of the translation auxiliary information has been completed.
  • step S8 the reproducing unit 120 ends the repeated reproduction of the target scene (step S9), and proceeds to step S10.
  • step S10 the playback unit 120 determines whether or not the target scene is the last scene of the video content.
  • the playback unit 120 determines that the target scene is not the last scene of the video content, the playback unit 120 sets the next scene as the target scene (step S11) and returns to step S6.
  • the caption analysis unit 140 may generate the auxiliary translation data as follows. That is, the caption analysis unit 140 may generate data (partial data i) related to the scene i in the auxiliary translation data immediately after the i-th step S9. When the playback unit 120 determines that the target scene is the last scene of the video content, the caption analysis unit 140 translates by combining all the partial data (partial data 1, partial data 2,). Auxiliary data may be generated.
  • the playback unit 120 may determine whether or not the designation of the auxiliary translation information has been completed based on whether or not the “Next” button on the UI screen in FIG. 4 has been pressed. Further, when the “Previous” button in the UI screen of FIG. 4 is pressed while the scene i is repeatedly played, the distribution apparatus 100 deletes the partial data i ⁇ 1 and then deletes the scene i ⁇ 1. The steps S6 to S9 related to may be performed again.
  • step S6 the playback unit 120 may perform slow playback instead of repeated playback.
  • Modification of translation assistance data In the case where the original language is English, after the playback unit 120 determines that the target scene is the last scene of the video content, the subtitle analysis unit 140 performs translation assistance as illustrated in FIG. Data may be generated.
  • the portion of partial data # 1 in the translation assistance of FIG. 5A shows the following matters.
  • the part “00: 00: 03,000-> 00: 30: 00,00” indicates the period from the first use of the word “Sita” to the last use, “ ⁇ TMD : Noun (proper.name.first), Gender (femail), Respect (false) ⁇ ”is the translation assistance information that should be referred to when translating the word“ Sita ”that appears in the caption within that period. Applicable. “Noun (proper.name.first)” indicates that “Sita” is a proper noun representing a person, and “Gender (femail)” indicates that “Sita” is a feminine noun. “Respect (false)” indicates that the noun “Sita” should not be translated as a noun, and that the verb indicating “Sita” should not be translated as a respected verb .
  • partial data #i includes translation assistance information for a word W in a subtitle within a period i
  • partial data #j is included in the period i for the same word W in a subtitle within a period j.
  • the television 200 interprets the translation assistance data as follows.
  • the television 200 when translating the word W in the caption within the period j, the television 200 refers to both the translation assistance information included in the partial data #i and the translation assistance information included in the partial data #j. As a result of the reference, when it is determined that the two pieces of translation assistance information indicate conflicting items, the television 200 ignores the translation assistance information included in the partial data #i, and the translation assistance included in the partial data #j.
  • the word W is translated using the information.
  • the television 200 is called “Sita”, which appears in a period indicated by “00: 00: 015,000-> 00: 20: 00,00” (a period from 15 seconds to 20 minutes after the start of video content playback).
  • “Sita” When translating subtitles containing words, ignore “Respect (false)” included in partial data # 1, and use “Sspect” as translation aid information “Respect (true)” included in partial data # 2.
  • the subtitle analysis unit 140 determines whether or not translation auxiliary information is necessary for translating the word into the target language for each word included in the subtitle text of the target scene, and all or some of the words included in the subtitle text When it is determined that translation assistance information is necessary, a UI object for causing the operator to designate translation assistance information is displayed.
  • Case 1 A case where it is determined that there are multiple meanings of the word as a result of referring to the dictionary data of the Japanese language dictionary of the original language.
  • a list box capable of selecting one arbitrary meaning from a plurality of meanings included in the national language dictionary is displayed together with a text box.
  • the Japanese language dictionary of the original language can be rephrased as “one language dictionary of the original language”. Therefore, for example, when the original language is English, the English-English dictionary corresponds to the national language dictionary of the original language.
  • Case 2 Case where the word is a pronoun.
  • a text box for inputting a character string indicating what kind of noun (such as a character) the pronoun indicates is displayed.
  • a list box capable of selecting any noun from the one or more nouns is also displayed.
  • Case 4 A case where a plurality of translation candidates exist as a result of machine-translating the caption text of the original language into the target language by referring only to the dictionary data of the HDD 150 without referring to the translation assistance information.
  • identify the word in the caption text of the original language that causes multiple translation candidates and specify the translation assistance information (translation assistance information to be given to the word) necessary to eliminate the cause To display a list box.
  • the caption analysis unit 140 assigns translation auxiliary information (information such as “masculine noun” and “respected word”) designated by the operator through the UI object to each word determined to require translation auxiliary information. .
  • the caption analysis unit 140 gives the translation assistance information “TMD: adj (16)” to the word “open”.
  • the caption analysis The unit 140 adds the translation auxiliary information “TMD: means (dies)” to the phrase “kicks the bucket”.
  • the caption analysis unit 140 adds the translation auxiliary information “TMD: means (cartridge)” to the pronoun “it”.
  • TMD means (cartridge)
  • TMD The translation assistance information “Respect (true)” is added.
  • TMD Respect ( false)
  • the UI object for allowing the operator to specify the translation auxiliary information to be assigned to the word is displayed below the word.
  • the operator does not necessarily need to specify the translation auxiliary information. Absent.
  • the operator may press the “Ignore” button below the word “I”. In this case, the caption analysis unit 140 deletes the “ignore” button, the list box, and the text box below the word “I” without adding the translation assistance information.
  • the caption analysis unit 140 can create the auxiliary translation data illustrated in FIG. 5A by executing the above-described processing for all scenes constituting the video content.
  • the distribution apparatus 100 can create auxiliary translation data necessary for appropriately translating the captions of video content in the original language into the target language for various target languages.
  • the caption analysis unit 140 determines which word in the original language caption or voice should be accepted from the user for the designation of translation assistance information to be used for translation of the word. Judgment is made based on the characteristics (grammatical rules) of the original language and the target language.
  • step S8 the reproducing unit 120 may determine that the designation of the translation assistance information has been completed when the following condition is satisfied. That is, for each word that is determined to require translation assistance information, the playback unit 120 has been given translation assistance information for the word, or when it is determined not to give translation assistance information to the word Alternatively, it may be determined that the designation of the translation assistance information has been completed.
  • the data acquisition unit 210 acquires the video content via the tuner unit 220.
  • the video content acquired by the data acquisition unit 210 includes audio data and caption data in the original language along with the video data.
  • the data acquisition unit 210 communicates a request for translation assistance data necessary for appropriately translating the video content into a language (target language) corresponding to the caption setting of the television 200 while acquiring the video content.
  • the data is transmitted to the distribution apparatus 100 via the / F unit 230.
  • the distribution apparatus 100 that has received the request transmits the translation assistance data to the television 200.
  • the data acquisition unit 210 of the television 200 that has received the translation assistance data stores the translation assistance data in the HDD 260 and instructs the playback unit 240 to start playing the video content.
  • the playback unit 240 Upon receiving the instruction from the data acquisition unit 210, the playback unit 240 extracts the subtitle text of the first scene from the video content. Then, the reproduction unit 240 supplies the extracted subtitle text to the translation processing unit 250 and instructs the translation processing unit 250 to machine-translate the subtitle text (subtitle text in the source language) into the target language.
  • the translation processing unit 250 uses the translation auxiliary data together with the bilingual dictionary data stored in the HDD 260 to machine-translate the subtitle text of the corresponding scene into the target language.
  • the translation process The unit 250 translates the subtitle text into a Tamil sentence whose Romanized notation is “Avarvanthar.” Also, for example, when the translation assistance information “TMD: Respect (false)” is given to the word “He” in the subtitle text and the target language is Tamil, the translation processing unit 250 , Translate the subtitle text into a Tamil sentence whose Romanized notation is “Avan vanthan.”
  • the translation processing unit 250 supplies the subtitle text in the target language obtained by machine translation to the playback unit 240.
  • the playback unit 240 displays the video of the corresponding scene of the video content and the target language subtitle text of the corresponding scene on the display unit 270.
  • playback unit 240 and the translation processing unit 250 also perform the same processing in cooperation with subsequent scenes.
  • the distribution apparatus 100 receives designation of translation auxiliary information to be used for translation of words constituting the source language subtitles from the user, and the TV 200 is designated by the user as bilingual information (that is, the The word is translated using translation auxiliary information (provided for the word).
  • the distribution apparatus 100 accepts from the user designation of translation auxiliary information to be used for translating the words constituting the source language speech, and the television 200 is designated by the user as bilingual information (that is, given to the words). It is also possible to translate the word using translation auxiliary information.
  • the distribution apparatus 100 generates translation auxiliary data (for example, translation auxiliary data illustrated in FIG. 5A) that does not include the caption indicated by the caption data included in the video content. Since such translation assistance data shows only the relationship with the time information when the data is valid, it is a description method suitable for translating speech data, for example.
  • translation assistance data shows only the relationship with the time information when the data is valid, it is a description method suitable for translating speech data, for example.
  • the caption analysis unit 140 may generate translation assistance data including captions (translation assistance data illustrated in FIG. 5B).
  • the caption analysis unit 140 extracts caption data from the video content.
  • the caption data extracted by the caption analysis unit 140 indicates the period during which the scene is reproduced and the caption text displayed during the period for each scene included in the video content.
  • the caption analysis unit 140 configures the caption text displayed in the scene in a part of the caption data (the part in which the period during which the scene is reproduced is shown together with the caption text displayed in the period). And the translation auxiliary information to be used for translation of the word are inserted in-line.
  • the distribution unit 160 may transmit the translation assistance data including the caption generated by the caption analysis unit 140 through the above processing to the television 200 that requested the translation assistance data via the communication I / F unit 180.
  • the playback unit 240 may not extract the subtitle text of each scene to be played back by the playback unit 240 from the video content. That is, the translation processing unit 250 extracts the subtitle text and translation auxiliary data of each scene from the translation auxiliary data including subtitles, and uses the translation auxiliary data together with the dictionary data of the bilingual dictionary held in the HDD 260.
  • the scene subtitle text may be machine translated into the target language.
  • the distribution apparatus 100 is configured to distribute video content by broadcasting and to distribute translation assistance data by communication.
  • the distribution apparatus 100 may distribute video content including translation assistance data (translation assistance data including captions or translation assistance data not including captions) by broadcasting or communication.
  • translation assistance data translation assistance data including captions or translation assistance data not including captions
  • the distribution apparatus 100 may encode each stream of video content (video stream, audio stream, caption stream, data broadcast stream, translation auxiliary data stream) for each stream. Then, the distribution apparatus 100 (distribution unit 160) may multiplex the encoded stream group and distribute the obtained multiplexed stream by broadcasting or communication.
  • the distribution apparatus 100 includes the operation reception unit 110 (reception unit), the playback unit 120 (video presentation unit), and the caption analysis unit 140 (generation unit).
  • the reproduction unit 120 presents video content including data indicating source language subtitles or audio to the user.
  • the operation receiving unit 110 receives, from the user, designation of translation auxiliary information to be used for translation of the subtitles or the audio of the scene i for each scene i of the video content while the playback unit 120 presents the video content. .
  • the caption analysis unit 140 generates translation assistance data in which the correspondence between the period during which the scene i is reproduced and the translation assistance information to be used for translation of the caption or the audio of the scene i is indicated for each i.
  • the distribution apparatus 100 provides the user with translation assistance information to be used for translation of the subtitle or the audio while the video content including the source language subtitle or audio is presented to the user. It will be specified.
  • an operator who is familiar with the source language accurately understands in which situations the words indicated by the subtitles or audio in the source language are used when trying to specify the above-mentioned translation assistance information. be able to. Therefore, the operator can specify appropriate translation assistance information that contributes to improving the quality of machine translation of subtitles or audio in the source language.
  • the television 200 includes a translation processing unit 250 (translation processing means, reference means).
  • the translation processing unit 250 performs machine translation of the source language subtitles or audio included in the video content into the target language as follows.
  • the translation processing unit 250 refers to the translation assistance data generated by the distribution apparatus 100, and for each scene i, the subtitle or audio of the scene i is used as a target language using the bilingual dictionary and the translation assistance information of the scene i.
  • the TV 200 translates the subtitles or audio of the source language into the target language using the bilingual dictionary.
  • appropriate translation assistance information that contributes to improving the quality of machine translation. Also used. Therefore, the television 200 can perform appropriate translation in consideration of situations in which words indicated by subtitles or audio are used.
  • the television 200 can perform the above-described appropriate translation without requiring a translator who is familiar with both the source language and the target language.
  • the distribution apparatus 100 can generate translation assistance data to be referred to when the television 200 translates a sentence in the source language into the target language by an operation of an operator who is familiar with only the source language.
  • the caption analysis unit 140 may perform the following processing after machine-translating the caption text in the original language into the target language by referring only to the dictionary data in the HDD 150.
  • the caption analysis unit 140 may machine-translate the obtained first candidate caption text of the target language into the original language (Step 1).
  • the caption analysis unit 140 displays the caption text obtained by the two machine translations on the display unit 130 together with the original caption text, and the caption text obtained by the two machine translations is “no problem”.
  • a list box may be displayed on the display unit 130 to allow the operator to select whether the text corresponds to “understandable” or “understandable” (step 2).
  • the caption analysis unit 140 is obtained in the process 2 by the original caption text “That's a nice thing to say” in FIG. 6A and two machine translations “It's a good to say”.
  • subtitle text “That's a nice thing to say” in FIG. 6A
  • two machine translations “It's a good to say”.
  • the caption analysis unit 140 may include information indicating that the original caption text should be translated into the first candidate caption text of the target language in the translation assistance data. Good (step 3).
  • the caption analysis unit 140 may machine-translate the second candidate caption text of the target language into the original language (step 1). Then, the caption analysis unit 140 may display the obtained caption text, the original caption text, and the above-described list box on the display unit 130 (step 2).
  • the caption analysis unit 140 performs the above steps 1 and 2 until “no problem” is designated from the above list box, or until the above steps 1 and 2 are performed for all N candidates. , May be repeated.
  • the caption analysis unit 140 indicates that the original caption text should be translated into the jth candidate caption text of the target language.
  • the translation assistance information shown may be included in the translation assistance data (step 3).
  • Translation assistance information indicating that the caption text should be translated into the jth candidate caption text of the target language may be included in the translation assistance data (step 3).
  • the subtitle text obtained by the above-described two machine translations displayed in the step 2 regarding the jth candidate means the opposite of the original subtitle text. It can happen.
  • the operator may perform an operation of adding the following translation assistance information to a sentence (section, word) whose meaning is reversed by two machine translations in the original subtitle text. That is, translation auxiliary information indicating that the rewritten subtitle text should be translated into the jth candidate subtitle text of the target language after rewriting the single sentence (section, word) of the original subtitle text to the opposite meaning You may perform operation to provide.
  • the caption analysis unit 140 may include the translation assistance information in the translation assistance data in Step 3.
  • FIG. 7 is a diagram showing a main configuration of a distribution system according to the present embodiment, and a distribution device, a translation processing device, and a television included in the distribution system.
  • the distribution system includes a distribution device 100, a television 200 ', and a translation processing device 300.
  • the television 200 ′ includes a data acquisition unit 210 ′, a tuner unit 220, a communication I / F unit 230, a playback unit 240, an HDD 260, and a display unit 270.
  • the data acquisition unit 210 ′ acquires data (video content) from the broadcast signal transmitted from the distribution device 100, and acquires data (subtitle text in the target language) from the communication signal transmitted from the translation processing device 300.
  • the translation processing apparatus 300 includes a communication I / F unit 310, a data acquisition unit 320, a translation processing unit 330, and an HDD 340.
  • the communication I / F unit 310 is a communication interface used for communication with the television 200.
  • Data acquisition unit 320 Data (translation assistance data, subtitle text in the original language, information indicating subtitle settings of the TV 200 ′, etc.) is acquired from the communication signal transmitted by the TV 200.
  • the translation processing unit 330 translates the original language (source language) subtitles transmitted from the TV 200 ′ into a language (target language) according to the subtitle setting of the TV 200.
  • the translation processing unit 330 uses the dictionary data held in the HDD 340 (dictionary data of a bilingual dictionary in which the meaning of each word of the source language is indicated by the target language) and the auxiliary translation data acquired from the distribution device 100. The above translation is performed by referring.
  • the HDD 340 is a recording medium that holds dictionary data of various bilingual dictionaries and font data of various languages.
  • the HDD 340 stores auxiliary translation data transmitted from the television 200, original language caption text, and information indicating the caption setting of the television 200.
  • the data acquisition unit 210 ′ acquires the video content via the tuner unit 220.
  • the data acquisition unit 210 ′ acquires a request for translation assistance data necessary for appropriately translating the video content into a language (target language) corresponding to the caption setting of the television 200 ′ while acquiring the video content.
  • the data is transmitted to the distribution apparatus 100 via the communication I / F unit 230.
  • the data acquisition unit 210 ′ may extract a content ID from the video content and transmit request data including the content ID and language information indicating the target language to the distribution apparatus 100.
  • the distribution apparatus 100 that has received the request transmits the translation assistance data to the television 200.
  • the data acquisition unit 210 ′ of the television 200 ′ that has received the translation assistance data includes the translation assistance data together with information indicating the caption setting of the television 200 ′ and the caption text of the first scene extracted from the video content. To 300.
  • the data acquisition unit 320 of the translation processing apparatus 300 acquires translation auxiliary data, caption text of the first scene, and information indicating the caption setting of the television 200 ′ from the television 200 ′, and stores them in the HDD 340. Then, the data acquisition unit 320 instructs the translation processing unit 330 to translate the caption text of the first scene into the target language.
  • the translation processing unit 330 Upon receiving an instruction from the data acquisition unit 320, the translation processing unit 330 uses the translation auxiliary data together with the bilingual dictionary data stored in the HDD 340 to machine-translate the subtitle text of the first scene into the target language.
  • the translation processing unit 250 supplies the target language subtitle text obtained by machine translation to the data acquisition unit 320.
  • the data acquisition unit 320 transmits the subtitle text in the target language to the television 200, and the data acquisition unit 210 'of the television 200 acquires the subtitle text.
  • the data acquisition unit 210 ′ supplies the acquired subtitle text in the target language to the playback unit 240.
  • the playback unit 240 displays the video of the corresponding scene included in the video content and the target language subtitles of the corresponding scene on the display unit 270.
  • the television 200 ′ and the translation processing apparatus 300 perform the same processing in cooperation with the subsequent scenes.
  • the translation processing apparatus 300 targets the subtitle text in the original language as a trigger when receiving the subtitle text in the original language, the translation auxiliary data, and the information indicating the subtitle setting of the TV 200 ′ from the TV 200 ′. It was configured to translate into language subtitle text.
  • the distribution apparatus 100 may distribute the subtitle text group included in the video content and the translation assistance data for each language to the translation processing apparatus 300 before distributing the video content by broadcasting. Then, when the translation processing device 300 receives the distribution from the distribution device 100 (that is, before the video content is distributed by broadcasting), the translation processing device 300 converts the subtitle text group of the original language, the translation assistance data for each language, and various kinds of information. You may translate into a subtitle text group of various languages using a bilingual dictionary.
  • the television 200 ′ may transmit information indicating the caption setting of the television 200 ′ to the translation processing device 300 without transmitting a request for translation assistance data to the distribution device 100 after acquiring the video content.
  • the translation processing device 300 may distribute a subtitle text group in a language corresponding to the subtitle setting of the television 200 ′ to the television 200 ′ at the time of obtaining information indicating the subtitle setting of the television 200 ′.
  • FIG. 8 is a diagram showing a main configuration of the distribution system according to the present embodiment and the content creation device included in the distribution system.
  • the distribution system includes a distribution device 100 ′, a television 200, a content creation device 400, and a translation assistance data distribution server 500.
  • the content creation device 400 is a device managed by a content creator, and the distribution device 100 ′ is a device managed by a content distribution business (broadcast business or the like). As shown in FIG. 8, the distribution device 100 'and the content creation device 400 are connected to a dedicated network. This dedicated network may be a wired network or a wireless network.
  • the distribution apparatus 100 ′ includes an HDD 150, a distribution unit 160, and a broadcast transmission unit 170. Note that for each member other than the HDD 150, the distribution unit 160, and the broadcast transmission unit 170 included in the distribution device 100, the distribution device 100 ′ does not include the members.
  • the content creation device 400 includes an operation reception unit 410, a caption analysis unit 420, a playback unit 430, a display unit 440, an HDD (hard disk drive) 450, a transmission unit 460, and a communication I / F (communication interface). Part 470.
  • the operation reception unit 410 receives an operation for creating or editing video content including subtitle data and audio data.
  • the operation reception unit 410 receives various operations for creating auxiliary translation data used by the television 200 to machine-translate the created video content subtitles (original language subtitles) into the target language. For example, the operation reception unit 410 receives an operation of an operator that specifies a target language.
  • the caption analysis unit 420 analyzes captions in the original language. Specifically, for each word constituting the subtitle, it is determined whether or not translation auxiliary information is necessary for translating the word into the target language designated by the operator.
  • the caption analysis unit 420 determines that the translation assistance information is necessary, the caption analysis unit 420 displays a UI object for allowing the operator to designate the translation assistance information.
  • Player unit 430 When the operation receiving unit 410 receives a user operation for starting the auxiliary data creation tool, the reproduction unit 430 starts the auxiliary data creation tool.
  • the playback unit 430 displays video and original language subtitles on the display unit 440 by playing back the video content specified on the auxiliary data creation tool, and the original language audio is displayed on a speaker (not shown). Output from.
  • Display unit 440 It is a display on which video and original language subtitles are displayed.
  • the HDD 450 is a recording medium that holds a video content creation tool, an auxiliary data creation tool, dictionary data of various bilingual dictionaries, and font data of various languages.
  • the HDD 450 stores the video content created by the video content creation tool and the translation assistance data including the translation assistance information specified by the operator.
  • the transmission unit 460 transmits the video content via the communication I / F unit 470 so that the video content reaches the distribution apparatus 100 via the dedicated network.
  • the transmission unit 460 transmits the translation assistance data via the communication I / F unit 470 so that the translation assistance data reaches the translation assistance data distribution server 500 via the Internet.
  • the communication I / F unit 470 transmits a communication signal including the data supplied from the transmission unit 460 to a network (Internet or dedicated network).
  • the translation assistance data distribution server 500 is a server that holds translation assistance data in various languages created by the content creation device 400. As shown in FIG. 8, the translation assistance data distribution server 500 is connected to the Internet.
  • the translation assistance data distribution server 500 When the translation assistance data distribution server 500 receives a request for translation assistance data from the television 200, the translation assistance data distribution server 500 transmits the translation assistance data to the television 200.
  • the operation in which the television 200 according to the present embodiment reproduces video content is substantially the same as the operation in which the television 200 according to the first embodiment reproduces video content.
  • the television 200 transmits a request for translation assistance data necessary for appropriately machine translating the caption of the video content into a language (target language) according to the caption setting of the television 200.
  • a language target language
  • step S7 when the subtitle sentence in the source language is machine-translated into the target language, it is not determined whether the subtitle sentence should be translated into a sentence that gives a negative impression or a sentence that gives a positive impression.
  • the unit 140 may display a list box in which either “negative” or “positive” can be selected.
  • the subtitle analysis unit 140 adds translation auxiliary information (translation auxiliary information indicating that the subtitle sentence should be translated into a sentence that gives a negative (or positive) impression) according to the selection from the list box to the subtitle sentence. Also good. That is, the caption analysis unit 140 is configured to be able to generate translation assistance data that includes a caption sentence and translation assistance information indicating that the caption sentence should be translated into a sentence that gives a negative (or positive) impression. May be.
  • the TV 200 whose subtitle setting is set to “Japanese” should translate the English subtitle sentence “You are always reading a book.” And the subtitle sentence into a sentence that gives a negative impression.
  • the translation processing unit 250 may translate the caption text into a Japanese caption text “always reading!”.
  • the TV 200 whose subtitle setting is set to “Japanese” should translate the English subtitle sentence “You are always reading a book.” Into a sentence that gives a positive impression.
  • the translation processing unit 250 may translate the subtitle sentence into a Japanese subtitle sentence “You read a lot.” .
  • step S7 when the subtitle sentence in the source language is machine-translated into the target language, it is not determined whether the subtitle sentence should be translated into a sentence that gives a heavy impression or a sentence that gives a light impression. May display a list box in which either “heavy” or “light” can be selected.
  • the caption analysis unit 140 adds translation assistance information corresponding to the selection from the list box to the caption text (translation assistance information indicating that the caption text should be translated into a sentence that gives a heavy (or light) impression).
  • translation assistance information indicating that the caption text should be translated into a sentence that gives a heavy (or light) impression.
  • the caption analysis unit 140 is configured to be able to generate translation assistance data including a caption sentence and translation assistance information indicating that the caption sentence should be translated into a sentence that gives a heavy (or light) impression. It may be.
  • step S7 it is determined whether or not the subtitle sentence should be translated into a sentence that gives a good (poor) impression or a sentence that gives a bad (rough) impression when machine-translated the subtitle sentence in the source language into the target language. If not, the caption analysis unit 140 may display a list box in which either “good” or “bad” can be selected.
  • the caption analysis unit 140 adds translation assistance information (translation assistance information indicating that the caption text should be translated into a sentence that gives a good (or bad) impression) according to the selection from the list box to the caption sentence.
  • translation assistance information translation assistance information indicating that the caption text should be translated into a sentence that gives a good (or bad) impression
  • the caption analysis unit 140 is configured to be able to generate translation assistance data including a caption sentence and translation assistance information indicating that the caption sentence should be translated into a sentence that gives a good (or bad) impression. It may be.
  • the caption analysis unit 140 may display a list box in which one arbitrary emotion word among the number of emotion words according to the type of the target language can be selected.
  • the caption analysis unit 140 selects any one of five emotion words (“joy”, “anger”, “sorrow”, “easy”, “ ⁇ ”) representing five emotions.
  • a selectable list box may be displayed.
  • the caption analysis unit 140 adds translation assistance information (translation assistance information indicating what kind of emotion the person has) corresponding to the selection from the list box to the caption sentence (person's speech). Good. For example, when “joy” is selected from the list box, the caption analysis unit 140 indicates that “the speech is a speech that the person utters with the emotion of“ joy ”among the five emotions”. Translation assistance information may be given. This translation assistance information also indicates that the caption text should be translated into a sentence that gives the impression that the person has the feeling of “joy”.
  • translation assistance information translation assistance information indicating what kind of emotion the person has
  • the caption analysis unit 140 selects any of six emotion words (“joy”, “anger”, “sorrow”, “easy”, “love”, “hate”) representing six emotions. A list box in which one of the above can be selected may be displayed.
  • the caption analysis unit 140 stores seven emotion words (“joy”, “anger”, “sorrow”, “ ⁇ ”, “love”, “evil”, “greed”) representing seven emotions. A list box in which any one of them can be selected may be displayed.
  • the caption analysis unit 140 may display a list box that can select any one of nine emotion words representing Nava Rasa.
  • Nine emotion words are “Shringara”, “Haasya (humorous laughter)”, “Karuna (sadness)”, “Laudra (anger)”, “Vila (courageousness)”, “Bayana (fear)” It consists of “Bee Bassa (disgust)”, “Ad pig (surprise)” and “Shanta (peace)”.
  • the data generation device may not have a function of transmitting the auxiliary translation data to the outside.
  • the data generation apparatus may include an optical disc drive and record the auxiliary data and video content in association with the optical disc mounted in the optical disc drive.
  • the data generation apparatus may record video content including translation assistance data on the optical disc.
  • the translation processing apparatus may not have a function of individually receiving video content and translation assistance data or a function of receiving video content including translation assistance data.
  • the translation processing apparatus according to the present invention may be a player that includes an optical disc drive, and that reads translation assistance data and video content from an optical disc loaded in the optical disc drive.
  • the translation processing apparatus according to the present invention may be a player that reads video content including translation auxiliary data from the optical disc and extracts the translation auxiliary data from the read video content.
  • the content creation device 400 may be configured to perform a translation process similar to the translation process performed by the televisions of the first to third embodiments.
  • the content creation device 400 does not transmit the target language translation auxiliary data to the outside, and targets the source language subtitles using the bilingual dictionary and the target language translation auxiliary data for each of the N target languages. It may be translated into a language.
  • N may be 1 or 2 or more.
  • the content creation device 400 distributes N subtitle streams corresponding to N target languages together with other video content streams (video stream, audio stream, etc.) (distributing video content by broadcasting). Distribution device).
  • conventionally known devices can be used for the distribution device that distributes the video content created by the content creation device 400 and the television that plays back the video content.
  • a television that does not have an Internet connection function can be used as a television for reproducing the video content.
  • Control blocks may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit).
  • a logic circuit hardware formed in an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit).
  • each device has a CPU that executes instructions of a program that is software that realizes each function, a ROM (Read Memory) or a memory in which the above-described program and various data are recorded so as to be readable by a computer (or CPU).
  • a device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • the recording medium a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the data generation device includes a video presentation unit (reproduction unit 120) that presents video content including data indicating captions or audio in a source language to the user, and the presentation of the video content.
  • receiving means operation receiving unit 110
  • Generating means generation analysis unit 140
  • the data generation device provides translation assistance information to be used for translating the caption or the audio to the user while presenting the video content including the source language caption or the audio to the user. Will be specified.
  • an operator who is familiar with the source language accurately understands in which situations the words indicated by the subtitles or audio in the source language are used when trying to specify the above-mentioned translation assistance information. be able to. Therefore, the operator can specify appropriate translation assistance information that contributes to improving the quality of machine translation of subtitles or audio in the source language.
  • the translation processing apparatus translates subtitles or audio in the source language into the target language using the bilingual dictionary. For this translation, the quality of machine translation is improved.
  • appropriate translation assistance information translation assistance information in translation assistance data
  • the data generation apparatus can generate the auxiliary translation data to be referred to when the translation processing apparatus of the present invention translates the sentence of the source language into the target language by the operation of an operator who is familiar with only the source language.
  • the reception unit causes the person's speech included in the subtitles or the audio of the scene to express what emotion the person has. It may be configured to accept from the user the designation of the above-mentioned translation assistance information indicating whether or not it is a written line.
  • the data generation apparatus refers to the source language national language dictionary (ie, one language dictionary) for the words constituting the subtitles or the audio in the above aspect 1 or 2 above.
  • a determination unit (caption analysis unit 140) that determines whether or not there are a plurality of meanings of the word, and a meaning that presents the plurality of meanings when the determination unit determines that there are a plurality of meanings.
  • Presenting means (caption analysis unit 140), wherein the accepting means designates one appropriate meaning as the meaning of the word in the context in which the word is used from the plurality of meanings
  • the generation unit is configured to receive an operation, and the generation unit generates the data that includes information indicating the appropriate meaning (“TMD: adj (16)”) as the translation auxiliary information. It may be composed of sea urchin.
  • the reception unit displays the scene for each scene of the video content. During this time, it may be configured to accept the designation of translation auxiliary information to be used for translating the subtitles or the audio of the scene.
  • the data generation apparatus is the data generation apparatus according to aspect 4, wherein the video presentation unit specifies translation auxiliary information to be used for translating the subtitles or the audio of each scene of the video content. It may be configured to repeatedly present the video of the scene until is completed.
  • a distribution apparatus includes the units included in the data generation apparatus according to any one of aspects 1 to 5, and the video content includes caption data in the source language. , And includes extraction means (caption analysis unit 140) for extracting the caption data from the video content, and the generation means extracts the caption data extracted by the extraction means for each scene included in the video content.
  • the translation auxiliary data including the caption represented by the caption data is generated, and the video content and the translation auxiliary data including the caption are Or it may be a delivery device comprising a delivery means (distributing unit 160) to be distributed separately.
  • a distribution apparatus (distribution apparatus 100) according to aspect 7 of the present invention includes each unit included in the data generation apparatus according to any one of aspects 1 to 5, and the video content includes caption data in the source language.
  • the generating means includes, for each scene included in the video content, a part of the subtitle data, in which a period during which the scene is reproduced is indicated together with a subtitle displayed in the period.
  • the video content including the translation auxiliary data is generated by inserting the translation auxiliary information to be used for translating the subtitle or the audio of the scene, and the video content including the translation auxiliary data is generated.
  • the distribution apparatus may include a distribution unit (distribution unit 160) for distribution.
  • a distribution apparatus (distribution apparatus 100) according to aspect 8 of the present invention includes each unit included in the data generation apparatus according to any one of aspects 1 to 5, and the video content includes caption data in the source language.
  • the generation means is configured to generate the translation assistance data so that the translation assistance data does not include the caption indicated by the caption data, and the video content and the translation assistance data are It may be a distribution device provided with distribution means (distribution unit 160) for individually distributing.
  • a distribution apparatus (distribution apparatus 100) according to aspect 9 of the present invention includes each unit included in the data generation apparatus according to any one of aspects 1 to 5, and the video content includes caption data in the source language.
  • the generation means is configured to generate the translation assistance data so that the translation assistance data does not include the caption indicated by the caption data, and the video content not including the translation assistance data
  • It may be a distribution device (distribution unit 160) provided with distribution means for generating video content including the above-mentioned translation assistance data and distributing the video content.
  • a translation processing apparatus includes a translation processing unit (translation processing unit 250) for machine-translating a source language subtitle or audio indicated by data included in video content into a target language; Reference means (translation) that refers to translation auxiliary data indicating a correspondence relationship between a period during which the scene is reproduced for each scene of the video content and translation auxiliary information to be used for translation of the subtitles or the audio of the scene Processing unit 250), and for each scene, the translation processing unit translates the subtitles or the audio of the scene into the target language using a bilingual dictionary and the translation auxiliary information of the scene. Is configured to do.
  • the reference means refers to the translation assistance data generated by the data generation apparatus according to aspect 1 of the present invention
  • the situation in which the words indicated by the subtitles or the voices are used is used. Appropriate translation is possible in consideration of The reason is as follows.
  • the translation processing device performs machine translation of source language subtitles or speech into a target language using a bilingual dictionary, and also uses the above-described translation assistance information for this machine translation.
  • this translation assistance information is assistance information specified by the operator in consideration of situations where words indicated by subtitles or speech are used, it can be said that the translation assistance information is appropriate translation assistance information that contributes to improving the quality of machine translation. Therefore, the translation processing apparatus can perform appropriate translation in consideration of situations in which the words indicated by subtitles or audio are used.
  • the translation processing apparatus can perform the appropriate translation without requiring a translator who is familiar with both the source language and the target language.
  • a playback device (television 200) according to aspect 11 of the present invention includes each unit included in the translation processing device according to aspect 10 of the present invention, and a playback unit (playback unit 240) that plays back the video content.
  • the translation processing means may be a playback device configured to translate the subtitles or the audio of each scene into the target language after receiving a user operation for playing back the video content.
  • the playback device does not have to be a television receiver. That is, the playback device may be, for example, a mobile phone, a smartphone, a tablet terminal, or a player.
  • the data generation method is a data generation method of a data generation device.
  • a data generation method includes a presentation step of presenting video content including data indicating subtitles or audio in a source language to a user, and for each scene of the video content during the presentation of the video content.
  • the data generation method according to aspect 12 of the present invention has the same effects as the data generation apparatus according to aspect 1 of the present invention.
  • the translation processing method according to aspect 13 of the present invention is a translation processing method of a translation processing device.
  • the translation processing method according to the aspect 13 of the present invention includes a translation processing step of machine-translating a source language subtitle or audio indicated by data included in video content into a target language, and the scene for each scene of the video content.
  • the translation processing step For each scene, the subtitle or the audio of the scene is translated into the target language using a bilingual dictionary and the translation auxiliary information of the scene.
  • the translation processing method according to aspect 13 of the present invention has the same effects as the translation processing apparatus according to aspect 10 of the present invention.
  • the data generation device may be realized by a computer.
  • the generation program and a computer-readable recording medium on which the generation program is recorded also fall within the scope of the present invention.
  • the translation processing apparatus may be realized by a computer.
  • the translation processing apparatus is operated on each computer by causing the computer to operate as each unit included in the translation processing apparatus.
  • the translation processing program to be realized in this way and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.
  • a computer-readable recording medium that records a data generation program and a translation processing program also falls within the scope of the present invention.
  • the category of the present invention includes a period during which the scene is reproduced and a translation of the subtitle or the audio of the scene for each scene of the video content including data indicating the subtitle or audio in the source language. Data indicating the correspondence with the translation assistance information is also included.
  • the present invention can be suitably used for a content distribution service.
  • Distribution device data generation device
  • Operation reception part reception means
  • playback unit video presentation means
  • Subtitle analysis unit generation means, determination means, meaning presentation means, extraction means
  • Distribution Department Distribution Department
  • TV translation processing device, playback device
  • Reproduction unit Reproduction means
  • Translation processing unit translation processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

 テレビ(200)は翻訳処理部(250)を備える。翻訳処理部は、配信装置(100)が生成した翻訳補助データを参照し、映像コンテンツの各シーンについて、該シーンの字幕または音声を2言語辞書と該シーンの翻訳補助情報とを用いてターゲット言語に翻訳する。

Description

データ生成装置、データ生成方法、翻訳処理装置、プログラム、およびデータ
 本発明は、主に、翻訳処理装置によりテキストまたは音声の翻訳のために参照されるデータを生成するデータ生成装置、および、当該データを用いてテキストまたは音声を翻訳する翻訳処理装置に関する。
 昨今では、テレビ放送、インターネット通信、光ディスク等のメディアを通じて、映像コンテンツが世界各国に流通している。
 有名な映画のタイトルについては各国版のコンテンツが製作されており、各コンテンツには、映像データとともに当該コンテンツが流通する国の言語の字幕データおよび当該言語の音声データが含まれている。当然ながら、コンテンツを多くの国に流通させるためには、字幕および音声を様々な言語に翻訳することが必要となる。
 同様に、多言語国家においては、コンテンツの内容を国内の隅々まで広めるためには、コンテンツに含まれるテキストまたは音声を様々な言語に翻訳することが必要となる。
 コンテンツの制作者は、このような翻訳作業を行うために、以下の2つの方法をとることができる。
 方法1)ソース言語で記述された文をターゲット言語に翻訳する機械翻訳装置(例えば、機械翻訳ソフトがインストールされたコンピュータ等)を導入し、機械翻訳装置を用いて翻訳作業を行う。
 方法2)ソース言語とターゲット言語との両方に精通した翻訳者を確保し、機械翻訳装置を用いずに翻訳作業を行う。
 方法1に関しては、機械翻訳の品質を向上させるための様々な技術が開発されており、そのような技術の例としては、特許文献1に開示されている技術、および、特許文献2に開示されている技術が挙げられる。
 特許文献1には、ソース言語Xで記述された文を中間言語Cに翻訳するX-C翻訳エンジンと中間言語Cからターゲット言語Yへ翻訳するC-Y翻訳エンジンとを備える機械翻訳装置が開示されている。この機械翻訳装置では、X-C翻訳エンジンが、ソース言語Xで記述された原文を所定の中間言語Cの文に翻訳すると共に、この翻訳によって得られる注釈情報を中間言語Cの文に付加するようになっている。また、C-Y翻訳エンジンが、中間言語Cの文に付加された注釈情報を参照し、この中間言語Cの文をターゲット言語Yの文に翻訳するようになっている。
 特許文献2には、動詞等の可変テキスト要素に割り当てられた第1の事前定義の記号と第2の事前定義の記号と補足情報(動詞の主語の性別等)とを用いて、ターゲット言語の文法的に正しいテキストを生成するシステムが開示されている。
日本国公開特許公報「特許第4410486号公報」(2004年11月25日公開) 日本国公開特許公報「特許第5172348号公報」(2008年6月12日公表)
 ここで、映画の登場人物のセリフの翻訳を考える。セリフの翻訳の場合、そのセリフが使用されるシチュエーションを考慮した翻訳を行わなければならない。例えば、Aさんが否定的な感情を抱いてBさんに投げかけた“You are always reading a book.”という英語のセリフを日本語に訳す場合、「いつも読書ばっかり!」といったように否定的な意味を持つように訳すのが適切である。一方、Aさんが肯定的な感情を抱いてBさんに投げかけた“You are always reading a book.”という英語のセリフを日本語に訳す場合、「よく読書をしていますね。」といったように肯定的な意味を持つように訳すのが適切である。
 これに関し、特許文献1の機械翻訳装置には、セリフを十分適切に翻訳できないという問題がある。特許文献1の機械翻訳装置が中間言語Cの文をターゲット言語Yの文に翻訳する際に参照する注釈情報は、セリフが使用されるシチュエーションを考慮して得られるものではないからである。
 また、特許文献2のシステムには、同文献の段落〔0116〕〔0117〕、図8、図9等から明らかなように、ユーザがソース言語とターゲット言語との両方に精通していなければ適切に利用できないという問題がある。また、特許文献2のシステムにも、セリフを十分適切に翻訳できないという問題がある。
 なお、方法1に関して、一般的な機械翻訳装置を用いても十分な品質の翻訳文を得ることができないことは周知の通りである。また、方法2に関しても、ソース言語の文章を様々なターゲット言語に翻訳する場合に、ソース言語とターゲット言語との両方に精通した翻訳者を確保するのに時間と費用とがかかるという問題がある。
 本発明は、上記課題に鑑みて成されたものであり、その主な目的は、言葉が使用されるシチュエーションを考慮した適切な翻訳をソース言語とターゲット言語との両方に精通した翻訳者を必要とすることなく実現可能な翻訳処理装置を実現することにある。また、ソース言語のみに精通したオペレータの操作によって、そのような翻訳処理装置がソース言語の文をターゲット言語に翻訳する際に参照する翻訳補助データを生成できるデータ生成装置を実現することも本発明の目的に含まれる。
 上記の課題を解決するために、本発明の一態様に係るデータ生成装置は、ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する映像提示手段と、上記映像コンテンツの提示中に、上記映像コンテンツのシーン毎に、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付ける受付手段と、上記シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が上記シーン毎に示された翻訳補助データを生成する生成手段と、を備えている。
 上記の課題を解決するために、本発明の一態様に係るデータ生成方法は、データ生成装置のデータ生成方法であって、ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する提示工程と、上記映像コンテンツの提示中に、上記映像コンテンツのシーン毎に、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付ける受付工程と、上記シーンが再生される期間と上記シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が上記シーン毎に示された翻訳補助データを生成する生成工程と、を含んでいるデータ生成方法である。
 また、上記の課題を解決するために、本発明の一態様に係る翻訳処理装置は、映像コンテンツに含まれているデータが示すソース言語の字幕または音声をターゲット言語に機械翻訳する翻訳処理手段と、上記映像コンテンツのシーン毎に該シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報との対応関係が示された翻訳補助データを参照する参照手段と、を備え、上記翻訳処理手段は、上記シーン毎に、該シーンの上記字幕または上記音声を、2言語辞書と該シーンの上記翻訳補助情報とを用いて上記ターゲット言語に翻訳するように構成されている。
 上記の課題を解決するために、本発明の一態様に係るデータは、ソース言語の字幕または音声を示すデータを含む映像コンテンツのシーン毎に、該シーンが再生される期間と、該シーンの上記字幕または上記音声の翻訳に使用される翻訳補助情報との対応関係が示されたデータである。
 本発明に係る翻訳処理装置および翻訳処理方法は、言葉が使用されるシチュエーションを考慮した適切な翻訳をソース言語とターゲット言語との両方に精通した翻訳者を必要とすることなく実現できる。
 本発明に係るデータ生成装置およびデータ生成方法は、ソース言語のみに精通したオペレータの操作によって、そのような翻訳処理装置がソース言語の文をターゲット言語に翻訳する際に参照する翻訳補助データを生成できる。
本発明の実施形態1に係る配信システム、ならびに、配信システムに含まれる配信装置およびテレビの要部構成を示した図である。 図1の配信装置による翻訳補助データを作成するための動作を示すフローチャート図である。 図1の配信装置の表示部に表示される、翻訳補助データ作成ツールのUI画面(ユーザインタフェース画面)の一例を示した図である。 図1の配信装置の表示部に表示される、翻訳補助データ作成ツールのUI画面(ユーザインタフェース画面)の別の一例を示した図である。 図1の配信装置が作成する翻訳補助データの内容を例示した図である。 ソース言語の元の文をターゲット言語の文に機械翻訳した上で、さらに、当該文を機械翻訳した結果得られるソース言語の文が示す内容が、元の文の内容と全く異なり得ることを説明するための図である。 本発明の実施形態2に係る配信システム、ならびに、配信システムに含まれる配信装置、翻訳処理装置およびテレビの要部構成を示した図である。 本発明の実施形態3に係る配信システム、および、配信システムに含まれるコンテンツ作成装置の要部構成を示した図である。
 〔実施形態1〕
 本発明の一実施形態に係る配信システムについて説明する。
 本実施形態に係る配信システムは、配信装置およびテレビジョン受像機(以下、「テレビ」と略称する)を含んでいる。
 配信装置は、オリジナル言語の字幕および音声を含む映像コンテンツをテレビに配信するようになっている。また、テレビは、自機の字幕設定に応じた言語の字幕が表示されるように、配信を受けた映像コンテンツを再生するようになっている。これを実現するために、テレビは、自機の字幕設定に応じた言語が上記ソース言語と異なる場合には、オリジナル言語の字幕を自機の字幕設定に応じた言語に機械翻訳するようになっている。
 テレビは、字幕を機械翻訳するために、上記ソース言語の各語の語義が上記ターゲット言語により示された2言語辞書を使用するとともに、配信装置から配信された翻訳補助データを補助的に使用するようになっている。また、配信装置は、映像コンテンツを配信する機能だけでなく、オペレータが翻訳補助データを作成することを可能にする機能も備えている。なお、この機能については後に詳細に説明する。
 以下、本実施形態に係る配信システムの構成について図1を参照しながら以下に説明する。
 図1は、本実施形態に係る配信システム、ならびに、配信システムに含まれる配信装置およびテレビの要部構成を示したブロック図である。
 図1に示すように、本実施形態に係る配信システムは、配信装置100およびテレビ200を含んでいる。まず、配信装置100の構成について説明する。
 (配信装置100)
 図1に示すように、配信装置100は、操作受付部110、再生部120、表示部130、字幕解析部140、HDD(ハードディスクドライブ)150、配信部160、放送送出部170、および通信I/F(通信インタフェース)部180を備えている。
 (操作受付部110)
 操作受付部110は、映像コンテンツの字幕(オリジナル言語の字幕)をターゲット言語に機械翻訳するためにテレビ200によって使用される翻訳補助データを作成するための様々な操作を受け付ける。例えば、操作受付部110は、ターゲット言語を指定するオペレータの操作等を受け付ける。
 (再生部120)
 再生部120は、操作受付部110が補助データ作成ツールを起動させるユーザ操作を受け付けると、補助データ作成ツールを起動する。
 また、再生部120は、補助データ作成ツール上で指定された映像コンテンツを再生することで、映像とオリジナル言語の字幕とを表示部130に表示し、オリジナル言語の音声をスピーカ(図示せず)から出力する。
 (表示部130)
 映像とオリジナル言語の字幕とが表示されるディスプレイである。
 (字幕解析部140)
 字幕解析部140は、オリジナル言語の字幕を解析する。具体的には、字幕を構成する各語について、該語をオペレータに指定されたターゲット言語に翻訳する上で翻訳補助情報が必要かどうかを判定する。
 例えば、オリジナル言語が日本語でターゲット言語がドイツ語の場合、字幕解析部140は、男性名としても女性名としても使用され得る「ひろみ」という名詞について、男性名詞および女性名詞のどちらであるかを示す翻訳補助情報が必要であると判定する。
 字幕解析部140は、翻訳補助情報が必要であると判定した場合、翻訳補助情報をオペレータに指定させるためのUIオブジェクトを表示する。例えば、字幕解析部140は、「ひろみ」という名詞について、「男性名詞」および「女性名詞」のいずれかをオペレータに選択させるためのリストボックスを表示する。
 (HDD150)
 HDD150は、補助データ作成ツール、映像コンテンツ、様々な2言語辞書の辞書データ、および、様々な言語のフォントデータが保持されている記録媒体である。HDD150には、オペレータが指定した上記の翻訳補助情報を含む翻訳補助データが保存される。
 (配信部160)
 配信部160は、放送送出部170を介して映像コンテンツの各ストリーム(映像ストリーム、音声ストリーム、字幕ストリーム、データ放送ストリーム等)をストリーム毎に符号化する。
 そして、配信部160は、符号化済のストリーム群を多重化することで得られた多重化ストリームを放送により配信するとともに、通信I/F部180を介して翻訳補助データをテレビ200に配信する。
 (放送送出部170)
 放送送出部170は、配信部160から供給されたデータを放送波にのせて送出する。
 (通信I/F部180)
 通信I/F部180は、配信部160から供給されたデータが含まれた通信信号をネットワークに送出する。
 次に、テレビ200の構成について説明する。
 (テレビ200)
 図1に示すように、テレビ200は、データ取得部210、チューナ部220、通信I/F(通信インタフェース)部230、再生部240、翻訳処理部250、HDD(ハードディスクドライブ)260、および表示部270を備えている。
 (データ取得部210)
 データ取得部210は、配信装置100が送信した放送信号および通信信号からデータ(映像コンテンツや翻訳補助データ等)を取得する。
 (チューナ部220)
 チューナ部220は、映像コンテンツを含む放送信号を受信するチューナである。
 (通信I/F部230)
 通信I/F部230は、配信装置100との間の通信に使用される通信インタフェースである。
 (再生部240)
 再生部240は、テレビ200の字幕設定に応じた言語の字幕が表示されるように映像コンテンツを再生する。
 (翻訳処理部250)
 翻訳処理部250は、映像コンテンツの字幕(オリジナル言語(ソース言語)の字幕)をテレビ200の字幕設定に応じた言語(ターゲット言語)に翻訳する。
 翻訳処理部250は、HDD260に保持されている辞書データ(上記ソース言語の各語の語義が上記ターゲット言語により示された2言語辞書の辞書データ)と配信装置100から取得した翻訳補助データとを参照することで、上記の翻訳を行う。
 (HDD260)
 HDD260は、様々な2言語辞書の辞書データおよび様々な言語のフォントデータが保持されている記録媒体である。HDD260には、配信装置100が配信した映像コンテンツおよび翻訳補助データが保存される。
 (表示部270)
 映像とターゲット言語の字幕とが表示されるディスプレイである。
 以上、配信装置100およびテレビ200の構成について説明した。
 (配信装置100の動作)
 次に、配信装置100による翻訳補助データを作成するための動作について図2~図5を参照しながら説明する。図2は、当該動作を示すフローチャート図である。図3は、補助データ作成ツールのUI画面(オペレータにソース言語を指定させるためのUI画面)を例示した図である。また、図4は、補助データ作成ツールのUI画面(オペレータに翻訳補助情報を指定させるためのUI画面)を例示した図である。
 補助データ作成ツールはHDD150にインストールされており、オペレータは、補助データ作成ツールを起動することにより翻訳補助データを作成することができる。
 補助データ作成ツールの起動後、再生部120は、図2に示すように、補助データ作成ツールの初期画面を表示する(ステップS1)。初期画面にてオペレータが翻訳補助データを作成する対象となる映像コンテンツのファイル名を選択すると、再生部120は、図3に示すUI画面が表示し、映像コンテンツの再生を開始する。
 再生部120は、「終了」ボタンが押されたか否かの判定(ステップS2)およびソース言語が指定されたか否かの判定(ステップS3)を、ステップS2にて「終了」ボタンが押されたと判定するか、または、ステップS3にてソース言語が指定されたと判定するまで繰り返す。
 ステップS2およびステップS3が繰り返されている間に、オペレータは、補助データ作成ツールを終了させるために「終了」ボタンを押す操作、または、ソース言語を指定する操作を行うことになる。
 具体的には、オペレータは、再生中の映像コンテンツの字幕(オリジナル言語の字幕)を見たり当該映像コンテンツの音声(オリジナル言語の音声)を聞いたりしたもののオリジナル言語を理解できない場合には「終了」ボタンを押すことになる。一方、オペレータは、再生中の映像コンテンツの字幕を見たり当該映像コンテンツの音声を聞いたりすることでオリジナル言語が理解できた場合、ソース言語を指定する操作を行うことになる。
 再生部120は、ステップS2にて「終了」ボタンが押されたと判定すると、補助データ作成ツールを終了することにより、翻訳補助データを作成するための動作を終了させる。
 一方、再生部120は、ステップS3にてソース言語が指定されたと判定すると、映像コンテンツの再生を終了するとともに、オペレータにターゲット言語を指定させるためのUI画面を表示した上でステップS4に進む。なお、このUI画面は、ターゲット言語をただ1つ選択できるように構成されていてもよいし、複数のターゲット言語を選択できるように構成されていてもよい。
 再生部120は、ターゲット言語が指定されたか否かの判定(ステップS4)を、ターゲット言語が指定されたと判定するまで繰り返す。
 再生部120は、ステップS4にてターゲット言語が指定されたと判定すると、映像コンテンツの先頭のシーン(予め規定された複数のシーンのうちの先頭のシーン)を対象シーンに設定した上で(ステップS5)、対象シーンの繰り返し再生を開始する(ステップS6)。
 なお、本発明において映像コンテンツを区分する複数のシーンをどのように規定するかについて特段の制限はない。映像や音声の特徴解析等によりシーンを検出する方法も活用可能であるが、本実施形態では、各i(i=1、2、・・)についてi個目の字幕テキストが表示されてからi+1個目の字幕テキストが表示されるまでの期間がi番目のシーンとなるように、上記複数のシーンが規定されているものとする。
 ステップS6の後、再生部120による繰り返し再生と並行して、配信装置100は以下のステップS7およびステップS8の工程を実行する。
 すなわち、字幕解析部140は、対象シーンの字幕テキストを解析し、字幕テキストに含まれる語の全部または一部について、語に付与すべき翻訳補助情報をオペレータが指定するために必要なオブジェクト(例えば、前述のリストボックス)を表示する(ステップS7)。その結果、例えば、図4に例示したUI画面が表示されることになる。なお、ステップS7については後でより詳細に説明する。
 ステップS7の後、再生部120は、翻訳補助情報の指定が完了したか否かの判定(ステップS8)を、翻訳補助情報の指定が完了したと判定するまで繰り返す。
 再生部120は、ステップS8にて翻訳補助情報の指定が完了したと判定すると、対象シーンの繰り返し再生を終了し(ステップS9)、ステップS10に進む。
 ステップS10にて、再生部120は、対象シーンが映像コンテンツの最後のシーンであるか否かを判定する。
 再生部120は、対象シーンが映像コンテンツの最後のシーンではないと判定した場合、次のシーンを対象シーンに設定した上で(ステップS11)、ステップS6に戻る。
 一方、再生部120により対象シーンが映像コンテンツの最後のシーンであると判定された場合、字幕解析部140は、以下の処理を行う。すなわち、字幕解析部140は、シーンiが再生される期間とシーンiで表示される語と該語の翻訳に使用すべき翻訳補助情報との対応関係が各i(i=1、2、・・)について示された翻訳補助データを生成し、生成した翻訳補助データをHDD150に保存する。
 なお、字幕解析部140は、翻訳補助データを以下のように生成してもよい。すなわち、字幕解析部140は、翻訳補助データのうちシーンiに関する部分のデータ(部分データi)をi回目のステップS9の直後に生成してもよい。そして、再生部120により対象シーンが映像コンテンツの最後のシーンであると判定された場合、字幕解析部140は、全部分データ(部分データ1、部分データ2、・・)を結合することで翻訳補助データを生成してもよい。
 また、再生部120は、翻訳補助情報の指定が完了したか否かを図4のUI画面中の「次へ」というボタンが押されたか否かに基づいて判定してもよい。また、配信装置100は、シーンiを繰り返し再生している間に図4のUI画面中の「前へ」というボタンが押された場合、部分データi-1を消去した上でシーンi-1に関するステップS6~S9の工程を再度行うようになっていてもよい。
 また、ステップS6において、再生部120は、繰り返し再生ではなくスロー再生を行ってもよい。
 (翻訳補助データの変形例について)
 オリジナル言語が英語である場合において、再生部120により対象シーンが映像コンテンツの最後のシーンであると判定された後、字幕解析部140は、図5の(a)に例示されるような翻訳補助データを生成してもよい。ここで、図5の(a)の翻訳補助のうちの部分データ#1の部分は、以下の事項を示している。
 すなわち、“00:00:03,000 --> 00:30:00,00”の部分は“Sita”という単語が最初に使用されてから最後に使用されるまでの期間を示しており、“{TMD:Noun(proper.name.first), Gender(femail), Respect(false)}”の部分は、当該期間内の字幕中に現れる“Sita”という単語を翻訳する上で参照すべき翻訳補助情報に該当する。また、“Noun(proper.name.first)”は“Sita”が人物を表す固有名詞であることを示し、“Gender(femail)”は、“Sita”が女性名詞であることを示している。“Respect(false)”は、“Sita”という名詞を尊敬語の名詞として訳すべきではないことを示し、“Sita”の動作を示す動詞を尊敬語の動詞として訳すべきではないことを示している。
 また、図5の(a)の翻訳補助データのうちの部分データ#2以降についても同様のことが言える。
 なお、部分データ#iがある期間i内の字幕中の単語Wの翻訳補助情報を含んでおり、部分データ#jが期間iに含まれているある期間j内の字幕中の同じ単語Wの翻訳補助情報を含んでいる場合、テレビ200は、翻訳補助データを以下のように解釈する。
 すなわち、テレビ200は、期間j内の字幕中の単語Wを翻訳する場合には、部分データ#iに含まれる翻訳補助情報と部分データ#jに含まれる翻訳補助情報との両方を参照する。参照の結果、2つの翻訳補助情報が相反する事項を示していると判断される場合、テレビ200は、部分データ#iに含まれる翻訳補助情報を無視し、部分データ#jに含まれる翻訳補助情報を用いて単語Wを翻訳する。
 例えば、テレビ200は、“00:00:015,000 --> 00:20:00,00”が示す期間(映像コンテンツの再生開始15秒後から20分後までの期間)に現れる、“Sita”という単語を含む字幕を翻訳する場合、部分データ#1に含まれる“Respect(false)”を無視し、部分データ#2に含まれる“Respect(true)”という翻訳補助情報を用いて“Sita”という単語を翻訳する。
 (ステップS7の詳細について)
 字幕解析部140は、対象シーンの字幕テキストに含まれる各語について該語をターゲット言語に翻訳する上で翻訳補助情報が必要かどうかを判定し、字幕テキストに含まれる全部または一部の語について翻訳補助情報が必要であると判定した場合には翻訳補助情報をオペレータに指定させるためのUIオブジェクトを表示する。
 ある語について翻訳補助情報が必要であると判定するケースとしては、以下のケースが挙げられる。
 ケース1)オリジナル言語の国語辞書の辞書データを参照した結果、当該語の語義が複数通り存在すると判定したケース。このケースでは、当該国語辞典に載っている複数通りの語義のうちの任意の語義を1つ選択可能なリストボックスをテキストボックスとともに表示する。なお、オリジナル言語の国語辞書とは「オリジナル言語の1言語辞書」とも換言することができる。従って、例えば、オリジナル言語が英語である場合には、英英辞書がオリジナル言語の国語辞書に該当する。
 ケース2)当該語が代名詞であるケース。このケースでは、当該代名詞がどのような名詞(登場人物等)を指し示しているかを示す文字列を入力するためのテキストボックスを表示する。また、過去のステップS7にて当該語に付与した名詞が1つ以上ある場合には、1つ以上の名詞のうちの任意の名詞を選択可能なリストボックスを併せて表示する。
 ケース3)当該語の語義がオリジナル言語の国語辞書に載っていないケース。このケースでは、「固有名詞(人物名)」「固有名詞(地名)」「固有名詞(商品名)」「流行語」「翻訳不要な語」のうちのいずれかひとつを選択可能なリストボックスを表示する。
 ケース4)オリジナル言語の字幕テキストを、翻訳補助情報を参照せずにHDD150の辞書データのみを参照してターゲット言語に機械翻訳した結果として、翻訳候補が複数存在してしまうケース。このケースでは、翻訳候補が複数存在する原因となるオリジナル言語の字幕テキスト中の語を特定し、その原因を解消するために必要な翻訳補助情報(該語に付与すべき翻訳補助情報)を指定させるためのリストボックスを表示する。
 ケース4に関して翻訳候補が複数存在する原因として、例えば、以下の原因が考えられる。
 原因1)日本語の字幕テキストを英語に機械翻訳する場合において、字幕テキスト中の名詞を単数形の名詞に変換すべきか複数形の名詞に変換すべきかが定まらない場合。この場合、「単数形」「複数形」のいずれかを選択可能なリストボックスを表示する。
 原因2)英語の字幕テキストを日本語に機械翻訳する場合において、字幕テキスト中の名詞(動詞)を、対応するターゲット言語(日本語やタミル語等)の尊敬語に変換すべきか否かが定まらない場合。この場合、「尊敬語」「通常語」のいずれかを選択可能なリストボックスを表示する。
 原因3)英語の字幕テキストをドイツ語に機械翻訳する場合において、字幕テキスト中の名詞を、対応するドイツ語の男性名詞に変換すべきか女性名詞に変換すべきか中性名詞に変換すべきかが定まらない場合。この場合、「男性名詞」「女性名詞」「中性名詞」のいずれかを選択可能なリストボックスを表示する。
 そして、字幕解析部140は、UIオブジェクトを通じてオペレータにより指定された翻訳補助情報(「男性名詞」「尊敬語」等の情報)を、翻訳補助情報が必要であると判定された各語に付与する。
 例えば、“Restaurant is open for business”という字幕テキスト中の“open”という単語について英英辞書の見出し語“open(adj)”の16番目の語義(“open”という単語が使用される文脈における“open”という単語の語義として適切な語義)がオペレータによりリストボックスから選択された場合、字幕解析部140は、“open”という単語に“TMD:adj(16)”という翻訳補助情報を付与する。
 また、例えば、“Son, get up quickly.”という字幕テキスト中の“get up”という複合語について“wake up”という語がオペレータによりテキストボックスに入力された場合、字幕解析部140は、“get up”という複合語に“TMD:means(wakeup)”という翻訳補助情報を付与する。同様に、“Son, get up the ladder.”という字幕テキスト中の“get up”という複合語について“climb”という語がオペレータによりテキストボックスに入力された場合、字幕解析部140は、“get up”という複合語に“TMD:means(climb)”という翻訳補助情報を付与する。
 また、例えば、“Only when Sam kicks the bucket, her children will be rich.”という字幕テキスト中の“kicks the bucket”という成句について“die”という語義がオペレータによりテキストボックスに入力された場合、字幕解析部140は、“kicks the bucket”という成句に“TMD:means(dies)”という翻訳補助情報を付与する。
 また、例えば、以下の6つの字幕テキスト群のうちの6つ目の字幕テキスト“Did you get it fixed?”の“it”という代名詞について“cartridge”という語義がオペレータによりテキストボックスに入力された場合、字幕解析部140は、“it”という代名詞に“TMD:means(cartridge)”という翻訳補助情報を付与する。
A: Now insert the cartridge at the back.
B: Okay.
A: By the way, did you order more toner today?
B: Yes, I got some when I picked up the new paper.
A: OK, how far have you got?
A: Did you get it fixed?
 また、例えば、“He came.”という字幕テキスト中の“He”という単語についてオペレータにより「尊敬語」がリストボックスから選択された場合、字幕解析部140は、“He”という単語に“TMD:Respect(true)”という翻訳補助情報を付与する。逆に“He came.”という字幕テキスト中の“He”という単語についてオペレータにより「通常語」がリストボックスから選択された場合、字幕解析部140は、“He”という単語に“TMD:Respect(false)”という翻訳補助情報を付与する。
 なお、図4からわかるように、該語に付与すべき翻訳補助情報をオペレータに指定させるためのUIオブジェクトは該語の下方に表示されるが、オペレータは、必ずしも翻訳補助情報を指定する必要はない。例えば、図4の字幕テキスト中の「僕」という単語に翻訳補助情報を付与しない場合、オペレータは、「僕」という単語の下方にある「無視」ボタンを押せばよい。この場合、字幕解析部140は、「僕」という単語に翻訳補助情報を付与せずに、該単語の下方にある「無視」ボタン、リストボックス、およびテキストボックスを消去することになる。
 字幕解析部140は、映像コンテンツを構成する全シーンについて上述の処理を実行することで、図5の(a)に例示される翻訳補助データを作成することができる。
 以上の説明からわかるように、配信装置100は、様々なターゲット言語について、オリジナル言語の映像コンテンツの字幕をターゲット言語に適切に機械翻訳するために必要な翻訳補助データを作成することができる。
 なお、ケース4の説明からわかるように、字幕解析部140は、オリジナル言語の字幕または音声中のどの語について当該語の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付けるべきかを、オリジナル言語およびターゲット言語の特性(文法規則)に基づいて判定するようになっている。
 (ステップS8について)
 再生部120は、ステップS8にて、以下の条件を満たした場合に、翻訳補助情報の指定が完了したと判定してもよい。すなわち、再生部120は、翻訳補助情報が必要であると判定された各語について、該語に翻訳補助情報が付与されたか、または、該語に翻訳補助情報を付与しないことが決定された場合に、翻訳補助情報の指定が完了したと判定してもよい。
 (テレビ200による映像コンテンツを再生する動作について)
 次に、テレビ200による映像コンテンツを再生する動作について説明する。なお、以下に説明するテレビ200の動作は、オリジナル言語とテレビ200の字幕設定に応じた言語とが異なっている場合の動作であることを予め述べておく。
 テレビ200は映像コンテンツを再生させるユーザ操作を受け付けると、データ取得部210は、チューナ部220を介してその映像コンテンツを取得する。データ取得部210が取得する映像コンテンツには、映像データとともにオリジナル言語の音声データおよび字幕データが含まれている。
 また、データ取得部210は、映像コンテンツを取得しながら、その映像コンテンツをテレビ200の字幕設定に応じた言語(ターゲット言語)に適切に機械翻訳するために必要な翻訳補助データのリクエストを通信I/F部230を介して配信装置100に送信する。
 リクエストを受けた配信装置100は、翻訳補助データをテレビ200に送信する。
 翻訳補助データを受信したテレビ200のデータ取得部210は、その翻訳補助データをHDD260に保存するとともに、再生部240に対して映像コンテンツの再生を開始するように指示する。
 データ取得部210からの指示を受けた再生部240は、最初のシーンの字幕テキストを映像コンテンツから抽出する。そして、再生部240は、抽出した字幕テキストを翻訳処理部250に供給するとともに、当該字幕テキスト(ソース言語の字幕テキスト)をターゲット言語に機械翻訳するように翻訳処理部250に指示する。
 再生部240から指示を受けた翻訳処理部250は、HDD260に保持されている2言語辞書の辞書データとともに翻訳補助データを用いて、該当シーンの字幕テキストをターゲット言語に機械翻訳する。
 例えば、“He came.”という字幕テキスト中の“He”という単語に“TMD:Respect(true)”という翻訳補助情報が付与されている場合であってターゲット言語がタミル語である場合、翻訳処理部250は、当該字幕テキストを、ローマナイズした場合の表記が“Avarvanthar.”となるようなタミル語の文に翻訳する。また、例えば、当該字幕テキスト中
の“He”という単語に“TMD:Respect(false)”という翻訳補助情報が付与されている場合であってターゲット言語がタミル語である場合、翻訳処理部250は、当該字幕テキストを、ローマナイズした場合の表記が“Avan vanthan.”となるようなタミル語の文に翻訳する。
 翻訳処理部250は、機械翻訳により得られたターゲット言語の字幕テキストを再生部240に供給する。
 再生部240は、映像コンテンツの該当シーンの映像と該当シーンのターゲット言語の字幕テキストとを表示部270に表示する。
 なお、再生部240および翻訳処理部250は、以降のシーンについても協働して同様の処理を行う。
 以上のテレビ200の動作により、テレビ200を用いて番組コンテンツを視聴しているターゲット言語のみに精通した視聴者は、当該番組コンテンツの字幕または音声が示す内容を理解することができる。
 (実施形態1の付記事項1)
 本実施形態では、配信装置100がソース言語の字幕を構成する語の翻訳に使用すべき翻訳補助情報の指定をユーザから受け付け、テレビ200が、2言語情報とユーザに指定された(すなわち、該語に付与された)翻訳補助情報とを用いて該語を翻訳するようになっている。
 本発明はこの構成に限定されない。すなわち、配信装置100がソース言語の音声を構成する語の翻訳に使用すべき翻訳補助情報の指定をユーザから受け付け、テレビ200が、2言語情報とユーザに指定された(すなわち、該語に付与された)翻訳補助情報とを用いて該語を翻訳するようにしてもよい。
 (実施形態1の付記事項2)
 配信装置100は、映像コンテンツに含まれる字幕データが示す字幕を含まないような翻訳補助データ(例えば、図5の(a)に例示される翻訳補助データ)を生成した。このような翻訳補助データは、当該データが有効な時刻情報との関係のみを示しているため、例えば、音声データを翻訳する場合にも適した記述方法である。
 本発明はこの構成に限定されない。すなわち、字幕解析部140は、字幕を含む翻訳補助データ(図5の(b)に例示される翻訳補助データ)を生成してもよい。
 この場合、字幕解析部140は映像コンテンツから字幕データを抽出する。字幕解析部140が抽出した字幕データには、映像コンテンツに含まれる各シーンについて該シーンが再生される期間と該期間に表示される字幕テキストとが示されている。
 字幕解析部140は、各シーンについて、字幕データの一部分(該シーンが再生される期間が該期間に表示される字幕テキストとともに示された部分)に、該シーンで表示される該字幕テキストを構成する語と該語の翻訳に使用すべき上記翻訳補助情報とをインライン挿入することになる。
 なお、配信部160は、字幕解析部140が上記の処理により生成した字幕を含む翻訳補助データを通信I/F部180を介して、翻訳補助データをリクエストしたテレビ200に送信してもよい。
 また、再生部240は、再生部240が再生すべき各シーンの字幕テキストを映像コンテンツから抽出しなくてもよい。すなわち、翻訳処理部250は、字幕を含む翻訳補助データから各シーンの字幕テキストと翻訳補助データとを抽出し、HDD260に保持されている2言語辞書の辞書データとともに翻訳補助データを用いて、各シーンの字幕テキストをターゲット言語に機械翻訳してもよい。
 (実施形態1の付記事項3)
 配信装置100は、映像コンテンツを放送により配信し、翻訳補助データを通信により配信するように構成されていた。
 本発明はこの構成に限定されない。すなわち、配信装置100は、翻訳補助データ(字幕を含む翻訳補助データまたは字幕を含まない翻訳補助データ)を含む映像コンテンツを放送または通信により配信してもよい。
 例えば、配信装置100(配信部160)は、映像コンテンツの各ストリーム(映像ストリーム、音声ストリーム、字幕ストリーム、データ放送ストリーム、翻訳補助データのストリーム)をストリーム毎に符号化してもよい。そして、配信装置100(配信部160)は、符号化されたストリーム群を多重化し、得られた多重化ストリームを放送または通信により配信してもよい。
 (配信装置100およびテレビ200の利点)
 以上のように、配信装置100は、操作受付部110(受付手段)、再生部120(映像提示手段)、および、字幕解析部140(生成手段)を備えている。
 再生部120は、ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する。
 操作受付部110は、再生部120による該映像コンテンツの提示中に、該映像コンテンツの各シーンiについて、シーンiの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定をユーザから受け付ける。
 字幕解析部140は、シーンiが再生される期間とシーンiの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が各iについて示された翻訳補助データを生成する。
 上記の構成によれば、配信装置100は、ソース言語の字幕または音声を含む映像コンテンツをユーザに提示している間に、そのユーザに上記字幕または上記音声の翻訳に使用すべき翻訳補助情報を指定させることになる。
 すなわち、ソース言語に精通しているオペレータであれば、上記翻訳補助情報を指定しようとする際に、ソース言語の字幕または音声が示す言葉がどのようなシチュエーションで使用されているかを的確に把握することができる。したがって、上記オペレータは、ソース言語の字幕または音声の機械翻訳の品質向上に寄与する適切な翻訳補助情報を指定することができる。
 一方、テレビ200は、翻訳処理部250(翻訳処理手段、参照手段)を備えている。
 翻訳処理部250は、以下のようにして、映像コンテンツに含まれるソース言語の字幕または音声をターゲット言語に機械翻訳する。
 すなわち、翻訳処理部250は、配信装置100が生成した翻訳補助データを参照し、各シーンiについて、シーンiの字幕または音声を、2言語辞書とシーンiの翻訳補助情報とを用いてターゲット言語に翻訳する。
 上記の構成によれば、テレビ200は、2言語辞書を用いてソース言語の字幕または音声をターゲット言語に翻訳するが、この翻訳のために、機械翻訳の品質向上に寄与する適切な翻訳補助情報も用いる。そのため、テレビ200は、字幕または音声が示す言葉が使用されるシチュエーションを考慮した適切な翻訳が可能である。
 また、テレビ200は、ソース言語とターゲット言語との両方に精通した翻訳者を必要とすることなく、上記の適切な翻訳を行うことができる。
 そして、配信装置100は、ソース言語のみに精通したオペレータの操作によって、テレビ200がソース言語の文をターゲット言語に翻訳する際に参照する翻訳補助データを生成できる。
 (実施形態1の付記事項4)
 ある語について翻訳補助情報が必要であると判定するケースとして、以下のケース4が挙げられることを述べた。
 ケース4)オリジナル言語の字幕テキストを、翻訳補助情報を参照せずにHDD150の辞書データのみを参照してターゲット言語に機械翻訳した結果として、翻訳候補(第1候補、第2候補、・・、第N候補)が複数存在してしまうケース。
 このケース4に関し、字幕解析部140は、オリジナル言語の字幕テキストをHDD150の辞書データのみを参照してターゲット言語に機械翻訳した上で、以下の処理を行ってもよい。
 すなわち、字幕解析部140は、得られたターゲット言語の第1候補の字幕テキストをオリジナル言語に機械翻訳してもよい(工程1)。
 そして、字幕解析部140は、2回の機械翻訳により得られた字幕テキストを元の字幕テキストと一緒に表示部130に表示するとともに、2回の機械翻訳により得られた字幕テキストが「問題なし」「理解可能」「理解不能」のいずれに該当するテキストであるかをオペレータに選択させるためのリストボックスを表示部130に表示してもよい(工程2)。
 ここで、字幕解析部140が工程2にて図6の(a)の“That's a nice thing to say”という元の字幕テキストと“It's a good to say”という2回の機械翻訳により得られた字幕テキストとを一緒に表示した場合を考える。この場合、英語に精通したオペレータは、2回の機械翻訳により得られた字幕テキストから元の字幕テキストの意味を理解するのは不可能であると判断し、リストボックスから「理解不能」を選択することになる。
 字幕解析部140は、このリストボックスから「問題なし」が選択された場合、元の字幕テキストをターゲット言語の第1候補の字幕テキストに翻訳すべき旨を示す情報を翻訳補助データに含めてもよい(工程3)。
 一方、字幕解析部140は、リストボックスから「理解可能」または「理解不能」が選択された場合、ターゲット言語の第2候補の字幕テキストをオリジナル言語に機械翻訳してもよい(工程1)。そして、字幕解析部140は、得られた字幕テキストと元の字幕テキストと上述のリストボックスとを表示部130に表示してもよい(工程2)。
 字幕解析部140は、以上の工程1と工程2とを、上述のリストボックスから「問題なし」が指定されるか、あるいは、全N個の候補について以上の工程1と工程2とを行うまで、繰り返してもよい。
 そして、字幕解析部140は、第j候補に関する工程2において上述のリストボックスから「問題なし」が選択された場合、元の字幕テキストをターゲット言語の第j候補の字幕テキストに翻訳すべき旨を示す翻訳補助情報を翻訳補助データに含めてもよい(工程3)。あるいは、N回の工程2において上述のリストボックスから「問題なし」が選択されなかった場合であって第j候補に関する工程2において上述のリストボックスから「理解可能」が選択された場合、元の字幕テキストをターゲット言語の第j候補の字幕テキストに翻訳すべき旨を示す翻訳補助情報を翻訳補助データに含めてもよい(工程3)。
 なお、図6の(b)に示すように、第j候補に関する工程2において表示される、上述の2回の機械翻訳により得られる字幕テキストは、元の字幕テキストとは正反対のことを意味することがあり得る。
 これに関し、オペレータは、以下の翻訳補助情報を元の字幕テキスト中の2回の機械翻訳により意味が逆になった文(節、語)に付与する操作を行ってもよい。すなわち、元の字幕テキストの該単文(節、語)を逆の意味に書き換えた上で、書き換え後の字幕テキストをターゲット言語の第j候補の字幕テキストに翻訳すべき旨を示す翻訳補助情報を付与する操作を行ってもよい。操作受付部110が当該操作を受け付けた場合、字幕解析部140は、工程3において、当該翻訳補助情報を翻訳補助データに含めてもよい。
 〔実施形態2〕
 本発明の他の実施形態について、図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と全く同じ機能または略同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図7は、本実施形態に係る配信システム、ならびに、配信システムに含まれる配信装置、翻訳処理装置およびテレビの要部構成を示した図である。
 図7に示すように、本実施形態に係る配信システムは、配信装置100、テレビ200’、および翻訳処理装置300を含んでいる。
 (テレビ200’)
 図7に示すように、テレビ200’は、データ取得部210’、チューナ部220、通信I/F部230、再生部240、HDD260、および表示部270を備えている。
 (データ取得部210’)
 データ取得部210’は、配信装置100が送信した放送信号からデータ(映像コンテンツ)を取得し、翻訳処理装置300が送信した通信信号からデータ(ターゲット言語の字幕テキスト)を取得する。
 (翻訳処理装置300)
 図7に示すように、翻訳処理装置300は、通信I/F部310、データ取得部320、翻訳処理部330、およびHDD340を備えている。
 (通信I/F部310)
 通信I/F部310は、テレビ200との間の通信に使用される通信インタフェースである。
 (データ取得部320)
 テレビ200が送信した通信信号からデータ(翻訳補助データやオリジナル言語の字幕テキスト、テレビ200’の字幕設定を示す情報等)を取得する。
 (翻訳処理部330)
 翻訳処理部330は、テレビ200’から送信されたオリジナル言語(ソース言語)の字幕を、テレビ200の字幕設定に応じた言語(ターゲット言語)に翻訳する。
 翻訳処理部330は、HDD340に保持されている辞書データ(上記ソース言語の各語の語義が上記ターゲット言語により示された2言語辞書の辞書データ)と配信装置100から取得した翻訳補助データとを参照することで、上記の翻訳を行う。
 (HDD340)
 HDD340は、様々な2言語辞書の辞書データおよび様々な言語のフォントデータが保持されている記録媒体である。HDD340には、テレビ200から送信された翻訳補助データ、オリジナル言語の字幕テキスト、および、テレビ200の字幕設定を示す情報が保存される。
 (テレビ200’による映像コンテンツを再生する動作について)
 次に、テレビ200’による映像コンテンツを再生する動作について説明する。なお、以下の説明するテレビ200’の動作は、オリジナル言語とテレビ200’の字幕設定に応じた言語とが異なっている場合の動作であることを予め述べておく。
 テレビ200’は映像コンテンツを再生させるユーザ操作を受け付けると、データ取得部210’は、チューナ部220を介してその映像コンテンツを取得する。データ取得部210’が取得する映像コンテンツには、映像データとともにオリジナル言語の音声データおよび字幕データが含まれている。
 また、データ取得部210’は、映像コンテンツを取得しながら、その映像コンテンツをテレビ200’の字幕設定に応じた言語(ターゲット言語)に適切に機械翻訳するために必要な翻訳補助データのリクエストを通信I/F部230を介して配信装置100に送信する。このために、データ取得部210’は、例えば、映像コンテンツからコンテンツIDを抽出し、コンテンツIDとターゲット言語を示す言語情報とを含むリクエストデータを配信装置100に送信してもよい。
 リクエストを受けた配信装置100は、翻訳補助データをテレビ200に送信する。
 翻訳補助データを受信したテレビ200’のデータ取得部210’は、その翻訳補助データを、テレビ200’の字幕設定を示す情報、および、映像コンテンツから抽出した最初のシーンの字幕テキストとともに翻訳処理装置300に送信する。
 翻訳処理装置300のデータ取得部320は、翻訳補助データ、最初のシーンの字幕テキスト、および、テレビ200’の字幕設定を示す情報をテレビ200’から取得し、HDD340に保存する。そして、データ取得部320は、最初のシーンの字幕テキストをターゲット言語に翻訳するように翻訳処理部330に指示する。
 データ取得部320から指示を受けた翻訳処理部330は、HDD340に保持されている2言語辞書の辞書データとともに翻訳補助データを用いて、最初のシーンの字幕テキストをターゲット言語に機械翻訳する。翻訳処理部250は、機械翻訳により得られたターゲット言語の字幕テキストをデータ取得部320に供給する。
 そして、データ取得部320はターゲット言語の字幕テキストをテレビ200に送信し、テレビ200のデータ取得部210’は、該字幕テキストを取得する。
 さらに、データ取得部210’は、取得したターゲット言語の字幕テキストを再生部240に供給する。
 再生部240は、映像コンテンツに含まれる該当シーンの映像と該当シーンのターゲット言語の字幕とを表示部270に表示する。
 なお、テレビ200’および翻訳処理装置300は、以降のシーンについても協働して同様の処理を行う。
 (実施形態2の付記事項)
 本実施形態では、翻訳処理装置300は、テレビ200’からオリジナル言語の字幕テキストと翻訳補助データとテレビ200’の字幕設定を示す情報とを受信したことをトリガとして、オリジナル言語の字幕テキストをターゲット言語の字幕テキストに翻訳するように構成されていた。
 本発明はこの構成に限定されない。すなわち、配信装置100は、映像コンテンツを放送で配信する前に、映像コンテンツに含まれる字幕テキスト群と言語毎の翻訳補助データとを翻訳処理装置300に配信してもよい。そして、翻訳処理装置300は、配信装置100からの配信を受けた時点で(すなわち、映像コンテンツが放送で配信される前に)、オリジナル言語の字幕テキスト群を、言語毎の翻訳補助データと各種2言語辞書とを用いて、様々な言語の字幕テキスト群に翻訳してもよい。
 また、テレビ200’は、映像コンテンツを取得した後に、翻訳補助データのリクエストを配信装置100に送信することなく、テレビ200’の字幕設定を示す情報を翻訳処理装置300に送信してもよい。
 そして、翻訳処理装置300は、テレビ200’の字幕設定を示す情報を取得した時点で、テレビ200’の字幕設定に応じた言語の字幕テキスト群をテレビ200’に配信してもよい。
 〔実施形態3〕
 本発明のさらに別の実施形態について、図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と全く同じ機能または略同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図8は、本実施形態に係る配信システム、および、配信システムに含まれるコンテンツ作成装置の要部構成を示した図である。
 図8に示すように、本実施形態に係る配信システムは、配信装置100’、テレビ200、コンテンツ作成装置400、および翻訳補助データ配信サーバ500を含んでいる。
 コンテンツ作成装置400はコンテンツ作成業者が管理している装置であり、配信装置100’は、コンテンツ配信事業者(放送事業者等)が管理している装置である。図8に示すように、配信装置100’およびコンテンツ作成装置400は、専用ネットワークに接続されている。この専用ネットワークは、有線ネットワークであってもよいし、無線ネットワークであってもよい。
 (配信装置100’)
 配信装置100’は、HDD150、配信部160および放送送出部170を備えている。なお、配信装置100が備えるHDD150、配信部160および放送送出部170以外の各部材について、配信装置100’は当該各部材を備えていない。
 (コンテンツ作成装置400)
 図8に示すように、コンテンツ作成装置400は、操作受付部410、字幕解析部420、再生部430、表示部440、HDD(ハードディスクドライブ)450、送信部460および通信I/F(通信インタフェース)部470を備えている。
 (操作受付部410)
 操作受付部410は、字幕データおよび音声データを含む映像コンテンツを作成または編集する操作を受け付ける。
 また、操作受付部410は、作成された映像コンテンツの字幕(オリジナル言語の字幕)をターゲット言語に機械翻訳するためにテレビ200によって使用される翻訳補助データを作成するための様々な操作を受け付ける。例えば、操作受付部410は、ターゲット言語を指定するオペレータの操作等を受け付ける。
 (字幕解析部420)
 字幕解析部420は、オリジナル言語の字幕を解析する。具体的には、字幕を構成する各語について、該語をオペレータに指定されたターゲット言語に翻訳する上で翻訳補助情報が必要かどうかを判定する。
 字幕解析部420は、翻訳補助情報が必要であると判定した場合、翻訳補助情報をオペレータに指定させるためのUIオブジェクトを表示する。
 (再生部430)
 再生部430は、操作受付部410が補助データ作成ツールを起動させるユーザ操作を受け付けると、補助データ作成ツールを起動する。
 また、再生部430は、補助データ作成ツール上で指定された映像コンテンツを再生することで、映像とオリジナル言語の字幕とを表示部440に表示し、オリジナル言語の音声をスピーカ(図示せず)から出力する。
 (表示部440)
 映像とオリジナル言語の字幕とが表示されるディスプレイである。
 (HDD450)
 HDD450は、映像コンテンツ作成ツール、補助データ作成ツール、様々な2言語辞書の辞書データ、および、様々な言語のフォントデータが保持されている記録媒体である。HDD450には、映像コンテンツ作成ツールにより作成された映像コンテンツ、および、オペレータが指定した上記の翻訳補助情報を含む翻訳補助データが保存される。
 (送信部460)
 送信部460は、映像コンテンツが専用ネットワークを経由して配信装置100に到達するように、通信I/F部470を介して当該映像コンテンツを送信する。
 また、送信部460は、翻訳補助データがインターネットを経由して翻訳補助データ配信サーバ500に到達するように、通信I/F部470を介して当該翻訳補助データを送信する。
 (通信I/F部470)
 通信I/F部470は、送信部460から供給されたデータが含まれた通信信号をネットワーク(インターネットまたは専用ネットワーク)に送出する。
 (翻訳補助データ配信サーバ500)
 翻訳補助データ配信サーバ500は、コンテンツ作成装置400が作成した各種言語の翻訳補助データを保持するサーバである。図8に示すように、翻訳補助データ配信サーバ500は、インターネットに接続されている。
 翻訳補助データ配信サーバ500は、テレビ200から翻訳補助データのリクエストを受け付けると、テレビ200に対して翻訳補助データを送信する。
 (テレビ200による映像コンテンツを再生する動作について)
 本実施形態に係るテレビ200が映像コンテンツを再生する動作は、実施形態1に係るテレビ200が映像コンテンツを再生する動作と略同じである。
 ただし、本実施形態に係るテレビ200は、映像コンテンツの字幕をテレビ200の字幕設定に応じた言語(ターゲット言語)に適切に機械翻訳するために必要な翻訳補助データのリクエストを翻訳補助データ配信サーバ500に送信する点において、実施形態1に係るテレビ200と異なっている。
 (実施形態1~3の付記事項1)
 ステップS7に関し、ソース言語の字幕文をターゲット言語に機械翻訳する場合において、字幕文をネガティブな印象を与える文に翻訳すべきかポジティブな印象を与える文に翻訳すべきかが定まらないときは、字幕解析部140は「ネガティブ」「ポジティブ」のいずれかを選択可能なリストボックスを表示してもよい。
 字幕解析部140は、字幕文にリストボックスからの選択に応じた翻訳補助情報(該字幕文をネガティブ(またはポジティブ)な印象を与える文に翻訳すべき旨を示す翻訳補助情報)を付与してもよい。すなわち、字幕解析部140は、字幕文と、該字幕文をネガティブ(またはポジティブ)な印象を与える文に翻訳すべき旨を示す翻訳補助情報と、を含むような翻訳補助データを生成可能に構成されていてもよい。
 そして、例えば、字幕設定が「日本語」に設定されているテレビ200が“You are always reading a book.”という英語の字幕文と該字幕文をネガティブな印象を与える文に翻訳すべき旨を示す翻訳補助情報とが含まれている翻訳補助データを受信した場合、翻訳処理部250は、該字幕文を「いつも読書ばっかり!」という日本語の字幕文に翻訳してもよい。また、例えば、字幕設定が「日本語」に設定されているテレビ200が“You are always reading a book.”という英語の字幕文と該字幕文をポジティブな印象を与える文に翻訳すべき旨を示す翻訳補助情報とが含まれている翻訳補助データを受信した場合、翻訳処理部250は、該字幕文を「よく読書をしていますね。」という日本語の字幕文に翻訳してもよい。
 (実施形態1~3の付記事項2)
 ステップS7に関し、ソース言語の字幕文をターゲット言語に機械翻訳する場合において、字幕文を重い印象を与える文に翻訳すべきか軽い印象を与える文に翻訳すべきかが定まらないときは、字幕解析部140は「重い」「軽い」のいずれかを選択可能なリストボックスを表示してもよい。
 字幕解析部140は、字幕文にリストボックスからの選択に応じた翻訳補助情報(該字幕文を重い(または軽い)印象を与える文に翻訳すべき旨を示す翻訳補助情報)を付与してもよい。すなわち、字幕解析部140は、字幕文と、該字幕文を重い(または軽い)印象を与える文に翻訳すべき旨を示す翻訳補助情報と、を含むような翻訳補助データを生成可能に構成されていてもよい。
 (実施形態1~3の付記事項3)
 ステップS7に関し、ソース言語の字幕文をターゲット言語に機械翻訳する場合において、字幕文を良い(丁寧な)印象を与える文に翻訳すべきか悪い(乱暴な)印象を与える文に翻訳すべきかが定まらないときは、字幕解析部140は「良い」「悪い」のいずれかを選択可能なリストボックスを表示してもよい。
 字幕解析部140は、字幕文にリストボックスからの選択に応じた翻訳補助情報(該字幕文を良い(または悪い)印象を与える文に翻訳すべき旨を示す翻訳補助情報)を付与してもよい。すなわち、字幕解析部140は、字幕文と、該字幕文を良い(または悪い)印象を与える文に翻訳すべき旨を示す翻訳補助情報と、を含むような翻訳補助データを生成可能に構成されていてもよい。
 (実施形態1~3の付記事項4)
 字幕解析部140は、ステップS7にて、ターゲット言語の種類に応じた数の感情語のうちの任意の感情語をひとつ選択可能なリストボックスを表示してもよい。
 例えば、ターゲット言語が中国語の場合には、字幕解析部140は、五情を表す5つの感情語(「喜」「怒」「哀」「楽」「怨」)のうちの任意のひとつを選択可能なリストボックスを表示してもよい。
 そして、字幕解析部140は、字幕文(人物のセリフ)にリストボックスからの選択に応じた翻訳補助情報(該人物がどのような感情を抱いているかを示す翻訳補助情報)を付与してもよい。例えば、「喜」がリストボックスから選択された場合、字幕解析部140は、「該セリフが、該人物が五情のうちの「喜」という感情を抱いて発したセリフである」ことを示す翻訳補助情報を付与してもよい。なお、この翻訳補助情報は、該人物が「喜」という感情を抱いているという印象を与えるような文に該字幕文を翻訳すべきであることも示している。
 なお、字幕解析部140は、ターゲット言語が中国語の場合には、六情を表す6つの感情語(「喜」「怒」「哀」「楽」「愛」「憎」)のうちの任意のひとつを選択可能なリストボックスを表示してもよい。あるいは、字幕解析部140は、ターゲット言語が中国語の場合には、七情を表す7つの感情語(「喜」「怒」「哀」「懼」「愛」「悪」「欲」)のうちの任意のひとつを選択可能なリストボックスを表示してもよい。
 また、例えば、ターゲット言語がインド固有の言語である場合には、字幕解析部140は、ナヴァ・ラサを表す9つの感情語のうちの任意のひとつを選択可能なリストボックスを表示してもよい。なお、9つの感情語は、「シュリンガーラ(恋愛感情)」「ハースヤ(滑稽な笑い)」「カルナ(悲しみ)」「ラウドラ(怒り)」「ヴィーラ(勇ましさ)」「バヤーナカ(恐れ)」「ビーバッサ(嫌悪)」「アドブタ(驚き)」および「シャーンタ(平和)」で構成される。
 (実施形態1~3のその他の付記事項)
 本発明に係るデータ生成装置は、翻訳補助データを外部に送信する機能を備えていなくともよい。例えば、本発明に係るデータ生成装置は、光ディスクドライブを備え、この光ディスクドライブに装着された光ディスクに翻訳補助データと映像コンテンツと関連付けて記録してもよい。あるいは、本発明に係るデータ生成装置は、上記光ディスクに翻訳補助データを含む映像コンテンツを記録してもよい。
 また、本発明に係る翻訳処理装置は、映像コンテンツおよび翻訳補助データを個別に受信する機能も翻訳補助データを含む映像コンテンツを受信する機能も備えていなくともよい。例えば、本発明に係る翻訳処理装置は、光ディスクドライブを備えたプレーヤであって、この光ディスクドライブに装着された光ディスクから翻訳補助データと映像コンテンツとを読み出すプレーヤであってもよい。あるいは、本発明に係る翻訳処理装置は、上記光ディスクから翻訳補助データを含む映像コンテンツを読み出し、読み出した映像コンテンツから翻訳補助データを抽出するプレーヤであってもよい。
 (実施形態3の付記事項)
 また、コンテンツ作成装置400は、実施形態1~3のテレビが行う翻訳処理と同様の翻訳処理を行うように構成されていてもよい。
 すなわち、コンテンツ作成装置400は、ターゲット言語の翻訳補助データを外部に送信せず、N個のターゲット言語の各々に関し、2言語辞書とターゲット言語の翻訳補助データとを用いてソース言語の字幕をターゲット言語に翻訳してもよい。ここで、Nは1であっても2以上であってもよい。
 そして、コンテンツ作成装置400は、N個のターゲット言語に対応するN個の字幕ストリームを、映像コンテンツの他のストリーム(映像ストリーム、音声ストリーム等)と一緒に配信装置(放送により映像コンテンツを配信する配信装置)に配信してもよい。
 この場合、コンテンツ作成装置400が作成した映像コンテンツを配信する配信装置、および、該映像コンテンツを再生するテレビには、従来公知のものを利用できる。また、該映像コンテンツを再生するテレビには、インターネット接続機能を備えていないものも利用できる。
 〔ソフトウェアによる実現例〕
 配信装置100、再生装置200、翻訳処理装置300およびコンテンツ作成装置400の制御ブロック(特に、操作受付部(110、410)、再生部(120、240、430)、字幕解析部140、翻訳処理部(250、330))は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、各装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係るデータ生成装置(配信装置100)は、ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する映像提示手段(再生部120)と、上記映像コンテンツの提示中に、上記映像コンテンツのシーン毎に、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付ける受付手段(操作受付部110)と、上記シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が上記シーン毎に示された翻訳補助データを生成する生成手段(字幕解析部140)と、を備えている。
 上記の構成によれば、上記データ生成装置は、ソース言語の字幕または音声を含む映像コンテンツをユーザに提示している間に、そのユーザに上記字幕または上記音声の翻訳に使用すべき翻訳補助情報を指定させることになる。
 すなわち、ソース言語に精通しているオペレータであれば、上記翻訳補助情報を指定しようとする際に、ソース言語の字幕または音声が示す言葉がどのようなシチュエーションで使用されているかを的確に把握することができる。したがって、上記オペレータは、ソース言語の字幕または音声の機械翻訳の品質向上に寄与する適切な翻訳補助情報を指定することができる。
 また、後述するように、本発明の態様10に係る翻訳処理装置は、2言語辞書を用いてソース言語の字幕または音声をターゲット言語に翻訳するが、この翻訳のために、機械翻訳の品質向上に寄与する適切な翻訳補助情報(翻訳補助データ内の翻訳補助情報)を参照する。
 以上のように、上記データ生成装置は、ソース言語のみに精通したオペレータの操作によって、本発明の翻訳処理装置がソース言語の文をターゲット言語に翻訳する際に参照する翻訳補助データを生成できる。
 本発明の態様2に係るデータ生成装置は、上記態様1において、上記受付手段が、上記シーンの上記字幕または上記音声に含まれている人物のセリフが該人物によりどのような感情を抱いて発せられたセリフであるかを示す上記翻訳補助情報の指定を上記ユーザから受け付けるように構成されていてもよい。
 本発明の態様3に係るデータ生成装置は、上記態様1または上記態様2において、上記字幕または上記音声を構成する語について、上記ソース言語の国語辞書(すなわち、1言語辞書)を参照することにより該語の語義が複数通り存在するか否かを判定する判定手段(字幕解析部140)と、上記判定手段により上記語義が複数通り存在すると判定された場合に複数通りの上記語義を提示する語義提示手段(字幕解析部140)と、をさらに備え、上記受付手段は、上記複数通りの語義の中から、上記語が使用される文脈における該語の語義として適切な語義を1つ指定するユーザ操作を受け付けるように構成され、上記生成手段は、上記適切な語義を示す情報(“TMD:adj(16)”)を上記翻訳補助情報として含むような上記データを生成するように構成されていてもよい。
 本発明の態様4に係るデータ生成装置は、上記態様1から上記態様3のいずれかの態様において、上記受付手段が、上記映像コンテンツの各シーンについて、上記映像提示手段が該シーンを提示している間に該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を受け付けるように構成されていてもよい。
 本発明の態様5に係るデータ生成装置は、上記態様4において、上記映像提示手段が、上記映像コンテンツの各シーンについて、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定が完了するまで該シーンの映像を繰り返し提示するように構成されていてもよい。
 本発明の態様6に係る配信装置(配信装置100)は、上記態様1から上記態様5のいずれかの態様のデータ生成装置が備える各手段を備え、上記映像コンテンツには上記ソース言語の字幕データが含まれており、上記映像コンテンツから上記字幕データを抽出する抽出手段(字幕解析部140)を備え、上記生成手段は、上記映像コンテンツに含まれる各シーンについて、上記抽出手段が抽出した字幕データの一部分であって該シーンが再生される期間が該期間に表示される字幕とともに示された部分に、該シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報とを挿入することで、上記字幕データが表す字幕を含む翻訳補助データを生成するように構成され、上記映像コンテンツと上記字幕を含む翻訳補助データとを個別に配信する配信手段(配信部160)を備えている配信装置であってもよい。
 本発明の態様7に係る配信装置(配信装置100)は、上記態様1から上記態様5のいずれかの態様のデータ生成装置が備える各手段を備え、上記映像コンテンツには上記ソース言語の字幕データが含まれており、上記生成手段は、上記映像コンテンツに含まれる各シーンについて、上記字幕データの一部分であって該シーンが再生される期間が該期間に表示される字幕とともに示された部分に該シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報とを挿入することで、上記翻訳補助データを含む映像コンテンツを生成するように構成され、上記翻訳補助データを含む映像コンテンツを配信する配信手段(配信部160)を備えている配信装置であってもよい。
 本発明の態様8に係る配信装置(配信装置100)は、上記態様1から上記態様5のいずれかの態様のデータ生成装置が備える各手段を備え、上記映像コンテンツには上記ソース言語の字幕データが含まれており、上記生成手段は、上記翻訳補助データに上記字幕データが示す字幕が含まれないように該翻訳補助データを生成するように構成され、上記映像コンテンツと該翻訳補助データとを個別に配信する配信手段(配信部160)を備えている配信装置であってもよい。
 本発明の態様9に係る配信装置(配信装置100)は、上記態様1から上記態様5のいずれかの態様のデータ生成装置が備える各手段を備え、上記映像コンテンツには上記ソース言語の字幕データが含まれており、上記生成手段は、上記翻訳補助データに上記字幕データが示す字幕が含まれないように該翻訳補助データを生成するように構成され、上記翻訳補助データを含まない上記映像コンテンツから上記翻訳補助データを含む映像コンテンツを生成して、該映像コンテンツを配信する配信手段を備えている配信装置(配信部160)であってもよい。
 本発明の態様10に係る翻訳処理装置(テレビ200)は、映像コンテンツに含まれているデータが示すソース言語の字幕または音声をターゲット言語に機械翻訳する翻訳処理手段(翻訳処理部250)と、上記映像コンテンツのシーン毎に該シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報との対応関係が示された翻訳補助データを参照する参照手段(翻訳処理部250)と、を備え、上記翻訳処理手段は、上記シーン毎に、該シーンの上記字幕または上記音声を、2言語辞書と該シーンの上記翻訳補助情報とを用いて上記ターゲット言語に翻訳するように構成されている。
 上記の構成によれば、上記翻訳処理装置は、その参照手段が本発明の態様1のデータ生成装置が生成する翻訳補助データを参照した場合には、字幕または音声が示す言葉が使用されるシチュエーションを考慮した適切な翻訳が可能である。その理由は以下の通りである。
 すなわち、上記の構成によれば、上記翻訳処理装置は、2言語辞書を用いてソース言語の字幕または音声をターゲット言語に機械翻訳するが、この機械翻訳のために、上述の翻訳補助情報も用いる。この翻訳補助情報は、字幕または音声が示す言葉が使用されるシチュエーションを考慮した上記オペレータにより指定された補助情報であるため、機械翻訳の品質向上に寄与する適切な翻訳補助情報であると言える。したがって、上記翻訳処理装置は、字幕または音声が示す言葉が使用されるシチュエーションを考慮した適切な翻訳が可能である。
 また、上記翻訳処理装置は、ソース言語とターゲット言語との両方に精通した翻訳者を必要とすることなく、上記の適切な翻訳を行うことができる。
 本発明の態様11に係る再生装置(テレビ200)は、本発明の態様10に係る翻訳処理装置が備える各手段と、上記映像コンテンツを再生する再生手段(再生部240)と、を備え、上記翻訳処理手段は、上記映像コンテンツを再生させるユーザ操作を受け付けた後に、各シーンの上記字幕または上記音声を上記ターゲット言語に翻訳するように構成されている再生装置であってもよい。
 なお、上記再生装置は、テレビジョン受像機でなくともよい。すなわち、上記再生装置は、例えば、携帯電話、スマートフォン、タブレット端末、または、プレーヤであってもよい。
 本発明の態様12に係るデータ生成方法はデータ生成装置のデータ生成方法である。本発明の態様12に係るデータ生成方法は、ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する提示工程と、上記映像コンテンツの提示中に、上記映像コンテンツのシーン毎に、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付ける受付工程と、上記シーンが再生される期間と上記シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報との対応関係が上記シーン毎に示された翻訳補助データを生成する生成工程と、を含んでいる。
 上記の構成によれば、本発明の態様12に係るデータ生成方法は、本発明の態様1に係るデータ生成装置と同様の作用効果を奏する。
 本発明の態様13に係る翻訳処理方法は翻訳処理装置の翻訳処理方法である。本発明の態様13に係る翻訳処理方法は、映像コンテンツに含まれているデータが示すソース言語の字幕または音声をターゲット言語に機械翻訳する翻訳処理工程と、上記映像コンテンツのシーン毎に該シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が示された翻訳補助データを参照する参照工程と、を含み、上記翻訳処理工程にて、上記シーン毎に、該シーンの上記字幕または上記音声を、2言語辞書と該シーンの上記翻訳補助情報とを用いて上記ターゲット言語に翻訳する。
 上記の構成によれば、本発明の態様13に係る翻訳処理方法は、本発明の態様10に係る翻訳処理装置と同様の作用効果を奏する。
 本発明の各態様に係るデータ生成装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記データ生成装置が備える各手段として動作させることにより上記配信装置をコンピュータにて実現させるデータ生成プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 同様に、本発明の各態様に係る翻訳処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記翻訳処理装置が備える各手段として動作させることにより上記翻訳処理装置をコンピュータにて実現させる翻訳処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。また、データ生成プログラムおよび翻訳処理プログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 また、本発明の範疇には、ソース言語の字幕または音声を示すデータを含む映像コンテンツのシーン毎に、該シーンが再生される期間と、該シーンの上記字幕または上記音声の翻訳に使用される翻訳補助情報との対応関係が示されたデータも含まれる。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、コンテンツ配信サービスに好適に利用することができる。
 100   配信装置(データ生成装置)
 110    操作受付部(受付手段)
 120    再生部(映像提示手段)
 140    字幕解析部(生成手段、判定手段、語義提示手段、抽出手段)
 160    配信部(配信手段)
 200   テレビ(翻訳処理装置、再生装置)
 240    再生部(再生手段)
 250    翻訳処理部(翻訳処理手段)

Claims (5)

  1.  ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する映像提示手段と、
     上記映像コンテンツの提示中に、上記映像コンテンツのシーン毎に、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付ける受付手段と、
     上記シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が上記シーン毎に示された翻訳補助データを生成する生成手段と、を備えていることを特徴とするデータ生成装置。
  2.  映像コンテンツに含まれているデータが示すソース言語の字幕または音声をターゲット言語に機械翻訳する翻訳処理手段と、
     上記映像コンテンツのシーン毎に該シーンが再生される期間と該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報との対応関係が示された翻訳補助データを参照する参照手段と、を備え、
     上記翻訳処理手段は、上記シーン毎に、該シーンの上記字幕または上記音声を、2言語辞書と該シーンの上記翻訳補助情報とを用いて上記ターゲット言語に翻訳するように構成されている、ことを特徴とする翻訳処理装置。
  3.  ソース言語の字幕または音声を示すデータを含む映像コンテンツをユーザに提示する提示工程と、
     上記映像コンテンツの提示中に、上記映像コンテンツのシーン毎に、該シーンの上記字幕または上記音声の翻訳に使用すべき翻訳補助情報の指定を上記ユーザから受け付ける受付工程と、
     上記シーンが再生される期間と上記シーンの上記字幕または上記音声の翻訳に使用すべき上記翻訳補助情報との対応関係が上記シーン毎に示された翻訳補助データを生成する生成工程と、を含んでいることを特徴とする、データ生成装置のデータ生成方法。
  4.  請求項1に記載のデータ生成装置としてコンピュータを機能させるためのプログラムであって、コンピュータを上記各手段として機能させるためのプログラム。
  5.  ソース言語の字幕または音声を示すデータを含む映像コンテンツのシーン毎に、該シーンが再生される期間と、該シーンの上記字幕または上記音声の翻訳に使用される翻訳補助情報との対応関係が示されたデータ。
PCT/JP2014/068053 2013-08-09 2014-07-07 データ生成装置、データ生成方法、翻訳処理装置、プログラム、およびデータ WO2015019774A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013166880 2013-08-09
JP2013-166880 2013-08-09

Publications (1)

Publication Number Publication Date
WO2015019774A1 true WO2015019774A1 (ja) 2015-02-12

Family

ID=52461113

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/068053 WO2015019774A1 (ja) 2013-08-09 2014-07-07 データ生成装置、データ生成方法、翻訳処理装置、プログラム、およびデータ

Country Status (1)

Country Link
WO (1) WO2015019774A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202062A (zh) * 2016-06-29 2016-12-07 宁波市由乐讯通讯科技有限公司 一种无线通信过程中语言转换方法及系统
CN106202064A (zh) * 2016-06-29 2016-12-07 宁波市由乐讯通讯科技有限公司 一种可反馈的无线通信过程中语言转换方法及系统
CN106202063A (zh) * 2016-06-29 2016-12-07 宁波市由乐讯通讯科技有限公司 一种改进型无线通信过程中语言转换方法及系统
CN106303695A (zh) * 2016-08-09 2017-01-04 北京东方嘉禾文化发展股份有限公司 音频翻译多语言文字处理方法和系统
JP6290479B1 (ja) * 2017-03-02 2018-03-07 株式会社リクルートライフスタイル 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773185A (ja) * 1993-09-06 1995-03-17 Toshiba Corp 機械翻訳装置及び方法
JP2008520041A (ja) * 2004-11-09 2008-06-12 ソニー オンライン エンタテインメント インク 文法的に正しいテキスト文字列を生成するシステムおよび方法
JP2009016910A (ja) * 2007-06-29 2009-01-22 Toshiba Corp 映像再生装置及び映像再生方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0773185A (ja) * 1993-09-06 1995-03-17 Toshiba Corp 機械翻訳装置及び方法
JP2008520041A (ja) * 2004-11-09 2008-06-12 ソニー オンライン エンタテインメント インク 文法的に正しいテキスト文字列を生成するシステムおよび方法
JP2009016910A (ja) * 2007-06-29 2009-01-22 Toshiba Corp 映像再生装置及び映像再生方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202062A (zh) * 2016-06-29 2016-12-07 宁波市由乐讯通讯科技有限公司 一种无线通信过程中语言转换方法及系统
CN106202064A (zh) * 2016-06-29 2016-12-07 宁波市由乐讯通讯科技有限公司 一种可反馈的无线通信过程中语言转换方法及系统
CN106202063A (zh) * 2016-06-29 2016-12-07 宁波市由乐讯通讯科技有限公司 一种改进型无线通信过程中语言转换方法及系统
CN106202064B (zh) * 2016-06-29 2019-02-12 宁波市由乐讯通讯科技有限公司 一种可反馈的无线通信过程中语言转换方法及系统
CN106202063B (zh) * 2016-06-29 2019-02-12 宁波市由乐讯通讯科技有限公司 一种改进型无线通信过程中语言转换方法及系统
CN106202062B (zh) * 2016-06-29 2019-02-12 宁波市由乐讯通讯科技有限公司 一种无线通信过程中语言转换方法及系统
CN106303695A (zh) * 2016-08-09 2017-01-04 北京东方嘉禾文化发展股份有限公司 音频翻译多语言文字处理方法和系统
JP6290479B1 (ja) * 2017-03-02 2018-03-07 株式会社リクルートライフスタイル 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム

Similar Documents

Publication Publication Date Title
Pedersen From old tricks to Netflix: How local are interlingual subtitling norms for streamed television?
KR100654455B1 (ko) 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법
WO2015019774A1 (ja) データ生成装置、データ生成方法、翻訳処理装置、プログラム、およびデータ
CN106340291A (zh) 一种双语字幕制作方法及系统
CN105704538A (zh) 一种音视频字幕生成方法及系统
KR20140130335A (ko) 수화 번역 및 화면 해설 서비스 방법 및 시스템
KR20040039432A (ko) 다중 언어 필사 시스템
US20190213246A1 (en) Systems and Methods for Using a Program Schedule to Facilitate Modifying Closed-Captioning Text
KR20040035318A (ko) 객체기반 엠팩-4 컨텐츠 편집/저작과 검색 장치 및 방법
KR102124828B1 (ko) 전자문서의 이미지 자동변환을 통한 강의영상 컨텐츠 제작시스템
KR20110100649A (ko) 음성을 합성하기 위한 방법 및 장치
US20220272284A1 (en) Systems and methods for improved video captions
WO2020070483A1 (en) Data processing apparatus and method
WO2022080670A1 (ko) 컨텐츠 제공 방법 및 장치와, 컨텐츠 재생 방법
JP6903365B1 (ja) サーバおよびデータ割り当て方法
JP2019061428A (ja) 映像管理方法、映像管理装置、及び映像管理システム
WO2021092733A1 (zh) 字幕显示方法、装置、电子设备和存储介质
JP2010230948A (ja) コンテンツ配信システムおよびテキスト表示方法
CN114341866A (zh) 同声传译方法、装置、服务器和存储介质
JP7179387B1 (ja) ハイライト動画生成システム、ハイライト動画生成方法、およびプログラム
JP6555583B2 (ja) 信号処理装置及び信号処理システム
KR102664295B1 (ko) 수어 자막 동영상 플랫폼 제공 방법 및 장치
KR20130125930A (ko) 자막 학습 시스템 및 방법
de Araújo et al. Accessibility as a service: Augmenting multimedia content with sign language video tracks
WO2015040743A1 (ja) アノテーション共有方法、アノテーション共有装置及びアノテーション共有プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14833993

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 14833993

Country of ref document: EP

Kind code of ref document: A1