JP6401505B2 - Sign language CG generation apparatus and program thereof - Google Patents

Sign language CG generation apparatus and program thereof Download PDF

Info

Publication number
JP6401505B2
JP6401505B2 JP2014117289A JP2014117289A JP6401505B2 JP 6401505 B2 JP6401505 B2 JP 6401505B2 JP 2014117289 A JP2014117289 A JP 2014117289A JP 2014117289 A JP2014117289 A JP 2014117289A JP 6401505 B2 JP6401505 B2 JP 6401505B2
Authority
JP
Japan
Prior art keywords
impression
word
data
character
sign language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014117289A
Other languages
Japanese (ja)
Other versions
JP2015230640A (en
Inventor
真希子 東
真希子 東
半田 拓也
拓也 半田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014117289A priority Critical patent/JP6401505B2/en
Publication of JP2015230640A publication Critical patent/JP2015230640A/en
Application granted granted Critical
Publication of JP6401505B2 publication Critical patent/JP6401505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本願発明は、手話CGを生成する手話CG生成装置及びそのプログラムに関する。   The present invention relates to a sign language CG generation apparatus that generates a sign language CG and a program thereof.

先天性ろう者にとって、手話はネイティブ言語であり、手話による情報提示が重要であるが、手話翻訳付きの放送番組は極めて少ない。その理由として、手話通訳士の確保の問題がある。手話通訳士の絶対数は少なく、通常の放送番組に加え、特設ニュース番組や夜間ニュース番組に対応できる常駐の手話通訳士を確保することが非常に困難である。しかし、こういった緊急性の高い番組こそ、バリアフリーな情報提示が必要であると考えられる。   For congenital deaf people, sign language is a native language and information presentation in sign language is important, but there are very few broadcast programs with sign language translation. The reason is the problem of securing sign language interpreters. The absolute number of sign language interpreters is small, and it is very difficult to secure resident sign language interpreters who can handle special news programs and night news programs in addition to ordinary broadcast programs. However, such highly urgent programs are thought to require barrier-free information presentation.

このような問題について、コンピュータによって、日本語テキストから手話への自動翻訳及び3DCGモデルを使用した手話アニメーションを自動生成する発明が提案されている(特許文献1参照)。   Regarding such problems, an invention has been proposed in which automatic translation from Japanese text into sign language and sign language animation using a 3DCG model are automatically generated by a computer (see Patent Document 1).

特許文献1に記載の発明では、日本語から手話表記への言語翻訳の結果から、各手話表記に対応する手話単語のモーション(光学的モーションキャプチャで取得した各手話単語の動作データ)を繋いで、そのモーションをキャラクタに演じさせることで手話アニメーションを生成している。   In the invention described in Patent Literature 1, the result of language translation from Japanese to sign language notation is used to connect the motion of sign language words corresponding to each sign language notation (operation data of each sign language word acquired by optical motion capture). The sign language animation is generated by letting the character perform the motion.

特開2011−175598号公報JP 2011-175598 A

しかし、特許文献1に記載の発明では、翻訳結果として出力された手話アニメーションの各単語において、人物をモーションキャプチャしたときの表情が、手話アニメーションを行うキャラクタの表情として使用されることになり、コンテンツの内容に合った適切な表情であるとは限らない。例えば、著名人が亡くなったニュース番組にも、楽しそうな表情を浮かべた人物のモーションキャプチャデータが用いられることがある。その結果、悲しい表情が相応しいニュース番組であるにも関わらず、手話アニメーションを行うキャラクタが、楽しそうな表情を浮かべてしまう。   However, in the invention described in Patent Document 1, in each word of the sign language animation output as the translation result, the facial expression when the person is motion-captured is used as the facial expression of the character performing the sign language animation. It is not always an appropriate expression that matches the content of For example, motion capture data of a person with a happy expression may be used in a news program in which a celebrity has died. As a result, even though a sad expression is a suitable news program, a character performing sign language animation has a pleasant expression.

本願発明は、コンテンツの内容に合った表情のキャラクタで手話CGを生成する手話CG生成装置及びそのプログラムを提供することを課題とする。   It is an object of the present invention to provide a sign language CG generation apparatus that generates a sign language CG with a character having a facial expression that matches the content, and a program therefor.

前記した課題に鑑みて、本願発明に係る手話CG生成装置は、表情を浮かべるキャラクタで手話CGを生成する手話CG生成装置であって、単語抽出部と、第1データベースと、印象値決定部と、第2データベースと、キャラクタ・表情決定部と、手話CG生成部と、を備えることを特徴とする。   In view of the above-described problems, a sign language CG generation device according to the present invention is a sign language CG generation device that generates a sign language CG with a character with a facial expression, and includes a word extraction unit, a first database, an impression value determination unit, And a second database, a character / facial expression determination unit, and a sign language CG generation unit.

かかる構成によれば、手話CG生成装置は、単語抽出部によって、視聴者が選択したデータ放送コンテンツ又はウェブコンテンツのコンテンツ項目名の第1単語を抽出する。また、手話CG生成装置は、第1データベースによって、第1単語と、第1単語から視聴者が受ける印象の強弱を表す印象値とが対応付けられた第1単語−印象データを、予め記憶する。そして、手話CG生成装置は、印象値決定部によって、第1単語−印象データを参照して、単語抽出部で抽出された第1単語に対応した印象値を決定する。
このようにして、コンテンツから受ける印象が決定される。
According to this configuration, the sign language CG generation device extracts the first word of the content item name of the data broadcast content or web content selected by the viewer by the word extraction unit. In addition, the sign language CG generation device stores, in advance, first word-impression data in which the first word is associated with an impression value representing the strength of the impression received by the viewer from the first word. . Then, in the sign language CG generation device, the impression value determination unit refers to the first word-impression data and determines an impression value corresponding to the first word extracted by the word extraction unit.
In this way, the impression received from the content is determined.

手話CG生成装置は、第2データベースによって、印象値と、キャラクタの種類と、キャラクタの表情の種類及び当該表情の強弱を表す表情値とが対応付けられた印象−キャラクタ−表情データを予め記憶する。また、手話CG生成装置は、キャラクタ・表情決定部によって、印象−キャラクタ−表情データを参照して、印象値決定部が決定した印象値に対応したキャラクタの種類及び表情値を決定する。そして、手話CG生成装置は、手話CG生成部によって、キャラクタ・表情決定部が決定したキャラクタの種類及び表情に基づいて手話CGを生成する。   The sign language CG generation apparatus stores in advance impression-character-expression data in which the impression value, the character type, the expression type of the character, and the expression value representing the strength of the expression are associated with each other by the second database. . In the sign language CG generation device, the character / expression determination unit refers to the impression-character-expression data and determines the character type and expression value corresponding to the impression value determined by the impression value determination unit. The sign language CG generation device generates a sign language CG based on the character type and facial expression determined by the character / expression determination unit by the sign language CG generation unit.

本願発明は、コンテンツの内容から印象を決定し、その印象に基づいた表情を浮かべたキャラクタで手話CGを生成する。このようにして、本願発明は、キャラクタの表情をコンテンツの内容に合わせられるので、手話CGの違和感を少なくすることができる。   In the present invention, an impression is determined from the content, and a sign language CG is generated with a character having a facial expression based on the impression. Thus, according to the present invention, the expression of the character can be matched with the content, so that the sign language CG can be less uncomfortable.

本願発明の第1実施形態に係る放送システムの構成を示すブロック図である。It is a block diagram which shows the structure of the broadcast system which concerns on 1st Embodiment of this invention. 図1のテキストデータ解析部を説明する説明図である。It is explanatory drawing explaining the text data analysis part of FIG. 各種データのデータ構造を説明する説明図であり、(a)はコンテンツ項目名−印象データであり、(b)は単語−印象データであり、(c)は印象−キャラクタ−表情データである。It is explanatory drawing explaining the data structure of various data, (a) is content item name-impression data, (b) is word-impression data, (c) is impression-character-expression data. 女の子を模したキャラクタの説明図であり、(a)は無表情を表しており、(b)は悲しそうな表情を表している。It is explanatory drawing of the character imitating a girl, (a) represents an expressionless expression, (b) represents a sad expression. 男性を模したキャラクタの説明図であり、(a)は無表情を表しており、(b)は喜んだ表情を表している。It is explanatory drawing of the character imitating a man, (a) represents an expressionless expression, (b) represents the happy expression. 緊急用キャラクタの説明図である。It is explanatory drawing of an emergency character. キャラクタの表情決定手法の第1例を説明する説明図である。It is explanatory drawing explaining the 1st example of the facial expression determination method of a character. キャラクタの表情決定手法の第2例を説明する説明図である。It is explanatory drawing explaining the 2nd example of the facial expression determination method of a character. キャラクタの表情決定手法の第3例を説明する説明図である。It is explanatory drawing explaining the 3rd example of the facial expression determination method of a character. 図1のデジタル放送受信機の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital broadcast receiver of FIG. 本願発明の第2実施形態に係る放送システムの構成を示すブロック図である。It is a block diagram which shows the structure of the broadcast system which concerns on 2nd Embodiment of this invention. 本願発明の第3施形態に係る放送システムの構成を示すブロック図である。It is a block diagram which shows the structure of the broadcast system which concerns on 3rd Embodiment of this invention.

以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(第1実施形態)
図1を参照し、本願発明の第1実施形態に係る放送システム100を説明する。
図1のように、放送システム100は、放送映像と、放送映像の内容を表した手話CGとを視聴者に提供するものであり、放送局1と、デジタル放送受信機(手話CG生成装置)2と、ディスプレイ3とを備える。
(First embodiment)
A broadcasting system 100 according to a first embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 1, the broadcast system 100 provides viewers with broadcast video and sign language CG representing the content of the broadcast video. The broadcast station 1 and a digital broadcast receiver (sign language CG generation device). 2 and a display 3.

[放送局の構成]
放送局1は、地上デジタル放送、衛星デジタル放送等のデジタル放送を行うと共に、手話CGの生成に必要なデータをデジタル放送受信機2に送信するものである。図1のように、放送局1は、多重化部11と、変調器13と、データ送信部15とを備える。
[Broadcasting station configuration]
The broadcasting station 1 performs digital broadcasting such as terrestrial digital broadcasting and satellite digital broadcasting, and transmits data necessary for generating sign language CG to the digital broadcasting receiver 2. As shown in FIG. 1, the broadcasting station 1 includes a multiplexing unit 11, a modulator 13, and a data transmission unit 15.

多重化部11は、放送映像とデータ放送と字幕データとが外部から入力され、入力された放送映像とデータ放送と字幕データとをトランスポートストリーム(MPEG2−TS)形式で多重化し、変調器13に出力するものである。
なお、多重化部11は、字幕付き放送番組でない場合、字幕データが入力されないので、放送映像及びデータ放送のみをトランスポートストリーム形式で多重化する。
The multiplexing unit 11 receives broadcast video, data broadcast, and caption data from the outside, multiplexes the input broadcast video, data broadcast, and caption data in a transport stream (MPEG2-TS) format. Is output.
In addition, since the subtitle data is not input when it is not a broadcast program with subtitles, the multiplexing unit 11 multiplexes only the broadcast video and the data broadcast in the transport stream format.

変調器13は、多重化部11からトランスポートストリームが入力され、入力されたトランスポートストリームを変調し、デジタル放送波として放送受信機2に送出するものである。   The modulator 13 receives a transport stream from the multiplexing unit 11, modulates the input transport stream, and sends it to the broadcast receiver 2 as a digital broadcast wave.

データ送信部15は、手話CGの生成に必要なデータベース更新データ(コンテンツ項目名−印象データ、単語−印象データ、印象−キャラクタ−表情データ)が外部から入力され、入力された各種データをデジタル放送受信機2に送信するものである。ここで、データ送信部15は、ネットワークNを介して、データベース更新データをデジタル放送受信機2に送信する。   The data transmission unit 15 receives database update data (content item name-impression data, word-impression data, impression-character-expression data) necessary for generating sign language CG from the outside, and digitally broadcasts the various types of input data This is transmitted to the receiver 2. Here, the data transmission unit 15 transmits the database update data to the digital broadcast receiver 2 via the network N.

[デジタル放送受信機の構成]
デジタル放送受信機2は、放送局1が送出したデジタル放送波を受信し、放送映像と、放送映像の内容を表した手話CGとをディスプレイ3に表示するものである。
[Configuration of digital broadcast receiver]
The digital broadcast receiver 2 receives a digital broadcast wave transmitted from the broadcast station 1 and displays a broadcast video and a sign language CG representing the content of the broadcast video on the display 3.

図1のように、デジタル放送受信機2は、復調器21と、多重分離部22と、テキストデータ解析部23と、テキスト−印象データベース24と、コンテンツ印象抽出部25と、印象−キャラクタ−表情データベース26と、キャラクタ・表情決定部27と、手話表記翻訳部28と、手話CG生成部29とを備える。   As shown in FIG. 1, the digital broadcast receiver 2 includes a demodulator 21, a demultiplexing unit 22, a text data analysis unit 23, a text-impression database 24, a content impression extraction unit 25, and an impression-character-expression. A database 26, a character / expression determining unit 27, a sign language notation translation unit 28, and a sign language CG generation unit 29 are provided.

ここで、テキストデータ解析部23が特許請求の範囲の「単語抽出部」に相当し、テキスト−印象データベース24が特許請求の範囲の「第1データベース」に相当し、コンテンツ印象抽出部25が特許請求の範囲の「印象値決定部」に相当し、印象−キャラクタ−表情データベース26が特許請求の範囲の「第2データベース」に相当する。   Here, the text data analysis unit 23 corresponds to the “word extraction unit” in the claims, the text-impression database 24 corresponds to the “first database” in the claims, and the content impression extraction unit 25 patents The impression-character-expression database 26 corresponds to the “impression value determination unit” in the claims, and the “second database” in the claims.

復調器21は、放送局1からデジタル放送波を受信し、受信したデジタル放送波をトランスポートストリームとして復調するものである。また、復調器21は、復調したトランスポートストリームを多重分離部22に出力する。   The demodulator 21 receives a digital broadcast wave from the broadcast station 1 and demodulates the received digital broadcast wave as a transport stream. Further, the demodulator 21 outputs the demodulated transport stream to the demultiplexing unit 22.

多重分離部22は、復調器21からトランスポートストリームが入力され、入力されたトランスポートストリームに多重化されている放送映像とデータ放送と字幕データとを分離するものである。また、多重分離部22は、分離したデータ放送及び字幕データを、テキストデータ解析部23及び手話表記翻訳部28に出力する。さらに、多重分離部22は、分離した放送映像を手話CG生成部29に出力する。   The demultiplexing unit 22 receives the transport stream from the demodulator 21 and separates the broadcast video, the data broadcast, and the caption data multiplexed in the input transport stream. The demultiplexing unit 22 also outputs the separated data broadcast and caption data to the text data analysis unit 23 and the sign language notation translation unit 28. Further, the demultiplexing unit 22 outputs the separated broadcast video to the sign language CG generation unit 29.

なお、多重分離部22は、字幕付き放送番組でない場合、字幕データがトランスポートストリームに含まれないので、放送映像及びデータ放送のみを出力する。
また、放送映像をデコード、デスクランブルする手法は、一般的なため、説明を省略する。
Note that the demultiplexing unit 22 outputs only the broadcast video and the data broadcast since the subtitle data is not included in the transport stream when the subtitle data is not a subtitle broadcast program.
Further, since a technique for decoding and descrambling broadcast video is common, a description thereof will be omitted.

テキストデータ解析部23は、視聴者が選択したデータ放送コンテンツのコンテンツ項目名に含まれる第1単語を抽出するものである。そして、テキストデータ解析部23は、抽出した第1単語をコンテンツ印象抽出部25に出力する。   The text data analysis unit 23 extracts the first word included in the content item name of the data broadcast content selected by the viewer. Then, the text data analysis unit 23 outputs the extracted first word to the content impression extraction unit 25.

<第1単語の抽出>
図2を参照し、テキストデータ解析部23による第1単語の抽出について説明する(適宜図1参照)。
図2のように、デジタル放送受信機2がデータ放送画面30を表示していることとする。このデータ放送画面30は、放送映像コンテンツ31と、データ放送コンテンツ32とが表示されている。
<Extraction of the first word>
The extraction of the first word by the text data analysis unit 23 will be described with reference to FIG. 2 (see FIG. 1 as appropriate).
Assume that the digital broadcast receiver 2 displays the data broadcast screen 30 as shown in FIG. On this data broadcast screen 30, broadcast video content 31 and data broadcast content 32 are displayed.

放送映像コンテンツ31は、例えば、「○○ニュース」のような映像コンテンツである。
データ放送コンテンツ32は、データ放送で提供されるコンテンツであり、データ放送画面30に表示されたボタンやタイトル(見出し)のことである。
例えば、データ放送コンテンツ32Aは、災害に関連した緊急性が高いデータ放送コンテンツであり、「津波警報」というコンテンツ項目名で表示されている。なお、データ放送コンテンツ32Aは、緊急性が高いことを示すため、ハッチングで図示した。
また、例えば、データ放送コンテンツ32Bは、スポーツに関連したデータ放送コンテンツであり、「センバツ △△初戦で敗れる」というコンテンツ項目名で表示されている。
また、例えば、データ放送コンテンツ32Cは、ニュースに関連したデータ放送コンテンツであり、「消費税増税前 売れているものは」というコンテンツ項目名で表示されている。
The broadcast video content 31 is video content such as “XX News”, for example.
The data broadcast content 32 is content provided by data broadcast, and is a button or title (heading) displayed on the data broadcast screen 30.
For example, the data broadcast content 32A is data broadcast content with high urgency related to a disaster, and is displayed with a content item name “tsunami warning”. The data broadcast content 32A is hatched to indicate that it is highly urgent.
In addition, for example, the data broadcast content 32B is data broadcast content related to sports, and is displayed with a content item name of “Senbat △△ Loses in the first game”.
Further, for example, the data broadcast content 32C is data broadcast content related to news, and is displayed with a content item name “What is sold before the consumption tax increase”.

ここで、デジタル放送受信機2は、データ放送画面30において、図示を省略したリモコンを操作して、視聴者が興味あるデータ放送コンテンツ32を選択できる。すると、デジタル放送受信機2は、選択されたデータ放送コンテンツ32の詳細(不図示)をデータ放送画面30に表示する。このとき、テキストデータ解析部23は、図示を省略したリモコン制御部を介して、視聴者が選択したデータ放送コンテンツ32の識別情報(例えば、ボタンIDやタイトルID)が入力される。そこで、テキストデータ解析部23は、多重分離部22で分離されたデータ放送から、入力された識別情報に対応するデータ放送コンテンツ32を取得する。   Here, the digital broadcast receiver 2 can select the data broadcast content 32 that the viewer is interested in by operating a remote controller (not shown) on the data broadcast screen 30. Then, the digital broadcast receiver 2 displays details (not shown) of the selected data broadcast content 32 on the data broadcast screen 30. At this time, the text data analysis unit 23 receives identification information (for example, button ID and title ID) of the data broadcast content 32 selected by the viewer via a remote control unit (not shown). Therefore, the text data analysis unit 23 acquires the data broadcast content 32 corresponding to the input identification information from the data broadcast separated by the demultiplexing unit 22.

そして、テキストデータ解析部23は、取得したデータ放送コンテンツ32のコンテンツ項目名自体を、第1単語として抽出する。例えば、テキストデータ解析部23は、データ放送コンテンツ32Aが選択された場合、データ放送コンテンツ32Aのコンテンツ項目名の「津波警報」を抽出する。また、テキストデータ解析部23は、データ放送コンテンツ32Bが選択された場合、第1単語として、データ放送コンテンツ32Bのコンテンツ項目名の「センバツ △△初戦で敗れる」を抽出する。そして、テキストデータ解析部23は、抽出したコンテンツ項目名(第1単語)をコンテンツ印象抽出部25に出力する。   And the text data analysis part 23 extracts the content item name itself of the acquired data broadcast content 32 as a 1st word. For example, when the data broadcast content 32A is selected, the text data analysis unit 23 extracts “tsunami warning” of the content item name of the data broadcast content 32A. In addition, when the data broadcast content 32B is selected, the text data analysis unit 23 extracts “Senbat △ Δ Lose in the first game” of the content item name of the data broadcast content 32B as the first word. Then, the text data analysis unit 23 outputs the extracted content item name (first word) to the content impression extraction unit 25.

ここで、「センバツ △△初戦で敗れる」というコンテンツ項目名自体は、後記するコンテンツ項目名−印象データ40に登録されていない。このため、後記するコンテンツ印象抽出部25は、コンテンツ項目名自体(第1単語)に対応した印象値を決定できない。従って、テキストデータ解析部23は、コンテンツ印象抽出部25から、コンテンツ項目名自体から印象値を決定できなかったことを表すコンテンツ項目名未登録通知が入力される。   In this case, the content item name itself “Senbatsu Δ △ lost in the first game” is not registered in the content item name-impression data 40 described later. For this reason, the content impression extraction part 25 mentioned later cannot determine the impression value corresponding to content item name itself (1st word). Therefore, the text data analysis unit 23 receives from the content impression extraction unit 25 a content item name unregistered notification indicating that the impression value could not be determined from the content item name itself.

このコンテンツ項目名未登録通知に応じて、テキストデータ解析部23は、取得したデータ放送コンテンツ32のコンテンツ項目名に形態素解析を施し、データ放送コンテンツ32のコンテンツ項目名に含まれる単語を第1単語として抽出する。例えば、テキストデータ解析部23は、データ放送コンテンツ32Bが選択された場合、第1単語として、データ放送コンテンツ32Bのコンテンツ項目名に含まれる「センバツ」「△△」「初戦」「で」「敗れる」を抽出する。そして、テキストデータ解析部23は、コンテンツ項目名に含まれる単語をコンテンツ印象抽出部25に出力する。   In response to the content item name unregistered notification, the text data analysis unit 23 performs morphological analysis on the acquired content item name of the data broadcast content 32 and sets the word included in the content item name of the data broadcast content 32 as the first word. Extract as For example, when the data broadcast content 32B is selected, the text data analysis unit 23 loses “senbat”, “ΔΔ”, “first game”, “de” and “defeat” included in the content item name of the data broadcast content 32B as the first word. Is extracted. Then, the text data analysis unit 23 outputs the word included in the content item name to the content impression extraction unit 25.

さらに、コンテンツ項目名に含まれる単語が、コンテンツ項目名−印象データ40に登録されていない場合もある。この場合もコンテンツ印象抽出部25が印象値を決定できない。従って、テキストデータ解析部23は、コンテンツ印象抽出部25から、コンテンツ項目名に含まれる単語に対応した印象値を決定できなかったことを表す印象値未決定通知が入力される。   Furthermore, the word included in the content item name may not be registered in the content item name-impression data 40. Also in this case, the content impression extraction unit 25 cannot determine the impression value. Therefore, the text data analysis unit 23 receives an impression value undetermined notification indicating that the impression value corresponding to the word included in the content item name could not be determined from the content impression extraction unit 25.

この印象値未決定通知に応じて、テキストデータ解析部23は、視聴者が選択したデータ放送コンテンツ32のテキストデータに含まれる第2単語を抽出する。具体的には、テキストデータ解析部23は、多重分離部22より入力されたデータ放送から、視聴者が選択したデータ放送コンテンツ32のテキストデータを抽出する。そして、テキストデータ解析部23は、抽出したテキストデータに形態素解析を施し、第2単語を抽出する。その後、テキストデータ解析部23は、抽出した第2単語をコンテンツ印象抽出部25に出力する。
なお、テキストデータ解析部23は、字幕付き放送番組の場合、多重分離部22から入力された字幕データに同様の処理を施す。
In response to the impression value undetermined notification, the text data analysis unit 23 extracts the second word included in the text data of the data broadcast content 32 selected by the viewer. Specifically, the text data analysis unit 23 extracts the text data of the data broadcast content 32 selected by the viewer from the data broadcast input from the demultiplexing unit 22. Then, the text data analysis unit 23 performs morphological analysis on the extracted text data to extract the second word. Thereafter, the text data analysis unit 23 outputs the extracted second word to the content impression extraction unit 25.
Note that, in the case of a broadcast program with captions, the text data analysis unit 23 performs the same processing on the caption data input from the demultiplexing unit 22.

テキスト−印象データベース24は、コンテンツ項目名−印象データ40と、単語−印象データ42とを予め記憶するデータベースである(図3)。また、テキスト−印象データベース24は、放送局1から受信したデータベース更新データを用いて、コンテンツ項目名−印象データ40及び単語−印象データ42の更新を行う。   The text-impression database 24 is a database that stores content item name-impression data 40 and word-impression data 42 in advance (FIG. 3). The text-impression database 24 updates the content item name-impression data 40 and the word-impression data 42 using the database update data received from the broadcasting station 1.

ここで、コンテンツ項目名−印象データ40が特許請求の範囲の「第1単語−印象データ」に相当し、単語−印象データ42が特許請求の範囲の「第2単語−印象データ」に相当する。   Here, the content item name-impression data 40 corresponds to “first word-impression data” in the claims, and the word-impression data 42 corresponds to “second word-impression data” in the claims. .

<コンテンツ項目名−印象データ>
図3(a)を参照し、コンテンツ項目名−印象データ40について説明する(適宜図1,図2参照)。
コンテンツ項目名−印象データ40は、第1単語401と、印象値403とを対応付けたデータである。
第1単語401は、データ放送コンテンツ32のコンテンツ項目名に含まれる単語に対応する。
印象値403は、第1単語401から視聴者が受ける印象の強弱を表したものである。
<Content item name-impression data>
The content item name-impression data 40 will be described with reference to FIG. 3A (see FIGS. 1 and 2 as appropriate).
The content item name-impression data 40 is data in which the first word 401 and the impression value 403 are associated with each other.
The first word 401 corresponds to a word included in the content item name of the data broadcast content 32.
The impression value 403 represents the strength of the impression received by the viewer from the first word 401.

第1単語401が「負ける」又は「敗れる」の場合、印象値403が「暗い0.3」となる。この「暗い0.3」という印象値403のうち、「暗い」という単語部分は、印象の種類を表したものである。また、「暗い0.3」という印象値403のうち、「0.3」という数値部分は、印象の強弱を数値化したものである。印象値403の数値部分は、印象が最も弱いことを示す「0.0」から、印象が最も強いことを示す「1.0」までの範囲となる。   When the first word 401 is “losing” or “losing”, the impression value 403 is “dark 0.3”. Of the impression value 403 of “dark 0.3”, the word portion of “dark” represents the type of impression. Also, out of the impression value 403 of “dark 0.3”, the numerical value portion of “0.3” is obtained by quantifying the strength of the impression. The numerical value portion of the impression value 403 ranges from “0.0” indicating that the impression is weakest to “1.0” indicating that the impression is strongest.

なお、これら2件のコンテンツ項目名−印象データ40は、下記の参考文献1に記載のテキスト印象マイニング手法を用いて生成できる。
参考文献1:熊本忠彦、河合由紀子他、“新聞記事を対象とするテキスト印象マイニング手法の設計と評価”、電子情報学会論文誌、Vol.J94-D No.3 pp.540-548
Note that these two content item name-impression data 40 can be generated using the text impression mining technique described in Reference Document 1 below.
Reference 1: Tadahiko Kumamoto, Yukiko Kawai et al., “Design and Evaluation of Text Impression Mining Techniques for Newspaper Articles”, IEICE Transactions, Vol.J94-D No.3 pp.540-548

「津波警報」という第1単語401は、緊急性が高いデータ放送コンテンツ32のコンテンツ項目名に対応するので、緊急第1単語とも呼ばれる。ここで、「津波警報」という第1単語401は、印象値403が「緊急1.0」となる。この「緊急1.0」は、緊急性が高いことを示す印象値(緊急印象値)であり、数値部分が常に「1.0」となる。
なお、この1件のコンテンツ項目名−印象データ40は、前記したテキスト印象マイニング手法ではなく、手動で生成する。
また、コンテンツ項目名−印象データ40は、図3(a)の例に限定されないことは言うまでもない。
Since the first word 401 “tsunami warning” corresponds to the content item name of the data broadcast content 32 with high urgency, it is also called an urgent first word. Here, the first word 401 “tsunami warning” has an impression value 403 of “emergency 1.0”. This “emergency 1.0” is an impression value (emergency impression value) indicating that the urgency is high, and the numerical value portion is always “1.0”.
Note that the content item name-impression data 40 is manually generated instead of the text impression mining method described above.
Needless to say, the content item name-impression data 40 is not limited to the example of FIG.

<単語−印象データ>
図3(b)を参照し、単語−印象データ42について説明する(適宜図1,図2参照)。
単語−印象データ42は、第2単語421と、印象値423とを対応付けたデータである。
第2単語421は、データ放送コンテンツ32のテキストデータや字幕データから抽出された単語に対応する。
印象値423は、図3(a)の印象値403と同様、第2単語421から視聴者が受ける印象の強弱を表したものである。
<Word-impression data>
With reference to FIG. 3B, the word-impression data 42 will be described (see FIGS. 1 and 2 as appropriate).
The word-impression data 42 is data in which the second word 421 and the impression value 423 are associated with each other.
The second word 421 corresponds to a word extracted from text data or caption data of the data broadcast content 32.
Similar to the impression value 403 in FIG. 3A, the impression value 423 represents the strength of the impression received by the viewer from the second word 421.

例えば、第2単語421が「にぎわい」の場合、印象値423が「明るい0.2」となる。
なお、単語−印象データ42は、前記した参考文献1に記載のテキスト印象マイニング手法を用いて生成できる。
また、単語−印象データ42は、図3(b)の例に限定されないことは言うまでもない。
For example, when the second word 421 is “lively”, the impression value 423 is “bright 0.2”.
Note that the word-impression data 42 can be generated using the text impression mining method described in the above-mentioned Reference Document 1.
Needless to say, the word-impression data 42 is not limited to the example of FIG.

図1に戻り、デジタル放送受信機2の説明を続ける。
コンテンツ印象抽出部25は、テキストデータ解析部23から第1単語(コンテンツ項目名又はコンテンツ項目名に含まれる単語)が入力され、入力された第1単語に対応した印象値を、コンテンツ項目名−印象データ40を参照して決定するものである。
Returning to FIG. 1, the description of the digital broadcast receiver 2 will be continued.
The content impression extraction unit 25 receives the first word (the content item name or the word included in the content item name) from the text data analysis unit 23, and calculates the impression value corresponding to the input first word as the content item name− This is determined with reference to the impression data 40.

まず、コンテンツ印象抽出部25は、テキストデータ解析部23から入力されたコンテンツ項目名に対応した印象値が、コンテンツ項目名−印象データ40に登録されているか否かを判定する。   First, the content impression extraction unit 25 determines whether or not an impression value corresponding to the content item name input from the text data analysis unit 23 is registered in the content item name-impression data 40.

コンテンツ項目名が登録されている場合、コンテンツ印象抽出部25は、コンテンツ項目名−印象データ40を参照して、コンテンツ項目名に対応した印象値を決定し、決定した印象値をキャラクタ・表情決定部27に出力する。言い換えるなら、コンテンツ印象抽出部25は、入力されたコンテンツ項目名を検索キーとしてコンテンツ項目名−印象データ40を検索し、検索結果として、コンテンツ項目名に対応付けられた印象値を取得する。   When the content item name is registered, the content impression extraction unit 25 refers to the content item name-impression data 40 to determine an impression value corresponding to the content item name, and determines the determined impression value as a character / facial expression. To the unit 27. In other words, the content impression extraction unit 25 searches the content item name-impression data 40 using the input content item name as a search key, and acquires an impression value associated with the content item name as a search result.

コンテンツ項目名が登録されていない場合、コンテンツ印象抽出部25は、コンテンツ項目名未登録通知をテキストデータ解析部23に出力する。すると、コンテンツ印象抽出部25は、テキストデータ解析部23から、コンテンツ項目名に含まれる単語が入力される。そして、コンテンツ印象抽出部25は、コンテンツ項目名の単語に対応した印象値がコンテンツ項目名−印象データ40に登録されているか否かを判定する。   When the content item name is not registered, the content impression extraction unit 25 outputs a content item name unregistered notification to the text data analysis unit 23. Then, the content impression extraction unit 25 receives a word included in the content item name from the text data analysis unit 23. Then, the content impression extraction unit 25 determines whether or not an impression value corresponding to the word of the content item name is registered in the content item name-impression data 40.

コンテンツ項目名の単語が登録されている場合、コンテンツ印象抽出部25は、コンテンツ項目名−印象データ40を参照して、コンテンツ項目名の単語に対応した印象値を決定し、決定した印象値をキャラクタ・表情決定部27に出力する。言い換えるなら、コンテンツ印象抽出部25は、入力されたコンテンツ項目名の単語を検索キーとしてコンテンツ項目名−印象データ40を検索し、検索結果として、コンテンツ項目名の単語に対応付けられた印象値を取得する。   When the word of the content item name is registered, the content impression extraction unit 25 refers to the content item name-impression data 40 to determine an impression value corresponding to the word of the content item name, and uses the determined impression value. The data is output to the character / expression determining unit 27. In other words, the content impression extraction unit 25 searches the content item name-impression data 40 using the input word of the content item name as a search key, and uses the impression value associated with the word of the content item name as the search result. get.

コンテンツ項目名の単語が登録されていない場合、コンテンツ印象抽出部25は、印象値未決定通知をテキストデータ解析部23に出力する。すると、コンテンツ印象抽出部25は、テキストデータ解析部23から、第2単語が入力される。   When the word of the content item name is not registered, the content impression extraction unit 25 outputs an impression value undetermined notification to the text data analysis unit 23. Then, the content impression extraction unit 25 receives the second word from the text data analysis unit 23.

そして、コンテンツ印象抽出部25は、単語−印象データ42を参照して、第2単語に対応した印象値を決定し、決定した印象値をキャラクタ・表情決定部27に出力する。言い換えるなら、コンテンツ印象抽出部25は、入力された第2単語を検索キーとして単語−印象データ42を検索し、検索結果として、第2単語に対応付けられた印象値を取得する。   Then, the content impression extracting unit 25 refers to the word-impression data 42, determines an impression value corresponding to the second word, and outputs the determined impression value to the character / expression determining unit 27. In other words, the content impression extraction unit 25 searches the word-impression data 42 using the input second word as a search key, and acquires an impression value associated with the second word as a search result.

印象−キャラクタ−表情データベース26は、後記する印象−キャラクタ−表情データ44を予め記憶するデータベースである(図3)。また、印象−キャラクタ−表情データベース26は、放送局1から受信したデータベース更新データを用いて、印象−キャラクタ−表情データ44の更新を行う。   The impression-character-expression database 26 is a database that stores in advance impression-character-expression data 44 to be described later (FIG. 3). The impression-character-expression database 26 updates the impression-character-expression data 44 using the database update data received from the broadcast station 1.

<印象−キャラクタ−表情データ>
図3(c)を参照し、印象−キャラクタ−表情データ44について説明する(適宜図1,図2参照)。
印象−キャラクタ−表情データ44は、印象値441と、キャラクタ種類443と、表情値445とを対応付けたデータである。
<Impression-Character-Facial expression data>
The impression-character-expression data 44 will be described with reference to FIG. 3C (refer to FIGS. 1 and 2 as appropriate).
The impression-character-expression data 44 is data in which an impression value 441, a character type 443, and an expression value 445 are associated with each other.

印象値441は、印象値403,423と同様のものである。
キャラクタ種類443は、「キャラクタA」や「キャラクタB」のように、キャラクタの種類を表す。例えば、「キャラクタA」は、図4のように、女の子のキャラクタである。また、「キャラクタB」は、図5のように、男性のキャラクタである。
The impression value 441 is similar to the impression values 403 and 423.
The character type 443 represents the type of character, such as “Character A” or “Character B”. For example, “Character A” is a girl character as shown in FIG. “Character B” is a male character as shown in FIG.

表情値445は、キャラクタの表情の種類と、その表情の強弱を表したものである。例えば、「悲しみ0.3」という表情値445のうち、「悲しみ」という単語部分は、キャラクタの表情の種類を表す。ここで、キャラクタの表情の種類としては、Ekmanの6表情(喜び、悲しみ、驚き、恐怖、怒り、嫌悪)が挙げられる。また、「悲しみ0.3」という表情値445のうち、「0.3」という数値部分は、表情の強弱を数値化したものである。表情値445の数値部分は、無表情を示す「0.0」から、表情が最も強いことを示す「1.0」までの範囲となる。   The expression value 445 represents the type of expression of the character and the strength of the expression. For example, of the facial expression value 445 of “sadness 0.3”, the word portion of “sadness” represents the type of facial expression of the character. The types of facial expressions of the character include Ekman's six facial expressions (joy, sadness, surprise, fear, anger, and disgust). Of the expression value 445 of “sadness 0.3”, the numerical value portion of “0.3” is obtained by quantifying the strength of the expression. The numerical value part of the expression value 445 is in a range from “0.0” indicating no expression to “1.0” indicating that the expression is strongest.

1件目の印象−キャラクタ−表情データ44は、「暗い0.3」という印象値441に、「キャラクタA」というキャラクタ種類443と、「悲しみ0.3」という表情値445とが対応することを示す。
また、2件目の印象−キャラクタ−表情データ44は、「暗い0.3」という印象値441に、「キャラクタB」というキャラクタ種類443と、「悲しみ0.2」という表情値445とが対応することを示す。
In the first impression-character-expression data 44, the impression value 441 “dark 0.3” corresponds to the character type 443 “character A” and the expression value 445 “sadness 0.3”. Indicates.
In the second impression-character-expression data 44, the impression value 441 of "dark 0.3" corresponds to the character type 443 of "character B" and the expression value 445 of "sadness 0.2". Indicates to do.

なお、印象値441が同じ値であっても、各キャラクタの表情の強弱に応じて視聴者が受ける印象が異なるので、表情値445を異なる値にする。
また、印象−キャラクタ−表情データ44は、図3(c)の例に限定されないことは言うまでもない。
Even if the impression value 441 is the same value, since the impression received by the viewer differs depending on the expression level of each character, the expression value 445 is set to a different value.
Needless to say, the impression-character-expression data 44 is not limited to the example of FIG.

ここで、印象−キャラクタ−表情データ44の生成方法を説明する。
印象−キャラクタ−表情データ44は、印象値441に対して、どの種類のキャラクタでどの表情が適切かを主観評価実験により決定し、生成できる。具体的には、印象値441が「暗い0.3」となる文章について、キャラクタ毎に「悲しみ0.1」、「悲しみ0.2」…のように表情を変化させた手話CGを作成する。そして、各手話CGを被験者に見せ、各キャラクタの印象をアンケート方式で評価してもらい、その評価結果を因子分析・解析して、キャラクタ毎に適切な表情値445を決定する。
Here, a method of generating impression-character-expression data 44 will be described.
The impression-character-expression data 44 can be generated by determining which kind of character and which expression is appropriate for the impression value 441 by a subjective evaluation experiment. Specifically, for a sentence with an impression value 441 of “dark 0.3”, a sign language CG in which the expression is changed like “sadness 0.1”, “sadness 0.2”, etc. for each character is created. . Then, each sign language CG is shown to the subject, the impression of each character is evaluated by a questionnaire system, and the evaluation result is subjected to factor analysis / analysis to determine an appropriate facial expression value 445 for each character.

図1に戻り、デジタル放送受信機2の説明を続ける。
キャラクタ・表情決定部27は、コンテンツ印象抽出部25から印象値が入力され、入力された印象値に対応したキャラクタの種類及び表情値を、印象−キャラクタ−表情データ44を参照して決定するものである。
Returning to FIG. 1, the description of the digital broadcast receiver 2 will be continued.
The character / expression determining unit 27 receives the impression value from the content impression extracting unit 25 and determines the character type and expression value corresponding to the input impression value with reference to the impression-character-expression data 44. It is.

まず、キャラクタ・表情決定部27は、入力された印象値が予め設定された緊急印象値(つまり、「緊急1.0」)に一致するか否かを判定する。
入力された印象値が緊急印象値に一致する場合、キャラクタ・表情決定部27は、緊急用キャラクタ通知を手話CG生成部29に出力する。なお、緊急用キャラクタ通知とは、決定したキャラクタの種類及び表情値が緊急用であることを表す通知である。
First, the character / expression determining unit 27 determines whether or not the input impression value matches a preset emergency impression value (that is, “emergency 1.0”).
If the input impression value matches the emergency impression value, the character / facial expression determination unit 27 outputs an emergency character notification to the sign language CG generation unit 29. The emergency character notification is a notification indicating that the determined character type and facial expression value are for emergency.

入力された印象値が緊急印象値に一致しない場合、キャラクタ・表情決定部27は、印象−キャラクタ−表情データ44を参照して、印象値に対応したキャラクタの種類及び表情値を決定して、手話CG生成部29に出力する。言い換えるなら、キャラクタ・表情決定部27は、入力された印象値を検索キーとして印象−キャラクタ−表情データ44を検索し、検索結果として、印象値に対応付けられたキャラクタの種類及び表情値を取得する。   If the input impression value does not match the emergency impression value, the character / expression determination unit 27 refers to the impression-character-expression data 44 to determine the character type and expression value corresponding to the impression value, and Output to the sign language CG generation unit 29. In other words, the character / expression determining unit 27 searches the impression-character-expression data 44 using the input impression value as a search key, and acquires the character type and expression value associated with the impression value as the search result. To do.

手話表記翻訳部28は、日本語テキストを手話表記に翻訳するものである。例えば、手話表記翻訳部28は、日本語テキストとして、多重分離部22から入力されたデータ放送に含まれるテキストデータや、字幕データを用いる。そして、手話表記翻訳部28は、下記の参考文献2,3に記載の手話翻訳手法を用いて、日本語テキストを手話表記に翻訳し、その翻訳結果を手話CG生成部29に出力する。   The sign language notation translation unit 28 translates Japanese text into sign language notation. For example, the sign language notation translation unit 28 uses text data or subtitle data included in the data broadcast input from the demultiplexing unit 22 as Japanese text. Then, the sign language notation translation unit 28 translates the Japanese text into sign language notation using the sign language translation method described in Reference Documents 2 and 3 below, and outputs the translation result to the sign language CG generation unit 29.

参考文献2:特開2011−175598号公報
参考文献3:比留間伸行、清水俊宏他、“CGによる手話アニメーション自動生成システム”、画像電子学会誌 Vol.41 No.4 p406〜P410
Reference 2: Japanese Patent Application Laid-Open No. 2011-175598 Reference 3: Nobuyuki Hiruma, Toshihiro Shimizu et al., “Automatic Sign Language Animation Generation System Using CG”, Journal of the Institute of Image Electronics Engineers of Japan, Vol. 41, p.

手話CG生成部29は、キャラクタ・表情決定部27からキャラクタの種類及び表情値が入力され、入力されたキャラクタの種類及び表情値に基づいて手話CGを生成するものである。図1のように、手話CG生成部29は、手話CG制御コマンド生成部291と、手話アニメーション生成部293と、合成表示部295とを備える。
また、手話CG生成部29は、各キャラクタのCGデータを記憶するCGデータ記憶部(不図示)を備える。
The sign language CG generation unit 29 receives the character type and expression value from the character / expression determination unit 27 and generates a sign language CG based on the input character type and expression value. As illustrated in FIG. 1, the sign language CG generation unit 29 includes a sign language CG control command generation unit 291, a sign language animation generation unit 293, and a composite display unit 295.
The sign language CG generation unit 29 includes a CG data storage unit (not shown) that stores CG data of each character.

CGデータ記憶部は、モーションキャプチャデータと、各キャラクタのCGデータとを予め記憶するものである。
モーションキャプチャデータは、モーションキャプチャで生成した、キャラクタの手話動作を表すデータである。
The CG data storage unit stores motion capture data and CG data of each character in advance.
The motion capture data is data representing the sign language action of the character generated by the motion capture.

ここで、CGデータ記憶部は、各キャラクタについて、無表情のCGデータ、及び、Ekmanの6表情が最も強いときのCGデータを記憶する。
つまり、CGデータ記憶部は、「キャラクタA」について、図4(a)のような無表情のCGデータと、「喜び1.0」のCGデータと、「悲しみ1.0」のCGデータと、「驚き1.0」のCGデータと、「怒り1.0」のCGデータと、「嫌悪1.0」のCGデータとを、合計7個記憶する。
また、CGデータ記憶部は、「キャラクタB」について、図5(a)のような無表情のCGデータと、Ekmanの6表情が最も強いときのCGデータとを、合計7個記憶する。
また、CGデータ記憶部は、緊急用キャラクタの表情が変化しないため、図6のように、緊急用キャラクタのCGデータを1個のみ記憶する。
Here, the CG data storage unit stores, for each character, no-expression CG data and CG data when Ekman's six expressions are strongest.
That is, for the “character A”, the CG data storage unit has no facial expression CG data as shown in FIG. 4A, “joy 1.0” CG data, “sadness 1.0” CG data, CG data of “surprise 1.0”, CG data of “anger 1.0”, and CG data of “disgust 1.0” are stored in total.
The CG data storage unit stores a total of seven CG data for “character B” having no expression as shown in FIG. 5A and CG data when Ekman's six expressions are strongest.
In addition, since the expression of the emergency character does not change, the CG data storage unit stores only one CG data of the emergency character as shown in FIG.

手話CG制御コマンド生成部291は、キャラクタをアニメーションさせる制御コマンドを生成するものである。本実施形態では、手話CG制御コマンド生成部291は、制御コマンドとして、TVML(TVprogram Making Language)スクリプトを生成する。   The sign language CG control command generation unit 291 generates a control command for animating a character. In the present embodiment, the sign language CG control command generation unit 291 generates a TVML (TV program Making Language) script as a control command.

具体的には、手話CG制御コマンド生成部291は、キャラクタ・表情決定部27から入力されたキャラクタの種類及び表情値を、TVMLスクリプトの“expression”コマンドで指定する。例えば、“expression”コマンドが「character: expression(name=CharacterA, type=sad,degree=0.3, time=1.0);」であれば、アニメーションを行うキャラクタの種類が「キャラクタA」であり、その表情値が「悲しみ0.3」である。
また、緊急用キャラクタ通知が入力された場合、手話CG制御コマンド生成部291は、キャラクタの種類及び表情値として緊急用を指定する。
Specifically, the sign language CG control command generation unit 291 designates the character type and expression value input from the character / expression determination unit 27 using the “expression” command of the TVML script. For example, if the “expression” command is “character: expression (name = CharacterA, type = sad, degree = 0.3, time = 1.0);”, the type of character to be animated is “Character A” and its expression The value is “sadness 0.3”.
When an emergency character notification is input, the sign language CG control command generation unit 291 designates emergency as the character type and facial expression value.

続いて、手話CG制御コマンド生成部291は、手話表記翻訳部28から入力された翻訳結果と同じ手話動作が行われているモーションキャプチャデータを、TVMLスクリプトの“openkeyframe”コマンドで指定する。例えば、“openkeyframe”コマンドが「openkey character:openkeyframe(name=CharacterA,keyframename=0001,filename="test.bvh")」であれば、モーションキャプチャデータが“test.bvh”である。   Subsequently, the sign language CG control command generation unit 291 designates motion capture data in which the same sign language operation as the translation result input from the sign language notation translation unit 28 is performed by the “openkeyframe” command of the TVML script. For example, if the “openkeyframe” command is “openkey character: openkeyframe (name = CharacterA, keyframename = 0001, filename =“ test.bvh ”)”, the motion capture data is “test.bvh”.

そして、手話CG制御コマンド生成部291は、“expression”コマンドや“openkeyframe”コマンドが含まれるTVMLスクリプトを生成し、生成したTVMLスクリプトを手話アニメーション生成部293に出力する。   Then, the sign language CG control command generation unit 291 generates a TVML script including an “expression” command and an “openkeyframe” command, and outputs the generated TVML script to the sign language animation generation unit 293.

なお、TVMLスクリプトでは、キャラクタの種類及び表情値以外の設定も行えるが、本願発明とは直接関係しないため、説明を省略する。
また、TVMLの詳細は、下記の参考文献4に記載されている。
参考文献4:“TVML”、[online]、[平成26年5月7日検索]、インターネット〈URL:http://www.nhk.or.jp/strl/tvml/japanese/player2/index.html〉
In the TVML script, settings other than the character type and expression value can be set, but the description is omitted because it is not directly related to the present invention.
The details of TVML are described in Reference Document 4 below.
Reference 4: “TVML”, [online], [Search May 7, 2014], Internet <URL: http://www.nhk.or.jp/strl/tvml/japanese/player2/index.html >

手話アニメーション生成部293は、手話CG制御コマンド生成部291からTVMLスクリプトが入力され、入力されたTVMLスクリプトに従って手話アニメーションを生成するものである。   The sign language animation generation unit 293 receives a TVML script from the sign language CG control command generation unit 291 and generates a sign language animation according to the input TVML script.

まず、キャラクタの種類が緊急用以外の場合について説明する。
手話アニメーション生成部293は、“expression”コマンドで指定された種類のキャラクタについて、無表情のCGデータをCGデータ記憶部から読み出す。さらに、手話アニメーション生成部293は、“expression”コマンドで指定された表情値に対応した表情であって、その表情が最も強いときのCGデータをCGデータ記憶部から読み出す。そして、手話アニメーション生成部293は、“expression”コマンド内の“degree”で指定された表情値の割合で、無表情のCGデータと、表情が最も強いときのCGデータとを合成する。この表情の合成には、一般的な3次元モーフィング技術を用いることができる。
First, the case where the character type is other than emergency is described.
The sign language animation generation unit 293 reads the expressionless CG data from the CG data storage unit for the type of character specified by the “expression” command. Furthermore, the sign language animation generation unit 293 reads from the CG data storage unit the CG data corresponding to the facial expression value specified by the “expression” command and having the strongest facial expression. Then, the sign language animation generation unit 293 synthesizes the expressionless CG data and the CG data when the expression is strongest at the ratio of the expression value specified by “degree” in the “expression” command. A general three-dimensional morphing technique can be used to synthesize the facial expression.

例えば、“expression”コマンドで「キャラクタA」及び「悲しみ0.3」が指定されたこととする。この場合、手話アニメーション生成部293は、キャラクタAが無表情のCGデータと、キャラクタAが最も悲しそうな表情を浮かべたCGデータ(「悲しみ1.0」のCGデータ)とを読み出す。そして、手話アニメーション生成部293は、無表情のCGデータから、「悲しみ1.0」のCGデータへ30%近づけるようにCGデータを合成することで、「悲しみ0.3」の表情を浮かべたキャラクタAを合成できる。   For example, it is assumed that “character A” and “sadness 0.3” are designated by the “expression” command. In this case, the sign language animation generation unit 293 reads out CG data in which the character A has no expression and CG data in which the character A has the most sad expression (CG data of “sadness 1.0”). Then, the sign language animation generation unit 293 has a facial expression of “sadness 0.3” by synthesizing the CG data so that it approaches 30% of the CG data of “sadness 1.0” from the CG data of no expression. Character A can be synthesized.

そして、手話アニメーション生成部293は、“openkeyframe”コマンドで指定されたモーションキャプチャデータを用いて、表情を合成したキャラクタの手話CGを生成する。このとき、手話アニメーション生成部293は、TVMLプレーヤの機能を利用して、手話CGを生成することができる。   Then, the sign language animation generation unit 293 generates a sign language CG of the character synthesized with the facial expression using the motion capture data specified by the “openkeyframe” command. At this time, the sign language animation generation unit 293 can generate a sign language CG using the function of the TVML player.

次に、キャラクタの種類が緊急用の場合について説明する。
手話アニメーション生成部293は、緊急用のキャラクタのCGモデルをCGデータ記憶部から読み出す。そして、手話アニメーション生成部293は、“openkeyframe”コマンドで指定されたモーションキャプチャデータを用いて、緊急用のキャラクタのアニメーションを生成する。
その後、手話アニメーション生成部293は、手話CGとして、生成したキャラクタの手話CGを、合成表示部295に出力する。
Next, a case where the character type is emergency will be described.
The sign language animation generation unit 293 reads the CG model of the emergency character from the CG data storage unit. Then, the sign language animation generation unit 293 generates an animation of an emergency character using the motion capture data specified by the “openkeyframe” command.
Thereafter, the sign language animation generation unit 293 outputs the generated sign language CG of the character to the composite display unit 295 as the sign language CG.

合成表示部295は、手話アニメーション生成部293から入力された手話CGを、多重分離部22から入力された放送映像に合成するものである。そして、合成表示部295は、手話CGが合成された放送映像をディスプレイ3に出力する。   The composition display unit 295 synthesizes the sign language CG input from the sign language animation generation unit 293 with the broadcast video input from the demultiplexing unit 22. Then, the composite display unit 295 outputs the broadcast video combined with the sign language CG to the display 3.

以下、図7〜図9を参照し、キャラクタの表情を決定する手法について、3つの具体例を順番に説明する(適宜図1〜図6参照)。   Hereinafter, three specific examples of the method for determining the facial expression of the character will be described in order with reference to FIGS. 7 to 9 (see FIGS. 1 to 6 as appropriate).

<キャラクタの表情決定手法:第1例>
図7のように、第1例では、視聴者が緊急性の高いデータ放送コンテンツ32Aを選択したこととする。
テキストデータ解析部23は、第1単語として、データ放送コンテンツ32Aのコンテンツ項目名に含まれる「津波警報」を抽出する。そして、テキストデータ解析部23は、抽出した第1単語「津波警報」をコンテンツ印象抽出部25に出力する。
<Character Expression Determination Method: First Example>
As shown in FIG. 7, in the first example, it is assumed that the viewer has selected data broadcasting content 32 </ b> A with high urgency.
The text data analysis unit 23 extracts “tsunami warning” included in the content item name of the data broadcast content 32A as the first word. Then, the text data analysis unit 23 outputs the extracted first word “tsunami warning” to the content impression extraction unit 25.

コンテンツ印象抽出部25は、テキストデータ解析部23から入力された第1単語「津波警報」を検索キーとして、コンテンツ項目名−印象データ40を検索する。そして、コンテンツ印象抽出部25は、検索結果として印象値「緊急1.0」を取得し、取得した印象値「緊急1.0」をキャラクタ・表情決定部27に出力する。   The content impression extraction unit 25 searches the content item name-impression data 40 using the first word “tsunami warning” input from the text data analysis unit 23 as a search key. Then, the content impression extraction unit 25 acquires the impression value “emergency 1.0” as the search result, and outputs the acquired impression value “emergency 1.0” to the character / facial expression determination unit 27.

キャラクタ・表情決定部27は、コンテンツ印象抽出部25から入力された印象値「緊急1.0」が緊急印象値に一致すると判定する。従って、キャラクタ・表情決定部27は、緊急用キャラクタ通知を手話CG生成部29に出力する。この緊急用キャラクタ通知に応じて、手話CG生成部29は、図6の緊急用キャラクタで手話CGを生成する。   The character / expression determining unit 27 determines that the impression value “emergency 1.0” input from the content impression extracting unit 25 matches the emergency impression value. Therefore, the character / expression determination unit 27 outputs an emergency character notification to the sign language CG generation unit 29. In response to the emergency character notification, the sign language CG generation unit 29 generates a sign language CG with the emergency character of FIG.

<キャラクタの表情決定手法:第2例>
図8のように、第2例では、視聴者がデータ放送コンテンツ32Bを選択したこととする。
テキストデータ解析部23は、第1単語として、データ放送コンテンツ32Bのコンテンツ項目名「センバツ △△初戦で敗れる」を第1単語として抽出する。そして、テキストデータ解析部23は、抽出した第1単語「センバツ △△初戦で敗れる」をコンテンツ印象抽出部25に出力する。
<Character Expression Determination Method: Second Example>
As shown in FIG. 8, in the second example, it is assumed that the viewer has selected the data broadcast content 32B.
The text data analysis unit 23 extracts, as the first word, the content item name “Senbat △△ lost in the first game” of the data broadcast content 32B as the first word. Then, the text data analysis unit 23 outputs the extracted first word “Senbat △ Δ lost in the first game” to the content impression extraction unit 25.

コンテンツ印象抽出部25は、テキストデータ解析部23から入力された第1単語「センバツ △△初戦で敗れる」を検索キーとして、コンテンツ項目名−印象データ40を検索する。ここで、コンテンツ項目名−印象データ40では、第1単語「センバツ △△初戦で敗れる」が登録されていない。従って、コンテンツ印象抽出部25は、コンテンツ項目名未登録通知をテキストデータ解析部23に出力する。   The content impression extraction unit 25 searches the content item name-impression data 40 using the first word “Senbat ΔΔ lost in the first game” input from the text data analysis unit 23 as a search key. Here, in the content item name-impression data 40, the first word “Senbat △△ Loses in the first match” is not registered. Therefore, the content impression extraction unit 25 outputs a content item name unregistered notification to the text data analysis unit 23.

このコンテンツ項目名未登録通知に応じて、テキストデータ解析部23は、データ放送コンテンツ32Bのコンテンツ項目名「センバツ △△初戦で敗れる」に形態素解析を施し、第1単語として、「センバツ」「△△」「初戦」「で」「敗れる」を抽出する。そして、テキストデータ解析部23は、抽出した第1単語「センバツ」「△△」「初戦」「で」「敗れる」をそれぞれ、コンテンツ印象抽出部25に出力する。   In response to this content item name unregistered notification, the text data analysis unit 23 performs morphological analysis on the content item name “Senbat △△ Loss in the first game” of the data broadcast content 32B, and “Senbat” “△” is used as the first word. △ ”,“ First Battle ”,“ De ”,“ Lose ”are extracted. Then, the text data analysis unit 23 outputs the extracted first words “senbat”, “ΔΔ”, “first game”, “de” and “defeat” to the content impression extraction unit 25, respectively.

コンテンツ印象抽出部25は、テキストデータ解析部23から入力された第1単語「センバツ」、「△△」、「初戦」、「で」、「敗れる」のそれぞれを検索キーとして、コンテンツ項目名−印象データ40を検索する。ここで、コンテンツ項目名−印象データ40では、第1単語「敗れる」に印象値「暗い0.3」が対応している。従って、コンテンツ印象抽出部25は、検索結果として、印象値「暗い0.3」を取得し、取得した印象値「暗い0.3」をキャラクタ・表情決定部27に出力する。   The content impression extraction unit 25 uses each of the first words “Sembatsu”, “ΔΔ”, “First Battle”, “De”, and “Lose” input from the text data analysis unit 23 as search keys. The impression data 40 is searched. Here, in the content item name-impression data 40, the impression value “dark 0.3” corresponds to the first word “losing”. Therefore, the content impression extraction unit 25 acquires the impression value “dark 0.3” as a search result, and outputs the acquired impression value “dark 0.3” to the character / expression determining unit 27.

なお、第1単語のそれぞれを検索キーとした場合、コンテンツ項目名−印象データ40から、印象値を複数取得する場合もある。ここで、データ放送コンテンツ32のコンテンツ項目名は、コンテンツの内容を端的に表していることが多い。このため、コンテンツ項目名−印象データ40から、例えば、「明るい0.5」と「暗い0.5」のように異なった印象を抽出する可能性が低いと考えられる。そこで、コンテンツ印象抽出部25は、例えば、「暗い0.3」と「暗い0.5」のように複数の印象値を取得した場合、取得した複数の印象値を平均し、印象値「暗い0.4」を求める。   When each of the first words is used as a search key, a plurality of impression values may be acquired from the content item name-impression data 40. Here, the content item name of the data broadcast content 32 often simply represents the content. For this reason, it is considered that the possibility that different impressions such as “bright 0.5” and “dark 0.5” are extracted from the content item name-impression data 40 is low. Therefore, when the content impression extracting unit 25 acquires a plurality of impression values such as “dark 0.3” and “dark 0.5”, for example, the content impression extracting unit 25 averages the acquired impression values and obtains the impression value “dark”. 0.4 ".

キャラクタ・表情決定部27は、コンテンツ印象抽出部25から入力された印象値「暗い0.3」が緊急印象値に一致しないと判定する。従って、キャラクタ・表情決定部27は、印象値「暗い0.3」を検索キーとして、印象−キャラクタ−表情データ44を検索する。ここで、印象−キャラクタ−表情データ44では、同一の印象値「暗い0.3」に対し、「キャラクタA」、「キャラクタB」という2種類のキャラクタが対応している。そこで、キャラクタ・表情決定部27は、後記する使用キャラクタデータを参照し、「キャラクタA」と、表情値「悲しみ0.3」とを取得する。   The character / expression determination unit 27 determines that the impression value “dark 0.3” input from the content impression extraction unit 25 does not match the emergency impression value. Accordingly, the character / expression determining unit 27 searches the impression-character-expression data 44 using the impression value “dark 0.3” as a search key. Here, in the impression-character-expression data 44, two characters “character A” and “character B” correspond to the same impression value “dark 0.3”. Therefore, the character / facial expression determination unit 27 refers to use character data described later, and acquires “character A” and an expression value “sadness 0.3”.

ここで、デジタル放送受信機2は、同一の印象値に2種類以上のキャラクタが対応する場合に備え、手話CGに用いるキャラクタの種類を視聴者に予め選択させておく。また、デジタル放送受信機2は、視聴者にリモコンを操作させて、キャラクタの種類を都度選択させてもよい。そして、デジタル放送受信機2は、視聴者に選択させたキャラクタの種類を使用キャラクタデータとして設定する。   Here, the digital broadcast receiver 2 allows the viewer to select in advance a character type to be used for sign language CG in case two or more types of characters correspond to the same impression value. Also, the digital broadcast receiver 2 may cause the viewer to operate the remote control and select the character type each time. Then, the digital broadcast receiver 2 sets the character type selected by the viewer as the used character data.

その後、キャラクタ・表情決定部27は、取得した「キャラクタA」及び表情値「悲しみ0.3」を手話CG生成部29に出力する。このようにして、手話CG生成部29は、図4(b)のように、悲しそうな表情を浮かべた「キャラクタA」で手話CGを生成する。   Thereafter, the character / expression determination unit 27 outputs the acquired “character A” and the expression value “sadness 0.3” to the sign language CG generation unit 29. In this manner, the sign language CG generation unit 29 generates a sign language CG with “character A” having a sad expression as shown in FIG.

<キャラクタの表情決定手法:第3例>
図9のように、第3例では、視聴者がデータ放送コンテンツ32Cを選択したこととする。
この第3例では、使用キャラクタデータとして、「キャラクタB」が設定されていることとする。
テキストデータ解析部23は、第1単語として、データ放送コンテンツ32Cのコンテンツ項目名に含まれる第1単語を全て抽出する。そして、テキストデータ解析部23は、抽出した第1単語をそれぞれ、コンテンツ印象抽出部25に出力する。
<Character Expression Determination Method: Third Example>
As shown in FIG. 9, in the third example, it is assumed that the viewer has selected the data broadcast content 32C.
In this third example, “Character B” is set as the used character data.
The text data analysis unit 23 extracts all the first words included in the content item name of the data broadcast content 32C as the first words. Then, the text data analysis unit 23 outputs the extracted first words to the content impression extraction unit 25, respectively.

コンテンツ印象抽出部25は、テキストデータ解析部23から入力された第1単語のそれぞれを検索キーとして、コンテンツ項目名−印象データ40を検索する。ここで、コンテンツ印象抽出部25は、コンテンツ項目名−印象データ40から、第1単語に対応した印象値を取得できなかったこととする。そこで、コンテンツ印象抽出部25は、印象値未決定通知をテキストデータ解析部23に出力する。   The content impression extraction unit 25 searches the content item name-impression data 40 using each of the first words input from the text data analysis unit 23 as a search key. Here, it is assumed that the content impression extraction unit 25 cannot acquire an impression value corresponding to the first word from the content item name-impression data 40. Therefore, the content impression extraction unit 25 outputs an impression value undetermined notification to the text data analysis unit 23.

この印象値未決定通知に応じて、テキストデータ解析部23は、データ放送コンテンツ32Cのテキストデータに形態素解析を施し、第2単語を抽出する。例えば、テキストデータ解析部23は、データ放送コンテンツ32Cのテキストデータから、「消費」「税率」「の」「引き上げ」「を」「来月」「に」「控え」「仙台」「市内」「の」「家電」「量販」「店」「や」「デパート」「で」「は」「今」「の」「うち」「に」「価格」「の」「高い」「商品」「を」「購入」「し」「て」「おこ」「う」「という」「買い物」「客」「で」「にぎわい」「まし」「た」「。」という第2単語を抽出する。そして、テキストデータ解析部23は、抽出した第2単語をコンテンツ印象抽出部25に出力する。   In response to the impression value undetermined notification, the text data analysis unit 23 performs morphological analysis on the text data of the data broadcast content 32C and extracts the second word. For example, the text data analysis unit 23 determines “consumption”, “tax rate”, “no”, “raise”, “next”, “ni”, “reserve”, “sendai”, “city” from the text data of the data broadcasting content 32C. “No” “Home Appliances” “Mass Sales” “Store” “Ya” “Department Store” “De” “Ha” “Now” “No” “House” “Ni” “Price” “No” “High” “Product” “ The second words “buy” “shi” “te” “ko” “u” “to” “shopping” “customer” “de” “busy” “masashi” “ta” “.” Are extracted. Then, the text data analysis unit 23 outputs the extracted second word to the content impression extraction unit 25.

コンテンツ印象抽出部25は、テキストデータ解析部23から入力された第2単語のそれぞれを検索キーとして、単語−印象データ42を検索する。ここで、単語−印象データ42では、第2単語「にぎわい」に印象値「明るい0.2」が対応している。従って、コンテンツ印象抽出部25は、単語−印象データ42から印象値「明るい0.2」を取得し、取得した印象値「明るい0.2」を、キャラクタ・表情決定部27に出力する。   The content impression extraction unit 25 searches the word-impression data 42 using each of the second words input from the text data analysis unit 23 as a search key. Here, in the word-impression data 42, the impression value “bright 0.2” corresponds to the second word “Nigiwai”. Therefore, the content impression extraction unit 25 acquires the impression value “bright 0.2” from the word-impression data 42 and outputs the acquired impression value “bright 0.2” to the character / expression determination unit 27.

キャラクタ・表情決定部27は、コンテンツ印象抽出部25から入力された印象値「明るい0.2」が緊急印象値に一致しないと判定する。従って、キャラクタ・表情決定部27は、印象値「明るい0.2」を検索キーとして、印象−キャラクタ−表情データ44を検索する。そして、キャラクタ・表情決定部27は、使用キャラクタデータを参照し、「キャラクタB」と、表情値「喜び0.2」とを取得する。   The character / expression determining unit 27 determines that the impression value “bright 0.2” input from the content impression extracting unit 25 does not match the emergency impression value. Accordingly, the character / expression determining unit 27 searches the impression-character-expression data 44 using the impression value “bright 0.2” as a search key. Then, the character / expression determining unit 27 refers to the used character data and acquires “character B” and an expression value “joy 0.2”.

その後、キャラクタ・表情決定部27は、取得した「キャラクタB」及び表情値「喜び0.2」を手話CG生成部29に出力する。このようにして、手話CG生成部29は、図5(b)のように、喜んだ表情を浮かべた「キャラクタB」で手話CGを生成する。   Thereafter, the character / expression determination unit 27 outputs the acquired “character B” and the expression value “joy 0.2” to the sign language CG generation unit 29. In this manner, the sign language CG generation unit 29 generates a sign language CG with a “character B” with a happy expression as shown in FIG.

[デジタル放送受信機の動作]
図10を参照し、デジタル放送受信機2の動作について、説明する(適宜図1参照)。
この図10では、復調器21がトランスポートストリームに復調し、多重分離部22がトランスポートストリームからデータ放送及び字幕データを分離していることとする。
[Operation of digital broadcast receiver]
The operation of the digital broadcast receiver 2 will be described with reference to FIG. 10 (see FIG. 1 as appropriate).
In FIG. 10, it is assumed that the demodulator 21 demodulates the transport stream, and the demultiplexing unit 22 separates the data broadcast and the caption data from the transport stream.

デジタル放送受信機2は、テキストデータ解析部23によって、視聴者が選択したデータ放送コンテンツ32のコンテンツ項目名又はコンテンツ項目名に含まれる単語を第1単語として抽出する(ステップS1)。
デジタル放送受信機2は、コンテンツ印象抽出部25によって、コンテンツ項目名−印象データ40を参照し(ステップS2)、ステップS1で抽出した第1単語に対応する印象値が登録されているか否かを判定する(ステップS3)。
The digital broadcast receiver 2 uses the text data analysis unit 23 to extract the content item name of the data broadcast content 32 selected by the viewer or the word included in the content item name as the first word (step S1).
The digital broadcast receiver 2 refers to the content item name-impression data 40 by the content impression extraction unit 25 (step S2), and determines whether or not an impression value corresponding to the first word extracted in step S1 is registered. Determine (step S3).

印象値が登録されている場合(ステップS3でYes)、デジタル放送受信機2は、コンテンツ印象抽出部25によって、コンテンツ項目名−印象データ40から印象値を決定する(ステップS4)。
デジタル放送受信機2は、キャラクタ・表情決定部27によって、ステップS4で決定した印象値が予め設定された緊急印象値に一致するか否かを判定する(ステップS5)。
When the impression value is registered (Yes in step S3), the digital broadcast receiver 2 determines the impression value from the content item name-impression data 40 by the content impression extraction unit 25 (step S4).
The digital broadcast receiver 2 determines whether or not the impression value determined in step S4 matches the emergency impression value set in advance by the character / facial expression determination unit 27 (step S5).

緊急印象値に一致する場合(ステップS5でYes)、デジタル放送受信機2は、キャラクタ・表情決定部27によって、キャラクタの種類及び表情値として緊急用を決定する(ステップS6)。
緊急印象値に一致しない場合(ステップS5でNo)、デジタル放送受信機2は、キャラクタ・表情決定部27によって、使用キャラクタデータ及び印象−キャラクタ−表情データ44を参照し(ステップS7,S8)、キャラクタの種類及び表情値を決定する(ステップS9)。
If it matches the emergency impression value (Yes in step S5), the digital broadcast receiver 2 uses the character / facial expression determination unit 27 to determine the emergency type as the character type and facial expression value (step S6).
If it does not match the urgent impression value (No in step S5), the digital broadcast receiver 2 uses the character / expression determining unit 27 to refer to the used character data and the impression-character-expression data 44 (steps S7 and S8). The character type and expression value are determined (step S9).

デジタル放送受信機2は、手話CG生成部29によって、ステップS6又はステップS9で決定したキャラクタの種類及び表情値に基づいて手話CGを生成し(ステップS10)、処理を終了する。   The digital broadcast receiver 2 uses the sign language CG generation unit 29 to generate a sign language CG based on the character type and expression value determined in step S6 or step S9 (step S10), and ends the process.

印象値が登録されていない場合(ステップS3でNo)、デジタル放送受信機2は、テキストデータ解析部23によって、選択されたデータ放送コンテンツ32のテキストデータに形態素解析を施して(ステップS11)、第2単語を抽出する(ステップS12)。   When the impression value is not registered (No in step S3), the digital broadcast receiver 2 performs morphological analysis on the text data of the selected data broadcast content 32 by the text data analysis unit 23 (step S11). A second word is extracted (step S12).

デジタル放送受信機2は、コンテンツ印象抽出部25によって、単語−印象データ42を参照し(ステップS13)、ステップS12で抽出した第2単語に対応する印象値を決定し(ステップS4B)、ステップ5以降の処理を実行する。   The digital broadcast receiver 2 refers to the word-impression data 42 by the content impression extracting unit 25 (step S13), determines an impression value corresponding to the second word extracted in step S12 (step S4B), and step 5 The subsequent processing is executed.

[作用・効果]
以上のように、デジタル放送受信機2は、データ放送コンテンツ32の内容から印象を決定し、その印象に基づいた表情のキャラクタで手話CGを生成する。このようにして、デジタル放送受信機2は、キャラクタの表情をコンテンツの内容に合わせられるので、手話CGの違和感を少なくすることができる。
[Action / Effect]
As described above, the digital broadcast receiver 2 determines an impression from the content of the data broadcast content 32, and generates a sign language CG with a facial expression character based on the impression. In this way, the digital broadcast receiver 2 can adjust the facial expression of the character to the content content, thereby reducing the sense of discomfort in the sign language CG.

(第2実施形態)
図11を参照し、本願発明の第2実施形態に係る放送システム100Aについて、第1実施形態と異なる点を説明する。
放送システム100Aは、日本語テキストから手話表記への翻訳を、デジタル放送受信機2Aではなく、放送局1Aで行う点が第1実施形態と異なる。
(Second Embodiment)
With reference to FIG. 11, a difference from the first embodiment in a broadcasting system 100A according to the second embodiment of the present invention will be described.
The broadcast system 100A is different from the first embodiment in that the translation from Japanese text to sign language is performed not by the digital broadcast receiver 2A but by the broadcast station 1A.

[放送局の構成]
図11のように、放送局1Aは、多重化部11Aと、変調器13と、データ送信部15と、手話表記翻訳部17とを備える。
なお、多重化部11A及び手話表記翻訳部17以外の構成は、第1実施形態と同様のため、説明を省略する。
[Broadcasting station configuration]
As shown in FIG. 11, the broadcasting station 1A includes a multiplexing unit 11A, a modulator 13, a data transmission unit 15, and a sign language notation translation unit 17.
Since the configuration other than the multiplexing unit 11A and the sign language notation translation unit 17 is the same as that of the first embodiment, description thereof is omitted.

手話表記翻訳部17は、図1の手話表記翻訳部28と同様、日本語テキストを手話表記に翻訳するものである。例えば、手話表記翻訳部17は、日本語テキストとして、外部から入力されたデータ放送に含まれるテキストデータや、字幕データを用いる。そして、手話表記翻訳部17は、日本語テキストを手話表記に翻訳し、その翻訳結果を多重化部11Aに出力する。   The sign language notation translation unit 17 translates Japanese text into sign language notation, similar to the sign language notation translation unit 28 of FIG. For example, the sign language notation translation unit 17 uses text data or caption data included in a data broadcast input from the outside as Japanese text. The sign language notation translation unit 17 translates the Japanese text into sign language notation and outputs the translation result to the multiplexing unit 11A.

多重化部11Aは、放送映像とデータ放送と字幕データとに加え、手話表記翻訳部17から入力された翻訳結果をトランスポートストリーム形式で多重化し、変調器13に出力するものである。
つまり、多重化部11Aで多重化された翻訳結果は、デジタル放送波を介して、デジタル放送受信機2Aに送信される。
The multiplexing unit 11A multiplexes the translation result input from the sign language notation translation unit 17 in the transport stream format in addition to the broadcast video, the data broadcast, and the caption data, and outputs the result to the modulator 13.
That is, the translation result multiplexed by the multiplexing unit 11A is transmitted to the digital broadcast receiver 2A via the digital broadcast wave.

[デジタル放送受信機の構成]
図11のように、デジタル放送受信機2Aは、復調器21と、多重分離部22Aと、テキストデータ解析部23と、テキスト−印象データベース24と、コンテンツ印象抽出部25と、印象−キャラクタ−表情データベース26と、キャラクタ・表情決定部27と、手話CG生成部29Aとを備える。
なお、多重分離部22A及び手話CG生成部29A以外の構成は、第1実施形態と同様のため、説明を省略する。
[Configuration of digital broadcast receiver]
As shown in FIG. 11, the digital broadcast receiver 2A includes a demodulator 21, a demultiplexing unit 22A, a text data analyzing unit 23, a text-impression database 24, a content impression extracting unit 25, an impression-character-expression. A database 26, a character / expression determining unit 27, and a sign language CG generating unit 29A are provided.
The configurations other than the demultiplexing unit 22A and the sign language CG generation unit 29A are the same as those in the first embodiment, and thus the description thereof is omitted.

多重分離部22Aは、復調器21からトランスポートストリームが入力され、入力されたトランスポートストリームに多重化されている放送映像とデータ放送と字幕データと翻訳結果とを分離するものである。また、多重分離部22Aは、分離したデータ放送及び字幕データをテキストデータ解析部23に出力する。さらに、多重分離部22Aは、分離した放送映像及び翻訳結果を手話CG生成部29Aに出力する。   The demultiplexing unit 22A receives the transport stream from the demodulator 21, and separates the broadcast video, the data broadcast, the caption data, and the translation result multiplexed into the input transport stream. Further, the demultiplexing unit 22A outputs the separated data broadcast and caption data to the text data analysis unit 23. Further, the demultiplexing unit 22A outputs the separated broadcast video and the translation result to the sign language CG generation unit 29A.

手話CG生成部29Aは、手話CG制御コマンド生成部291Aと、手話アニメーション生成部293と、合成表示部295とを備える。
手話CG制御コマンド生成部291Aは、多重分離部22Aから入力された翻訳結果と同じ手話動作が行われているモーションキャプチャデータを、TVMLスクリプトの“openkeyframe”コマンドで指定する。
他の点、手話CG制御コマンド生成部291Aは、図1の手話CG制御コマンド生成部291と同様のため、これ以上の説明を省略する。
The sign language CG generation unit 29A includes a sign language CG control command generation unit 291A, a sign language animation generation unit 293, and a composite display unit 295.
The sign language CG control command generation unit 291A designates the motion capture data in which the same sign language operation as the translation result input from the demultiplexing unit 22A is performed by the “openkeyframe” command of the TVML script.
In other respects, the sign language CG control command generation unit 291A is the same as the sign language CG control command generation unit 291 in FIG.

[作用・効果]
以上のように、デジタル放送受信機2Aは、第1実施形態と同様、手話CGの違和感を少なくすることができる。さらに、デジタル放送受信機2Aは、図1の手話表記翻訳部28を備える必要がないので、簡易な構成にすることができる。
[Action / Effect]
As described above, the digital broadcast receiver 2A can reduce the sense of discomfort in the sign language CG, as in the first embodiment. Furthermore, since the digital broadcast receiver 2A does not need to include the sign language notation translation unit 28 of FIG. 1, a simple configuration can be achieved.

(第3実施形態)
図12を参照し、本願発明の第3実施形態に係る放送システム100Bについて、第2実施形態と異なる点を説明する。
放送システム100Bは、手話表記の翻訳結果を、デジタル放送波ではなく、ネットワークNを介して、デジタル放送受信機2Bに送信する点が第2実施形態と異なる。
(Third embodiment)
With reference to FIG. 12, a difference from the second embodiment will be described regarding a broadcasting system 100B according to a third embodiment of the present invention.
The broadcast system 100B is different from the second embodiment in that the translation result of sign language notation is transmitted to the digital broadcast receiver 2B via the network N instead of the digital broadcast wave.

[放送局の構成]
図12のように、放送局1Bは、多重化部11と、変調器13と、データ送信部15と、手話表記翻訳部17Bとを備える。
なお、手話表記翻訳部17B以外の構成は、第2実施形態と同様のため、説明を省略する。
[Broadcasting station configuration]
As shown in FIG. 12, the broadcasting station 1B includes a multiplexing unit 11, a modulator 13, a data transmission unit 15, and a sign language notation translation unit 17B.
Since the configuration other than the sign language notation translation unit 17B is the same as that of the second embodiment, the description thereof is omitted.

手話表記翻訳部17Bは、図11の手話表記翻訳部17と同様、日本語テキストを手話表記に翻訳するものである。そして、手話表記翻訳部17Bは、ネットワークNを介して、手話表記の翻訳結果をデジタル放送受信機2に送信する。   The sign language notation translation unit 17B translates Japanese text into sign language notation, similar to the sign language notation translation unit 17 of FIG. Then, the sign language notation translation unit 17B transmits the translation result of the sign language notation to the digital broadcast receiver 2 via the network N.

[デジタル放送受信機の構成]
図12のように、デジタル放送受信機2Bは、復調器21と、多重分離部22Bと、テキストデータ解析部23と、テキスト−印象データベース24と、コンテンツ印象抽出部25と、印象−キャラクタ−表情データベース26と、キャラクタ・表情決定部27と、手話CG生成部29Bとを備える。
なお、多重分離部22B及び手話CG生成部29B以外の構成は、第2実施形態と同様のため、説明を省略する。
[Configuration of digital broadcast receiver]
As shown in FIG. 12, the digital broadcast receiver 2B includes a demodulator 21, a demultiplexer 22B, a text data analyzer 23, a text-impression database 24, a content impression extractor 25, an impression-character-expression. A database 26, a character / expression determining unit 27, and a sign language CG generating unit 29B are provided.
Note that the configurations other than the demultiplexing unit 22B and the sign language CG generation unit 29B are the same as those in the second embodiment, and thus the description thereof is omitted.

多重分離部22Bは、復調器21からトランスポートストリームが入力され、入力されたトランスポートストリームに多重化されている放送映像とデータ放送と字幕データとを分離するものである。また、多重分離部22Bは、分離したデータ放送及び字幕データをテキストデータ解析部23に出力する。さらに、多重分離部22Bは、分離した放送映像を手話CG生成部29Bに出力する。   The demultiplexing unit 22B receives the transport stream from the demodulator 21, and separates the broadcast video, the data broadcast, and the caption data that are multiplexed in the input transport stream. Further, the demultiplexing unit 22B outputs the separated data broadcast and caption data to the text data analysis unit 23. Further, the demultiplexing unit 22B outputs the separated broadcast video to the sign language CG generation unit 29B.

手話CG生成部29Bは、手話CG制御コマンド生成部291Bと、手話アニメーション生成部293と、合成表示部295とを備える。
手話CG制御コマンド生成部291Bは、ネットワークNを介して、放送局1Bから入力された翻訳結果と同じ手話動作が行われているモーションキャプチャデータを、TVMLスクリプトの“openkeyframe”コマンドで指定する。
他の点、手話CG制御コマンド生成部291Bは、第2実施形態と同様のため、これ以上の説明を省略する。
The sign language CG generation unit 29B includes a sign language CG control command generation unit 291B, a sign language animation generation unit 293, and a composite display unit 295.
The sign language CG control command generation unit 291B specifies motion capture data in which the same sign language operation as the translation result input from the broadcast station 1B is performed via the network N by the “openkeyframe” command of the TVML script.
In other respects, the sign language CG control command generation unit 291B is the same as that of the second embodiment, and thus further description thereof is omitted.

[作用・効果]
以上のように、デジタル放送受信機2Bは、第1,第2実施形態と同様、手話CGの違和感を少なくし、簡易な構成を実現することができる。さらに、デジタル放送受信機2Bは、ネットワークNを介して、手話表記の翻訳結果を受信するので、デジタル放送波のデータ量を削減することができる。
[Action / Effect]
As described above, similarly to the first and second embodiments, the digital broadcast receiver 2B can reduce the sense of discomfort in the sign language CG and can realize a simple configuration. Furthermore, since the digital broadcast receiver 2B receives the translation result of sign language notation via the network N, the data amount of the digital broadcast wave can be reduced.

(変形例)
本願発明は前記した各実施形態に限定されず、その趣旨を逸脱しない範囲で変形を加えることができる。
前記した実施形態では、日本語テキストとして、データ放送のテキストデータや字幕データを例示したが、これに限定されない。例えば、日本語テキストは、図示を省略したウェブサーバで提示されるウェブコンテンツ(図1)であってもよい。この場合、放送局1、デジタル放送受信機2又はウェブサーバの何れかで、ウェブコンテンツを手話表記に翻訳する。
(Modification)
The present invention is not limited to the above-described embodiments, and modifications can be made without departing from the spirit of the invention.
In the above-described embodiment, the text data and caption data of data broadcasting are exemplified as the Japanese text, but the present invention is not limited to this. For example, the Japanese text may be web content (FIG. 1) presented on a web server (not shown). In this case, the web content is translated into sign language notation by any of the broadcast station 1, the digital broadcast receiver 2, or the web server.

前記した実施形態では、デジタル放送受信機2Bを独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、デジタル放送受信機2Bは、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる手話CG生成プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In the above-described embodiment, the digital broadcast receiver 2B has been described as independent hardware. However, the present invention is not limited to this. For example, the digital broadcast receiver 2B can also be realized by a sign language CG generation program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as the above-described means. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

100,100A,100B 放送システム
1,1A,1B 放送局
11,11A,11B 多重化部
13 変調器
15 データ送信部
17,17B 手話表記翻訳部
2 デジタル放送受信機
21 復調器
22,22A,22B 多重分離部
23 テキストデータ解析部(単語抽出部)
24 テキスト−印象データベース(第1データベース)
25 コンテンツ印象抽出部(印象値決定部)
26 印象−キャラクタ−表情データベース(第2データベース)
27 キャラクタ・表情決定部
28 手話表記翻訳部
29,29A,29B 手話CG生成部
3 ディスプレイ
100, 100A, 100B Broadcast system 1, 1A, 1B Broadcast station 11, 11A, 11B Multiplexer 13 Modulator 15 Data transmitter 17, 17B Sign language notation translator 2 Digital broadcast receiver 21 Demodulator 22, 22A, 22B Multiplex Separation unit 23 Text data analysis unit (word extraction unit)
24 text-impression database (first database)
25 Content impression extraction unit (impression value determination unit)
26 Impression-character-expression database (second database)
27 Character / Expression Determination Unit 28 Sign Language Notation Translation Unit 29, 29A, 29B Sign Language CG Generation Unit 3 Display

Claims (7)

表情を浮かべるキャラクタで手話CGを生成する手話CG生成装置であって、
視聴者が選択したデータ放送コンテンツ又はウェブコンテンツのコンテンツ項目名の第1単語を抽出する単語抽出部と、
前記第1単語と、当該第1単語から前記視聴者が受ける印象の強弱を表す印象値とが対応付けられた第1単語−印象データを、予め記憶する第1データベースと、
前記第1単語−印象データを参照して、前記単語抽出部で抽出された第1単語に対応した印象値を決定する印象値決定部と、
前記印象値と、前記キャラクタの種類と、前記キャラクタの表情の種類及び当該表情の強弱を表す表情値とが対応付けられた印象−キャラクタ−表情データを予め記憶する第2データベースと、
前記印象−キャラクタ−表情データを参照して、前記印象値決定部が決定した印象値に対応したキャラクタの種類及び表情値を決定するキャラクタ・表情決定部と、
前記キャラクタ・表情決定部が決定したキャラクタの種類及び表情値に基づいて前記手話CGを生成する手話CG生成部と、
を備えることを特徴とする手話CG生成装置。
A sign language CG generation device for generating a sign language CG with a character having a facial expression,
A word extraction unit for extracting the first word of the content item name of the data broadcast content or web content selected by the viewer;
A first database that stores in advance first word-impression data in which the first word is associated with an impression value representing the strength of an impression received by the viewer from the first word;
An impression value determining unit that determines an impression value corresponding to the first word extracted by the word extracting unit with reference to the first word-impression data;
A second database that stores in advance impression-character-expression data in which the impression value, the character type, the expression type of the character, and an expression value representing the strength of the expression are associated;
A character / expression determination unit that determines the type and expression value of the character corresponding to the impression value determined by the impression value determination unit with reference to the impression-character-expression data;
A sign language CG generation unit that generates the sign language CG based on the character type and expression value determined by the character / expression determination unit;
A sign language CG generation apparatus comprising:
前記単語抽出部は、前記印象値決定部が前記第1単語に対応した印象値を前記第1単語−印象データから決定できない場合、データ放送に含まれるテキストデータ又は字幕データに含まれる第2単語を抽出し、
前記第1データベースは、前記印象値と前記第2単語とが対応付けられた第2単語−印象データをさらに記憶し、
前記印象値決定部は、前記第2単語−印象データを参照して、前記単語抽出部で抽出された第2単語に対応した印象値を決定することを特徴とする請求項1に記載の手話CG生成装置。
The word extraction unit, when the impression value determination unit cannot determine an impression value corresponding to the first word from the first word-impression data, a second word included in text data or subtitle data included in the data broadcast Extract
The first database further stores second word-impression data in which the impression value and the second word are associated with each other;
The sign language according to claim 1, wherein the impression value determination unit determines an impression value corresponding to the second word extracted by the word extraction unit with reference to the second word-impression data. CG generator.
前記第1データベースは、緊急性が高いことを示す第1単語として予め設定された緊急第1単語と、緊急性が高いことを示す印象値として予め設定された緊急印象値とが対応付けられた前記第1単語−印象データを記憶し、
前記印象値決定部は、前記第1単語−印象データを参照して、前記単語抽出部が前記緊急第1単語を抽出した場合、当該緊急印象値を決定し、
前記キャラクタ・表情決定部は、前記印象値決定部で前記緊急印象値が決定された場合、前記キャラクタの種類を予め設定された緊急用キャラクタに決定し、前記キャラクタの表情を予め設定された緊急用表情に決定することを特徴とする請求項1又は請求項2に記載の手話CG生成装置。
In the first database, an emergency first word preset as a first word indicating high urgency is associated with an emergency impression value preset as an impression value indicating high urgency. Storing the first word-impression data;
The impression value determination unit refers to the first word-impression data, and when the word extraction unit extracts the emergency first word, determines the emergency impression value,
The character / facial expression determining unit determines the character type to be a preset emergency character when the impression value determining unit determines the emergency impression value, and sets the character's facial expression to a preset emergency character. The sign language CG generation apparatus according to claim 1, wherein the sign language CG generation apparatus is determined to be a facial expression.
前記単語抽出部は、前記テキストデータ又は前記字幕データ句読点で区切られた区間毎に形態素解析を施し、前記第2単語を抽出し、
前記印象値決定部は、前記単語抽出部で抽出された第2単語に対応した印象値を前記区間毎に決定することを特徴とする請求項2又は請求項3に記載の手話CG生成装置。
The word extraction unit performs morphological analysis for each section delimited by punctuation marks in the text data or the caption data , and extracts the second word,
The sign language CG generation device according to claim 2 or 3, wherein the impression value determination unit determines an impression value corresponding to the second word extracted by the word extraction unit for each of the sections.
前記印象値決定部は、
前記単語抽出部で前記第1単語が2以上抽出された場合、当該第1単語毎に前記印象値を前記第1単語−印象データから抽出し、抽出された前記第1単語毎の印象値を平均し、
前記単語抽出部で前記第2単語が2以上抽出された場合、当該第2単語毎に前記印象値を前記第2単語−印象データから抽出し、抽出された前記第2単語毎の印象値を決定することを特徴とする請求項2から請求項4の何れか一項に記載の手話CG生成装置。
The impression value determination unit
When two or more first words are extracted by the word extraction unit, the impression value is extracted from the first word-impression data for each first word, and the extracted impression value for each first word is calculated. Average
When two or more second words are extracted by the word extraction unit, the impression value is extracted from the second word-impression data for each second word, and the extracted impression value for each second word is calculated. sign language CG generating apparatus according to any one of claims 4 be determined from claim 2, wherein.
前記キャラクタ・表情決定部は、前記印象値決定部が決定した印象値に2種類以上のキャラクタが対応する場合、前記キャラクタの種類を前記視聴者の選択に従って決定することを特徴とする請求項1から請求項5の何れか一項に記載の手話CG生成装置。   2. The character / facial expression determining unit, when two or more types of characters correspond to the impression value determined by the impression value determining unit, determines the character type according to the selection of the viewer. The sign language CG generation device according to any one of claims 1 to 5. コンピュータを、請求項1から請求項6の何れか一項に記載の手話CG生成装置として機能させるための手話CG生成プログラム。   A sign language CG generation program for causing a computer to function as the sign language CG generation device according to any one of claims 1 to 6.
JP2014117289A 2014-06-06 2014-06-06 Sign language CG generation apparatus and program thereof Active JP6401505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014117289A JP6401505B2 (en) 2014-06-06 2014-06-06 Sign language CG generation apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014117289A JP6401505B2 (en) 2014-06-06 2014-06-06 Sign language CG generation apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2015230640A JP2015230640A (en) 2015-12-21
JP6401505B2 true JP6401505B2 (en) 2018-10-10

Family

ID=54887368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014117289A Active JP6401505B2 (en) 2014-06-06 2014-06-06 Sign language CG generation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6401505B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899588B1 (en) * 2018-03-05 2018-09-17 주식회사 이큐포올 System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method
JP7184669B2 (en) * 2019-02-21 2022-12-06 日本放送協会 Information processing device and program
JP7549062B2 (en) 2023-02-20 2024-09-10 Kddi株式会社 Information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3567596B2 (en) * 1996-04-09 2004-09-22 株式会社日立製作所 Sign language animation generator
JP3857923B2 (en) * 2002-01-21 2006-12-13 アルゼ株式会社 CHARACTER SELECTION SYSTEM, CHARACTER SELECTION DEVICE, CHARACTER SELECTION METHOD, PROGRAM, AND RECORDING MEDIUM
JP2008046425A (en) * 2006-08-17 2008-02-28 National Institute Of Information & Communication Technology Impression rendering output device and method
JP5213572B2 (en) * 2008-07-28 2013-06-19 株式会社アステム Sign language video generation system, server, terminal device, information processing method, and program

Also Published As

Publication number Publication date
JP2015230640A (en) 2015-12-21

Similar Documents

Publication Publication Date Title
CN110475150B (en) Rendering method and device for special effect of virtual gift and live broadcast system
US10210907B2 (en) Systems and methods for adding content to video/multimedia based on metadata
CN107820132B (en) Live broadcast interaction method, device and system
KR101995958B1 (en) Apparatus and method for image processing based on smart glass
CN106210901B (en) Display device
JP2005527158A (en) Presentation synthesizer
JP6401505B2 (en) Sign language CG generation apparatus and program thereof
KR101927965B1 (en) System and method for producing video including advertisement pictures
US8913869B2 (en) Video playback apparatus and video playback method
US20130205334A1 (en) Method and apparatus for providing supplementary information about content in broadcasting system
KR101869053B1 (en) System of providing speech bubble or score, method of receiving augmented broadcasting contents and apparatus for performing the same, method of providing augmented contents and apparatus for performing the same
WO2016167160A1 (en) Data generation device and reproduction device
WO2020234939A1 (en) Information processing device, information processing method, and program
JP6378964B2 (en) Sign language CG generation apparatus and sign language CG generation program
US20220224980A1 (en) Artificial intelligence information processing device and artificial intelligence information processing method
JP2006211120A (en) Video display system provided with character information display function
JP5134882B2 (en) Content management device
JP7184669B2 (en) Information processing device and program
JP6950379B2 (en) Content information distribution device with subtitles, content information distribution method with subtitles, and content information distribution program with subtitles
JP4969234B2 (en) Image handling method, image handling apparatus, and image handling system
KR102664295B1 (en) Method and apparatus for providing a platform for sign language subtitles video
JP6046961B2 (en) Video composition device and video composition program
US11809818B2 (en) Information processing apparatus, information processing method, and information processing program
JP2021197563A (en) Related information distribution device, program, content distribution system, and content output terminal
KR20230061780A (en) Module and method for recommending video based on location applied to multimedia box for ott

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180907

R150 Certificate of patent or registration of utility model

Ref document number: 6401505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250