JP5213572B2 - Sign language video generation system, server, terminal device, information processing method, and program - Google Patents

Sign language video generation system, server, terminal device, information processing method, and program Download PDF

Info

Publication number
JP5213572B2
JP5213572B2 JP2008194070A JP2008194070A JP5213572B2 JP 5213572 B2 JP5213572 B2 JP 5213572B2 JP 2008194070 A JP2008194070 A JP 2008194070A JP 2008194070 A JP2008194070 A JP 2008194070A JP 5213572 B2 JP5213572 B2 JP 5213572B2
Authority
JP
Japan
Prior art keywords
information
term
sign language
unit
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008194070A
Other languages
Japanese (ja)
Other versions
JP2010032733A (en
Inventor
雄三 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ASTEM, INC.
Original Assignee
ASTEM, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ASTEM, INC. filed Critical ASTEM, INC.
Priority to JP2008194070A priority Critical patent/JP5213572B2/en
Publication of JP2010032733A publication Critical patent/JP2010032733A/en
Application granted granted Critical
Publication of JP5213572B2 publication Critical patent/JP5213572B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)

Description

本発明は、字幕情報に対応する手話映像情報を生成して出力する手話映像生成システム等に関する。   The present invention relates to a sign language video generation system that generates and outputs sign language video information corresponding to subtitle information.

従来、手話の映像を自動的に生成する装置が開発されている(例えば、特許文献1〜4参照)。
特開平11−184370号公報 特開2000−149042号公報 特開2003−296753号公報 特開2007−133609号公報
Conventionally, an apparatus for automatically generating a sign language video has been developed (see, for example, Patent Documents 1 to 4).
JP-A-11-184370 JP 2000-190442 A JP 2003-296653 A JP 2007-133609 A

番組の字幕等から手話映像の生成が行われるのは、聴覚障害者向けの映像を放送する放送局や、聴覚障害者の有するテレビ受像器や、そのテレビ受像器に接続されたセット・トップ・ボックス等であることが多いと考えられる。そのような場合に、放送局において手話映像を生成して放送すると、その放送するデータの容量が大きくなってしまうという問題がある。一方、聴覚障害者の有するテレビ受像器等で手話映像を生成すると、そのテレビ受像器等に高い負荷を課すことになってしまう。   Sign language video is generated from program subtitles, etc. for broadcasting stations that broadcast video for hearing-impaired people, television receivers for hearing-impaired people, and set-top / It is thought that it is often a box. In such a case, when a sign language video is generated and broadcast in a broadcasting station, there is a problem that the capacity of the data to be broadcast becomes large. On the other hand, when a sign language image is generated by a television receiver or the like possessed by a hearing impaired person, a high load is imposed on the television receiver or the like.

本発明は、上記課題を解決するためになされたものであり、サーバと端末装置とにおいて、適切な負荷分散をすることができる手話映像生成システム等を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a sign language video generation system and the like that can perform appropriate load distribution between a server and a terminal device.

上記目的を達成するため、本発明による手話映像生成システムは、サーバと、端末装置とを備えた手話映像生成システムであって、前記サーバは、番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、前記用語列変更部が変更した用語列を送信する送信部と、を備え、前記端末装置は、前記用語列を受信する受信部と、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部と、前記受信部が受信した用語列に含まれる各用語に、前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、前記手話映像情報生成部が生成した手話映像情報を出力する出力部と、を備えた、ものである。   To achieve the above object, a sign language video generation system according to the present invention is a sign language video generation system including a server and a terminal device, wherein the server receives subtitle information that is information indicating a subtitle of a program. An information receiving unit, a term extracting unit for extracting a term that is an independent word from the subtitle information received by the subtitle information receiving unit, and a term string change for changing a term string that is a sequence of terms extracted by the term extracting unit And a transmitting unit that transmits the term string changed by the term string changing unit, and the terminal device relates to a receiving unit that receives the term string, a term, and a sign language operation corresponding to the term A sign language term correspondence information storage unit that stores sign language term correspondence information that is information that associates sign language action information that is information, and each term included in the term sequence received by the reception unit, the sign language term A sign language video information generating unit that generates sign language video information that is information indicating a video of a sign language corresponding to the term sequence using the sign language action information associated with the response information, and the sign language generated by the sign language video information generating unit And an output unit for outputting video information.

このような構成により、サーバと端末装置とにおいて、適切な負荷分散をすることができる。すなわち、手話映像情報を生成するための前処理をサーバにおいて行っているため、端末装置において字幕情報から手話映像情報を生成する場合に比べて、端末装置の負荷を減少させることができうる。また、サーバは、手話映像情報を送信するのではなく、用語列を送信するため、サーバが送信するデータ容量を小さくすることができるメリットもある。   With such a configuration, appropriate load distribution can be performed between the server and the terminal device. That is, since the preprocessing for generating sign language video information is performed in the server, it is possible to reduce the load on the terminal device as compared with the case where the terminal device generates sign language video information from the caption information. In addition, since the server does not transmit sign language video information but transmits a term string, there is an advantage that the data capacity transmitted by the server can be reduced.

また、本発明による手話映像生成システムでは、前記用語列変更部は、変換の対象となる用語である変換対象用語と、変換後の用語である変換後用語とを対応付ける情報である用語対応情報が記憶される用語対応情報記憶手段と、前記用語列に前記変換対象用語が含まれる場合に、当該変換対象用語に対応する変換後用語に当該変換対象用語を変換する用語変換手段と、を備えてもよい。   In the sign language video generation system according to the present invention, the term string changing unit includes term correspondence information that is information that associates a conversion target term that is a conversion target term with a converted term that is a converted term. A term correspondence information storage means to be stored; and a term conversion means for converting the conversion target term into a post-conversion term corresponding to the conversion target term when the conversion target term is included in the term string. Also good.

このような構成により、例えば、サーバが送信する用語を、端末装置での手話映像情報の生成で用いられる用語に変換することができる。その結果、端末装置では、例えば、手話用語対応情報において、用語の類義語を多く含める必要がなくなり、手話用語対応情報の容量を削減することができる。また、手話用語対応情報の容量が小さくなれば、用語列に対応する手話動作情報を読み出す処理負荷も軽減されることになる。   With such a configuration, for example, a term transmitted by the server can be converted into a term used for generating sign language video information in the terminal device. As a result, in the terminal device, for example, it is not necessary to include many synonyms of terms in the sign language term correspondence information, and the capacity of the sign language term correspondence information can be reduced. Further, if the capacity of the sign language term correspondence information is reduced, the processing load for reading the sign language action information corresponding to the term string is also reduced.

また、本発明による手話映像生成システムでは、前記用語列変更部は、用語の順序を示す情報である用語順序情報が記憶される用語順序情報記憶手段と、前記用語順序情報が示す用語の順序となるように、前記用語列の用語の順序を並び替える用語並び替え手段と、を備えてもよい。
このような構成により、端末装置で適切な手話映像情報が生成されるように、用語の並び替えを行うことができる。その結果、手話映像情報の品質を高めることができうる。
In the sign language video generation system according to the present invention, the term string changing unit includes term order information storage means for storing term order information, which is information indicating the order of terms, and the order of terms indicated by the term order information. The term rearrangement means which rearranges the order of the term of the said term sequence may be provided.
With such a configuration, the terms can be rearranged so that appropriate sign language video information is generated by the terminal device. As a result, it is possible to improve the quality of sign language video information.

また、本発明による手話映像生成システムでは、前記用語列変更部は、前記用語列において用語が欠落していることを検出する検出手段と、前記検出手段が用語の欠落を検出した場合に、当該用語列に用語を補足する用語補足手段と、を備えてもよい。
このような構成により、欠落している用語を補足することができ、結果として、手話映像情報の品質を高めることができうる。
Further, in the sign language video generation system according to the present invention, the term string changing unit detects a term missing in the term string, and when the detecting means detects a term missing, There may be provided term supplementing means for supplementing the term string with the term.
With such a configuration, missing terms can be supplemented, and as a result, the quality of sign language video information can be improved.

また、本発明による手話映像生成システムでは、前記用語列変更部は、前記用語列の属性を取得する属性取得手段と、前記属性取得手段が取得した属性を示す情報である属性情報を前記用語列に付加する属性情報付加手段と、を備え、前記手話動作情報は、属性情報の示す属性ごとの情報を少なくとも有しており、前記手話映像情報生成部は、前記用語列に含まれる属性情報に応じた手話動作情報を用いて手話映像情報を生成してもよい。   Further, in the sign language video generation system according to the present invention, the term string change unit includes an attribute acquisition unit that acquires an attribute of the term string, and attribute information that is information indicating an attribute acquired by the attribute acquisition unit. Attribute information adding means for adding to the sign language action information, the sign language action information includes at least information for each attribute indicated by the attribute information, and the sign language video information generation unit includes the attribute information included in the term string. Sign language video information may be generated using the corresponding sign language action information.

このような構成により、用語列に属性情報を含めることができ、端末装置では、その属性情報に応じた手話映像情報を生成することができる。したがって、手話映像を、実際の手話通訳者が手話通訳した場合の映像により近づけることができうる。   With such a configuration, attribute information can be included in the term string, and the terminal device can generate sign language video information according to the attribute information. Therefore, it is possible to make the sign language image closer to the image when the actual sign language interpreter interprets the sign language.

また、本発明による手話映像生成システムでは、前記端末装置は、前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部をさらに備え、前記手話映像情報生成部は、前記番組関連情報受付部が受け付けた番組関連情報をも用いて、手話映像情報を生成してもよい。
このような構成により、番組関連情報を手話映像情報の生成の処理に役立てることができうる。
In the sign language video generation system according to the present invention, the terminal device further includes a program related information receiving unit that receives program related information that is information related to a program corresponding to the term string received by the receiving unit, The video information generating unit may generate sign language video information using the program related information received by the program related information receiving unit.
With such a configuration, the program related information can be used for the process of generating sign language video information.

また、本発明による手話映像生成システムでは、前記手話用語対応情報は、用語と、手話動作情報と、番組関連情報とを対応付ける情報であり、前記手話映像情報生成部は、前記番組関連情報受付部が受け付けた番組関連情報に対応する手話動作情報を用いて手話映像情報を生成してもよい。
このような構成により、番組関連情報に対応する手話動作情報を用いて手話映像情報を生成することができ、番組により調和した手話映像情報を生成することができうる。
In the sign language video generation system according to the present invention, the sign language term correspondence information is information that associates a term with sign language action information and program related information, and the sign language video information generation unit includes the program related information reception unit. The sign language video information may be generated using sign language action information corresponding to the program related information received by.
With such a configuration, sign language video information can be generated using sign language motion information corresponding to the program related information, and sign language video information harmonized with the program can be generated.

また、本発明による手話映像生成システムでは、前記端末装置は、前記手話用語対応情報記憶部よりも高速にアクセス可能なキャッシュ記憶部をさらに備え、前記手話映像情報生成部は、前記番組関連情報受付部が受け付けた番組関連情報を用いて、手話動作情報を前記キャッシュ記憶部にあらかじめ記憶しておき、当該キャッシュ記憶部で記憶されている手話動作情報をも用いて手話映像情報を生成してもよい。
このような構成により、手話映像情報を生成するスピードを向上させることができうる。
In the sign language video generation system according to the present invention, the terminal device further includes a cache storage unit that can be accessed at a higher speed than the sign language term correspondence information storage unit, and the sign language video information generation unit receives the program related information. Using the program-related information received by the department, sign language motion information is stored in the cache storage unit in advance, and sign language video information is also generated using the sign language motion information stored in the cache storage unit. Good.
With such a configuration, the speed of generating sign language video information can be improved.

また、本発明による手話映像生成システムでは、前記サーバは、番組の音声情報を受け付ける音声情報受付部と、前記音声情報受付部が受け付けた音声情報に音声認識処理を行うことによって字幕情報を取得する音声認識部と、をさらに備え、前記字幕情報受付部は、前記音声認識部が音声認識処理を行った結果である字幕情報を受け付けてもよい。
このような構成により、例えば、番組情報に字幕情報が含まれていない場合であっても、番組情報に含まれる音声情報から用語列を生成することができる。
In the sign language video generation system according to the present invention, the server acquires subtitle information by performing a voice recognition process on the voice information received by the voice information receiving unit and the voice information receiving unit receiving the voice information of the program. A speech recognition unit, and the caption information receiving unit may receive caption information that is a result of the speech recognition unit performing a speech recognition process.
With such a configuration, for example, even when caption information is not included in program information, a term string can be generated from audio information included in program information.

また、本発明による手話映像生成システムでは、前記サーバは、番組の情報である番組情報が記憶される番組情報記憶部をさらに備え、前記送信部は、前記用語列と共に、当該用語列に対応する番組情報を前記番組情報記憶部から読み出して送信し、前記受信部は、前記用語列と共に、前記送信部が送信した番組情報をも受信し、前記出力部は、手話映像情報と共に、前記受信部が受信した番組情報をも出力してもよい。
このような構成により、用語列と共に、その用語列に対応する番組情報をも送信することができる。
In the sign language video generation system according to the present invention, the server further includes a program information storage unit that stores program information that is program information, and the transmission unit corresponds to the term string together with the term string. Program information is read from the program information storage unit and transmitted, the receiving unit also receives program information transmitted by the transmitting unit together with the term string, and the output unit includes sign language video information and the receiving unit. The program information received by may also be output.
With such a configuration, program information corresponding to the term string can be transmitted together with the term string.

本発明による手話映像生成システム等によれば、サーバにおいて用語の抽出と変更を行い、端末装置において、その用語を用いた手話映像の生成を行うことによって、適切な負荷分散をすることができる。   According to the sign language video generation system and the like according to the present invention, it is possible to perform appropriate load distribution by extracting and changing a term in the server and generating a sign language video using the term in the terminal device.

以下、本発明による手話映像生成システムについて、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。   Hereinafter, a sign language video generation system according to the present invention will be described using embodiments. In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted.

(実施の形態1)
本発明の実施の形態1による手話映像生成システムについて、図面を参照しながら説明する。本実施の形態による手話映像生成システムは、サーバと端末装置とにおいて、字幕情報から手話映像を生成する処理を分散処理するものである。
(Embodiment 1)
A sign language video generation system according to Embodiment 1 of the present invention will be described with reference to the drawings. The sign language video generation system according to the present embodiment performs distributed processing of generating a sign language video from caption information in a server and a terminal device.

図1は、本実施の形態による手話映像生成システムの構成を示すブロック図である。本実施の形態による手話映像生成システムは、サーバ1と、端末装置2とを備える。なお、図1では、サーバ1から端末装置2に情報が放送される場合について示しているが、そうでなくてもよい。例えば、サーバ1から端末装置2に、有線または無線の通信回線を介して情報が送信されてもよい。その通信回線は、例えば、インターネットやイントラネット、公衆電話回線網等であってもよい。また、図1では、端末装置2が1個存在する場合について示しているが、端末装置2は、2個以上存在してもよい。   FIG. 1 is a block diagram showing a configuration of a sign language video generation system according to the present embodiment. The sign language video generation system according to the present embodiment includes a server 1 and a terminal device 2. Although FIG. 1 shows the case where information is broadcast from the server 1 to the terminal device 2, this need not be the case. For example, information may be transmitted from the server 1 to the terminal device 2 via a wired or wireless communication line. The communication line may be, for example, the Internet, an intranet, a public telephone line network, or the like. Moreover, although FIG. 1 shows the case where one terminal device 2 exists, two or more terminal devices 2 may exist.

図2は、本実施の形態によるサーバ1の構成を示すブロック図である。図2において、本実施の形態によるサーバ1は、番組情報記憶部11と、字幕情報受付部12と、用語抽出部13と、用語列変更部14と、送信部15とを備える。   FIG. 2 is a block diagram showing a configuration of the server 1 according to the present embodiment. In FIG. 2, the server 1 according to the present embodiment includes a program information storage unit 11, a caption information receiving unit 12, a term extracting unit 13, a term string changing unit 14, and a transmitting unit 15.

番組情報記憶部11では、番組の情報である番組情報が記憶される。番組情報は、映像音声の情報である。番組情報は、例えば、ニュースやドラマ、映画、スポーツ、ドキュメンタリー等の番組の情報であってもよい。また、番組情報のデータ形式も問わない。例えば、番組情報は、アナログのデータであってもよく、デジタルのデータであってもよい。後者の場合に、番組情報の形式は、例えば、MPEG(Moving Picture Experts Group)であってもよく、AVI(Audio Video Interleave)であってもよく、あるいは、その他の形式であってもよい。また、その番組情報が圧縮されている場合に、その圧縮形式も問わない。   The program information storage unit 11 stores program information that is program information. The program information is video / audio information. The program information may be information on programs such as news, dramas, movies, sports, documentaries, and the like. Moreover, the data format of program information is not ask | required. For example, the program information may be analog data or digital data. In the latter case, the program information format may be, for example, MPEG (Moving Picture Experts Group), AVI (Audio Video Interleave), or any other format. Further, when the program information is compressed, the compression format is not limited.

番組情報記憶部11に番組情報が記憶される過程は問わない。例えば、記録媒体を介して番組情報が番組情報記憶部11で記憶されるようになってもよく、通信回線等を介して送信された番組情報が番組情報記憶部11で記憶されるようになってもよく、あるいは、カメラ等を介して入力された番組情報が番組情報記憶部11で記憶されるようになってもよい。番組情報記憶部11での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。番組情報記憶部11は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。   The process in which program information is stored in the program information storage unit 11 does not matter. For example, program information may be stored in the program information storage unit 11 via a recording medium, and program information transmitted via a communication line or the like is stored in the program information storage unit 11. Alternatively, program information input via a camera or the like may be stored in the program information storage unit 11. Storage in the program information storage unit 11 may be temporary storage in a RAM or the like, or may be long-term storage. The program information storage unit 11 can be realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.).

字幕情報受付部12は、番組の字幕を示す情報である字幕情報を受け付ける。字幕情報は、例えば、番組の情報である番組情報に含まれる発話に対応するテキストの情報であってもよく、さらに番組における状況を説明するテキスト(例えば、「窓ガラスの割れる音がした」等)や、音に対応した擬声語のテキスト(例えば、「ガシャーン」「バキューン」等)であってもよい。なお、字幕情報は、画面に表示される単位ごとに区別可能となっていることが好適である。例えば、その単位ごとに区切り記号などが入っていてもよく、あるいは、画面に表示される単位ごとに番組情報に重畳されていてもよい。   The subtitle information receiving unit 12 receives subtitle information that is information indicating a subtitle of a program. The caption information may be, for example, text information corresponding to an utterance included in the program information, which is program information, and further text describing the situation in the program (for example, “a sound that breaks the window glass”, etc. ) Or onomatopoeia text corresponding to sound (for example, “Gashan”, “Bakun”, etc.). Note that the caption information is preferably distinguishable for each unit displayed on the screen. For example, a delimiter or the like may be entered for each unit, or may be superimposed on the program information for each unit displayed on the screen.

字幕情報受付部12は、例えば、入力デバイス(例えば、キーボードやマウス、タッチパネルなど)から入力された字幕情報を受け付けてもよく、有線もしくは無線の通信回線を介して送信された字幕情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出された字幕情報を受け付けてもよい。本実施の形態では、字幕情報受付部12は、番組情報記憶部11から字幕情報を読み出すものとする。したがって、番組情報記憶部11で記憶されている番組情報には、あらかじめ字幕情報が含まれているものとする。番組情報に字幕情報が含まれているとは、例えば、番組情報のユーザ定義領域に字幕情報が含まれていることであってもよく、番組情報の垂直帰線区間内に字幕情報を多重化することであってもよい。なお、字幕情報受付部12は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、字幕情報受付部12は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The caption information receiving unit 12 may receive, for example, caption information input from an input device (for example, a keyboard, a mouse, a touch panel, etc.) and receives caption information transmitted via a wired or wireless communication line. Alternatively, subtitle information read from a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received. In the present embodiment, the caption information receiving unit 12 reads the caption information from the program information storage unit 11. Therefore, it is assumed that the program information stored in the program information storage unit 11 includes subtitle information in advance. The subtitle information is included in the program information, for example, the subtitle information may be included in the user-defined area of the program information, and the subtitle information is multiplexed in the vertical blanking interval of the program information. It may be to do. Note that the caption information receiving unit 12 may or may not include a device (for example, a modem or a network card) for receiving. The caption information receiving unit 12 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

用語抽出部13は、字幕情報受付部12が受け付けた字幕情報から自立語である用語を抽出する。用語抽出部13は、例えば、字幕情報のテキストに対して形態素解析を行い、その形態素解析結果を用いて自立語である用語を抽出してもよい。自立語とは、動詞、形容詞、形容動詞、名詞、連体詞、副詞、接続詞、感動詞である。自立語は、助詞、助動詞以外の単語であると考えることもできる。なお、形態素解析のシステムとして、例えば、奈良先端科学技術大学院大学で開発された「ChaSen(茶筌)」(http://chasen.naist.jp)等が知られている。用語を抽出するとは、結果として、抽出された用語と抽出されなかった用語とを区別できればよいことであり、例えば、抽出対象となる用語を記録媒体に蓄積することであってもよく、あるいは、抽出対象となる用語にフラグ等のマークを付与することであってもよい。   The term extraction unit 13 extracts terms that are independent words from the subtitle information received by the subtitle information reception unit 12. For example, the term extraction unit 13 may perform morphological analysis on the text of the caption information and extract a term that is an independent word using the morphological analysis result. Autonomous words are verbs, adjectives, adjective verbs, nouns, conjunctions, adverbs, conjunctions, and emotional verbs. Autonomous words can be considered as words other than particles and auxiliary verbs. As a morphological analysis system, for example, “ChaSen” (http://chasen.naist.jp) developed at Nara Institute of Science and Technology is known. Extracting a term means that it is only necessary to distinguish between an extracted term and a term that has not been extracted as a result. For example, the term to be extracted may be stored in a recording medium, or A mark such as a flag may be given to a term to be extracted.

用語列変更部14は、用語抽出部13が抽出した用語の並びである用語列に関する変更を行う。ここで、用語列変更部14による用語列の種々の変更方法について説明する。用語列変更部14は、(1)用語列に含まれる用語を変換してもよく、(2)用語列に含まれる用語の順序を並び替えてもよく、(3)用語列に用語を補足してもよく、(4)用語列の属性を示す情報を用語列に付加してもよく、その他の用語列に関する変更を行ってもよい。   The term string changing unit 14 changes a term string that is a sequence of terms extracted by the term extracting unit 13. Here, various methods of changing the term string by the term string changing unit 14 will be described. The term string changing unit 14 may (1) convert terms included in the term string, (2) rearrange the order of the terms included in the term string, and (3) supplement the terms to the term string. (4) Information indicating the attribute of the term string may be added to the term string, and changes regarding other term strings may be made.

(1)用語列に含まれる用語を変換する場合
用語列変更部14は、図3で示されるように、用語対応情報記憶手段31と、用語変換手段32とを備える。
(1) When converting terms included in a term string The term string changing unit 14 includes a term correspondence information storage unit 31 and a term conversion unit 32, as shown in FIG.

用語対応情報記憶手段31では、用語対応情報が記憶される。用語対応情報は、変換対象用語と、変換後用語とを対応付ける情報である。変換対象用語とは、変換の対象となる用語である。変換後用語とは、変換後の用語である。ここで、「変換対象用語と、変換後用語とを対応付ける」とは、変換対象用語と変換後用語の一方から、他方の用語を取得できればよいという意味である。したがって、用語対応情報は、変換対象用語と変換後用語とを組として含む情報を有してもよく、変換対象用語と変換後用語とをリンク付ける情報であってもよい。後者の場合には、用語対応情報は、例えば、変換対象用語と変換後用語の格納されている位置を示すポインタやアドレスとを対応付ける情報であってもよい。本実施の形態では、前者の場合について説明する。また、変換対象用語と変換後用語とは、直接対応付けられていなくてもよい。例えば、変換対象用語に、第3の情報が対応しており、その第3の情報に変換後用語が対応していてもよい。他の2以上の情報が対応付けられている場合にも同様であるとする。   The term correspondence information storage means 31 stores term correspondence information. The term correspondence information is information that associates the conversion target term with the converted term. The term to be converted is a term to be converted. The term after conversion is a term after conversion. Here, “associating the conversion target term with the converted term” means that the other term may be acquired from one of the conversion target term and the converted term. Therefore, the term correspondence information may include information including a conversion target term and a converted term as a set, or information that links the conversion target term and the converted term. In the latter case, the term correspondence information may be, for example, information that associates the conversion target term with a pointer or address indicating the position where the post-conversion term is stored. In the present embodiment, the former case will be described. Further, the conversion target term and the converted term may not be directly associated with each other. For example, the third information may correspond to the conversion target term, and the converted term may correspond to the third information. The same applies when other two or more pieces of information are associated.

用語対応情報記憶手段31に用語対応情報が記憶される過程は問わない。例えば、記録媒体を介して用語対応情報が用語対応情報記憶手段31で記憶されるようになってもよく、通信回線等を介して送信された用語対応情報が用語対応情報記憶手段31で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された用語対応情報が用語対応情報記憶手段31で記憶されるようになってもよい。用語対応情報記憶手段31での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。用語対応情報記憶手段31は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。   The process in which the term correspondence information is stored in the term correspondence information storage means 31 does not matter. For example, the term correspondence information may be stored in the term correspondence information storage means 31 via a recording medium, and the term correspondence information transmitted via a communication line or the like is stored in the term correspondence information storage means 31. Alternatively, the term correspondence information input via the input device may be stored in the term correspondence information storage unit 31. Storage in the term correspondence information storage means 31 may be temporary storage in a RAM or the like, or may be long-term storage. The term correspondence information storage means 31 can be realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.).

用語変換手段32は、用語抽出部13が抽出した用語の並びである用語列を受け取り、その用語列に変換対象用語が含まれる場合に、その変換対象用語を、用語対応情報でその変換対象用語と対応付けられている変換後用語に変換して送信部15に渡す。したがって、用語列に変換対象用語が含まれない場合には、用語変換手段32による用語の変換は行われないことになる。   The term conversion means 32 receives a term string that is a sequence of terms extracted by the term extraction unit 13, and when the term string includes a conversion target term, the conversion target term is converted into the conversion target term using term correspondence information. Is converted to a post-conversion term associated with and passed to the transmission unit 15. Therefore, when the conversion target term is not included in the term string, the term conversion by the term conversion unit 32 is not performed.

用語変換手段32による用語の変換は、例えば、後述する手話映像情報の生成の際に用いられる手話用語対応情報で手話動作情報と対応付けられている用語となるように行われるものであってもよい。具体的には、手話用語対応情報で、用語「おおきに」に対応する手話動作情報がないのに対して、用語「ありがとう」に対応する手話動作情報が存在する場合に、用語変換手段32は、変換対象用語「おおきに」を、変換後用語「ありがとう」に変換してもよい。このように、用語対応情報は、例えば、手話用語対応情報で手話動作情報と対応付けられていない変換対象用語と、手話用語対応情報で手話動作情報と対応付けられている変換後用語とを対応付ける情報であってもよい。   The term conversion by the term conversion means 32 may be performed so as to be a term associated with sign language action information in sign language term correspondence information used when generating sign language video information to be described later, for example. Good. Specifically, in the sign language term correspondence information, when there is no sign language motion information corresponding to the term “OOKINI”, there is sign language motion information corresponding to the term “Thank you”, the term conversion means 32 The conversion target term “OOKINI” may be converted to the converted term “Thank you”. In this way, the term correspondence information associates, for example, a conversion target term that is not associated with sign language action information in sign language term correspondence information and a converted term that is associated with sign language action information in sign language term correspondence information. It may be information.

このように、用語列変更部14は、用語対応情報記憶手段31と用語変換手段32とを用いて、手話用語対応情報で手話動作情報と対応付けられていない用語である変換対象用語を、手話用語対応情報で手話動作情報と対応付けられている用語である変換後用語に変換してもよい。変換対象用語と、変換後用語の関係は、例えば、方言の用語と、標準語の用語の関係であってもよく、終止形でない活用形の用語と、終止形の用語の関係であってもよく、その他の関係であってもよい。この用語の変換を行うことによって、後述する端末装置2が有する手話用語対応情報のデータ容量をより小さいものにすることが可能となりうる。   As described above, the term string changing unit 14 uses the term correspondence information storage unit 31 and the term conversion unit 32 to convert the conversion target term that is a term that is not associated with the sign language action information in the sign language term correspondence information into the sign language. You may convert into the term after conversion which is the term matched with sign language action information by term correspondence information. The relationship between the conversion target term and the converted term may be, for example, the relationship between a dialect term and a standard term, or a relationship between a non-terminated usage term and a termination term. It may be other relationships. By performing the term conversion, it may be possible to reduce the data capacity of sign language term correspondence information included in the terminal device 2 described later.

(2)用語列に含まれる用語の順序を並び替える場合
用語列変更部14は、図4で示されるように、用語順序情報記憶手段33と、用語並び替え手段34とを備える。
(2) When rearranging the order of the terms included in the term string The term string changing unit 14 includes a term order information storage unit 33 and a term rearrangement unit 34, as shown in FIG.

用語順序情報記憶手段33では、用語順序情報が記憶される。用語順序情報は、用語の順序を示す情報である。用語順序情報は、後述する手話映像情報の生成の際に、より適切な手話映像情報を生成することができるための用語の順序を示すものである。用語の順序は、例えば、用語の品詞の順序であってもよく、用語の主語・述語、あるいは主語・述語・目的語の順序であってもよく、その他の用語の属性に関する順序であってもよい。用語順序情報は、例えば、次に示すように、用語の属性を並べることによって、用語の順序を示すものであってもよい   The term order information storage means 33 stores term order information. The term order information is information indicating the order of terms. The term order information indicates the order of terms for generating more appropriate sign language video information when generating sign language video information to be described later. The order of terms may be, for example, the order of part of speech of terms, the subject / predicate of terms, or the order of subject / predicate / object, or the order of other term attributes. Good. The term order information may indicate the order of terms by arranging the attributes of terms, for example, as shown below.

用語順序情報:{名詞}{動詞}
用語順序情報:{主語}{目的語}{述語}
Term order information: {noun} {verb}
Term order information: {subject} {object} {predicate}

上の例の場合、用語順序情報は、例えば、用語が名詞、動詞の順で並ぶことを示しており、下の例の場合、用語順序情報は、例えば、用語が主語、目的語、述語の順で並ぶことを示している。   In the case of the above example, the term order information indicates, for example, that the terms are arranged in the order of nouns and verbs. In the case of the example below, the term order information includes, for example, the terms of the subject, object, and predicate. It shows that they are arranged in order.

用語順序情報記憶手段33に用語順序情報が記憶される過程は問わない。例えば、記録媒体を介して用語順序情報が用語順序情報記憶手段33で記憶されるようになってもよく、通信回線等を介して送信された用語順序情報が用語順序情報記憶手段33で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された用語順序情報が用語順序情報記憶手段33で記憶されるようになってもよい。用語順序情報記憶手段33での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。用語順序情報記憶手段33は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。   The process in which the term order information is stored in the term order information storage means 33 does not matter. For example, the term order information may be stored in the term order information storage means 33 via a recording medium, and the term order information transmitted via a communication line or the like is stored in the term order information storage means 33. Alternatively, the term order information input via the input device may be stored in the term order information storage means 33. Storage in the term order information storage means 33 may be temporary storage in a RAM or the like, or may be long-term storage. The term order information storage means 33 can be realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.).

用語並び替え手段34は、用語抽出部13が抽出した用語の並びである用語列を受け取り、用語順序情報記憶手段33で記憶されている用語順序情報が示す用語の順序となるように、その用語列の用語の順序を並び替えて送信部15に渡す。したがって、用語列に含まれる用語の順序が用語順序情報の示す用語の順序である場合、すなわち、用語の順序を並び替える必要がない場合には、用語並び替え手段34による用語の並び替えは行われないことになる。   The term rearranging unit 34 receives a term string that is a sequence of terms extracted by the term extracting unit 13, and the terms are arranged in the order of terms indicated by the term order information stored in the term order information storing unit 33. The order of the terms in the column is rearranged and passed to the transmitter 15. Therefore, when the order of the terms included in the term sequence is the order of the terms indicated by the term order information, that is, when it is not necessary to rearrange the order of the terms, the rearrangement of terms by the term rearranging means 34 is not performed. It will not be broken.

用語並び替え手段34による用語の並び替えは、例えば、後述する手話映像情報の生成の際に、より適切な手話映像情報を生成することができるように並び替えるものである。例えば、口語では語順が乱れてしまうこともありうる。具体的には、「私は買うわ!その花。」などである。この場合には、用語抽出部13によって、用語列「私」「買う」「その花」が抽出されうるが、その用語列を用語並び替え手段34は、「私」「その花」「買う」に並び替えてもよい。その場合に、用語順序情報記憶手段33で記憶されている用語順序情報は、例えば、{主語}{目的語}{述語}であってもよい。   The rearrangement of terms by the term rearranging means 34 is rearranged so that more appropriate sign language video information can be generated when sign language video information to be described later is generated. For example, the word order may be disturbed in colloquial language. Specifically, “I will buy! That flower.” In this case, the term extraction unit 13 can extract the term string “I”, “buy”, “that flower”, but the term rearrangement means 34 selects “I”, “that flower”, “buy”. You may rearrange to. In that case, the term order information stored in the term order information storage means 33 may be {subject} {object} {predicate}, for example.

ここで、用語並び替え手段34が用語列に含まれる用語の属性(例えば、品詞や主語・述語等)を判断する方法について簡単に説明する。用語並び替え手段34は、例えば、用語抽出部13から受け取った用語列を用いて、各用語の品詞や主語・述語等を判断してもよい。ただし、用語列には助詞や助動詞等が含まれないため、品詞や主語・述語等の判断が難しくなる場合もありうる。したがって、用語並び替え手段34は、用語列に対応する字幕情報を参照し、その字幕情報を用いて各用語の品詞や主語・述語等を判断してもよい。この場合には、字幕情報もあらかじめ図示しない記録媒体において記憶されているものとする。また、その字幕情報は、その字幕情報から抽出された用語列と対応を取ることができるようになっているものとする。または、用語列の各用語に、その用語の属性、例えば、品詞や主語・述語・目的語等が付加されていてもよい。そして、用語並び替え手段34は、その用語列の各用語に付加されている用語の属性を用いて、用語の並び替えを行ってもよい。この場合には、用語抽出部13やその他の構成要素が、字幕情報に含まれる各用語の属性を取得する処理を行ってもよい。   Here, a method will be briefly described in which the term rearranging means 34 determines the attributes (for example, part of speech, subject, predicate, etc.) of terms included in the term string. The term rearranging unit 34 may determine, for example, the part of speech, subject, predicate, etc. of each term using the term string received from the term extracting unit 13. However, since the term string does not include particles or auxiliary verbs, it may be difficult to determine the part of speech, subject, predicate, and the like. Therefore, the term rearranging unit 34 may refer to the caption information corresponding to the term string, and determine the part of speech, subject, predicate, and the like of each term using the caption information. In this case, it is assumed that caption information is also stored in advance in a recording medium (not shown). In addition, it is assumed that the caption information can be associated with a term string extracted from the caption information. Alternatively, each term in the term string may have an attribute of the term, such as part of speech, subject, predicate, object, etc. Then, the term rearranging means 34 may rearrange the terms using the attribute of the term added to each term in the term string. In this case, the term extraction unit 13 and other components may perform processing for acquiring the attribute of each term included in the caption information.

なお、字幕情報を用いて、各用語の品詞や主語・述語・目的語等を判断する方法について簡単に説明する。用語の品詞については、前述のように、形態素解析を行うことによって知ることができる。主語、述語、目的語については、例えば、主語や述語、目的語等を自動判別するシステムを用いてもよく、あるいは、手がかり句を用いて、主語や述語、目的語等を判断してもよい。例えば、用語の後端に手がかり句「は」や「が」が付いている場合には、その用語が主語であると判断してもよい。具体的には、「私が今日…」や、「山田さんは昨日…」の場合には、「私」や「山田さん」が主語であると判断してもよい。また、用語の後端に「を」や「に」「へ」が付いている場合には、その用語が目的語であると判断してもよい。具体的には、「…花を買います。」や、「…東京に行きます。」の場合には、「花」や「東京」が目的語であると判断してもよい。また、動詞である用語を述語であると判断してもよい。なお、用語の品詞や主語・述語・目的語等を判断する方法は、これらに限定されるものではなく、結果として、用語の品詞等を判断することができるのであれば、その他の方法であってもよい。   A method for determining the part of speech, subject, predicate, object, etc. of each term using caption information will be briefly described. The term part of speech can be known by performing morphological analysis as described above. For the subject, predicate, and object, for example, a system that automatically determines the subject, predicate, object, etc. may be used, or the subject, predicate, object, etc. may be determined using a clue phrase. . For example, when a clue phrase “ha” or “ga” is attached to the end of the term, it may be determined that the term is the subject. Specifically, in the case of "I am today ..." or "Yamada is yesterday ...", it may be determined that "I" or "Mr. Yamada" is the subject. In addition, when “to”, “ni”, and “to” are attached to the rear end of the term, it may be determined that the term is an object. Specifically, in the case of “… buy flowers” or “… go to Tokyo”, it may be determined that “flower” or “Tokyo” is the object. Further, a term that is a verb may be determined to be a predicate. Note that the method for determining the part of speech, subject, predicate, object, etc. of the term is not limited to these, and as a result, other methods can be used as long as the part of speech of the term can be determined. May be.

(3)用語列に用語を補足する場合
用語列変更部14は、図5で示されるように、検出手段35と、用語補足手段36とを備える。
(3) When a term is supplemented to a term string The term string changing unit 14 includes a detection unit 35 and a term supplementing unit 36, as shown in FIG.

検出手段35は、用語列において用語が欠落していることを検出する。例えば、検出手段35は、用語抽出部13が抽出した用語の並びである用語列において、特定の属性の用語が欠落している場合に、用語の欠落を検出してもよい。その特定の属性は、主語であってもよく、その他の属性であってもよい。したがって、検出手段35は、例えば、用語列に主語が含まれない場合に、主語が欠落していることを検出してもよい。用語列に主語が含まれないことは、例えば、用語列そのものを用いて検出してもよく、用語列に対応する字幕情報を用いて検出してもよい。例えば、「(2)用語列に含まれる用語の順序を並び替える場合」で説明したように、用語列や、用語列に対応する字幕情報について、各用語や各形態素等が主語や述語、目的語等であるかどうかを判断し、その後に、検出手段35は、その用語列や字幕情報に主語が含まれているかどうか判断することによって、主語の欠落を検出してもよい。主語が含まれている場合には、主語の欠落が検出されず、主語が含まれていない場合には、主語の欠落が検出されることになる。   The detecting means 35 detects that a term is missing in the term string. For example, the detection unit 35 may detect a missing term when a term having a specific attribute is missing in a term string that is a sequence of terms extracted by the term extracting unit 13. The specific attribute may be a subject or other attribute. Therefore, for example, the detection unit 35 may detect that the subject is missing when the subject is not included in the term string. That the subject string is not included in the term string may be detected using the term string itself or may be detected using caption information corresponding to the term string, for example. For example, as described in “(2) When rearranging the order of terms included in a term string”, each term, each morpheme, etc. is the subject, predicate, purpose, etc. for the term string and caption information corresponding to the term string. It may be determined whether the word is a word or the like, and then the detecting unit 35 may detect the lack of the subject by determining whether the subject string is included in the term string or the caption information. If the subject is included, the subject omission is not detected. If the subject is not included, the subject omission is detected.

用語補足手段36は、検出手段35が用語の欠落を検出した場合に、その用語の欠落の検出された用語列に用語を補足する。補足する用語は、欠落している用語である。例えば、検出手段35が主語の欠落を検出した場合には、用語補足手段36は、主語を補足することになる。主語を補足する場合に、例えば、用語補足手段36は、主語の欠落が検出された用語列よりも前の用語列に含まれる主語を、主語の欠落が検出された用語列の主語として補足してもよい。具体的には、ある用語列に主語が欠落している場合に、用語補足手段36は、その用語列よりも前の主語の存在する用語列であって、主語の欠落している用語列に最も近い用語列から主語を取得してもよい。用語列に主語が存在するかどうかの判断は、例えば、前述のように、用語列や、その用語列に対応する字幕情報において、各用語や各形態素等に主語(例えば、手がかり句「は」や「が」が後端に付いている用語など)が含まれているかどうか判断することによって行ってもよい。そして、用語補足手段36は、その主語が存在する用語列から主語の用語を取得し、用語の欠落が検出された用語列に補足する。用語を補足する位置は、例えば、用語列の先頭であってもよい。   When the detecting unit 35 detects a missing term, the term supplementing unit 36 supplements the term to the term string in which the missing term is detected. Supplementary terms are missing terms. For example, when the detecting means 35 detects a missing subject, the term supplementing means 36 supplements the subject. When supplementing the subject, for example, the term supplementing means 36 supplements the subject included in the term string before the subject string in which the subject omission is detected as the subject of the term string in which the subject omission is detected. May be. Specifically, when a subject is missing in a certain term sequence, the term supplementing means 36 is a term sequence in which the subject preceding the term sequence exists and the subject sequence is missing. The subject may be acquired from the closest term string. For example, as described above, in the term string and the caption information corresponding to the term string, the subject (for example, the clue phrase “ha” is determined for each term, each morpheme, and the like, as described above. Or the term “ga” attached to the back end). Then, the term supplementing means 36 acquires the subject term from the term sequence in which the subject exists, and supplements the term sequence in which the missing term is detected. The position where the term is supplemented may be, for example, the head of the term string.

(4)用語列の属性を示す情報を用語列に付加する場合
用語列変更部14は、図6で示されるように、属性取得手段37と、属性情報付加手段38とを備える。
(4) When adding information indicating the attribute of the term string to the term string The term string changing unit 14 includes an attribute obtaining unit 37 and an attribute information adding unit 38, as shown in FIG.

属性取得手段37は、用語抽出部13が抽出した用語の並びである用語列を受け取り、その用語列の属性を取得する。用語列の属性とは、用語列に対応する感情や評判等であってもよい。属性取得手段37は、例えば、意味理解エンジンや評判解析エンジンなどを用いることによって、用語列の感情や評判等の属性を取得することができる。感情とは、例えば、「楽しい」「悲しい」「普通」などであってもよい。また、評判とは、例えば、「ポジティブ」「ネガティブ」「普通」などであってもよい。意味理解エンジンや評判解析エンジン等は、すでに公知であり、その詳細な説明を省略する。   The attribute acquisition unit 37 receives a term string that is a sequence of terms extracted by the term extraction unit 13 and acquires attributes of the term string. The attribute of the term string may be emotion or reputation corresponding to the term string. The attribute acquisition unit 37 can acquire attributes such as emotion and reputation of a term string by using, for example, a semantic understanding engine or a reputation analysis engine. The emotion may be, for example, “fun”, “sad”, “normal”, or the like. The reputation may be, for example, “positive”, “negative”, “normal”, and the like. Semantic understanding engines, reputation analysis engines, and the like are already known and will not be described in detail.

属性情報付加手段38は、属性取得手段37が取得した属性を示す情報である属性情報を、用語抽出部13が抽出した用語の並びである用語列に付加して送信部15に渡す。なお、属性情報付加手段38は、属性情報を、他の用語などと区別可能なように用語列に付加することが好適である。例えば、用語列が「私」「その花」「買う」であり、意味理解エンジンでの解析の結果、「楽しい」との属性が取得された場合には、その用語列に属性情報「楽しい」を付加することによって、用語列を、「私」「その花」「買う」:「楽しい」としてもよい。この場合には、コロン「:」よりもあとの情報が属性情報となる。   The attribute information adding unit 38 adds attribute information, which is information indicating the attribute acquired by the attribute acquiring unit 37, to a term string that is a list of terms extracted by the term extracting unit 13 and passes the attribute information to the transmitting unit 15. It is preferable that the attribute information adding means 38 adds the attribute information to the term string so that it can be distinguished from other terms. For example, if the term string is “I”, “that flower”, “buy”, and the attribute “fun” is acquired as a result of the analysis by the semantic understanding engine, the attribute information “fun” is included in the term string. The term string may be “I”, “that flower”, “buy”: “fun”. In this case, information after the colon “:” is attribute information.

なお、ここでは、(1)〜(4)の用語列の変更方法について説明したが、それ以外の用語列の変更を行ってもよいことは言うまでもない。   In addition, although the change method of the term string of (1)-(4) was demonstrated here, it cannot be overemphasized that you may change the term string other than that.

送信部15は、用語列変更部14が変更を行った用語列を送信する。また、送信部15は、用語列と共に、その用語列に対応する番組情報を番組情報記憶部11から読み出して送信してもよい。用語列に対応する番組情報とは、その用語列に対応する字幕情報に対応する番組情報のことである。本実施の形態では、送信部15が、用語列と共に、番組情報をも送信する場合について説明する。送信部15は、用語列と番組情報とを送信する場合に、番組情報のユーザ定義領域や垂直帰線区間内に用語列を含めて送信してもよい。なお、番組情報に字幕情報が含まれる場合に、送信部15は、その字幕情報も送信してもよく、あるいは、送信しなくてもよい。   The transmission unit 15 transmits the term string that has been changed by the term string changing unit 14. Moreover, the transmission part 15 may read and transmit the program information corresponding to the term string from the program information storage part 11 together with the term string. The program information corresponding to the term string is program information corresponding to the caption information corresponding to the term string. In the present embodiment, a case will be described in which the transmission unit 15 also transmits program information together with a term string. When transmitting the term string and the program information, the transmission unit 15 may transmit the term string including the term string in the user-defined area or the vertical blanking interval of the program information. In addition, when subtitle information is included in program information, the transmission unit 15 may or may not transmit the subtitle information.

なお、送信部15は、用語列等を端末装置2に直接送信してもよく、あるいは、サーバ等を介して間接的に送信してもよい。また、送信部15は、送信を行うための送信デバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、送信部15による用語列等の送信は、放送であってもよい。この放送は、例えば、地上波での放送であってもよく、衛星放送であってもよく、あるいは、ケーブルを介した有線放送であってもよい。本実施の形態では、送信部15が、用語列を含む番組情報を放送する場合について説明する。また、送信部15は、ハードウェアによって実現されてもよく、あるいは送信デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   The transmission unit 15 may directly transmit the term string or the like to the terminal device 2 or may indirectly transmit the term string or the like via a server or the like. Further, the transmission unit 15 may or may not include a transmission device (for example, a modem or a network card) for performing transmission. The transmission of the term string or the like by the transmission unit 15 may be broadcast. This broadcast may be, for example, a terrestrial broadcast, a satellite broadcast, or a wired broadcast via a cable. In the present embodiment, a case where the transmission unit 15 broadcasts program information including a term string will be described. The transmission unit 15 may be realized by hardware, or may be realized by software such as a driver that drives the transmission device.

図7は、本実施の形態による端末装置2の構成を示すブロック図である。図7において、本実施の形態による端末装置2は、受信部21と、番組関連情報受付部22と、手話用語対応情報記憶部23と、キャッシュ記憶部24と、手話映像情報生成部25と、出力部26とを備える。なお、端末装置2は、例えば、テレビ受像器等に接続されるSTB(Set Top Box)であってもよく、そうでなくてもよい。   FIG. 7 is a block diagram showing the configuration of the terminal device 2 according to the present embodiment. In FIG. 7, the terminal device 2 according to the present embodiment includes a receiving unit 21, a program related information receiving unit 22, a sign language term correspondence information storage unit 23, a cache storage unit 24, a sign language video information generation unit 25, And an output unit 26. The terminal device 2 may or may not be an STB (Set Top Box) connected to a television receiver or the like, for example.

受信部21は、サーバ1から送信された用語列を受信する。サーバ1から用語列と共に番組情報も送信される場合には、受信部21は、用語列と共に、サーバ1から送信された番組情報をも受信してもよい。   The receiving unit 21 receives the term string transmitted from the server 1. When the program information is transmitted together with the term string from the server 1, the receiving unit 21 may also receive the program information transmitted from the server 1 together with the term string.

なお、受信部21は、受信を行うための有線または無線の受信デバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、受信部21は、放送を受信するものであってもよい。また、受信部21は、ハードウェアによって実現されてもよく、あるいは受信デバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。また、受信部21が受信した用語列や番組情報は、図示しない記録媒体において一時的に記憶されてもよい。   The receiving unit 21 may or may not include a wired or wireless receiving device (for example, a modem or a network card) for receiving. The receiving unit 21 may receive a broadcast. The receiving unit 21 may be realized by hardware, or may be realized by software such as a driver that drives the receiving device. The term string and program information received by the receiving unit 21 may be temporarily stored in a recording medium (not shown).

番組関連情報受付部22は、受信部21が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける。番組関連情報は、例えば、番組のジャンルを示す情報を含んでいてもよく、番組の内容に関する用語を示す情報を含んでいてもよく、その他の情報を含んでいてもよい。番組の内容に関する用語とは、例えば、番組のトピックや、役名であってもよく、番組名であってもよく、番組についての説明であってもよい。番組関連情報は、例えば、EPG(Electronic Program Guide:電子番組ガイド)の情報そのものであってもよく、その情報の一部であってもよい。このEPGの情報は、例えば、SI情報(公式番組情報)と呼ばれることもある。   The program related information receiving unit 22 receives program related information which is information related to a program corresponding to the term string received by the receiving unit 21. The program related information may include, for example, information indicating the genre of the program, may include information indicating a term relating to the content of the program, or may include other information. The term relating to the contents of the program may be, for example, a program topic or a title, a program name, or a description of the program. The program-related information may be, for example, EPG (Electronic Program Guide) information itself, or may be a part of the information. This EPG information may be called, for example, SI information (official program information).

番組関連情報受付部22は、例えば、入力デバイス(例えば、キーボードやマウス、タッチパネルなど)から入力された番組関連情報を受け付けてもよく、有線もしくは無線の通信回線を介して番組関連情報を取得してもよく、放送された番組関連情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)から読み出された番組関連情報を受け付けてもよい。なお、番組関連情報は、例えば、サーバ1によって送信されてもよい。また、番組関連情報受付部22は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、番組関連情報受付部22は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。また、番組関連情報受付部22が受け付けた番組関連情報は、図示しない記録媒体において一時的に記憶されてもよい。   The program related information receiving unit 22 may receive program related information input from an input device (for example, a keyboard, a mouse, a touch panel, etc.), for example, and acquires the program related information via a wired or wireless communication line. Alternatively, broadcast-related program-related information may be received, and program-related information read from a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be received. The program related information may be transmitted by the server 1, for example. In addition, the program related information receiving unit 22 may or may not include a device (for example, a modem or a network card) for receiving. The program related information receiving unit 22 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device. The program related information received by the program related information receiving unit 22 may be temporarily stored in a recording medium (not shown).

手話用語対応情報記憶部23では、手話用語対応情報が記憶される。手話用語対応情報は、用語と、その用語に対応した手話動作情報とを対応付ける情報である。手話動作情報は、手話の動作に関する情報である。手話の動作に関する情報とは、例えば、手話の映像そのものであってもよく、手話の映像を生成するために用いられる情報(例えば、手や顔の画像の情報、手や顔の軌跡等を示す情報などであって、手話映像情報の一部とはならない情報)であってもよく、あるいは、それらの組合せであってもよい。手話動作情報が手話の映像そのものである場合に、手話動作情報は、例えば、CG(Computer Graphics)の映像であってもよく、アニメーションの映像であってもよく、実写の映像であってもよい。また、手話動作情報が手話の映像そのものである場合には、後述する手話映像情報生成部25によって生成される手話映像情報の一部を手話動作情報そのものが構成することになる。一方、手話動作情報が手話の映像を生成するために用いられる情報であって、手話の映像そのものではない場合には、その手話動作情報を用いてCG等の手話映像情報が生成されることになる。   The sign language term correspondence information storage unit 23 stores sign language term correspondence information. The sign language term correspondence information is information that associates a term with sign language action information corresponding to the term. The sign language action information is information related to the sign language action. The information related to the sign language operation may be, for example, a sign language image itself, or information used to generate a sign language image (for example, information on a hand or face image, a hand or face trajectory, or the like). Information, which is not part of sign language video information), or a combination thereof. When the sign language motion information is a sign language image itself, the sign language motion information may be, for example, a CG (Computer Graphics) image, an animation image, or a live-action image. . Further, when the sign language motion information is a sign language video itself, the sign language motion information itself constitutes a part of the sign language video information generated by the sign language video information generation unit 25 described later. On the other hand, when the sign language motion information is information used to generate a sign language video and not the sign language video itself, sign language video information such as CG is generated using the sign language motion information. Become.

なお、前述したように、用語列変更部14によって属性情報が用語列に付加される場合には、手話動作情報は、属性情報の示す属性ごとの情報を少なくとも有していてもよい。すなわち、手話動作情報の全体が属性ごとの情報であってもよく、あるいは、手話動作情報の一部が属性ごとの情報であってもよい。例えば、属性情報が「楽しい」「悲しい」「普通」のいずれかである場合には、手話動作情報は、属性情報「楽しい」に対応する手話動作情報と、属性情報「悲しい」に対応する手話動作情報と、属性情報「普通」に対応する手話動作情報とを有していてもよい。例えば、顔の表情に関する手話動作情報のみが、それらの属性情報「楽しい」「悲しい」「普通」ごとに設定されていてもよく、あるいは、そうでなくてもよい。   As described above, when the attribute information is added to the term string by the term string changing unit 14, the sign language action information may include at least information for each attribute indicated by the attribute information. That is, the entire sign language action information may be information for each attribute, or a part of the sign language action information may be information for each attribute. For example, when the attribute information is “fun”, “sad”, or “normal”, the sign language action information includes sign language action information corresponding to the attribute information “fun” and sign language action information corresponding to the attribute information “sad”. Operation information and sign language operation information corresponding to the attribute information “normal” may be included. For example, only sign language action information related to facial expressions may be set for each of the attribute information “fun”, “sad”, and “normal”, or not.

また、番組関連情報受付部22が受け付けた番組関連情報をも用いた手話映像情報の生成を行う場合には、手話用語対応情報は、用語と、手話動作情報と、番組関連情報とを対応付ける情報であってもよい。この場合には、後述する手話映像情報生成部25は、番組関連情報受付部22が受け付けた番組関連情報に対応する手話動作情報を用いることによって、その番組により適した手話映像情報を生成することができるようになりうる。例えば、番組関連情報が番組のジャンルを示す情報である場合に、番組関連情報「ニュース」「ドキュメンタリー」に対応する手話動作情報と、番組関連情報「ドラマ」「バラエティー」に対応する手話動作情報とを別のものとしてもよい。前者の場合には、まじめな雰囲気の手話動作情報として、後者の場合には、興趣をそそる楽しい雰囲気の手話動作情報(例えば、少し誇張したような手話の動作などであってもよい)としてもよい。   In addition, when sign language video information is generated using the program related information received by the program related information receiving unit 22, the sign language term correspondence information is information for associating terms with sign language action information and program related information. It may be. In this case, the sign language video information generation unit 25 described later generates sign language video information more suitable for the program by using the sign language operation information corresponding to the program related information received by the program related information reception unit 22. Can become possible. For example, when the program related information is information indicating the genre of the program, sign language operation information corresponding to the program related information “news” “documentary” and sign language operation information corresponding to the program related information “drama” “variety” May be different. In the former case, the sign language movement information in a serious atmosphere, and in the latter case, the sign language movement information in an entertaining and fun atmosphere (for example, the sign language movement may be slightly exaggerated). Good.

手話用語対応情報記憶部23に手話用語対応情報が記憶される過程は問わない。例えば、記録媒体を介して手話用語対応情報が手話用語対応情報記憶部23で記憶されるようになってもよく、通信回線等を介して送信された手話用語対応情報が手話用語対応情報記憶部23で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された手話用語対応情報が手話用語対応情報記憶部23で記憶されるようになってもよい。手話用語対応情報記憶部23での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。手話用語対応情報記憶部23は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。   The process in which the sign language term correspondence information is stored in the sign language term correspondence information storage unit 23 does not matter. For example, sign language term correspondence information may be stored in the sign language term correspondence information storage unit 23 via a recording medium, and sign language term correspondence information transmitted via a communication line or the like is stored in the sign language term correspondence information storage unit. 23, or the sign language term correspondence information input via the input device may be stored in the sign language term correspondence information storage unit 23. The storage in the sign language term correspondence information storage unit 23 may be temporary storage in a RAM or the like, or may be long-term storage. The sign language term correspondence information storage unit 23 can be realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, or the like).

キャッシュ記憶部24は、手話用語対応情報記憶部23よりも高速にアクセス可能なものである。手話用語対応情報記憶部23が、例えば、ハードディスクである場合には、キャッシュ記憶部24は、例えば、メモリであってもよい。また、手話用語対応情報記憶部23が、例えば、メインメモリである場合には、キャッシュ記憶部24は、例えば、キャッシュメモリであってもよい。後述する手話映像情報生成部25は、このキャッシュ記憶部24に手話動作情報をあらかじめ記憶させ、その記憶させた手話動作情報を用いて手話映像情報の生成を行うようにしてもよい。このようにすることで、より高速に手話映像情報の生成を行うことができうるようになる。   The cache storage unit 24 is accessible at a higher speed than the sign language term correspondence information storage unit 23. For example, when the sign language term correspondence information storage unit 23 is a hard disk, the cache storage unit 24 may be a memory, for example. Further, when the sign language term correspondence information storage unit 23 is a main memory, for example, the cache storage unit 24 may be a cache memory, for example. The sign language video information generation unit 25 described later may store sign language motion information in the cache storage unit 24 in advance, and generate sign language video information using the stored sign language motion information. In this way, sign language video information can be generated at higher speed.

キャッシュ記憶部24での記憶は、基本的に一時的な記憶であるが、そうでなくてもよい。また、キャッシュ記憶部24は、所定の記録媒体(例えば、半導体メモリなど)によって実現されうる。   The storage in the cache storage unit 24 is basically a temporary storage, but this need not be the case. The cache storage unit 24 can be realized by a predetermined recording medium (for example, a semiconductor memory).

手話映像情報生成部25は、受信部21が受信した用語列に含まれる各用語に、手話用語対応情報で対応付けられる手話動作情報を用いて、その用語列に対応する手話の映像を示す情報である手話映像情報を生成する。手話動作情報が、例えば、手話の映像そのものである場合には、手話映像情報生成部25は、その手話の映像を読み出すことによって手話映像情報を生成してもよい。また、手話動作情報が、例えば、手話の映像を生成するために用いられる情報であって、手話の映像そのものではない場合には、手話映像情報生成部25は、その手話動作情報等を用いてCG等の手話映像情報を生成することになる。なお、手話映像情報を生成する方法については、前述の特許文献1〜4等に記載されており、すでに公知であるため、その詳細な説明を省略する。   The sign language video information generation unit 25 uses the sign language action information associated with each term included in the term string received by the reception unit 21 in the sign language term correspondence information, and indicates the sign language video corresponding to the term string. The sign language video information is generated. When the sign language action information is, for example, a sign language image itself, the sign language image information generation unit 25 may generate sign language image information by reading the sign language image. In addition, when the sign language motion information is information used to generate a sign language video and not the sign language video itself, the sign language video information generation unit 25 uses the sign language motion information and the like. Sign language video information such as CG is generated. The method for generating the sign language video information is described in the above-mentioned Patent Documents 1 to 4 and the like, and since it is already known, its detailed description is omitted.

なお、前述したように、用語列変更部14によって属性情報が用語列に付加される場合には、手話映像情報生成部25は、用語列に含まれる属性情報に応じた手話動作情報を用いて手話映像情報を生成してもよい。具体的には、前述のように、手話動作情報も、属性ごとの情報を少なくとも有しており、手話映像情報生成部25は、用語列に付加された属性情報に対応する手話動作情報を用いて、手話映像情報を生成するようにしてもよい。   As described above, when the attribute information is added to the term string by the term string changing unit 14, the sign language video information generating unit 25 uses the sign language action information according to the attribute information included in the term string. Sign language video information may be generated. Specifically, as described above, the sign language action information also includes at least information for each attribute, and the sign language video information generation unit 25 uses the sign language action information corresponding to the attribute information added to the term string. Thus, sign language video information may be generated.

また、手話映像情報生成部25は、番組関連情報受付部22が受け付けた番組関連情報をも用いて、手話映像情報を生成してもよい。例えば、手話用語対応情報において、用語と、手話動作情報と、番組関連情報とが対応付けられている場合に、手話映像情報生成部25は、番組関連情報受付部22が受け付けた番組関連情報(この番組関連情報は、受信部21が受信した用語列に対応する番組の番組関連情報である)に対応する手話動作情報を用いて手話映像情報を生成してもよい。   In addition, the sign language video information generation unit 25 may generate sign language video information using the program related information received by the program related information reception unit 22. For example, in the sign language term correspondence information, when the term, the sign language action information, and the program related information are associated with each other, the sign language video information generation unit 25 receives the program related information ( The program related information may be generated using sign language motion information corresponding to the program related information of the program corresponding to the term string received by the receiving unit 21.

また、手話映像情報生成部25は、番組関連情報受付部22が受け付けた番組関連情報を用いて、手話動作情報をキャッシュ記憶部24にあらかじめ記憶しておき、そのキャッシュ記憶部24で記憶されている手話動作情報をも用いて手話映像情報を生成してもよい。例えば、番組関連情報が番組の内容に関する用語を示す情報である場合に、手話映像情報生成部25は、番組関連情報の示す用語に対応する手話動作情報をキャッシュ記憶部24に記憶しておいてもよい。その番組関連情報の示す用語は、用語列に頻繁に出現すると考えられるため、その用語に対応する手話動作情報をキャッシュ記憶部24で記憶しておくことにより、その手話動作情報に高速にアクセスすることが可能となり、その結果として、手話映像情報をより速く生成することが可能となりうるからである。また、例えば、番組関連情報が番組のジャンルを示す情報である場合に、手話映像情報生成部25は、番組関連情報の示す番組のジャンルに対応する手話動作情報をキャッシュ記憶部24に記憶しておいてもよい。なお、キャッシュ記憶部24に手話動作情報を記憶しておく場合に、手話動作情報と共に、その手話動作情報に対応する用語等も一緒にキャッシュ記憶部24で記憶しておくようにしてもよく、そうでなくてもよい。   Further, the sign language video information generation unit 25 stores the sign language action information in the cache storage unit 24 in advance using the program related information received by the program related information reception unit 22, and is stored in the cache storage unit 24. Sign language video information may also be generated using existing sign language action information. For example, when the program related information is information indicating terms related to the contents of the program, the sign language video information generating unit 25 stores sign language action information corresponding to the terms indicated by the program related information in the cache storage unit 24. Also good. Since the term indicated by the program related information is considered to appear frequently in the term string, the sign language operation information corresponding to the term is stored in the cache storage unit 24 so that the sign language operation information is accessed at high speed. As a result, sign language video information can be generated more quickly. For example, when the program related information is information indicating the genre of the program, the sign language video information generation unit 25 stores the sign language action information corresponding to the genre of the program indicated by the program related information in the cache storage unit 24. It may be left. In addition, when sign language action information is stored in the cache storage unit 24, a term corresponding to the sign language action information may be stored together with the sign language action information in the cache storage unit 24. It may not be so.

出力部26は、手話映像情報生成部25が生成した手話映像情報を出力する。また、出力部26は、その手話映像情報と共に、受信部21が受信した番組情報をも出力する。手話映像情報と、番組情報とが出力されることによって、その出力された情報を見る者は、番組と共に、その番組に対応する手話の映像も見ることができる。なお、番組情報と手話映像情報とが表示される場合に、一画面内において両者が横や縦、斜めなどに並べられて出力されてもよく、一方の画面内の一部に他方の画面が表示される形態で出力されてもよく、番組情報と手話映像情報とが表示される形態は問わない。   The output unit 26 outputs the sign language video information generated by the sign language video information generation unit 25. The output unit 26 also outputs the program information received by the receiving unit 21 together with the sign language video information. By outputting the sign language video information and the program information, a person who views the output information can see the sign language video corresponding to the program together with the program. When program information and sign language video information are displayed, they may be output side by side, vertically, diagonally, etc. within one screen, and the other screen may be part of one screen. It may be output in a displayed form, and the form in which program information and sign language video information are displayed does not matter.

ここで、ここで、この出力は、例えば、手話映像情報の映像と番組情報の映像の表示デバイス(例えば、CRTや液晶ディスプレイなど)への表示と、番組情報の音声のスピーカへの音声出力であってもよい。または、この出力は、例えば、映像音声の所定の機器への通信回線を介した送信でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。ただし、これらの場合であっても、最終的には、映像が表示され、音声が音声出力されるものとする。なお、端末装置2が出力した映像を聴覚障害者のみが見る場合には、音声出力がなされなくてもよい。また、出力部26は、出力を行うデバイス(例えば、表示デバイスやプリンタなど)を含んでもよく、あるいは含まなくてもよい。また、出力部26は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   Here, this output is, for example, display of sign language video information video and program information video on a display device (for example, CRT or liquid crystal display) and audio output of program information to a speaker. There may be. Alternatively, this output may be, for example, transmission of video / audio via a communication line to a predetermined device, accumulation in a recording medium, or delivery to another component. However, even in these cases, the video is ultimately displayed and the audio is output as audio. In addition, when only a hearing impaired person sees the image | video which the terminal device 2 output, audio | voice output does not need to be made. The output unit 26 may or may not include a device that performs output (for example, a display device or a printer). The output unit 26 may be realized by hardware, or may be realized by software such as a driver that drives these devices.

なお、サーバ1、端末装置2において、適宜、情報がデジタル化されても、アナログ化されてもよいことは言うまでもない。したがって、サーバ1、端末装置2において、適宜必要な箇所に、情報をアナログ化するDAC(Digital Analog Converter)や、情報をデジタル化するADC(Analog Digital Converter)が存在してもよい。   Needless to say, the server 1 and the terminal device 2 may appropriately digitize or analogize information. Therefore, in the server 1 and the terminal device 2, there may be a DAC (Digital Analog Converter) for converting information into analog and an ADC (Analog Digital Converter) for digitizing information at necessary places.

次に、本実施の形態による手話映像生成システムの動作について、フローチャートを用いて説明する。
図8は、本実施の形態によるサーバ1の動作を示すフローチャートである。なお、このフローチャートでは、字幕情報受付部12が番組情報記憶部11から字幕情報を読み出すことによって受け付ける場合について説明する。また、その字幕情報から用語列を生成して、図示しない記録媒体において一時的に記憶しておき、その一時的に記憶している用語列を番組情報と一緒に送信する場合について説明する。
Next, the operation of the sign language video generation system according to the present embodiment will be described using a flowchart.
FIG. 8 is a flowchart showing the operation of the server 1 according to this embodiment. In this flowchart, a case where the caption information receiving unit 12 receives the caption information by reading it from the program information storage unit 11 will be described. Also, a case will be described in which a term string is generated from the caption information, temporarily stored in a recording medium (not shown), and the temporarily stored term string is transmitted together with program information.

(ステップS101)字幕情報受付部12は、用語列を生成する処理を行うかどうか判断する。そして、用語列を生成する処理を行う場合には、ステップS102に進み、そうでない場合には、ステップS107に進む。字幕情報受付部12は、例えば、用語列を生成する旨の指示をサーバ1が受け付けた場合に、用語列を生成すると判断してもよく、番組情報記憶部11に、字幕情報を有する番組情報が新たに蓄積されたタイミングで、用語列を生成すると判断してもよく、あるいは、その他のタイミングで用語列を生成すると判断してもよい。また、ここでは、字幕情報受付部12が、このステップの判断を行うと説明したが、その他の構成要素がこの判断を行ってもよいことは言うまでもない。   (Step S101) The caption information receiving unit 12 determines whether or not to perform processing for generating a term string. And when performing the process which produces | generates a term string, it progresses to step S102, and when that is not right, it progresses to step S107. For example, when the server 1 receives an instruction to generate a term string, the caption information receiving unit 12 may determine that the term string is to be generated, and the program information storage unit 11 has the program information having the caption information. It may be determined that the term string is generated at the timing when the is newly accumulated, or it may be determined that the term string is generated at other timing. In addition, although it has been described here that the caption information receiving unit 12 performs the determination of this step, it is needless to say that other components may perform the determination.

(ステップS102)字幕情報受付部12は、番組情報記憶部11で記憶されている番組情報に含まれる字幕情報を読み出す。なお、1回で読み出す字幕情報は、字幕の一つのまとまりとなる単位である。その単位は、例えば、番組情報の画面に1回に表示される字幕の分量であってもよく、一文であってもよく、あるいは、その他の単位であってもよい。   (Step S <b> 102) The caption information receiving unit 12 reads the caption information included in the program information stored in the program information storage unit 11. Note that the subtitle information read at a time is a unit that forms one subtitle. The unit may be, for example, the amount of subtitles displayed at a time on the program information screen, may be a single sentence, or may be other units.

(ステップS103)用語抽出部13は、字幕情報受付部12が読み出した字幕情報から、自立語である用語を抽出する。   (Step S103) The term extraction unit 13 extracts a term that is an independent word from the caption information read by the caption information receiving unit 12.

(ステップS104)用語列変更部14は、用語抽出部13が抽出した用語列に関する変更を適宜行う。なお、この処理の詳細については後述する。   (Step S104) The term string changing unit 14 appropriately changes the term string extracted by the term extracting unit 13. Details of this process will be described later.

(ステップS105)用語列変更部14は、図示しない記録媒体で、変更後の用語列を一時的に記憶する。   (Step S105) The term string changing unit 14 temporarily stores the changed term string on a recording medium (not shown).

(ステップS106)字幕情報受付部12は、ある番組情報に含まれる全ての字幕情報について用語列を生成する処理を行ったかどうか判断する。そして、全ての字幕情報について用語列を生成する処理を行った場合、すなわち、全ての用語列の生成の処理が終わった場合には、ステップS101に戻り、そうでない場合には、ステップS102に戻る。   (Step S106) The caption information receiving unit 12 determines whether or not a process of generating a term string has been performed for all caption information included in a certain program information. Then, when the process of generating the term string is performed for all the caption information, that is, when the process of generating all the term strings is completed, the process returns to step S101, and otherwise, the process returns to step S102. .

(ステップS107)送信部15は、番組情報を送信するかどうか判断する。そして、送信する場合には、ステップS108に進み、そうでない場合には、ステップS101に戻る。送信部15は、例えば、番組情報を送信する旨の指示をサーバ1が受け付けた場合に番組情報を送信すると判断してもよく、番組情報の送信に関するスケジュール表を有しており、そのスケジュール表によってある番組情報を送信する時間となった場合に、番組情報を送信すると判断してもよく、あるいは、その他のタイミングで番組情報を送信すると判断してもよい。   (Step S107) The transmission unit 15 determines whether to transmit program information. And when transmitting, it progresses to step S108, and when that is not right, it returns to step S101. For example, the transmission unit 15 may determine to transmit the program information when the server 1 receives an instruction to transmit the program information, and has a schedule table related to the transmission of the program information. When it is time to transmit certain program information, it may be determined that program information is transmitted, or it may be determined that program information is transmitted at other timing.

(ステップS108)送信部15は、番組情報記憶部11から、番組情報を読み出す。なお、このステップで読み出す番組情報は、例えば、番組情報の一のフレームであってもよく、連続する複数のフレームであってもよい。また、番組情報に含まれる字幕情報を読み出してもよく、あるいは、読み出さなくてもよい。   (Step S <b> 108) The transmission unit 15 reads program information from the program information storage unit 11. Note that the program information read in this step may be, for example, one frame of program information or a plurality of consecutive frames. Moreover, the subtitle information included in the program information may or may not be read.

(ステップS109)送信部15は、図示しない記録媒体で一時的に記憶されている用語列を読み出す。この用語列は、ステップS108で読み出した番組情報のフレームに対応する用語列である。番組情報のフレームに対応する用語列とは、その番組情報のフレームに対応する字幕情報から生成された用語列の意味である。   (Step S109) The transmission unit 15 reads a term string temporarily stored in a recording medium (not shown). This term string is a term string corresponding to the frame of the program information read in step S108. The term string corresponding to the frame of the program information means the term string generated from the caption information corresponding to the frame of the program information.

(ステップS110)送信部15は、ステップS109で読み出した用語列を、ステップS108で読み出した番組情報のフレームに含めて送信する。   (Step S110) The transmission unit 15 transmits the term string read out in step S109 by including it in the frame of the program information read out in step S108.

(ステップS111)送信部15は、ステップS107で送信すると判断した番組情報の全てを送信したかどうか判断する。そして、まだ送信していないフレームが残っている場合には、ステップS108に戻り、そうでない場合には、ステップS101に戻る。   (Step S111) The transmission unit 15 determines whether all the program information determined to be transmitted in Step S107 has been transmitted. If a frame that has not yet been transmitted remains, the process returns to step S108. If not, the process returns to step S101.

なお、ステップS108で読み出された番組情報のフレームに対応する用語列がない場合には、ステップS109において用語列の読み出しを行わなくてもよく、また、ステップS110において番組情報のみを送信してもよい。   If there is no term string corresponding to the frame of the program information read in step S108, the term string need not be read in step S109, and only the program information is transmitted in step S110. Also good.

また、ステップS109,S110において用語列を番組情報に含めて送信する際に、用語列を、その用語列に対応する字幕が表示される番組情報の全てのフレームに含めて送信してもよく、あるいは、その用語列に対応する字幕が表示される番組情報のはじめのフレームにのみ含めて送信してもよく、用語列を番組情報に含める方法は問わない。   In addition, when transmitting a term string including program information in steps S109 and S110, the term string may be included in all frames of program information in which captions corresponding to the term string are displayed. Alternatively, the program information may be included and transmitted only in the first frame of the program information in which the caption corresponding to the term string is displayed, and the method for including the term string in the program information is not limited.

また、図8フローチャートにおいて、ステップS101〜S106の処理と、ステップS107〜S111の処理は、並列して実行されるようにしてもよい。その場合には、用語列の生成と、番組情報の送信とを並列して実行できるようになる。例えば、それらの処理は別スレッドや別プロセスとして処理されてもよい。   Further, in the flowchart of FIG. 8, the processes of steps S101 to S106 and the processes of steps S107 to S111 may be executed in parallel. In that case, the generation of the term string and the transmission of the program information can be executed in parallel. For example, these processes may be processed as separate threads or separate processes.

また、図8のフローチャートでは、まず用語列を生成してから、その用語列を含む番組情報を送信する場合について説明したが、用語列の生成と、番組情報の送信とを同時の行ってもよい。すなわち、ある用語列を生成して、その用語列を含む番組情報を送信し、その後に次の用語列を生成して、その用語列を含む番組情報を送信する処理を繰り返して実行するようにしてもよい。
また、図8のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
In the flowchart of FIG. 8, a case has been described in which a term string is first generated and then program information including the term string is transmitted. However, the term string generation and the program information transmission may be performed simultaneously. Good. That is, a process for generating a certain term string, transmitting program information including the term string, and then generating a next term string and transmitting program information including the term string is repeatedly executed. May be.
Further, in the flowchart of FIG. 8, the processing is ended by powering off or interruption for aborting the processing.

図9は、図8のフローチャートにおける用語列の変更の処理(ステップS104)の詳細を示すフローチャートである。なお、図9のフローチャートは、用語列変更部14が、図3で示されるものである場合に対応している。   FIG. 9 is a flowchart showing details of the term string change processing (step S104) in the flowchart of FIG. The flowchart of FIG. 9 corresponds to the case where the term string changing unit 14 is the one shown in FIG.

(ステップS201)用語列変更部14の用語変換手段32は、カウンタiを1に設定する。   (Step S201) The term conversion means 32 of the term string changing unit 14 sets the counter i to 1.

(ステップS202)用語変換手段32は、用語列のi番目の用語が、用語対応情報記憶手段31で記憶されているいずれかの変換対象用語と一致するかどうか判断する。そして、一致する場合には、ステップS203に進み、そうでない場合には、ステップS204に進む。   (Step S202) The term conversion means 32 determines whether the i-th term in the term string matches any of the conversion target terms stored in the term correspondence information storage means 31. If they match, the process proceeds to step S203, and if not, the process proceeds to step S204.

(ステップS203)用語変換手段32は、i番目の用語を、その用語に対応する変換後用語に置き換える。   (Step S203) The term conversion means 32 replaces the i-th term with a post-conversion term corresponding to the term.

(ステップS204)用語変換手段32は、カウンタiを1だけインクリメントする。   (Step S204) The term conversion means 32 increments the counter i by 1.

(ステップS205)用語変換手段32は、用語列にi番目の用語が存在するかどうか判断する。そして、存在する場合には、ステップS202に戻り、そうでない場合には、図8のフローチャートに戻る。   (Step S205) The term conversion means 32 determines whether or not the i-th term exists in the term string. And when it exists, it returns to step S202, and when that is not right, it returns to the flowchart of FIG.

図10は、図8のフローチャートにおける用語列の変更の処理(ステップS104)の詳細を示すフローチャートである。なお、図10のフローチャートは、用語列変更部14が、図4で示されるものである場合に対応している。   FIG. 10 is a flowchart showing details of the term string change processing (step S104) in the flowchart of FIG. The flowchart in FIG. 10 corresponds to the case where the term string changing unit 14 is the one shown in FIG.

(ステップS301)用語列変更部14の用語並び替え手段34は、用語列に含まれる用語の順序が、用語順序情報記憶手段33で記憶されている用語順序情報の示す用語の順序と一致しているかどうか判断する。そして、一致している場合には、用語の並び替えが必要ないため、図8のフローチャートに戻り、一致していない場合には、用語の並び替えが必要であるため、ステップS302に進む。例えば、用語順序情報が{名詞}{動詞}であり、用語列に含まれる用語の順序が、「名詞、動詞、名詞」の順である場合には、その用語列における用語の順序は、用語順序情報の示す用語の順序と一致していないと判断される。   (Step S301) The term rearrangement unit 34 of the term sequence changing unit 14 matches the order of terms included in the term sequence information storage unit 33 with the order of terms included in the term sequence. Judge whether or not. If they match, the terms need not be rearranged, so the process returns to the flowchart of FIG. 8. If they do not match, the terms need to be rearranged, and the process proceeds to step S302. For example, when the term order information is {noun} {verb} and the order of the terms included in the term string is “noun, verb, noun”, the order of the terms in the term string is the term It is determined that the order of the terms indicated by the order information does not match.

(ステップS302)用語並び替え手段34は、用語列に含まれる用語の順序を並び替える。例えば、ステップS301において、用語の順序が用語順序情報の示すものと一致していないと判断した箇所について、隣接する用語を入れ替えるなどの並び替えを行ってもよい。そして、並び替えた用語列が、適切な用語の順序となっているかどうか判断するため、ステップS301に戻る。例えば、上述の例の場合には、用語列に含まれる用語のうち、最後の2個の「動詞、名詞」の順が異なっているため、用語並び替え手段34は、その2個の用語を入れ替えて、「名詞、名詞、動詞」の順となるように用語を並び替えてもよい。なお、複数の同じ品詞の用語が並んでいても、その品詞の一つの用語であるとして、用語順序情報を用いた判断を行ってもよい。その場合には、並び替え後の「名詞、名詞、動詞」の順番は、用語順序情報と合うことになる。   (Step S302) The term rearranging means 34 rearranges the order of the terms included in the term string. For example, in step S301, rearrangement such as replacement of adjacent terms may be performed for a portion where it is determined that the order of terms does not match that indicated by the term order information. Then, in order to determine whether the rearranged term string is in an appropriate term order, the process returns to step S301. For example, in the case of the above-mentioned example, since the order of the last two “verbs and nouns” among the terms included in the term string is different, the term rearranging means 34 determines the two terms. The terms may be rearranged so that the order is “noun, noun, verb”. Even if a plurality of terms of the same part of speech are arranged, it may be determined that the term order information is used as one term of the part of speech. In that case, the order of “noun, noun, verb” after the rearrangement matches the term order information.

図11は、図8のフローチャートにおける用語列の変更の処理(ステップS104)の詳細を示すフローチャートである。なお、図11のフローチャートは、用語列変更部14が、図5で示されるものである場合に対応している。   FIG. 11 is a flowchart showing details of the term string change processing (step S104) in the flowchart of FIG. The flowchart in FIG. 11 corresponds to the case where the term string changing unit 14 is the one shown in FIG.

(ステップS401)用語列変更部14の検出手段35は、用語列において用語が欠落しているかどうか判断する。そして、欠落している場合には、ステップS402に進み、そうでない場合には、図8のフローチャートに戻る。   (Step S401) The detection means 35 of the term string changing unit 14 determines whether a term is missing in the term string. And when missing, it progresses to step S402, and when that is not right, it returns to the flowchart of FIG.

(ステップS402)用語補足手段36は、補足すべき用語を取得する。例えば、補足すべき用語が主語である場合には、用語補足手段36は、前述のように、変更の対象となっている用語列よりも前の用語列に含まれる主語を補足すべき用語として取得してもよい。   (Step S402) The term supplementing means 36 acquires a term to be supplemented. For example, when the term to be supplemented is the subject, the term supplementing means 36, as described above, sets the subject included in the term string before the term string to be changed as a term to be supplemented. You may get it.

(ステップS403)用語補足手段36は、ステップS402で取得した用語を、用語列に補足する。例えば、補足する用語が主語である場合には、用語補足手段36は、補足する用語を用語列の先頭に追加してもよい。そして、図8のフローチャートに戻る。   (Step S403) The term supplementing means 36 supplements the term string acquired in Step S402 to the term string. For example, when the term to be supplemented is the subject, the term supplementing means 36 may add the term to be supplemented to the head of the term string. And it returns to the flowchart of FIG.

図12は、図8のフローチャートにおける用語列の変更の処理(ステップS104)の詳細を示すフローチャートである。なお、図12のフローチャートは、用語列変更部14が、図6で示されるものである場合に対応している。   FIG. 12 is a flowchart showing details of the term string change processing (step S104) in the flowchart of FIG. The flowchart of FIG. 12 corresponds to the case where the term string changing unit 14 is the one shown in FIG.

(ステップS501)用語列変更部14の属性取得手段37は、用語列を解析する。その解析は、例えば、意味理解エンジンによる解析や、評判解析エンジンによる解析などであってもよい。   (Step S501) The attribute acquisition unit 37 of the term string changing unit 14 analyzes the term string. The analysis may be, for example, an analysis by a semantic understanding engine or an analysis by a reputation analysis engine.

(ステップS502)属性取得手段37は、解析結果を基にして属性情報を取得する。この属性情報は、例えば、「楽しい」「悲しい」「普通」などの感情を示すものであってもよく、あるいは、「ポジティブ」「ネガティブ」「普通」などの評判を示すものであってもよい。   (Step S502) The attribute acquisition unit 37 acquires attribute information based on the analysis result. For example, this attribute information may indicate emotions such as “fun”, “sad”, and “normal”, or may indicate reputation such as “positive”, “negative”, and “normal”. .

(ステップS503)属性情報付加手段38は、属性取得手段37の取得した属性情報を用語列に付加する。そして、図8のフローチャートに戻る。   (Step S503) The attribute information adding unit 38 adds the attribute information acquired by the attribute acquiring unit 37 to the term string. And it returns to the flowchart of FIG.

図13は、本実施の形態による端末装置2の動作を示すフローチャートである。このフローチャートにおいて、番組関連情報には、番組のジャンルを示す情報と、番組の内容に関する用語を示す情報とが含まれるものとする。   FIG. 13 is a flowchart showing the operation of the terminal device 2 according to this embodiment. In this flowchart, it is assumed that the program related information includes information indicating the genre of the program and information indicating terms relating to the contents of the program.

(ステップS601)番組関連情報受付部22は、番組関連情報を受け付けたかどうか判断する。そして、受け付けた場合には、ステップS602に進み、そうでない場合には、ステップS603に進む。   (Step S601) The program related information receiving unit 22 determines whether program related information has been received. If accepted, the process proceeds to step S602; otherwise, the process proceeds to step S603.

(ステップS602)番組関連情報受付部22は、受け付けた番組関連情報を図示しない記録媒体において一時的に記憶する。そして、ステップS601に戻る。   (Step S602) The program related information receiving unit 22 temporarily stores the received program related information in a recording medium (not shown). Then, the process returns to step S601.

(ステップS603)受信部21は、番組情報の受信を開始するかどうか判断する。そして、開始する場合には、ステップS604に進み、そうでない場合には、ステップS601に戻る。受信部21は、例えば、端末装置2が番組を受信する旨の指示を受け付けた場合に、番組情報の受信を開始すると判断してもよく、端末装置2が受信しているチャネルの番組が終了して、新たな番組が始まる際に、番組情報の受信を開始すると判断してもよく、その他のタイミングで番組情報の受信を開始すると判断してもよい。   (Step S603) The receiving unit 21 determines whether to start receiving program information. And when starting, it progresses to step S604, and when that is not right, it returns to step S601. For example, when the terminal device 2 receives an instruction to receive a program, the receiving unit 21 may determine to start receiving program information, and the program of the channel received by the terminal device 2 ends. Then, when a new program starts, it may be determined to start receiving program information, or may be determined to start receiving program information at other timing.

(ステップS604)手話映像情報生成部25は、受信を開始する番組に対応する番組関連情報に含まれる番組の内容に関する用語を示す情報に対応する手話動作情報を手話用語対応情報記憶部23から読み出す。そして、手話映像情報生成部25は、その手話動作情報と、その手話動作情報に対応する用語とを対応付けてキャッシュ記憶部24に蓄積する。なお、番組関連情報に含まれる番組の内容に関する用語に対応する手話動作情報が複数存在する場合には、番組関連情報に含まれる番組のジャンルに対応する手話動作情報を選択してキャッシュ記憶部24に蓄積してもよい。なお、キャッシュ記憶部24の容量が大きい場合には、手話映像情報生成部25は、番組関連情報に含まれる番組のジャンルを示す情報に対応する手話動作情報を手話用語対応情報記憶部23から読み出して、キャッシュ記憶部24に蓄積してもよい。   (Step S604) The sign language video information generation unit 25 reads, from the sign language term correspondence information storage unit 23, sign language action information corresponding to information indicating terms related to the contents of the program included in the program related information corresponding to the program to start reception. . Then, the sign language video information generation unit 25 stores the sign language motion information and the term corresponding to the sign language motion information in the cache storage unit 24 in association with each other. When there are a plurality of sign language action information corresponding to terms related to the contents of the program included in the program related information, the sign memory action information corresponding to the genre of the program included in the program related information is selected and the cache storage unit 24 is selected. You may accumulate in When the capacity of the cache storage unit 24 is large, the sign language video information generation unit 25 reads sign language action information corresponding to information indicating the genre of the program included in the program related information from the sign language term correspondence information storage unit 23. Then, it may be accumulated in the cache storage unit 24.

(ステップS605)受信部21は、番組情報を受信したかどうか判断する。そして、番組情報を受信した場合には、ステップS606に進み、そうでない場合には、ステップS611に進む。なお、受信部21は、番組情報を一フレームごとに受信してもよく、あるいは、連続する複数のフレームごとに受信してもよい。   (Step S605) The receiving unit 21 determines whether program information has been received. If the program information has been received, the process proceeds to step S606, and if not, the process proceeds to step S611. Note that the receiving unit 21 may receive the program information for each frame, or may receive it for each of a plurality of consecutive frames.

(ステップS606)出力部26は、受信部21が受信した番組情報に対応する手話映像情報がすでに生成されているかどうか判断する。そして、すでに生成されている場合には、ステップS610に進み、そうでない場合には、ステップS607に進む。   (Step S606) The output unit 26 determines whether sign language video information corresponding to the program information received by the receiving unit 21 has already been generated. If it has already been generated, the process proceeds to step S610. If not, the process proceeds to step S607.

(ステップS607)手話映像情報生成部25は、番組情報に含まれる用語列を取得する。   (Step S607) The sign language video information generation unit 25 acquires a term string included in the program information.

(ステップS608)手話映像情報生成部25は、その取得した用語列に対応する手話動作情報をキャッシュ記憶部24、及び手話用語対応情報記憶部23から読み出し、その手話動作情報を用いて手話映像情報を生成する。   (Step S608) The sign language video information generation unit 25 reads the sign language action information corresponding to the acquired term string from the cache storage unit 24 and the sign language term correspondence information storage unit 23, and uses the sign language action information to sign language video information. Is generated.

(ステップS609)手話映像情報生成部25は、その生成した手話映像情報を図示しない記録媒体において一時的に記憶する。   (Step S609) The sign language video information generation unit 25 temporarily stores the generated sign language video information in a recording medium (not shown).

(ステップS610)出力部26は、受信部21が受信した番組情報に対応する手話映像情報を図示しない記録媒体から読み出し、その手話映像情報と、番組情報とを出力する。なお、出力部26は、受信部21が受信した番組情報と同じフレーム数だけの手話映像情報を古い方から順番に読み出して出力してもよい。   (Step S610) The output unit 26 reads sign language video information corresponding to the program information received by the receiving unit 21 from a recording medium (not shown), and outputs the sign language video information and the program information. Note that the output unit 26 may read and output sign language video information of the same number of frames as the program information received by the receiving unit 21 in order from the oldest.

(ステップS611)受信部21は、番組情報の受信を終了するかどうか判断する。そして、終了する場合にはステップS601に戻り、そうでない場合には、ステップS605に戻る。受信部21は、例えば、端末装置2が番組の受信を終了する旨の指示を受け付けた場合に、番組情報の受信を終了すると判断してもよく、端末装置2が受信しているチャネルの番組が終了した場合に、番組情報の受信を終了すると判断してもよい。   (Step S611) The receiving unit 21 determines whether to end the reception of program information. If the process is to end, the process returns to step S601; otherwise, the process returns to step S605. For example, when the terminal device 2 receives an instruction to end the reception of the program, the receiving unit 21 may determine that the reception of the program information is ended, and the program of the channel received by the terminal device 2 May be determined to end the reception of the program information.

なお、図13のフローチャートにおいて、新たな用語列が取得された場合に、その用語列に対応する手話映像情報を続けて生成する場合について説明したが(ステップS607〜S609)、用語列からの手話映像情報の生成と、番組情報の受信や番組情報、手話映像情報の出力とを並列して行ってもよい。   In the flowchart of FIG. 13, when a new term string is acquired, the sign language video information corresponding to the term string is continuously generated (steps S607 to S609). Generation of video information and reception of program information and output of program information and sign language video information may be performed in parallel.

また、図13のフローチャートにおいて、ステップS606で手話映像情報がないと判断された場合であっても、ステップS605で受信した番組情報に対応する用語列がない場合、すなわち、その番組情報に対応する字幕情報がない場合には、用語列の取得や手話映像情報の生成を行わないで、その番組情報を出力する処理のみを行えばよい。   In the flowchart of FIG. 13, even if it is determined in step S606 that there is no sign language video information, if there is no term string corresponding to the program information received in step S605, that is, the program information is supported. When there is no subtitle information, it is only necessary to perform the process of outputting the program information without acquiring the term string or generating the sign language video information.

また、図13のフローチャートにおいて、ステップS601,S602の処理と、ステップS603〜S611の処理は、並列して実行されるようにしてもよい。その場合には、番組関連情報の受け付けと、番組情報及び手話映像情報の出力とを並列して実行できるようになる。例えば、それらの処理は別スレッドや別プロセスとして処理されてもよい。
また、図13のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
In the flowchart of FIG. 13, the processes in steps S601 and S602 and the processes in steps S603 to S611 may be executed in parallel. In that case, reception of program related information and output of program information and sign language video information can be executed in parallel. For example, these processes may be processed as separate threads or separate processes.
In the flowchart of FIG. 13, the process is terminated by powering off or a process termination interrupt.

次に、本実施の形態による手話映像生成システムの動作について、具体例を用いて説明する。この具体例では、用語列の変更として、属性情報が付加される場合について説明する。したがって、用語列変更部14は、図6で示されるものであるとする。また、サーバ1は、番組情報を放送する放送局であるとする。   Next, the operation of the sign language video generation system according to the present embodiment will be described using a specific example. In this specific example, a case where attribute information is added as a change in term string will be described. Therefore, it is assumed that the term string changing unit 14 is as shown in FIG. The server 1 is assumed to be a broadcasting station that broadcasts program information.

まず、サーバ1において、番組ID「P001」で識別される番組情報が番組情報記憶部11に蓄積されたとする。すると、そのタイミングで、字幕情報受付部12は、用語列を生成すると判断し(ステップS101)、その番組ID「P001」で識別される番組情報に付加されている1番目の字幕情報「私は花を買いました」を読み出して、用語抽出部13に渡す(ステップS102)。用語抽出部13は、その受け取った字幕情報「私は花を買いました」を形態素解析して、その形態素解析の結果を用いて自立語である用語の並び「私」「花」「買い」を抽出し、用語列変更部14に渡す(ステップS103)。   First, it is assumed that program information identified by the program ID “P001” is accumulated in the program information storage unit 11 in the server 1. Then, at that timing, the subtitle information reception unit 12 determines to generate a term string (step S101), and the first subtitle information “I am added to the program information identified by the program ID“ P001 ”. “I bought a flower” is read out and passed to the term extraction unit 13 (step S102). The term extraction unit 13 performs a morphological analysis on the received caption information “I bought a flower”, and uses the result of the morphological analysis to arrange an independent word sequence “I”, “flower”, “buy” Is extracted and passed to the term string changing unit 14 (step S103).

用語列変更部14は、その用語列に関する変更の処理を行う(ステップS104)。具体的には、用語列変更部14の属性取得手段37は、受け取った用語列を解析し(ステップS501)、その用語列に対応する属性情報「普通」を取得して属性情報付加手段38に渡す(ステップS502)。属性情報付加手段38は、用語列「私」「花」「買い」に対して、属性情報「普通」を付加する(ステップS503)。その結果、用語列は次のようになる。なお、コロンに続く情報が属性情報である。   The term string changing unit 14 performs a change process on the term string (step S104). Specifically, the attribute acquisition unit 37 of the term string changing unit 14 analyzes the received term string (step S501), acquires attribute information “normal” corresponding to the term string, and sends it to the attribute information adding unit 38. (Step S502) The attribute information adding means 38 adds the attribute information “normal” to the term strings “I”, “flower”, and “buy” (step S503). As a result, the term sequence is as follows. Information following the colon is attribute information.

「私」「花」「買い」:普通   “I” “Flowers” “Buy”: Normal

用語列変更部14は、その変更後の用語列を、図示しない記録媒体において一時的に記憶する。図14の1番目のレコードは、そのようにして記憶された用語列の一例を示す図である。図14において、番組IDと、タイムコード(始期)と、タイムコード(終期)と、用語列とが対応付けられている。番組IDは、用語列を生成する基となった字幕情報を含んでいた番組情報を識別する番組IDである。また、タイムコード(始期)は、用語列を生成する基となった字幕情報が番組情報において初めて出てくる時点の番組情報のタイムコードである。また、タイムコード(終期)は、用語列を生成する基となった字幕情報が番組情報において最後に出てくる時点の番組情報のタイムコードである。したがって、字幕情報「私は花を買いました」は、タイムコード「00(時):00(分):00(秒):01(フレーム)」から、タイムコード「00:00:05:02」まで存在することになる。   The term string changing unit 14 temporarily stores the changed term string in a recording medium (not shown). The first record in FIG. 14 is a diagram illustrating an example of a term string stored in this way. In FIG. 14, a program ID, a time code (start), a time code (end), and a term string are associated with each other. The program ID is a program ID for identifying program information that includes subtitle information that is a basis for generating a term string. The time code (starting time) is the time code of the program information at the time when the caption information that is the basis for generating the term string appears for the first time in the program information. The time code (end) is the time code of the program information at the time when the caption information that is the basis for generating the term string appears last in the program information. Accordingly, the subtitle information “I bought a flower” starts from the time code “00 (hours): 00 (minutes): 00 (seconds): 01 (frames)” and the time code “00: 00: 05: 02”. "Will exist.

この後も、番組ID「P001」で識別される番組情報の字幕情報から用語列を生成する処理が継続して行われ、図14で示されるように、その用語列が蓄積されていくことになる(ステップS102〜S106)。   Thereafter, the process of generating the term string from the caption information of the program information identified by the program ID “P001” is continuously performed, and the term string is accumulated as shown in FIG. (Steps S102 to S106).

次に、送信部15は、放送する番組のスケジュールを示すスケジュール表(図示せず)を参照し、番組ID「P001」で識別される番組情報を放送するタイミングであると判断したとする(ステップS107)。すると、送信部15は、番組情報記憶部11から番組ID「P001」で識別される番組情報のフレームを読み出す(ステップS108)。また、送信部15は、図14で示されるテーブルを参照し、その読み出したフレームのタイムコードが、タイムコード(始期)から、タイムコード(終期)までに含まれるレコードが存在するかどうか判断する。そして、存在する場合には、そのレコードに含まれる用語列を読み出す(ステップS109)。その後、送信部15は、読み出した用語列を含む番組情報を放送する(ステップS110)。なお、送信部15は、その番組情報を全て送信してしまうまで、番組情報を送信する処理を繰り返し実行する(ステップS108〜S111)。   Next, it is assumed that the transmission unit 15 refers to a schedule table (not shown) indicating the schedule of the program to be broadcast and determines that it is the timing to broadcast the program information identified by the program ID “P001” (step S107). Then, the transmission unit 15 reads a frame of program information identified by the program ID “P001” from the program information storage unit 11 (step S108). Further, the transmission unit 15 refers to the table shown in FIG. 14 and determines whether there is a record in which the time code of the read frame is included from the time code (start) to the time code (end). . If it exists, the term string included in the record is read (step S109). Thereafter, the transmission unit 15 broadcasts program information including the read term string (step S110). The transmission unit 15 repeatedly executes the process of transmitting the program information until all the program information has been transmitted (steps S108 to S111).

次に、端末装置2の動作の具体例について説明する。まず、番組関連情報を受け付ける処理について説明する。番組関連情報受付部22は、毎日、午前2時にインターネットの所定のサーバに対して、番組関連情報の送信要求を送信し、その送信に応じてそのサーバから送信されてきた番組関連情報を受信する(ステップS601)。そして、番組関連情報受付部22は、受信した番組関連情報を図示しない記録媒体に蓄積する(ステップS602)。図15は、そのようにして蓄積された番組関連情報の一例を示す図である。図15において、一のレコードが一の番組に対応しており、各レコードでは、そのレコードに対応する番組を識別する番組IDと、そのレコードに対応する番組のジャンルと、そのレコードに対応する番組の内容に関する用語とが対応付けられている。番組の内容に関する用語は、その番組に出てくる用語である。例えば、図15の1番目のレコードでは、その番組で「花」や「奈緒」「大輔」などの用語が出てくることが示されている。   Next, a specific example of the operation of the terminal device 2 will be described. First, processing for receiving program-related information will be described. The program related information reception unit 22 transmits a program related information transmission request to a predetermined server on the Internet every day at 2 am, and receives the program related information transmitted from the server in response to the transmission. (Step S601). Then, the program related information receiving unit 22 accumulates the received program related information in a recording medium (not shown) (step S602). FIG. 15 is a diagram showing an example of program-related information accumulated in this way. In FIG. 15, one record corresponds to one program, and in each record, a program ID for identifying a program corresponding to the record, a genre of a program corresponding to the record, and a program corresponding to the record Are associated with terms related to the contents of Terms related to the contents of a program are terms that appear in the program. For example, the first record in FIG. 15 shows that terms such as “flower”, “Nao”, and “Daisuke” appear in the program.

端末装置2のユーザが番組ID「P001」で識別される番組情報を受信するように端末装置2の設定を行ったとする。すると、番組ID「P001」の送信が開始されるタイミングで、受信部21は、番組情報の受信を開始すると判断し(ステップS603)、手話映像情報生成部25に番組ID「P001」で識別される番組情報の受信を開始する旨を渡す。すると、手話映像情報生成部25は、図15で示される番組関連情報を参照し、その番組ID「P001」に対応する番組のジャンル「ドラマ」と、番組の内容に関する用語「花」「奈緒」「大輔」等を読み出す。そして、それらの用語に対応付けられている手話用語対応情報のうち、番組のジャンル「ドラマ」に対応する手話用語対応情報を手話用語対応情報記憶部23から読み出して、キャッシュ記憶部24に蓄積する(ステップS604)。手話用語対応情報記憶部23では、図16で示される手話用語対応情報が記憶されていたとする。図16において、用語と、番組のジャンルと、属性情報と、手話動作情報とが対応付けられている。手話映像情報生成部25は、例えば、用語「花」に対応する手話用語対応情報をキャッシュする場合には、図16で示される用語「花」と、番組のジャンル「ドラマ」に対応する属性情報や手話動作情報を読み出して、キャッシュ記憶部24に蓄積することになる。   Assume that the terminal device 2 is set so that the user of the terminal device 2 receives the program information identified by the program ID “P001”. Then, at the timing when transmission of the program ID “P001” is started, the receiving unit 21 determines to start receiving the program information (step S603), and is identified by the sign language video information generating unit 25 with the program ID “P001”. To start receiving program information. Then, the sign language video information generation unit 25 refers to the program related information shown in FIG. 15, and the program genre “drama” corresponding to the program ID “P001” and the terms “flower” “Nao” related to the content of the program. Read "Daisuke" and so on. Then, out of the sign language term correspondence information associated with these terms, the sign language term correspondence information corresponding to the program genre “drama” is read from the sign language term correspondence information storage unit 23 and stored in the cache storage unit 24. (Step S604). It is assumed that the sign language term correspondence information storage unit 23 stores sign language term correspondence information shown in FIG. In FIG. 16, terms, program genres, attribute information, and sign language action information are associated with each other. For example, when the sign language video information generation unit 25 caches the sign language term corresponding information corresponding to the term “flower”, the attribute information corresponding to the term “flower” and the program genre “drama” shown in FIG. And sign language action information are read out and stored in the cache storage unit 24.

その後、端末装置2の受信部21は、番組ID「P001」で識別される番組情報を受信し、その番組情報を手話映像情報生成部25と出力部26に渡す(ステップS605)。手話映像情報生成部25は、手話映像情報がすでに生成されて記憶されているかどうか判断する(ステップS606)。この場合には、手話映像情報はまだ記憶されていなかったとする。すると、手話映像情報は、受け取った番組情報に含まれる用語列『「私」「花」「買い」:普通』を取得する(ステップS607)。また、手話映像情報生成部25は、図15の情報を参照し、番組ID「P001」で識別される番組のジャンル「ドラマ」を取得する。そして、手話映像情報生成部25は、取得した用語列と、属性情報「普通」と、番組のジャンル「ドラマ」とを用いて、キャッシュ記憶部24及び手話用語対応情報記憶部23を検索し、手話動作情報「D003」等を読み出して、手話映像情報を生成し(ステップS608)、図示しない記録媒体に一時的に記憶する(ステップS609)。なお、手話映像情報を一時的に記憶する際に、番組ID「P001」と、用語列『「私」「花」「買い」:普通』とに対応付けて記憶してもよい。このようにすることで、その手話映像情報がどの番組のどの用語列に対応したものであるのかが分かるようになる。   Thereafter, the receiving unit 21 of the terminal device 2 receives the program information identified by the program ID “P001”, and passes the program information to the sign language video information generating unit 25 and the output unit 26 (step S605). The sign language video information generation unit 25 determines whether the sign language video information has already been generated and stored (step S606). In this case, it is assumed that sign language video information has not yet been stored. Then, the sign language video information obtains the term string “I” “flower” “buy”: normal ”included in the received program information (step S607). Further, the sign language video information generation unit 25 refers to the information in FIG. 15 and acquires the genre “drama” of the program identified by the program ID “P001”. Then, the sign language video information generation unit 25 searches the cache storage unit 24 and the sign language term correspondence information storage unit 23 using the acquired term string, the attribute information “ordinary”, and the program genre “drama”, The sign language motion information “D003” or the like is read to generate sign language video information (step S608), and is temporarily stored in a recording medium (not shown) (step S609). When sign language video information is temporarily stored, the program ID “P001” and the term string “I” “flower” “buy”: normal ”may be stored in association with each other. By doing so, it becomes possible to know which sign language video information corresponds to which term string of which program.

出力部26は、受信部21から受け取った番組情報のフレーム数と同じだけの手話映像情報のフレームを図示しない記録媒体から読み出して、受信部21から受け取った番組情報に含めて出力する(ステップS610)。例えば、その番組情報と手話映像情報とは、図17で示されるようになる。なお、番組ID「P001」で識別される番組情報等の出力は、その番組が終了するまで継続されることになる(ステップS605〜S611)。   The output unit 26 reads out from the recording medium (not shown) as many sign language video information frames as the number of frames of the program information received from the receiving unit 21 and outputs the frames included in the program information received from the receiving unit 21 (step S610). ). For example, the program information and sign language video information are as shown in FIG. Note that the output of the program information identified by the program ID “P001” is continued until the program ends (steps S605 to S611).

なお、この具体例では、図17で示されるように、番組情報の画像内に手話映像情報が含まれるようにして出力される場合について説明したが、そうでなくてもよい。例えば、図18で示されるように、番組情報と手話映像情報とが同じ大きさで横に並べられて表示されてもよい。   In this specific example, as shown in FIG. 17, a case has been described in which sign language video information is output in an image of program information, but this need not be the case. For example, as shown in FIG. 18, program information and sign language video information may be displayed side by side with the same size.

また、この具体例では、用語列を、その用語列に対応する字幕情報の重畳されていたフレームに含めて送信する場合について説明したが、そうでなくてもよい。例えば、用語列から手話映像情報を生成するために必要な時間が大きい場合、すなわち、リアルタイムで手話映像情報を生成して表示することが困難な場合には、あらかじめ、用語列のみを先に送信しておき、端末装置2では、その用語列に応じた手話映像情報をあらかじめ生成しておき、その生成しておいた手話映像情報と、番組情報とを同期させて出力するようにしてもよい。その場合には、用語列と共に、手話映像情報と番組情報とを同期させるために用いられる情報も、サーバ1から端末装置2に送信されることが好適である。手話映像情報と番組情報とを同期させるために用いられる情報は、例えば、用語列に対応する字幕情報が表示されるフレームを特定することができる情報であってもよい。   Further, in this specific example, a case has been described in which a term string is transmitted by being included in a frame in which caption information corresponding to the term string is superimposed, but this need not be the case. For example, if the time required to generate sign language video information from a term sequence is large, that is, if it is difficult to generate and display sign language video information in real time, only the term sequence is transmitted in advance. In addition, the terminal device 2 may generate sign language video information corresponding to the term string in advance and output the generated sign language video information and the program information in synchronization. . In this case, it is preferable that information used for synchronizing the sign language video information and the program information is transmitted from the server 1 to the terminal device 2 together with the term string. The information used to synchronize the sign language video information and the program information may be information that can specify a frame in which caption information corresponding to the term string is displayed, for example.

以上のように、本実施の形態による手話映像生成システムによれば、サーバ1において字幕情報から用語を抽出したり、用語列に関する変更を行ったりした後に、その用語列を端末装置2に送信することによって、端末装置2に送信する情報量が少なくなると共に、端末装置2での処理量が軽減される。その結果、端末装置2において手話映像情報を生成するために必要な時間を減少させることができる。このようにして、サーバ1と端末装置2とにおいて適切な負荷分散を行うことができうる。   As described above, according to the sign language video generation system according to the present embodiment, after the term is extracted from the caption information in the server 1 or the term sequence is changed, the term sequence is transmitted to the terminal device 2. As a result, the amount of information transmitted to the terminal device 2 is reduced and the processing amount in the terminal device 2 is reduced. As a result, the time required to generate sign language video information in the terminal device 2 can be reduced. In this manner, appropriate load distribution can be performed between the server 1 and the terminal device 2.

なお、本実施の形態では、番組情報記憶部11で記憶されている番組情報に字幕情報が含まれる場合について説明したが、そうでなくてもよい。例えば、番組情報記憶部11で記憶されている番組情報には、字幕情報が含まれておらず、番組情報の音声情報に対して音声認識処理を行うことによって字幕情報を取得してもよい。図19は、その場合のサーバ1の構成を示すブロック図である。図19において、サーバ1は、番組情報記憶部11と、字幕情報受付部12と、用語抽出部13と、用語列変更部14と、送信部15と、音声情報受付部16と、音声認識部17とを備える。音声情報受付部16、及び音声認識部17以外の構成及び動作は、前述の説明と同様であり、その説明を省略する。音声情報受付部16は、番組の音声情報を受け付ける。音声認識部17は、音声情報受付部16が受け付けた音声情報に音声認識処理を行うことによって、字幕情報を取得する。音声認識処理はすでに公知であり、その詳細な説明を省略する。なお、図19では、音声情報受付部16が音声情報を番組情報記憶部11から読み出す場合について示しているが、そうでなくてもよい。例えば、音声情報受付部16は、外部から入力された音声情報を受け付けてもよい。なお、音声情報受付部16は、受け付けを行うためのデバイス(例えば、モデムやネットワークカードなど)を含んでもよく、あるいは含まなくてもよい。また、音声情報受付部16は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   In the present embodiment, the case has been described where subtitle information is included in the program information stored in the program information storage unit 11, but this need not be the case. For example, the program information stored in the program information storage unit 11 does not include subtitle information, and the subtitle information may be acquired by performing voice recognition processing on the audio information of the program information. FIG. 19 is a block diagram showing the configuration of the server 1 in that case. 19, the server 1 includes a program information storage unit 11, a caption information receiving unit 12, a term extracting unit 13, a term string changing unit 14, a transmitting unit 15, a voice information receiving unit 16, and a voice recognizing unit. 17. Configurations and operations other than the voice information reception unit 16 and the voice recognition unit 17 are the same as those described above, and a description thereof will be omitted. The audio information receiving unit 16 receives audio information of a program. The voice recognition unit 17 acquires subtitle information by performing voice recognition processing on the voice information received by the voice information reception unit 16. The voice recognition process is already known and will not be described in detail. Although FIG. 19 shows the case where the audio information receiving unit 16 reads the audio information from the program information storage unit 11, this need not be the case. For example, the voice information receiving unit 16 may receive voice information input from the outside. Note that the voice information receiving unit 16 may or may not include a device (for example, a modem or a network card) for receiving. The audio information receiving unit 16 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

また、本実施の形態では、サーバ1が用語列を番組情報に含めて送信する場合について説明したが、そうでなくてもよい。用語列と番組情報とを別々に送信してもよい。また、番組情報を送信しないで、用語列のみを送信するようにしてもよい。その場合には、サーバ1は、番組情報記憶部11を備えていなくてもよい。サーバ1が番組情報記憶部11を備えていない場合には、字幕情報受付部12は、例えば、外部から入力された字幕情報を受け付けてもよい。また、端末装置2は、サーバ1から番組情報を受信しない場合には、他のサーバ等から番組情報を受信してもよく、あるいは、番組情報を受信しないで手話映像情報のみを出力してもよい。   In the present embodiment, the case where the server 1 transmits a term string included in program information has been described, but this need not be the case. The term string and the program information may be transmitted separately. Further, only the term string may be transmitted without transmitting the program information. In that case, the server 1 may not include the program information storage unit 11. When the server 1 does not include the program information storage unit 11, the caption information receiving unit 12 may receive, for example, caption information input from the outside. Further, when the terminal device 2 does not receive program information from the server 1, the terminal device 2 may receive program information from another server or the like, or may output only sign language video information without receiving program information. Good.

また、本実施の形態では、端末装置2がキャッシュ記憶部24を備える場合について説明したが、そうでなくてもよい。端末装置2は、キャッシュ記憶部24を用いないで手話映像情報の生成を行ってもよい。   Moreover, although this Embodiment demonstrated the case where the terminal device 2 was provided with the cache memory | storage part 24, it may not be so. The terminal device 2 may generate sign language video information without using the cache storage unit 24.

また、本実施の形態では、端末装置2が番組関連情報を用いて手話映像情報の生成を行う場合について説明したが、そうでなくてもよい。番組関連情報を用いないで手話映像情報の生成を行ってもよい。その場合には、端末装置2は、番組関連情報受付部22を備えていなくてもよい。   In the present embodiment, the case where the terminal device 2 generates sign language video information using program-related information has been described, but this need not be the case. The sign language video information may be generated without using the program related information. In this case, the terminal device 2 may not include the program related information receiving unit 22.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。   In the above embodiment, each process or each function may be realized by centralized processing by a single device or a single system, or may be distributedly processed by a plurality of devices or a plurality of systems. It may be realized by doing.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いるしきい値や数式、アドレス等の情報等は、上記説明で明記していない場合であっても、図示しない記録媒体において、一時的に、あるいは長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、あるいは、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、あるいは、図示しない読み出し部が行ってもよい。   In the above embodiment, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component In addition, information such as threshold values, mathematical formulas, addresses, etc. used by each component in processing is retained temporarily or over a long period of time on a recording medium (not shown) even when not explicitly stated in the above description. It may be. Further, the storage of information in the recording medium (not shown) may be performed by each component or a storage unit (not shown). Further, reading of information from the recording medium (not shown) may be performed by each component or a reading unit (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いるしきい値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していない場合であっても、ユーザが適宜、それらの情報を変更できるようにしてもよく、あるいは、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。   In the above embodiment, when information used by each component, for example, information such as a threshold value, an address, and various setting values used by each component may be changed by the user Even if it is not specified in the above description, the user may be able to change the information as appropriate, or it may not be. If the information can be changed by the user, the change is realized by, for example, a not-shown receiving unit that receives a change instruction from the user and a changing unit (not shown) that changes the information in accordance with the change instruction. May be. The change instruction received by the receiving unit (not shown) may be received from an input device, information received via a communication line, or information read from a predetermined recording medium, for example. .

また、上記実施の形態において、手話映像生成システムに含まれる各装置の2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、あるいは、別々のデバイスを有してもよい。   In the above embodiment, when two or more components of each device included in the sign language video generation system have a communication device, an input device, etc., the two or more components have a physically single device. Or you may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。なお、上記実施の形態におけるサーバ1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、前記用語列変更部が変更した用語列を送信する送信部として機能させるためのプログラムである。   In the above embodiment, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. In addition, the software which implement | achieves the server 1 in the said embodiment is the following programs. That is, the program includes a subtitle information receiving unit that receives subtitle information that is information indicating a subtitle of a program, a term extracting unit that extracts a term that is an independent word from the subtitle information received by the subtitle information receiving unit, and The program for functioning as a term string changing unit that changes a term string that is a sequence of terms extracted by the term extracting unit and a transmitter that transmits the term string changed by the term string changing unit.

また、上記実施の形態における端末装置2を実現するソフトウェアは、以下のようなプログラムであってもよい。つまり、このプログラムは、コンピュータを、番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信部と、前記受信部が受信した用語列に含まれる各用語に、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部で記憶している前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、前記手話映像情報生成部が生成した手話映像情報を出力する出力部として機能させ、前記用語列は、当該用語列の属性を示す情報である属性情報が付加されており、前記手話動作情報は、属性情報の示す属性ごとの情報を少なくとも有しており、前記手話映像情報生成部は、前記用語列に含まれる属性情報に応じた手話動作情報を用いて手話映像情報を生成する、プログラムである。   Moreover, the following programs may be sufficient as the software which implement | achieves the terminal device 2 in the said embodiment. That is, the program uses a receiving unit that receives a term sequence that is a sequence of terms that are independent words extracted from subtitle information that is information indicating subtitles of a program, and a term sequence received by the receiving unit. For each term included, the sign language term correspondence information storage unit stores sign language term correspondence information, which is information for associating the term with sign language motion information that is information related to the sign language motion corresponding to the term. Using sign language action information associated with the sign language term correspondence information, a sign language image information generating unit that generates sign language image information that is information indicating a sign language image corresponding to the term string, and the sign language image information generating unit The term string is added with attribute information which is information indicating the attribute of the term string, and the sign language action information is attribute information. At least it includes information for each attribute indicated by the sign language video information generating unit generates the sign language video information using sign language operation information corresponding to the attribute information included in the term column, a program.

また、上記実施の形態における端末装置2を実現するソフトウェアは、以下のようなプログラムであってもよい。つまり、このプログラムは、コンピュータを、番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信部と、前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、前記受信部が受信した用語列に含まれる各用語に、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部で記憶されている前記手話用語対応情報で対応付けられる手話動作情報と、前記番組関連情報受付部が受け付けた番組関連情報とを用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、前記手話映像情報生成部が生成した手話映像情報を出力する出力部として機能させるためのプログラムである。   Moreover, the following programs may be sufficient as the software which implement | achieves the terminal device 2 in the said embodiment. That is, the program uses a receiving unit that receives a term sequence that is a sequence of terms that are independent words extracted from subtitle information that is information indicating subtitles of a program, and a term sequence received by the receiving unit. A program-related information receiving unit that receives program-related information, which is information related to a corresponding program, and each term included in the term string received by the receiving unit includes a term and information on the sign language operation corresponding to the term. Sign language action information associated with the sign language term correspondence information stored in the sign language term correspondence information storage unit in which sign language term correspondence information, which is information for associating certain sign language action information, and the program related information receiving unit, A sign language video information generating unit that generates sign language video information, which is information indicating a sign language video corresponding to the term sequence, using the received program related information; Is a program for generating part to function as an output unit for outputting the generated sign language video information.

なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を受信する受信部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。   In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, a function that can be realized only by hardware such as a modem and an interface card in a receiving unit that receives information, an output unit that outputs information, and the like is not included at least in the functions realized by the program.

また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。   Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by Further, this program may be used as a program constituting a program product.

また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図20は、上記プログラムを実行して、上記実施の形態によるサーバ1や端末装置2を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現されうる。   FIG. 20 is a schematic diagram illustrating an example of an external appearance of a computer that executes the program and realizes the server 1 and the terminal device 2 according to the embodiment. The above-described embodiment can be realized by computer hardware and a computer program executed on the computer hardware.

図20において、コンピュータシステム900は、CD−ROM(Compact Disk Read Only Memory)ドライブ905、FD(Floppy(登録商標) Disk)ドライブ906を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。   20, a computer system 900 includes a computer 901 including a CD-ROM (Compact Disk Read Only Memory) drive 905 and an FD (Floppy (registered trademark) Disk) drive 906, a keyboard 902, a mouse 903, a monitor 904, and the like. Is provided.

図21は、コンピュータシステム900の内部構成を示す図である。図21において、コンピュータ901は、CD−ROMドライブ905、FDドライブ906に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM(Random Access Memory)913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANへの接続を提供する図示しないネットワークカードを含んでいてもよい。   FIG. 21 is a diagram showing an internal configuration of the computer system 900. In FIG. 21, in addition to the CD-ROM drive 905 and the FD drive 906, a computer 901 is connected to an MPU (Micro Processing Unit) 911, a ROM 912 for storing a program such as a bootup program, and the MPU 911. A RAM (Random Access Memory) 913 that temporarily stores program instructions and provides a temporary storage space, a hard disk 914 that stores application programs, system programs, and data, and an MPU 911 and a ROM 912 are interconnected. And a bus 915. The computer 901 may include a network card (not shown) that provides connection to the LAN.

コンピュータシステム900に、上記実施の形態によるサーバ1や端末装置2の機能を実行させるプログラムは、CD−ROM921、またはFD922に記憶されて、CD−ROMドライブ905、またはFDドライブ906に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD−ROM921やFD922、またはネットワークから直接、ロードされてもよい。   A program that causes the computer system 900 to execute the functions of the server 1 and the terminal device 2 according to the above-described embodiment is stored in the CD-ROM 921 or the FD 922, inserted into the CD-ROM drive 905 or the FD drive 906, and the hard disk 914 may be forwarded. Instead, the program may be transmitted to the computer 901 via a network (not shown) and stored in the hard disk 914. The program is loaded into the RAM 913 when executed. The program may be loaded directly from the CD-ROM 921, the FD 922, or the network.

プログラムは、コンピュータ901に、上記実施の形態によるサーバ1や端末装置2の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。   The program does not necessarily include an operating system (OS) or a third-party program that causes the computer 901 to execute the functions of the server 1 and the terminal device 2 according to the above-described embodiment. The program may include only a part of an instruction that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 900 operates is well known and will not be described in detail.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上より、本発明による手話映像生成システム等によれば、サーバと端末装置とにおいて適切な負荷分散を行うことができるという効果が得られ、手話映像を生成するシステム等として有用である。   As described above, according to the sign language video generation system and the like according to the present invention, an effect that appropriate load distribution can be performed between the server and the terminal device is obtained, which is useful as a system for generating a sign language video.

本発明の実施の形態1による手話映像生成システムの構成を示すブロック図The block diagram which shows the structure of the sign language video generation system by Embodiment 1 of this invention. 同実施の形態によるサーバの構成を示すブロック図The block diagram which shows the structure of the server by the embodiment 同実施の形態による用語列変更部の構成を示すブロック図The block diagram which shows the structure of the term string change part by the embodiment 同実施の形態による用語列変更部の構成を示すブロック図The block diagram which shows the structure of the term string change part by the embodiment 同実施の形態による用語列変更部の構成を示すブロック図The block diagram which shows the structure of the term string change part by the embodiment 同実施の形態による用語列変更部の構成を示すブロック図The block diagram which shows the structure of the term string change part by the embodiment 同実施の形態による端末装置の構成を示すブロック図The block diagram which shows the structure of the terminal device by the embodiment 同実施の形態によるサーバの動作を示すフローチャートThe flowchart which shows operation | movement of the server by the embodiment 同実施の形態によるサーバの動作を示すフローチャートThe flowchart which shows operation | movement of the server by the embodiment 同実施の形態によるサーバの動作を示すフローチャートThe flowchart which shows operation | movement of the server by the embodiment 同実施の形態によるサーバの動作を示すフローチャートThe flowchart which shows operation | movement of the server by the embodiment 同実施の形態によるサーバの動作を示すフローチャートThe flowchart which shows operation | movement of the server by the embodiment 同実施の形態による端末装置の動作を示すフローチャートThe flowchart which shows operation | movement of the terminal device by the embodiment 同実施の形態における用語列等の一例を示す図The figure which shows an example of the term string etc. in the embodiment 同実施の形態における番組関連情報の一例を示す図The figure which shows an example of the program relevant information in the embodiment 同実施の形態における手話用語対応情報の一例を示す図The figure which shows an example of the sign language term corresponding information in the embodiment 同実施の形態における出力された番組情報等の一例を示す図The figure which shows an example of the program information etc. which were output in the embodiment 同実施の形態における出力された番組情報等の一例を示す図The figure which shows an example of the program information etc. which were output in the embodiment 他の実施の形態によるサーバの構成を示すブロック図The block diagram which shows the structure of the server by other embodiment. 上記実施の形態におけるコンピュータシステムの外観一例を示す模式図The schematic diagram which shows an example of the external appearance of the computer system in the said embodiment 上記施の形態におけるコンピュータシステムの構成の一例を示す図The figure which shows an example of a structure of the computer system in the said embodiment

符号の説明Explanation of symbols

1 サーバ
2 端末装置
11 番組情報記憶部
12 字幕情報受付部
13 用語抽出部
14 用語列変更部
15 送信部
16 音声情報受付部
17 音声認識部
21 受信部
22 番組関連情報受付部
23 手話用語対応情報記憶部
24 キャッシュ記憶部
25 手話映像情報生成部
26 出力部
31 用語対応情報記憶手段
32 用語変換手段
33 用語順序情報記憶手段
34 用語並び替え手段
35 検出手段
36 用語補足手段
37 属性取得手段
38 属性情報付加手段
DESCRIPTION OF SYMBOLS 1 Server 2 Terminal device 11 Program information storage part 12 Subtitle information reception part 13 Term extraction part 14 Term string change part 15 Transmission part 16 Voice information reception part 17 Voice recognition part 21 Reception part 22 Program related information reception part 23 Sign language term corresponding information Storage unit 24 Cache storage unit 25 Sign language video information generation unit 26 Output unit 31 Term correspondence information storage unit 32 Term conversion unit 33 Term order information storage unit 34 Term rearrangement unit 35 Detection unit 36 Term supplementation unit 37 Attribute acquisition unit 38 Attribute information Additional means

Claims (17)

サーバと、端末装置とを備えた手話映像生成システムであって、
前記サーバは、
番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、
前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、
前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、
前記用語列変更部が変更した用語列を送信する送信部と、を備え、
前記端末装置は、
前記用語列を受信する受信部と、
用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部と、
前記受信部が受信した用語列に含まれる各用語に、前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、
前記手話映像情報生成部が生成した手話映像情報を出力する出力部と、を備え
前記用語列変更部は、
変換の対象となる用語である変換対象用語と、変換後の用語である変換後用語とを対応付ける情報である用語対応情報が記憶される用語対応情報記憶手段と、
前記用語列に前記変換対象用語が含まれる場合に、当該変換対象用語に対応する変換後用語に当該変換対象用語を変換する用語変換手段と、を備え、
前記用語対応情報は、前記手話用語対応情報で手話動作情報と対応付けられていない変換対象用語と、前記手話用語対応情報で手話動作情報と対応付けられている変換後用語とを対応付ける情報である、手話映像生成システム。
A sign language video generation system comprising a server and a terminal device,
The server
A subtitle information receiving unit that receives subtitle information that is information indicating the subtitles of the program;
A term extraction unit for extracting a term that is an independent word from the subtitle information received by the subtitle information reception unit;
A term string changing unit for changing a term string that is a sequence of terms extracted by the term extracting unit;
A transmission unit that transmits the term string changed by the term string changing unit,
The terminal device
A receiving unit for receiving the term string;
A sign language term correspondence information storage unit that stores sign language term correspondence information that is information that associates a term with sign language motion information that is information related to the sign language motion corresponding to the term;
Using the sign language action information associated with each term included in the term string received by the receiving unit in the sign language term correspondence information, sign language video information that is information indicating a sign language video corresponding to the term string is generated. A sign language video information generation unit,
An output unit for outputting the sign language video information generated by the sign language video information generation unit ,
The term string changing unit
A term correspondence information storage means for storing term correspondence information that is information for associating a conversion target term that is a term to be converted with a converted term that is a term after conversion;
A term conversion means for converting the conversion target term into a post-conversion term corresponding to the conversion target term when the conversion target term is included in the term string;
The term correspondence information is information that associates a conversion target term that is not associated with sign language action information in the sign language term correspondence information and a converted term that is associated with sign language action information in the sign language term correspondence information. , Sign language video generation system.
サーバと、端末装置とを備えた手話映像生成システムであって、
前記サーバは、
番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、
前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、
前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、
前記用語列変更部が変更した用語列を送信する送信部と、を備え、
前記端末装置は、
前記用語列を受信する受信部と、
前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、
用語と、当該用語に対応した手話の動作に関する情報である手話動作情報と、番組関連情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部と、
前記受信部が受信した用語列に含まれる各用語と、前記番組関連情報受付部が受け付けた番組関連情報とに、前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、
前記手話映像情報生成部が生成した手話映像情報を出力する出力部と、を備えた、手話映像生成システム。
A sign language video generation system comprising a server and a terminal device,
The server
A subtitle information receiving unit that receives subtitle information that is information indicating the subtitles of the program;
A term extraction unit for extracting a term that is an independent word from the subtitle information received by the subtitle information reception unit;
A term string changing unit for changing a term string that is a sequence of terms extracted by the term extracting unit;
A transmission unit that transmits the term string changed by the term string changing unit,
The terminal device
A receiving unit for receiving the term string;
A program related information receiving unit that receives program related information that is information related to a program corresponding to the term sequence received by the receiving unit;
A sign language term correspondence information storage unit for storing sign language term correspondence information, which is information for associating a term , sign language behavior information that is information about sign language behavior corresponding to the term, and program related information ;
Using the sign language action information associated with each term included in the term sequence received by the receiving unit and the program related information received by the program related information receiving unit using the sign language term correspondence information, A sign language video information generating unit for generating sign language video information which is information indicating a corresponding sign language video;
A sign language video generation system comprising: an output unit that outputs sign language video information generated by the sign language video information generation unit .
サーバと、端末装置とを備えた手話映像生成システムであって、
前記サーバは、
番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、
前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、
前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、
前記用語列変更部が変更した用語列を送信する送信部と、を備え、
前記端末装置は、
前記用語列を受信する受信部と、
用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部と、
前記受信部が受信した用語列に含まれる各用語に、前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、
前記手話映像情報生成部が生成した手話映像情報を出力する出力部と、
前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、
前記手話用語対応情報記憶部よりも高速にアクセス可能なキャッシュ記憶部と、を備え、
前記手話映像情報生成部は、前記番組関連情報受付部が受け付けた番組関連情報を用いて、手話動作情報を前記キャッシュ記憶部にあらかじめ記憶しておき、当該キャッシュ記憶部で記憶されている手話動作情報をも用いて手話映像情報を生成する手話映像生成システム。
A sign language video generation system comprising a server and a terminal device,
The server
A subtitle information receiving unit that receives subtitle information that is information indicating the subtitles of the program;
A term extraction unit for extracting a term that is an independent word from the subtitle information received by the subtitle information reception unit;
A term string changing unit for changing a term string that is a sequence of terms extracted by the term extracting unit;
A transmission unit that transmits the term string changed by the term string changing unit,
The terminal device
A receiving unit for receiving the term string;
A sign language term correspondence information storage unit that stores sign language term correspondence information that is information that associates a term with sign language motion information that is information related to the sign language motion corresponding to the term;
Using the sign language action information associated with each term included in the term string received by the receiving unit in the sign language term correspondence information, sign language video information that is information indicating a sign language video corresponding to the term string is generated. A sign language video information generation unit,
An output unit for outputting sign language video information generated by the sign language video information generation unit;
A program related information receiving unit that receives program related information that is information related to a program corresponding to the term sequence received by the receiving unit;
And a accessible cache storage unit faster than the sign language term correspondence information storage unit,
The sign language video information generation unit stores in advance the sign language operation information in the cache storage unit using the program related information received by the program related information reception unit, and the sign language operation stored in the cache storage unit information to generate a sign language video information using also a sign language video generation system.
前記番組関連情報は、番組のジャンルを示す情報である、請求項2または請求項記載の手話映像生成システム。 The program-related information is information indicating the genre of the program, according to claim 2 or claim 3 Sign image generation system according. 前記番組関連情報は、番組の内容に関する用語を示す情報であり、
前記手話映像情報生成部は、前記番組関連情報の示す用語に対応する手話動作情報を前記キャッシュ記憶部に記憶しておく、請求項記載の手話映像生成システム。
The program related information is information indicating terms relating to the contents of the program,
The sign language video generation system according to claim 3 , wherein the sign language video information generation unit stores, in the cache storage unit, sign language action information corresponding to a term indicated by the program related information.
前記サーバは、
番組の音声情報を受け付ける音声情報受付部と、
前記音声情報受付部が受け付けた音声情報に音声認識処理を行うことによって字幕情報を取得する音声認識部と、をさらに備え、
前記字幕情報受付部は、前記音声認識部が音声認識処理を行った結果である字幕情報を受け付ける、請求項1から請求項のいずれか記載の手話映像生成システム。
The server
An audio information receiving unit for receiving audio information of the program;
A voice recognition unit that obtains subtitle information by performing voice recognition processing on the voice information received by the voice information reception unit;
The subtitle information receiving unit, the voice recognition unit accepts the subtitle information that is the result of speech recognition process, the sign language video generation system according to any one of claims 1 to 5.
前記サーバは、
番組の情報である番組情報が記憶される番組情報記憶部をさらに備え、
前記送信部は、前記用語列と共に、当該用語列に対応する番組情報を前記番組情報記憶部から読み出して送信し、
前記受信部は、前記用語列と共に、前記送信部が送信した番組情報をも受信し、
前記出力部は、手話映像情報と共に、前記受信部が受信した番組情報をも出力する、請求項1から請求項のいずれか記載の手話映像生成システム。
The server
A program information storage unit for storing program information that is program information;
The transmission unit reads the program information corresponding to the term string together with the term string from the program information storage unit and transmits the program information,
The receiving unit also receives the program information transmitted by the transmitting unit together with the term string,
The sign language image generation system according to any one of claims 1 to 6 , wherein the output unit outputs the program information received by the receiving unit together with the sign language image information.
前記送信部は、情報を放送するものである、請求項1から請求項のいずれか記載の手話映像生成システム。 The transmission unit is for broadcasting the information, sign language video generation system according to any one of claims 1 to 7. 番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、
前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、
前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、
前記用語列変更部が変更した用語列を端末装置に送信する送信部と、を備え
前記用語列変更部は、
変換の対象となる用語である変換対象用語と、変換後の用語である変換後用語とを対応付ける情報である用語対応情報が記憶される用語対応情報記憶手段と、
前記用語列に前記変換対象用語が含まれる場合に、当該変換対象用語に対応する変換後用語に当該変換対象用語を変換する用語変換手段と、を備え、
前記用語対応情報は、前記端末装置において、用語列から手話映像情報を生成する際に用いられる、用語と当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報で手話動作情報と対応付けられていない変換対象用語と、前記手話用語対応情報で手話動作情報と対応付けられている変換後用語とを対応付ける情報である、サーバ。
A subtitle information receiving unit that receives subtitle information that is information indicating the subtitles of the program;
A term extraction unit for extracting a term that is an independent word from the subtitle information received by the subtitle information reception unit;
A term string changing unit for changing a term string that is a sequence of terms extracted by the term extracting unit;
A transmission unit that transmits the term sequence changed by the term sequence change unit to the terminal device ,
The term string changing unit
A term correspondence information storage means for storing term correspondence information that is information for associating a conversion target term that is a term to be converted with a converted term that is a term after conversion;
A term conversion means for converting the conversion target term into a post-conversion term corresponding to the conversion target term when the conversion target term is included in the term string;
The term correspondence information is information used to generate sign language video information from a term string in the terminal device, and is information that associates a term with sign language action information that is information related to a sign language action corresponding to the term. A server that is information that associates a conversion target term that is not associated with sign language action information in correspondence information with a converted term that is associated with sign language action information in the sign language term correspondence information .
番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信部と、
前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、
用語と、当該用語に対応した手話の動作に関する情報である手話動作情報と、番組関連情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部と
記受信部が受信した用語列に含まれる各用語と、前記番組関連情報受付部が受け付けた番組関連情報とに前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、
前記手話映像情報生成部が生成した手話映像情報を出力する出力部と、を備えた端末装置。
A receiving unit that receives a term string that is a sequence of terms that are independent words extracted from subtitle information that is information indicating subtitles of a program;
A program related information receiving unit that receives program related information that is information related to a program corresponding to the term sequence received by the receiving unit;
A sign language term correspondence information storage unit for storing sign language term correspondence information, which is information for associating a term , sign language behavior information that is information about sign language behavior corresponding to the term, and program related information ;
With each term pre Symbol receiver is included in the term sequence received, the sign language operation information which is associated with the sign language terms corresponding information to the program-related information the program-related information accepting unit accepts, the term column A sign language video information generating unit for generating sign language video information which is information indicating a sign language video corresponding to
An output unit that outputs sign language video information generated by the sign language video information generation unit.
番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信部と、A receiving unit that receives a term string that is a sequence of terms that are independent words extracted from subtitle information that is information indicating subtitles of a program;
用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部と、A sign language term correspondence information storage unit that stores sign language term correspondence information that is information that associates a term with sign language motion information that is information related to the sign language motion corresponding to the term
前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、A program related information receiving unit that receives program related information that is information related to a program corresponding to the term sequence received by the receiving unit;
前記受信部が受信した用語列に含まれる各用語に前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、Using the sign language action information associated with each term included in the term string received by the receiving unit using the sign language term correspondence information, sign language video information that is information indicating a sign language video corresponding to the term string is generated. A sign language video information generation unit;
前記手話映像情報生成部が生成した手話映像情報を出力する出力部と、An output unit for outputting sign language video information generated by the sign language video information generation unit;
前記手話用語対応情報記憶部よりも高速にアクセス可能なキャッシュ記憶部と、を備え、A cache storage unit accessible at a higher speed than the sign language term information storage unit,
前記手話映像情報生成部は、前記番組関連情報受付部が受け付けた番組関連情報を用いて、手話動作情報を前記キャッシュ記憶部にあらかじめ記憶しておき、当該キャッシュ記憶部で記憶されている手話動作情報をも用いて手話映像情報を生成する、端末装置。The sign language video information generation unit stores in advance the sign language operation information in the cache storage unit using the program related information received by the program related information reception unit, and the sign language operation stored in the cache storage unit A terminal device that generates sign language video information using information as well.
変換の対象となる用語である変換対象用語と変換後の用語である変換後用語とを対応付ける情報である用語対応情報が記憶される用語対応情報記憶手段及び用語変換手段を有する用語列変更部と、字幕情報受付部と、用語抽出部と、送信部とを用いて処理される情報処理方法であって、
前記字幕情報受付部が、番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付ステップと、
前記用語抽出部が、前記字幕情報受付ステップ受け付けた字幕情報から自立語である用語を抽出する用語抽出ステップと、
前記用語列変更部が、前記用語抽出ステップで抽出した用語の並びである用語列に関する変更を行う用語列変更ステップと、
前記送信部が、前記用語列変更ステップで変更した用語列を端末装置に送信する送信ステップと、を備え
前記用語列変更ステップは、
前記用語変換手段が、前記用語列に前記変換対象用語が含まれる場合に、当該変換対象用語に対応する変換後用語に当該変換対象用語を変換する用語変換ステップを有し、
前記用語対応情報は、前記端末装置において、用語列から手話映像情報を生成する際に用いられる、用語と当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報で手話動作情報と対応付けられていない変換対象用語と、前記手話用語対応情報で手話動作情報と対応付けられている変換後用語とを対応付ける情報である、情報処理方法。
A term correspondence information storage means for storing term correspondence information that is information for associating a conversion target term that is a term to be converted with a converted term that is a term after conversion, and a term string changing unit having term conversion means; An information processing method processed using a caption information reception unit, a term extraction unit, and a transmission unit,
The subtitle information receiving unit receives subtitle information, which is information indicating the subtitles of the program,
The term extracting unit extracts a term that is an independent word from the caption information received in the caption information receiving step , and
A term string changing step in which the term string changing unit changes a term string that is a sequence of terms extracted in the term extracting step;
The transmission unit includes a transmission step of transmitting the term sequence changed in the term sequence change step to the terminal device ,
The term string changing step includes:
When the term conversion means includes the conversion target term in the term string, the term conversion unit has a term conversion step of converting the conversion target term into a post-conversion term corresponding to the conversion target term,
The term correspondence information is information used to generate sign language video information from a term string in the terminal device, and is information that associates a term with sign language action information that is information related to a sign language action corresponding to the term. An information processing method , which is information for associating a conversion target term that is not associated with sign language action information in correspondence information and a converted term that is associated with sign language action information in the sign language term correspondence information .
受信部と、番組関連情報受付部と、手話映像情報生成部と、出力部とを用いて処理される情報処理方法であって、
前記受信部が、番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信ステップと、
前記番組関連情報受付部が、前記受信ステップで受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付ステップと、
前記手話映像情報生成部が、前記受信ステップで受信した用語列に含まれる各用語と前記番組関連情報受付ステップで受け付けた番組関連情報とに、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報と、番組関連情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部で記憶されている前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成ステップと、
前記出力部が、前記手話映像情報生成ステップで生成した手話映像情報を出力する出力ステップと、を備えた情報処理方法。
An information processing method processed using a receiving unit, a program related information receiving unit, a sign language video information generating unit, and an output unit,
A receiving step of the receiving unit receives the terms column is a sequence of terms is independent word extracted from the caption information is information indicating the subtitle of the program,
A program related information receiving step in which the program related information receiving unit receives program related information which is information related to a program corresponding to the term string received in the receiving step;
The sign language video information generating unit includes information on terms included in the term string received in the receiving step and program related information received in the program related information receiving step, and information on sign language operations corresponding to the terms. using the sign language motion information is, the sign language operation information which is associated with the sign language terms corresponding information sign language terms corresponding information which is information for associating the program related information are stored in the sign language terms corresponding information storage unit to be stored A sign language video information generating step for generating sign language video information that is information indicating a sign language video corresponding to the term string;
An information processing method the output portion has and an output step of outputting a sign language video information generated by the sign language video information generating step.
受信部と、番組関連情報受付部と、手話映像情報生成部と、出力部とを用いて処理される情報処理方法であって、An information processing method processed using a receiving unit, a program related information receiving unit, a sign language video information generating unit, and an output unit,
前記受信部が、番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信ステップと、A receiving step in which the receiving unit receives a term string that is a sequence of terms that are independent words extracted from caption information that is information indicating captions of a program;
前記番組関連情報受付部が、前記受信ステップで受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付ステップと、A program related information receiving step in which the program related information receiving unit receives program related information which is information related to a program corresponding to the term string received in the receiving step;
前記手話映像情報生成部が、前記受信ステップで受信した用語列に含まれる各用語に、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部で記憶されている前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成ステップと、The sign language video information generation unit is information for associating each term included in the term string received in the reception step with a term and sign language motion information that is information related to the sign language motion corresponding to the term. Sign language video information, which is information indicating a sign language video corresponding to the term string, using sign language action information associated with the sign language term correspondence information stored in the sign language term correspondence information storage unit in which information is stored. A sign language video information generation step to generate;
前記出力部が、前記手話映像情報生成ステップで生成した手話映像情報を出力する出力ステップと、を備え、The output unit includes an output step of outputting the sign language video information generated in the sign language video information generation step;
前記手話映像情報生成ステップにおいて、前記番組関連情報受付ステップで受け付けた番組関連情報を用いて、手話動作情報を、前記手話用語対応情報記憶部よりも高速にアクセス可能なキャッシュ記憶部にあらかじめ記憶しておき、当該キャッシュ記憶部で記憶されている手話動作情報をも用いて手話映像情報を生成する、情報処理方法。In the sign language video information generation step, using the program related information received in the program related information receiving step, sign language action information is stored in advance in a cache storage unit accessible at a higher speed than the sign language term correspondence information storage unit. An information processing method for generating sign language video information using sign language action information stored in the cache storage unit.
変換の対象となる用語である変換対象用語と、変換後の用語である変換後用語とを対応付ける情報である用語対応情報が記憶される用語対応情報記憶手段にアクセス可能なコンピュータを、
番組の字幕を示す情報である字幕情報を受け付ける字幕情報受付部と、
前記字幕情報受付部が受け付けた字幕情報から自立語である用語を抽出する用語抽出部と、
前記用語抽出部が抽出した用語の並びである用語列に関する変更を行う用語列変更部と、
前記用語列変更部が変更した用語列を端末装置に送信する送信部として機能させ
前記用語列変更部は、
前記用語列に前記変換対象用語が含まれる場合に、当該変換対象用語に対応する変換後用語に当該変換対象用語を変換する用語変換手段を備え、
前記用語対応情報は、前記端末装置において、用語列から手話映像情報を生成する際に用いられる、用語と当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報で手話動作情報と対応付けられていない変換対象用語と、前記手話用語対応情報で手話動作情報と対応付けられている変換後用語とを対応付ける情報である、プログラム。
A computer that can access term correspondence information storage means in which term correspondence information, which is information that associates a conversion target term that is a conversion target term with a converted term that is a converted term, is stored .
A subtitle information receiving unit that receives subtitle information that is information indicating the subtitles of the program;
A term extraction unit for extracting a term that is an independent word from the subtitle information received by the subtitle information reception unit;
A term string changing unit for changing a term string that is a sequence of terms extracted by the term extracting unit;
The term string changed by the term string changing unit is caused to function as a transmission unit that transmits to the terminal device ,
The term string changing unit
When the conversion target term is included in the term string, the conversion unit includes a term conversion unit that converts the conversion target term into a post-conversion term corresponding to the conversion target term,
The term correspondence information is information used to generate sign language video information from a term string in the terminal device, and is information that associates a term with sign language action information that is information related to a sign language action corresponding to the term. A program that is information that associates a conversion target term that is not associated with sign language action information in correspondence information and a converted term that is associated with sign language action information in the sign language term correspondence information .
コンピュータを、
番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信部と、
前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、
前記受信部が受信した用語列に含まれる各用語と前記番組関連情報受付部が受け付けた番組関連情報とに、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報と、番組関連情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部で記憶されている前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、
前記手話映像情報生成部が生成した手話映像情報を出力する出力部として機能させるためのプログラム。
Computer
A receiving unit that receives a term string that is a sequence of terms that are independent words extracted from subtitle information that is information indicating subtitles of a program;
A program related information receiving unit that receives program related information that is information related to a program corresponding to the term sequence received by the receiving unit;
Each term included in the term string received by the receiving unit and the program-related information received by the program-related information receiving unit include a term, sign language action information that is information related to sign language action corresponding to the term, and a program using sign language operation information which is associated with the sign language terms corresponding information sign language terms corresponding information which is information for associating the related information are stored in the sign language terms corresponding information storage unit to be stored, corresponding to the term column A sign language video information generation unit for generating sign language video information which is information indicating a sign language video;
A program for functioning as an output unit that outputs sign language video information generated by the sign language video information generation unit.
コンピュータを、Computer
番組の字幕を示す情報である字幕情報から抽出された自立語である用語の並びである用語列を受信する受信部と、A receiving unit that receives a term string that is a sequence of terms that are independent words extracted from subtitle information that is information indicating subtitles of a program;
前記受信部が受信した用語列に対応する番組に関連する情報である番組関連情報を受け付ける番組関連情報受付部と、A program related information receiving unit that receives program related information that is information related to a program corresponding to the term sequence received by the receiving unit;
前記受信部が受信した用語列に含まれる各用語に、用語と、当該用語に対応した手話の動作に関する情報である手話動作情報とを対応付ける情報である手話用語対応情報が記憶される手話用語対応情報記憶部で記憶されている前記手話用語対応情報で対応付けられる手話動作情報を用いて、当該用語列に対応する手話の映像を示す情報である手話映像情報を生成する手話映像情報生成部と、Sign language term correspondence information in which each term included in the term string received by the receiving unit is stored with sign language term correspondence information that is information that associates a term with sign language action information that is information related to sign language action corresponding to the term. A sign language video information generating unit that generates sign language video information that is information indicating a video of a sign language corresponding to the term sequence, using sign language action information associated with the sign language term correspondence information stored in the information storage unit; ,
前記手話映像情報生成部が生成した手話映像情報を出力する出力部として機能させ、Function as an output unit that outputs the sign language video information generated by the sign language video information generation unit,
前記手話映像情報生成部は、前記番組関連情報受付部が受け付けた番組関連情報を用いて、手話動作情報を、前記手話用語対応情報記憶部よりも高速にアクセス可能なキャッシュ記憶部にあらかじめ記憶しておき、当該キャッシュ記憶部で記憶されている手話動作情報をも用いて手話映像情報を生成する、プログラム。The sign language video information generation unit stores in advance a sign language action information in a cache storage unit accessible at a higher speed than the sign language term correspondence information storage unit using the program related information received by the program related information reception unit. A program for generating sign language video information using the sign language action information stored in the cache storage unit.
JP2008194070A 2008-07-28 2008-07-28 Sign language video generation system, server, terminal device, information processing method, and program Expired - Fee Related JP5213572B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008194070A JP5213572B2 (en) 2008-07-28 2008-07-28 Sign language video generation system, server, terminal device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008194070A JP5213572B2 (en) 2008-07-28 2008-07-28 Sign language video generation system, server, terminal device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2010032733A JP2010032733A (en) 2010-02-12
JP5213572B2 true JP5213572B2 (en) 2013-06-19

Family

ID=41737285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008194070A Expired - Fee Related JP5213572B2 (en) 2008-07-28 2008-07-28 Sign language video generation system, server, terminal device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5213572B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061044B1 (en) * 2013-04-30 2020-01-02 삼성전자 주식회사 Method and system for translating sign language and descriptive video service
JP6401505B2 (en) * 2014-06-06 2018-10-10 日本放送協会 Sign language CG generation apparatus and program thereof
JP2016045758A (en) * 2014-08-25 2016-04-04 シャープ株式会社 Network system, voice output device, server, voice output method, and voice output program
CN104866825B (en) * 2015-05-17 2019-01-29 华南理工大学 A kind of sign language video frame sequence classification method based on Hu square

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4210723B2 (en) * 1999-03-17 2009-01-21 独立行政法人情報通信研究機構 Automatic caption program production system
JP3968277B2 (en) * 2002-08-26 2007-08-29 株式会社日立製作所 Mail server, program for realizing the mail server, and portable terminal
JP4354337B2 (en) * 2004-06-04 2009-10-28 株式会社第一興商 Karaoke device with sign language learning function
KR100819251B1 (en) * 2005-01-31 2008-04-03 삼성전자주식회사 System and method for providing sign language video data in a broadcasting and telecommunication system

Also Published As

Publication number Publication date
JP2010032733A (en) 2010-02-12

Similar Documents

Publication Publication Date Title
US8732783B2 (en) Apparatus and method for providing additional information using extension subtitles file
US9888279B2 (en) Content based video content segmentation
KR101289267B1 (en) Apparatus and method for dtv closed-captioning processing in broadcasting and communication system
KR101899588B1 (en) System for automatically generating a sign language animation data, broadcasting system using the same and broadcasting method
CN110087127B (en) Using an audio stream to identify metadata associated with a currently playing television program
US20030065503A1 (en) Multi-lingual transcription system
WO2014155377A1 (en) Method and system for automatically adding subtitles to streaming media content
JP2002300495A (en) Caption system based on utterance recognition
US8453179B2 (en) Linking real time media context to related applications and services
US20140208351A1 (en) Video processing apparatus, method and server
CN112616062B (en) Subtitle display method and device, electronic equipment and storage medium
CN113035199A (en) Audio processing method, device, equipment and readable storage medium
JP5213572B2 (en) Sign language video generation system, server, terminal device, information processing method, and program
JP5202217B2 (en) Broadcast receiving apparatus and program for extracting current keywords from broadcast contents
JP2008252322A (en) Apparatus and method for summary presentation
KR102229130B1 (en) Apparatus for providing of digital broadcasting using real time translation
US10796089B2 (en) Enhanced timed text in video streaming
EP2811752B1 (en) Synchronization between multimedia flows and social network threads
US8130318B2 (en) Method and audio/video device for generating response data related to selected caption data
KR100796278B1 (en) The apparatus and method of receiving of talking with the hands with caption
KR20060070131A (en) Text contents conversion store apparatus and method of digital broadcasting receiver
KR20130032655A (en) Sign language broadcasting system and method using serch
KR102552533B1 (en) Device and method for providing subtitle service
US20220353584A1 (en) Optimal method to signal web-based subtitles
JP2004029268A (en) Voice interactive device and voice interactive method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130226

R150 Certificate of patent or registration of utility model

Ref document number: 5213572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees