JP2020135505A - 情報処理装置、及びプログラム - Google Patents

情報処理装置、及びプログラム Download PDF

Info

Publication number
JP2020135505A
JP2020135505A JP2019029162A JP2019029162A JP2020135505A JP 2020135505 A JP2020135505 A JP 2020135505A JP 2019029162 A JP2019029162 A JP 2019029162A JP 2019029162 A JP2019029162 A JP 2019029162A JP 2020135505 A JP2020135505 A JP 2020135505A
Authority
JP
Japan
Prior art keywords
sign language
web content
character information
character
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019029162A
Other languages
English (en)
Other versions
JP7184669B2 (ja
Inventor
翼 内田
Tsubasa Uchida
翼 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019029162A priority Critical patent/JP7184669B2/ja
Publication of JP2020135505A publication Critical patent/JP2020135505A/ja
Application granted granted Critical
Publication of JP7184669B2 publication Critical patent/JP7184669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】Webコンテンツの文字情報を手話で表示させること。【解決手段】情報処理装置(手話CG配信サーバ)は、端末のWebブラウザに表示されているWebコンテンツの文字情報のうち、ユーザにより選択された部分の文字情報の背景に基づいて、手話CG(Computer Graphics)において手話の動作をするキャラクターの背景を決定し、Webコンテンツにおいてユーザにより選択された部分の文字情報を手話に変換し、変換した手話の動作をキャラクターが行う手話CGを生成する生成部と、生成部により生成された手話CGを、Webブラウザに表示させる表示制御部と、を有する。【選択図】図2

Description

本発明は、情報処理装置、及びプログラムに関する。
従来、日本語と手話との対訳データ(コーパス)を用いて、日本語のテキストデータを手話言語に機械翻訳する技術が知られている(例えば、特許文献1、2を参照)。また、従来、ニュース等の内容を手話話者が手話で伝える動画を撮影しておき、撮影した動画をニュースの放送やWebサイトで配信するサービスも知られている。
特開2013−186673号公報 特開2014−021180号公報
従来技術では、例えば、Webコンテンツの文字情報を手話で表示させることについては検討されていない。そこで、Webコンテンツの文字情報を手話で表示させる技術を提供することを目的とする。
本開示の一実施形態に係る情報処理装置は、端末のWebブラウザに表示されているWebコンテンツの文字情報のうち、ユーザにより選択された部分の文字情報の背景に基づいて、手話CG(Computer Graphics)において手話の動作をするキャラクターの背景を決定し、前記Webコンテンツにおいて前記ユーザにより選択された部分の文字情報を手話に変換し、変換した手話の動作を前記キャラクターが行う手話CGを生成する生成部と、前記生成部により生成された手話CGを、前記Webブラウザに表示させる表示制御部と、を有する。
開示の技術によれば、Webコンテンツの文字情報を手話で表示させることができる。
実施形態に係る情報処理システムの構成例を示す図である。 実施形態に係る手話CG配信サーバ、及び端末の機能構成を示す機能ブロック図である。 実施形態に係る情報処理システムの処理の一例を示すシーケンス図である。 実施形態に係る端末の表示画面の一例について説明する図である。 実施形態に係る手話CGを生成する処理の一例を示すフローチャートである。
以下、図面を参照しながら本開示の実施形態について説明する。
<システム構成>
図1は、実施形態に係る情報処理システム1の構成例を示す図である。図1において、情報処理システム1は、手話CG配信サーバ10、端末20−1、20−2、・・・(以下で、それぞれを区別する必要がない場合は、単に「端末20」と称する。)、及びWebサーバ30−1、30−2、・・・(以下で、それぞれを区別する必要がない場合は、単に「Webサーバ30」と称する。)を備える。手話CG配信サーバ10、端末20、及びWebサーバ30は、例えば、インターネット、無線LAN(Local Area Network)、またはLTE(Long Term Evolution)等の携帯電話網等のネットワーク40を介して接続される。
Webサーバ30は、端末20からの要求に応答して、各種のWebサイトから取得したWebコンテンツ(Webページ)を端末20に配信するWebサーバである。
端末20は、例えば、スマートフォン、タブレット、パーソナルコンピュータ等の情報処理装置である。端末20は、端末20にインストールされているWebブラウザにより、ユーザの操作に応答して、WebコンテンツをWebサーバ30から取得して表示させる。
手話CG配信サーバ10は、端末20のWebブラウザからの要求に応答して、Webサーバ30から取得されたWebコンテンツに含まれる文字情報を手話言語に変換する。そして、変換した手話言語を表示するCG(Computer Graphics、コンピュータグラフィックス)の動画(手話CG)を生成し、生成した手話CGを端末20のWebブラウザに表示させる。
<情報処理システムの機能構成>
次に、図2を参照し、実施形態に係る情報処理システム1に含まれる手話CG配信サーバ10、及び端末20の機能構成について説明する。図2は、実施形態に係る手話CG配信サーバ10、及び端末20の機能構成を示す機能ブロック図である。
≪手話CG配信サーバ10≫
手話CG配信サーバ10は、記憶部11、生成部12、表示制御部13、及び送受信部14を有する。これら各部は、手話CG配信サーバ10にインストールされた1以上のプログラムが、手話CG配信サーバ10のCPU(Central Processing Unit)に実行させる処理等により実現される。
記憶部11は、手話CGの生成に必要なデータを記憶しておく。記憶部11は、例えば、日本語の各単語と手話単語との対訳データ、及び各手話単語に対応する手話のモーションデータ、及び各キャラクターの3次元データ等を記憶しておく。
生成部12は、手話CGを生成する。生成部12は、例えば、記憶部11に記憶されている対訳データを参照し、処理対象の文字情報を各手話単語へ変換する。そして、例えば、記憶部11に記憶されている各手話単語に対応する手話のモーションデータを参照し、処理対象の文字情報を変換した各手話単語を、手話の各モーションデータにそれぞれ変換する。そして、例えば、記憶部11に記憶されているキャラクターの3次元データと、変換した手話の各モーションデータとに基づいて、キャラクターが手話の動作を行う手話CGの動画像(映像)を生成する。
表示制御部13は、生成部12により生成された手話CGを端末20のWebブラウザに表示させる。送受信部14は、端末20との各種の通信を行う。
≪端末20≫
端末20は、受付部21、制御部22、表示制御部23、及び送受信部24を有する。これら各部は、端末20にインストールされた1以上のプログラムが、端末20のCPUに実行させる処理等により実現される。
受付部21は、ユーザからの各種の操作を受け付ける。制御部22は、ユーザの操作等に応答して、WebコンテンツをWebサーバ30から取得する。また、制御部22は、ユーザの操作等に応答して、手話CGを手話CG配信サーバ10から取得する。
表示制御部23は、制御部22、及び手話CG配信サーバ10からの指示に従い、Webブラウザ上の表示画面を制御する。送受信部24は、制御部22の指示に従い、Webサーバ30、及び手話CG配信サーバ10との各種の通信を行う。
<情報処理システムの処理>
次に、図3、及び図4を参照し、実施形態に係る情報処理システム1の処理について説明する。図3は、実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。図4は、実施形態に係る端末20の表示画面の一例について説明する図である。
ステップS1において、端末20の受付部21は、Webコンテンツを表示させる操作をユーザから受け付ける。ここで、端末20の受付部21は、例えば、WebサイトのURL(Uniform Resource Locator)を指定する操作をWebブラウザにより受け付ける。
続いて、ステップS2において、端末20の送受信部24は、Webコンテンツを取得する取得要求をWebサーバ30に送信する。ここで、端末20の送受信部24は、指定されたURLの情報を含むHTTP(Hypertext Transfer Protocol)のGETリクエストを送信してもよい。
続いて、ステップS3において、Webサーバ30は、Webコンテンツを端末20に送信する。ここで、Webサーバ30は、HTML(Hypertext Markup Language)ファイル等で記述されたコンテンツの情報を含むHTTPレスポンスを端末20に送信する。
続いて、ステップS4において、端末20の表示制御部23は、受信したWebコンテンツを画面に表示させる。ここで、端末20の表示制御部23は、例えば、Webブラウザにより、受信したWebコンテンツを表示させる。
続いて、ステップS5において、端末20の受付部21は、画面に表示されているWebコンテンツの文字情報のうち少なくとも一部を選択する操作をユーザから受け付ける。ここで、端末20の受付部21は、例えば、マウスを左クリックしながらマウスカーソルを移動させる操作を受け付ける。これにより、左クリックした位置から、左クリックを解除した位置までの範囲の文字情報が選択される。
続いて、ステップS6において、端末20の受付部21は、選択された文字情報を手話言語に変換(翻訳)する操作をユーザから受け付ける。ここで、端末20の受付部21は、例えば、Webコンテンツに含まれる文字情報の少なくとも一部が選択された状態で、マウスを右クリックする操作を受け付ける。そして、端末20の受付部21は、例えば、予めインストールされているブラウザ拡張機能(プラグイン、アドオン)用のプログラムにより、図4に示すように、Webコンテンツ402の表示画面401において、選択された文字情報403に対応付けて、メニュー(コンテキストメニュー)404を表示させる。そして、端末20の受付部21は、メニュー404に含まれている「手話翻訳」メニュー404Aを選択する操作を受け付ける。
続いて、ステップS7において、端末20の送受信部24は、選択された文字情報と、表示されているWebコンテンツの情報とを含む翻訳要求を手話CG配信サーバ10に送信する。ここで、Webコンテンツの情報は、WebコンテンツのURLでもよいし、WebコンテンツのHTMLファイルでもよい。
続いて、ステップS8において、手話CG配信サーバ10の生成部12は、受信した翻訳要求に含まれる文字情報と、表示されているWebコンテンツの情報とに基づき、手話CGを生成する。なお、手話CG配信サーバ10の生成部12は、端末20から受信したWebコンテンツの情報がWebコンテンツのURLである場合、当該URLを用いてWebサーバ30からWebコンテンツのHTMLファイルを取得する。続いて、ステップS9において、手話CG配信サーバ10の表示制御部13は、生成した手話CGの情報を端末20に送信し、表示させる。ここで、手話CG配信サーバ10の表示制御部13は、例えば、Webブラウザで3次元CGを表示させるための標準仕様であるWebGL(Web Graphics Library)を用いて、端末20のWebブラウザに手話CGを表示させてもよい。
続いて、ステップS10において、端末20の表示制御部23は、受信した手話CGを表示させる。ここで、端末20の表示制御部23は、Webブラウザにより、Webコンテンツの表示画面上で、手話CGの動画を再生させる。ここで、端末20は、図4に示すように、Webコンテンツ402の表示画面401において、手話CG用の領域405を表示させる。端末20の表示制御部23は、Webコンテンツに埋め込んで手話CG用の領域405を表示させてもよい。または、ダイアログボックス(ポップアップウィンドウ)のようにWebコンテンツの前面に重畳させて手話CG用の領域405を表示させてもよい。端末20の表示制御部23は、図4の例では、手話CG用の領域405において、キャラクター設定ボタン405A、背景設定ボタン405B、回転設定ボタン405C、再生速度設定バー405D、手話CG406を表示させている。なお、手話CG406には、キャラクター406Aと背景406Bが含まれている。
なお、キャラクター設定ボタン405Aが押下されると、端末20の受付部21は、利用可能なキャラクターの一覧を表示させる。そして、当該一覧からユーザによりキャラクターが選択されると、端末20の送受信部24は、選択されたキャラクターの識別情報(ID)と、選択された文字情報と、表示されているWebコンテンツの情報とを含む翻訳要求を手話CG配信サーバ10に送信する。そして、手話CG配信サーバ10の生成部12は、受信した翻訳要求に含まれる文字情報と、表示されているWebコンテンツの情報とに基づき、選択されたキャラクターを使用した手話CGを生成する。そして、手話CG配信サーバ10の表示制御部13は、ステップS9、ステップS10と同様の処理により、選択されたキャラクターの手話CGを端末20に表示させる。これにより、手話CGに用いられるキャラクターをユーザが選択できるようにすることができる。
また、背景設定ボタン405Bが押下されると、端末20の受付部21は、利用可能な背景の色及び模様等の一覧を表示させる。そして、当該一覧からユーザにより背景が選択されると、端末20の送受信部24は、選択された背景のIDと、選択された文字情報と、表示されているWebコンテンツの情報とを含む翻訳要求を手話CG配信サーバ10に送信する。そして、手話CG配信サーバ10の生成部12は、受信した翻訳要求に含まれる文字情報と、表示されているWebコンテンツの情報とに基づき、選択された背景を使用した手話CGを生成する。そして、手話CG配信サーバ10の表示制御部13は、ステップS9、ステップS10と同様の処理により、ユーザにより選択された背景が、手話の動作を行うキャラクターの背景とされた手話CGを端末20に表示させる。これにより、手話CGに用いられる背景をユーザが選択できるようにすることができる。
また、回転設定ボタン405Cが押下されると、端末20の受付部21は、利用可能なキャラクターの回転角度の一覧を表示させる。そして、当該一覧からユーザにより回転角度が選択されると、端末20の送受信部24は、選択された回転角度のIDと、選択された文字情報と、表示されているWebコンテンツの情報とを含む翻訳要求を手話CG配信サーバ10に送信する。そして、手話CG配信サーバ10の生成部12は、受信した翻訳要求に含まれる文字情報と、表示されているWebコンテンツの情報とに基づき、選択された回転角度でキャラクターが表示された手話CGを生成する。そして、手話CG配信サーバ10の表示制御部13は、ステップS9、ステップS10と同様の処理により、選択された回転角度の手話CGを端末20に表示させる。これにより、例えば、キャラクターを正面から見た手話CGでは手や腕の重なりにより手話を判別し難いユーザは、キャラクターを右斜め前や左斜め前から見た手話CGを選択できるようにすることができる。
また、再生速度設定バー405Dがスライド操作されると、端末20の表示制御部23は、選択された再生速度で手話CGを再生させる。これにより、手話CGの再生速度をユーザが選択できるようにすることができる。
≪手話CG生成処理≫
次に、図5を参照し、図3のステップS8の、手話CG配信サーバ10の生成部12による手話CGを生成する処理の一例について説明する。図5は、実施形態に係る手話CGを生成する処理の一例を示すフローチャートである。
ステップS101において、生成部12は、Webコンテンツにおいてユーザにより選択された部分等の文字情報である処理対象の文字情報が日本語であるか否かを判定する。日本語である場合(ステップS101でYES)、ステップS103の処理に進む。
日本語でない場合(ステップS101でNO)、ステップS102において、生成部12は、処理対象の文字情報を、日本語に翻訳する。ここで、生成部12は、例えば、処理対象の文字情報に含まれる英語の文章を、機械翻訳により日本語に変換する。
続いて、ステップS103において、生成部12は、Webコンテンツにおいて処理対象の文字情報の背景に基づいて、手話CGの背景(手話の動作を行うキャラクターの背景)を決定する。ここで、生成部12は、まず、WebコンテンツのHTMLファイルから、処理対象の背景の情報を判定する。そして、生成部12は、手話CGの背景を、処理対象の文字情報の背景と同一にしてもよい。この場合、生成部12は、例えば、Webコンテンツの背景が白であれば、手話CGの背景も白に決定する。また、生成部12は、Webコンテンツの背景が所定の模様であれば、手話CGの背景も同一の模様に決定する。これにより、例えば、手話CGをWebコンテンツと統一された色調でユーザに提示することができる。
続いて、ステップS104において、生成部12は、Webコンテンツの内容に基づいて、手話CGのキャラクター(アバター)、及び当該キャラクターの服装を決定する。
ここで、生成部12は、まず、Webコンテンツの内容を判定する。この場合、生成部12は、予め設定されているWebサイトのドメインまたはURL等と、Webコンテンツの内容の属性との対応表データに基づいて、内容を判定してもよい。この場合、生成部12は、例えば、当該対応表データに「xyz.co.jp」のドメインが「ニュース」の内容であると設定されている場合、当該ドメインを含むURLから取得されたWebコンテンツの内容を、「ニュース」であると判定する。または、生成部12は、ディープラーニング等を用いた機械学習等によりWebコンテンツの文字情報、及び画像等を解析し、Webコンテンツの内容を判定してもよい。また、生成部12は、Webコンテンツの文字情報の言語により、内容を判定してもよい。
そして、生成部12は、Webコンテンツの内容が「ニュース」の場合、外見がニュースキャスターであるキャラクターを選択してもよい。また、内容が「子供向け」の場合、マスコットや動物等のキャラクターを選択してもよい。また、内容が「女性向け」の場合、外見が青年のキャラクターを選択してもよい。また、内容が「アニメ」の場合、当該アニメに登場するキャラクターを選択してもよい。また、Webコンテンツの内容が米国のニュースである場合、またはWebコンテンツの文字情報の言語が英語である場合、外見が欧米人のキャラクターを選択してもよい。これにより、Webコンテンツを閲覧しているユーザに好まれ易いキャラクターを用いることができる。
また、生成部12は、Webコンテンツの内容が所定の地域に関する情報の場合、キャラクターの服装を当該地域に応じた服装に決定してもよい。この場合、例えば、Webコンテンツの内容が「ハワイのニュース」の場合、キャラクターの服装をアロハシャツに決定してもよい。これにより、ユーザによる趣向性を向上させることができる。
また、生成部12は、キャラクターの服装の色を、ステップS103の処理で決定した背景の色とは異なる色に決定してもよい。この場合、例えば、手話CGの背景を白と決定した場合、キャラクターの服装の色を白以外の色に決定する。これにより、手話CGのキャラクターの動きをユーザが認識し易くすることができる。
続いて、ステップS105において、生成部12は、Webコンテンツの文字情報の量と、及びWebコンテンツにおいて前記ユーザにより選択された部分の文字情報の量とに基づいて、手話CGの再生速度を決定する。ここで、生成部12は、まず、Webコンテンツの文字情報の単語数または文字数が多い程、再生速度を速く決定する。また、ユーザにより選択された部分の文字情報の単語数または文字数が多い程、再生速度を速く決定する。これにより、端末20に表示されているWebコンテンツ全体の文字情報の量、またはWebコンテンツにおいてユーザにより選択された部分の文字情報の量が多い程、高速に手話CGを再生してユーザに伝達することができる。
続いて、ステップS106において、生成部12は、Webコンテンツの文字情報の量と、Webコンテンツにおいてユーザにより選択された部分の文字情報の量との少なくとも一方に基づいて、手話に変換する単語の数を削減する。ここで、生成部12は、まず、Webコンテンツの文字情報の単語数または文字数が多い程、削減する単語の数を多く決定する。また、ユーザにより選択された部分の文字情報の単語数または文字数が多い程、削減する単語の数を多く決定する。
そして、ユーザにより選択された部分の文字情報に含まれる各単語の重要度を判定し、重要度が低い順に、削除すると決定した数の単語を削除する。なお、生成部12は、各単語の重要度を、以下のように決定してもよい。まず、ユーザにより選択された部分の文字情報に含まれる各文を形態素解析し、各文に含まれる各単語に品詞を付与する。そして、予め設定されている、品詞と重要度との対応表データ、及び単語と重要度との対応表データに基づいて、各単語の重要度を決定する。なお、品詞と重要度との対応表データにおいて、例えば、名詞、固有名詞、動詞等の重要度を高く、助詞や形容詞、副詞の重要度は低く設定されていてもよい。単語の重要度を、その単語の前後の単語や、前後の単語の品詞によって決定してもよい。また、単語の重要度と、単語が分類された品詞の重要度とが異なる場合は、単語の重要度を優先してもよい。例えば、スポーツのニュースにおいて、「山田選手」のように「山田」という名前を表す固有名詞の後に「選手」という名詞の単語が付加されていた場合は、「選手」という単語の優先度を低くすることができる。これにより、重要度の低い「選手」という単語が削除され、「山田」が手話言語への翻訳対象に決定される。そのため、端末20に表示されているWebコンテンツ全体の文字情報の量、またはWebコンテンツにおいてユーザにより選択された部分の文字情報の量が多い程、より要約された文字情報を手話CGにてユーザに伝達することができる。
続いて、ステップS107において、生成部12は、端末20のWebブラウザでの手話CGの表示位置を、ユーザにより選択された部分の文字情報が表示されている位置に応じた位置に決定する。ここで、生成部12は、端末20のWebブラウザでの手話CGの表示位置を、ユーザにより選択された部分の文字情報が表示されている位置に応じた位置の領域であって、Webコンテンツの本文の文字情報が表示されていない領域としてもよい。この場合、生成部12は、まず、WebコンテンツのHTMLファイル、及びWebブラウザの現在の表示サイズに基づいて、Webコンテンツの本文の文字情報が表示されない空白の領域、及び広告等が表示される領域のうち、所定の大きさ以上である各領域を検出する。そして、検出した各領域のうち、ユーザにより選択された部分の文字情報が表示されている位置に所定方向で最も近い位置の領域を、端末20のWebブラウザでの手話CGの表示位置に決定する。図4の例では、手話CG用の領域405を、選択された文字情報403の位置から右方向に最も近い空白の領域に表示させている。これにより、ユーザにより選択された部分の文字情報と、手話CGとの両方を見易い位置で、手話CGを表示させることができる。
なお、Webコンテンツの本文の文字情報が表示されない空白の領域、及び広告等が表示される領域が無い場合、ユーザにより選択された部分の文字情報が表示されている位置よりも所定の画素数だけ高い位置(上の位置)を、端末20のWebブラウザでの手話CGの表示位置に決定してもよい。これにより、Webコンテンツの本文の文字情報をユーザが上から下に読み進める場合に、未読の文字情報に重ならない位置であって、ユーザにより選択された部分の文字情報に対応付けられた位置に手話CGを表示できる。
続いて、ステップS108において、生成部12は、手話CGを生成する。ここで、生成部12は、対訳データ(コーパス)を用いて、ユーザにより選択された部分の文字情報のうち、ステップS106の処理で削除されていない各単語を手話言語に機械翻訳し、手話単語列を出力する。そして、各手話単語に対応する手話の各モーションデータを読み込み、読み込んだ各モーションデータを文章単位で合成した手話CGを生成する。なお、手話の各モーションデータは、各単語に対する手話の動作を手話話者が行った際の映像を撮影し、撮影した映像から、手話話者の体の各部の3次元座標を認識することにより取得され、BVH(Biovision Hierarchy)などの形式で記憶部11に記録されていてもよい。
<作用・効果>
上述した実施形態によれば、Webコンテンツの文字情報を手話で表示させることができる。
以下で、上述した実施形態の変形例について説明する。なお、上述した実施形態、及び後述する各変形例は適宜組み合わせて実施することができる。この場合、例えば、図5の手話CG生成処理の説明において、「ユーザにより選択された部分の文字情報」を「処理対象の文字列」等と読み替えればよい。
<変形例1>
手話CG配信サーバ10の表示制御部13は、端末20上で動作するWebブラウザが災害情報などの緊急情報(アラート)をプッシュ通知等でWebサーバ30から受信した場合、受信した緊急情報の内容に応じて、当該緊急情報に含まれる文字情報を手話に変換した手話CGを端末20に表示させるようにしてもよい。
この場合、手話CG配信サーバ10の送受信部14は、端末20のWebブラウザが受信したプッシュ通知等を端末20から受信する。そして、手話CG配信サーバ10の生成部12は、「災害」、「地震」、「緊急」等の所定の文字列が、受信した緊急情報の文字情報に含まれているか否かを判定する。そして、当該所定の文字列が含まれている場合、手話CG配信サーバ10の生成部12は、受信したプッシュ通知等に含まれる文字情報を処理対象の文字情報とし、図3のステップS8の処理と同様の処理を行う。この場合、手話CG配信サーバ10の表示制御部13は、端末20においてポップアップウィンドウに緊急情報に応じた手話CGを表示させてもよい。これにより、例えば、Webサイトを閲覧中のユーザに対して、緊急情報を即座に手話で提示することができる。
<変形例2>
手話CG配信サーバ10の表示制御部13は、端末20上で動作するWebブラウザがWebコンテンツのURLにアクセスした際、当該Webコンテンツの概要を手話に変換した手話CGを表示制御部23に表示させるようにしてもよい。
この場合、手話CG配信サーバ10の送受信部14は、端末20のWebブラウザが取得したWebコンテンツのHTMLファイルの少なくとも一部、または当該WebコンテンツのURLを端末20から受信する。そして、手話CG配信サーバ10の生成部12は、例えば、当該Webコンテンツのタイトル(見出し)を処理対象の文字情報とし、図3のステップS8の処理と同様の処理を行う。
手話CG配信サーバ10の生成部12は、Webコンテンツのタイトルとして、例えば、HTMLファイル中のtitleタグ(title要素)の文字情報を用いるようにしてもよい。なお、titleタグの文字情報は、HTMLファイルのタイトルを示すものであり、Webブラウザのタブ、及び検索エンジンによるWebコンテンツの検索結果等に表示される情報でもよい。これにより、Webコンテンツを表示させる際、Webコンテンツの概要を手話でユーザに提示することができる。
<変形例3>
手話CG配信サーバ10の表示制御部13は、Webコンテンツに含まれる画像の内容を示す文字情報を手話に変換した手話CGを表示制御部23に表示させるようにしてもよい。
この場合、手話CG配信サーバ10の送受信部14は、端末20のWebブラウザが取得したWebコンテンツのHTMLファイルの少なくとも一部、または当該WebコンテンツのURLを端末20から受信する。そして、手話CG配信サーバ10の生成部12は、例えば、当該Webコンテンツに含まれる画像のキャプションの文字情報に対して図3のステップS8の処理と同様の処理を行うことにより、Webコンテンツの画像のキャプションに応じた手話CGを表示させる。手話CG配信サーバ10の生成部12は、画像のキャプションとして、例えば、HTMLファイル中のalt属性の文字情報を用いるようにしてもよい。なお、alt属性の文字情報は、HTMLファイルのimg要素の中に記述される画像の代替となる文字情報であり、例えば、文字情報のみを表示するWebブラウザにより画像の代わりに表示される文字情報でもよい。これにより、Webコンテンツの画像の内容を手話でユーザに提示することができる。
<変形例4>
手話CG配信サーバ10の表示制御部13は、端末20のグラフィック処理の性能に応じた品質の手話CGを端末20に表示させてもよい。この場合、手話CG配信サーバ10の送受信部14は、端末20のCPU、及びGPU(Graphics Processing Unit)の、グラフィック処理の性能を示す情報を端末20から取得する。そして、手話CG配信サーバ10の生成部12は、取得したグラフィック処理の性能に応じた品質の手話CGを生成する。当該品質には、例えば、手話CGの動画の解像度(画素数)、フレームレート、圧縮方式等が含まれてもよい。手話CG配信サーバ10の生成部12は、グラフィック処理の性能が比較的低い端末に対して、例えば、720×480画素の解像度でMPEG2により圧縮した手話CGの動画を生成してもよい。また、グラフィック処理の性能が比較的低い端末に対しては、例えば、1280×720画素の解像度でH.264により圧縮した手話CGの動画を生成してもよい。これにより、比較的高性能な端末20では高品質な手話CGを表示できるようにするとともに、比較的低性能な端末20であっても手話CGを表示できるようにすることができる。
<変形例5>
手話CG配信サーバ10の各機能部は、例えば複数のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、手話CG配信サーバ10の生成部12等の処理の少なくとも一部を、端末20にて行うようにしてもよい。
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
1 情報処理システム
10 手話CG配信サーバ
11 記憶部
12 生成部
13 表示制御部
14 送受信部
20 端末
21 受付部
22 制御部
23 表示制御部
24 送受信部
30 Webサーバ

Claims (11)

  1. 端末のWebブラウザに表示されているWebコンテンツの文字情報のうち、ユーザにより選択された部分の文字情報の背景に基づいて、手話CG(Computer Graphics)において手話の動作をするキャラクターの背景を決定し、前記Webコンテンツにおいて前記ユーザにより選択された部分の文字情報を手話に変換し、変換した手話の動作を前記キャラクターが行う手話CGを生成する生成部と、
    前記生成部により生成された手話CGを、前記Webブラウザに表示させる表示制御部と、
    を有する情報処理装置。
  2. 前記生成部は、前記Webコンテンツの内容に基づいて、手話CGのキャラクター、及び前記キャラクターの服装を決定する、
    請求項1に記載の情報処理装置。
  3. 前記生成部は、前記Webコンテンツの文字情報の量と、及び前記Webコンテンツにおいて前記ユーザにより選択された部分の文字情報の量との少なくとも一方に基づいて、手話CGの再生速度を決定する、
    請求項1又は2に記載の情報処理装置。
  4. 前記生成部は、前記Webコンテンツの文字情報の量と、前記Webコンテンツにおいて前記ユーザにより選択された部分の文字情報の量との少なくとも一方に基づいて、
    手話に変換する単語の数を削減する、
    請求項1から3のいずれか一項に記載の情報処理装置。
  5. 前記表示制御部は、前記ユーザにより選択された部分の文字情報が表示されている位置に応じた位置に、前記生成部により生成された手話CGを表示させる、
    請求項1から4のいずれか一項に記載の情報処理装置。
  6. 前記表示制御部は、前記ユーザにより選択された部分の文字情報が表示されている位置に応じた位置の領域であって、前記Webコンテンツの本文の文字情報が表示されていない領域に、前記生成部により生成された手話CGを表示させる、
    請求項5に記載の情報処理装置。
  7. 前記生成部は、前記Webブラウザにより受信された緊急情報の文字情報を手話に変換した手話CGを生成する、
    請求項1から6のいずれか一項に記載の情報処理装置。
  8. 前記生成部は、前記Webコンテンツのタイトルを示す文字情報である、前記WebコンテンツのHTMLファイルに含まれるtitle要素の文字情報を手話に変換した手話CGを生成する、
    請求項1から7のいずれか一項に記載の情報処理装置。
  9. 前記生成部は、前記Webコンテンツの画像の内容を示す文字情報である、前記WebコンテンツのHTMLファイルに含まれるalt属性の文字情報を手話に変換した手話CGを生成する、
    請求項1から8のいずれか一項に記載の情報処理装置。
  10. 前記情報処理装置は、
    前記端末のグラフィック処理の性能を示す情報を前記端末から受信する受信部を有し、
    前記生成部は、前記受信部により受信された、前記端末のグラフィック処理の性能を示す情報に応じた品質の手話CGを生成する、
    請求項1から9のいずれか一項に記載の情報処理装置。
  11. コンピュータを、請求項1から10のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2019029162A 2019-02-21 2019-02-21 情報処理装置、及びプログラム Active JP7184669B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029162A JP7184669B2 (ja) 2019-02-21 2019-02-21 情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029162A JP7184669B2 (ja) 2019-02-21 2019-02-21 情報処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020135505A true JP2020135505A (ja) 2020-08-31
JP7184669B2 JP7184669B2 (ja) 2022-12-06

Family

ID=72263359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029162A Active JP7184669B2 (ja) 2019-02-21 2019-02-21 情報処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7184669B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7295478B1 (ja) 2022-04-28 2023-06-21 株式会社Mixi 情報処理装置、情報処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088335A (ja) * 2002-08-26 2004-03-18 Hitachi Ltd メールサーバ、そのメールサーバを実現するためのプログラム及び携帯端末
JP2015230640A (ja) * 2014-06-06 2015-12-21 日本放送協会 手話cg生成装置及びそのプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088335A (ja) * 2002-08-26 2004-03-18 Hitachi Ltd メールサーバ、そのメールサーバを実現するためのプログラム及び携帯端末
JP2015230640A (ja) * 2014-06-06 2015-12-21 日本放送協会 手話cg生成装置及びそのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7295478B1 (ja) 2022-04-28 2023-06-21 株式会社Mixi 情報処理装置、情報処理方法及びプログラム
JP2023163673A (ja) * 2022-04-28 2023-11-10 株式会社Mixi 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP7184669B2 (ja) 2022-12-06

Similar Documents

Publication Publication Date Title
CN111541930B (zh) 直播画面的显示方法、装置、终端及存储介质
WO2018113140A1 (zh) 一种视频直播中虚拟礼物显示方法和系统
CN110868635B (zh) 视频处理方法、装置、电子设备及存储介质
JP5930497B2 (ja) テンプレートファイルの処理方法及び装置
KR101975511B1 (ko) 인터액티브 비디오 생성
US20030128234A1 (en) Utilizing document white space to persistently display designated content
CN110609965B (zh) 一种页面显示方法、装置和存储介质
CN107402985B (zh) 视频特效输出控制方法、装置及计算机可读存储介质
CN106060655A (zh) 一种视频处理方法、服务器及终端
KR20120137396A (ko) 표현 정보를 표시하기 위한 방법, 장치 및 클라이언트 디바이스
JP2006048636A (ja) 対象コンテンツを評価する方法、コンピュータ・プログラム、システム
WO2016150281A1 (zh) 一种预览视频文件的展示方法及移动终端和系统
WO2022127890A1 (zh) 一种基于云服务的渲染方法及其相关设备
JP2014524623A5 (ja)
CN112631447A (zh) 鼠标同步处理方法、装置、电子设备及存储介质
JP2004220260A (ja) ウェブページ閲覧システム及び画像配信サーバ
US20130205334A1 (en) Method and apparatus for providing supplementary information about content in broadcasting system
JP7184669B2 (ja) 情報処理装置、及びプログラム
CN113315982B (zh) 一种直播方法、计算机存储介质及设备
US7483953B2 (en) Efficient downloading of content data via network
CN111913566A (zh) 数据处理方法、装置、电子设备及计算机存储介质
CN114374853A (zh) 内容展示方法、装置、计算机设备和存储介质
CN106383705B (zh) 在应用瘦客户端中设置鼠标显示状态的方法及装置
CN107248947A (zh) 表情处理方法及装置、计算机设备及存储介质
TWI765230B (zh) 資訊處理裝置、資訊處理方法以及資訊處理程式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7184669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150