JP2015053603A - コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム - Google Patents

コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2015053603A
JP2015053603A JP2013185339A JP2013185339A JP2015053603A JP 2015053603 A JP2015053603 A JP 2015053603A JP 2013185339 A JP2013185339 A JP 2013185339A JP 2013185339 A JP2013185339 A JP 2013185339A JP 2015053603 A JP2015053603 A JP 2015053603A
Authority
JP
Japan
Prior art keywords
image
manga
data
unit
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013185339A
Other languages
English (en)
Other versions
JP6196850B2 (ja
Inventor
晃平 川又
Kohei Kawamata
晃平 川又
隆浩 市川
Takahiro Ichikawa
隆浩 市川
雅之 綾野
Masayuki Ayano
雅之 綾野
勇人 米澤
Isato Yonezawa
勇人 米澤
健 三谷
Takeshi Mitani
健 三谷
昌平 中野渡
Shohei Nakanowatari
昌平 中野渡
覚史 岩崎
Satoshi Iwasaki
覚史 岩崎
将輔 小林
Shosuke Kobayashi
将輔 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Nippon Telegraph and Telephone West Corp
Nippon Telegraph and Telephone East Corp
Bandai Namco Entertainment Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Namco Bandai Games Inc
Nippon Telegraph and Telephone West Corp
Nippon Telegraph and Telephone East Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Namco Bandai Games Inc, Nippon Telegraph and Telephone West Corp, Nippon Telegraph and Telephone East Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013185339A priority Critical patent/JP6196850B2/ja
Publication of JP2015053603A publication Critical patent/JP2015053603A/ja
Application granted granted Critical
Publication of JP6196850B2 publication Critical patent/JP6196850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】単なる文章だけのやり取りだけでなく、音声データを画像に合成することで新しい形のコミュニケーションを可能にする。【解決手段】ユーザの音声を変換したメッセージに応じて画像を選択する画像選択部107と、画像選択部により選択された選択画像に予め付与された領域情報と文字情報に基づいて、メッセージの色、文字数、文字の大きさのうち少なくとも何れか1つの情報を用いてメッセージの内容を選択画像に合成する合成部108と、を備えるコミュニケーションシステム。【選択図】図2

Description

本発明は、コミュニケーション技術に関する。
従来、電話以外のコミュニケーションツールとして、メールやチャットなどのメッセージングが利用されている(例えば、特許文献1参照)。各ユーザは、ユーザ間でメッセージをやり取りすることによって、情報交換を行うことができる。
特開2008−113142号公報
しかしながら、メールやチャットなどのように文章だけのメッセージのやり取りでは、電話で話している時よりも自分の考えが会話相手に伝わりにくい場合がある。さらに、単なる文章だけのやり取りでは、面白みに欠けてしまい、メールやチャットなどの利用頻度が低下してしまうおそれもある。そのため、ユーザ間でのコミュニケーションにおいて新しい形のコミュニケーション技術が要求されている。
上記事情に鑑み、本発明は、新しい形のコミュニケーションを可能にする技術の提供を目的としている。
本発明の一態様は、ユーザの音声を変換したメッセージに応じて画像を選択する画像選択部と、前記画像選択部により選択された選択画像に予め付与された領域情報に基づいて、前記メッセージの内容を前記選択画像に合成する合成部と、を備えるコミュニケーションシステムである。
本発明の一態様は、上記のコミュニケーションシステムであって、前記画像には、前記画像の特徴を表す語句がタグ情報として付与されており、前記画像選択部は、前記メッセージに含まれている語句ごとに、前記語句から特定される画像を抽出し、抽出された画像の中から前記メッセージに応じた画像を選択する。
本発明の一態様は、上記のコミュニケーションシステムであって、前記合成部は、前記メッセージの音声データを前記選択画像にさらに合成する。
本発明の一態様は、上記のコミュニケーションシステムであって、前記合成部は、前記選択画像に付与された文字情報に基づいて、メッセージの色、文字数、文字の大きさのうち少なくとも何れか1つの情報を用いて前記メッセージの内容を前記選択画像に合成する。
本発明の一態様は、上記のコミュニケーションシステムであって、前記合成部は、前記メッセージの文字数が所定の文字数を超える場合、前記メッセージの冒頭から所定の文字数分の文字を抽出し、抽出した前記文字数分の文字と、前記メッセージの続きを示す記号等を含む所定の文字を、前記選択画像に合成する。
本発明の一態様は、コミュニケーションシステムを構成するコンピュータを制御するコミュニケーション方法において、ユーザの音声を変換したメッセージに応じて画像を選択する画像選択ステップと、前記画像選択ステップにより選択された選択画像に予め付与された領域情報に基づいて、前記メッセージの内容を前記選択画像に合成する合成ステップと、を有するコミュニケーション方法である。
本発明の一態様は、ユーザの音声を変換したメッセージに応じて画像を選択する画像選択ステップと、前記画像選択ステップにより選択された選択画像に予め付与された領域情報に基づいて、前記メッセージの内容を前記選択画像に合成する合成ステップと、をコンピュータに実行させるためのコンピュータプログラムである。
本発明により、新しい形のコミュニケーションが可能となる。
本発明におけるコミュニケーションシステムのシステム構成を示す図である。 送信者端末10及び受信者端末40の機能構成を表す概略ブロック図である。 送信者端末10の表示部109に表示される表示例を表した図である。 執筆中パターン画像68の具体例を示す図である。 マンガ音声ファイル生成処理の概略図である。 本実施形態における送信者端末10のマンガ音声ファイル生成処理の流れを示すフローチャートである。 本実施形態におけるコミュニケーションシステムの動作の流れを示すシーケンス図である。 本実施形態におけるコミュニケーションシステムの動作の流れを示すシーケンス図である。 本実施形態におけるコミュニケーションシステムの動作の流れを示すシーケンス図である。
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明におけるコミュニケーションシステムのシステム構成を示す図である。本発明のコミュニケーションシステムは、音声認識サーバ20及びID通信サーバ30を備える。コミュニケーションシステムには、ネットワーク50を介して端末装置10及び端末装置40が通信可能に接続されている。なお、以下の説明では、端末装置10を送信者端末10と称し、端末装置40を受信者端末40と称する。
送信者端末10は、例えばパーソナルコンピュータ、タブレット装置、スマートフォン、ノートパソコン、ワークステーション、ゲーム機器、テレビ電話装置等の情報処理装置を用いて構成される。送信者端末10は、ユーザの発話内容を音声データに変換し、変換した音声データを音声認識サーバ20に送信する。送信者端末10は、音声認識サーバ20から音声認識結果(例えば、テキストデータ)を受信する。なお、以下の説明では、音声認識結果の具体例として、テキストデータを用いた例について説明する。音声認識サーバ20から受信されたテキストデータには、例えば発話内容の「全文ひらがなの文字列」、発話内容が「かな漢字変換」された文字列、発話内容が「形態素解析」された単語の区切り情報等が含まれる。また、送信者端末10は、ID通信サーバ30を介して受信者端末40との間で、音声通話やメッセージングなどの処理を実行する。メッセージングとは、ユーザ間でテキストデータをやり取りして文字による会話を可能にするサービスである。
音声認識サーバ20は、情報処理装置を用いて構成される。音声認識サーバ20は、送信者端末10から送信された音声データの音声認識を行うことによって、音声データをテキストデータに変換する。
ID通信サーバ30は、HTTP(HyperText Transfer Protocol)サーバ31及びSIP(Session Initiation Protocol)サーバ32を備える。HTTPサーバ31は、情報処理装置を用いて構成される。HTTPサーバ31は、送信者端末10から送信されたデータを蓄積(ストア)する。また、HTTPサーバ31は、蓄積しているデータを受信者端末40からの要求に応じて受信者端末40に送信する。SIPサーバ32は、SIPを利用して送信者端末10と受信者端末40との間で通信を接続する。
受信者端末40は、例えばパーソナルコンピュータ、タブレット装置、スマートフォン、ノートパソコン、ワークステーション、ゲーム機器、テレビ電話装置等の情報処理装置を用いて構成される。受信者端末40は、送信者端末10から送信されたデータをHTTPサーバ31に要求し、HTTPサーバ31からデータを受信する。また、受信者端末40は、ID通信サーバ30を介して送信者端末10との間で音声通話やメッセージングなどの処理を実行する。
ネットワーク50は、どのように構成されたネットワークでもよい。例えば、ネットワーク50はインターネットを用いて構成されてもよい。
図2は、送信者端末10及び受信者端末40の機能構成を表す概略ブロック図である。まず、送信者端末10について説明する。送信者端末10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、マンガ音声ファイル生成プログラムを実行する。マンガ音声ファイル生成プログラムの実行によって、送信者端末10は、操作入力部101、音声入力部102、信号処理部103、制御部104、通信部105、マンガデータ記憶部106、画像選択部107、合成部108、表示部109、音声出力部110を備える装置として機能する。なお、送信者端末10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、マンガ音声ファイル生成プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、マンガ音声ファイル生成プログラムは、電気通信回線を介して送受信されてもよい。
操作入力部101は、例えばタッチパネル、ボタン、キーボード、ポインティングデバイス等の入力装置を用いて構成される。操作入力部101は、ユーザによる操作を受け付ける。操作入力部101は、例えばユーザからマンガのカテゴリの選択を受け付ける。マンガのカテゴリは、例えばマンガの作家を表してもよいし、マンガのジャンル(系統のこと。例えば、ホラー系、恋愛系)を表してもよいし、他の情報を表してもよい。
音声入力部102は、マイク等の音声入力装置である。音声入力部102は、ユーザの発話内容を送信者端末10に入力する。具体的には、音声入力部102は、ユーザが発話することによって生じた音波を受け、音波に応じたアナログ信号を生成する。音声入力部102は、生成したアナログ信号を信号処理部103に出力する。
信号処理部103は、音声入力部102によって生成されたアナログ信号を、音声認識に必要なデジタル信号の音声データに変換する。
制御部104は、送信者端末10の各機能部を制御する。
通信部105は、ネットワーク50を介して音声認識サーバ20及びID通信サーバ30との間で通信を行う。また、通信部105は、ネットワーク50及びSIPサーバ32を介して受信者端末40との間で通信を行う。通信部105は、例えば信号処理部103によって生成されたデジタル信号の音声データを、ネットワーク50を介して音声認識サーバ20に送信する。通信部105は、例えばネットワーク50を介して音声認識サーバ20からテキストデータを受信する。
マンガデータ記憶部106は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。マンガデータ記憶部106は、各マンガのカテゴリにおけるコマごとのマンガデータを、マンガデータの特徴を表すタグ情報に対応付けて記憶している。マンガデータとは、吹き出し部分を含む画像のデータである。マンガデータに対応付けられているタグ情報には、2種類のタグ情報がある。2種類のタグ情報は、ステータスタグ情報及び確定タグ情報である。ステータスタグ情報は、マンガデータごとに、マンガデータの特徴を表す単語(語句)を複数含む。確定タグ情報は、マンガデータごとに、マンガデータの特徴を表す単語として特に重要な単語(以下、「重要単語」という。)を含む。なお、確定タグ情報は、必ずしも全てのマンガデータに対応付けて記憶されている必要はない。すなわち、マンガデータ記憶部106には、確定タグ情報が対応付けられていないマンガデータが存在してもよい。
画像選択部107は、マンガデータ記憶部106に記憶されているタグ情報と、受信されたテキストデータとに基づいて候補マンガデータを選択する。候補マンガデータは、送信者端末10のユーザが発話した内容に合ったマンガデータである。ユーザが発話した内容に合ったマンガデータとは、テキストデータに含まれている単語と一致する単語(以下、「共通単語」という。)を含むタグ情報が対応付けられているマンガデータである。例えば、画像選択部107は、共通単語のうち、重要単語を含む確定タグ情報が対応付けられているマンガデータを優先的に候補マンガデータとして選択する。
合成部108は、画像選択部107によって選択された候補マンガデータと、テキストデータと、音声データとを用いてマンガ音声ファイルを生成する。合成部108は、例えば候補マンガデータに対してテキストデータを埋め込むことによってマンガ画像を生成する。そして、合成部108は、生成したマンガ画像に音声データを付加することによってマンガ音声ファイルを生成する。
表示部109は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部109は、合成部108によって生成されたマンガ音声ファイルのマンガ画像を表示する。
音声出力部110は、スピーカーやヘッドホンやイヤホン等の音声出力装置である。音声出力部110は、音声出力装置を送信者端末10に接続するためのインタフェースであってもよい。この場合、音声出力部110は、音声データを音声出力するための音声信号を生成し、自身に接続されている音声出力装置に音声信号を出力する。音声出力部110は、合成部108によって生成されたマンガ音声ファイルの音声データを出力する。
次に、受信者端末40について説明する。受信者端末40は、バスで接続されたCPUやメモリや補助記憶装置などを備え、表示プログラムを実行する。表示プログラムの実行によって、受信者端末40は、通信部401、制御部402、操作入力部403、表示部404、音声出力部405を備える装置として機能する。なお、受信者端末40の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、表示プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、表示プログラムは、電気通信回線を介して送受信されてもよい。
通信部401は、ネットワーク50を介してID通信サーバ30との間で通信を行う。また、通信部401は、ネットワーク50及びSIPサーバ32を介して送信者端末10との間で通信を行う。通信部401は、例えば送信者端末10から送信されたマンガ音声ファイルを識別するためのファイルIDを受信する。通信部401は、例えば受信したファイルIDをHTTPサーバ31に送信し、ファイルIDで識別されるマンガ音声ファイルを、HTTPサーバ31から受信する。
制御部402は、受信者端末40の各機能部を制御する。
操作入力部403は、例えばタッチパネル、ボタン、キーボード、ポインティングデバイス等の入力装置を用いて構成される。操作入力部403は、ユーザによる操作を受け付ける。操作入力部403は、例えば通信部401によって受信されたマンガ音声ファイルを再生する指示をユーザから受け付ける。
表示部404は、CRTディスプレイ、液晶ディスプレイ、有機ELディスプレイ等の画像表示装置である。表示部404は、通信部401によって受信されたマンガ音声ファイルを表示する。
音声出力部405は、スピーカーやヘッドホンやイヤホン等の音声出力装置である。音声出力部405は、音声出力装置を受信者端末40に接続するためのインタフェースであってもよい。この場合、音声出力部405は、音声データを音声出力するための音声信号を生成し、自身に接続されている音声出力装置に音声信号を出力する。音声出力部405は、通信部401によって受信されたマンガ音声ファイルの音声データを出力する。
図3は、送信者端末10の表示部109に表示される表示例を表した図である。図3(A)は、送信者端末10のユーザから指示を受け付ける受付画面を表す図である。受付画面には、連絡先情報領域60、複数のサムネイル画像61−a〜61−c、特定領域62−a〜62−c、複数の選択ボタン63−a〜61−c、日付表示領域64が表示されている。
連絡先情報領域60は、会話相手のユーザの名前や連絡先などが表示される領域である。図3(A)に示される例では、連絡先情報領域60には会話相手のユーザの名前として“AAAAA”が表示されている。
サムネイル画像61−aは、マンガ音声ファイルの送受信プレビュー画面に遷移するための画像である。ユーザによってサムネイル画像61−aが押下されると、受付画面からマンガ音声ファイルの送受信プレビュー画面(不図示)に切り替わる。
サムネイル画像61−bは、フリートークの発着信履歴の画面である。フリートークとは、ユーザ間において音声を用いた無料通話を可能にする機能(例えば音声チャット機能)である。
サムネイル画像61−cは、クイックコメントの送受信プレビュー画面に遷移するための画像である。クイックコメントは、予め決められた文字列が画像の吹き出し部分に埋め込まれている画像である。ユーザによってサムネイル画像61−cが押下されると、受付画面からクイックコメントの送受信プレビュー画面(不図示)に切り替わる。
サムネイル画像61−aの左右どちらか一方には、特定領域62−aが表示される。特定領域62−aは、サムネイル画像61−aで示されるマンガ音声ファイルを送信した人物を表す。例えば、サムネイル画像61−aの左側に位置する特定領域62−aは、サムネイル画像61−aで示されるマンガ音声ファイルを送信した人物が受信者端末40のユーザ(会話相手)であることを表す。なお、特定領域62−aには、サムネイル画像61−aで示されるマンガ音声ファイルが送信された時刻が表示される。
サムネイル画像61−bの左右どちらか一方には、特定領域62−bが表示される。特定領域62−bは、フリートークを開始した人物を表す。例えば、サムネイル画像61−bの左側に位置する特定領域62−bは、フリートークを開始した人物が受信者端末40のユーザ(会話相手)であることを表す。なお、特定領域62−bには、フリートークが開始された時刻が表示される。
サムネイル画像61−cの左右どちらか一方には、特定領域62−cが表示される。特定領域62−cは、サムネイル画像61−cで示されるクイックコメントを送信した人物を表す。例えば、サムネイル画像61−cの右側に位置する特定領域62−cは、サムネイル画像61−cで示されるクイックコメントを送信した人物が送信者端末10のユーザであることを表す。なお、特定領域62−cには、サムネイル画像61−cで示されるクイックコメントが受信された時刻が表示される。
受付画面に表示されるサムネイル画像(例えば、サムネイル画像61−a〜61−c)は、時系列順に表示される。
なお、受付画面に表示されるサムネイル画像(例えば、サムネイル画像61−a〜61−c)のレイアウトは、図3(A)のレイアウトとは異なるように表示されてもよい。例えば、送信者端末10のユーザが行った動作(例えば、マンガ音声ファイルの送信、フリートークの開始、クイックコメントの送信)に関するサムネイル画像を受付画面の右側に表示し、受信者端末40のユーザ(会話相手)が行った動作に関するサムネイル画像を受付画面の左側に表示するように構成されてもよい。
選択ボタン63−aは、ユーザが定型ファイルの送信や、送信したい写真の撮影や、画像の送信などを行うために使用するオプションボタンである。選択ボタン63−bは、ユーザがマンガのジャンル(カテゴリの一種)を選択するために使用するジャンル選択ボタンである。選択ボタン63−bには、図3に示すようにマンガのジャンルを識別するための画像が表示される。選択ボタン63−cは、ユーザが連絡先情報領域60に表示されている人物とフリートークを行うために使用するフリートークボタンである。なお、受付画面に表示される各選択ボタン63は、図3(A)に表示されている配置とは異なる配置で表示されてもよい。
日付表示領域64は、マンガ音声ファイル又はクイックコメントの送受信、ユーザ間でフリートークが行われた日付が表示される領域である。ユーザによって表示部109の画面が上下にスライドされると、表示部109に表示される日付も変更される。例えば、ユーザが表示部109の画面を上にスライドさせると、受付画面にはスライドさせる前より新しい日付及びその新しい日付に送受信されたファイルやフリートークの履歴に関するサムネイル画像が表示される。すなわち、ユーザが表示部109の画面を上にスライドさせ続けると、最終的に最新の日付及びその最新の日付に送受信されたファイルやフリートークの履歴に関するサムネイル画像が表示される。
ユーザによって選択ボタン63−bに表示されている複数の画像の中から1つの画像が押下されると、表示部109の表示画面が図3(A)の受付画面から図3(B)の画面に切り替わる。
図3(B)は、会話相手に対するメッセージを音声入力させる音声入力画面を表す図である。音声入力画面には、連絡先情報領域60、画像66、録音時間を示すタイムバー67が表示されている。ユーザは、音声入力画面に表示されている画像66を見ることによって、録音中であることを認識することができる。ユーザは、録音時間(例えば、5秒)の間、会話相手に対するメッセージを音声入力することができる。なお、録音中であることを示す画像66は、図3(B)に示される画像66以外の態様で表示されてもよい。例えば、音声入力画面には、画像66に代えて録音中であることを示す記号が表示されてもよいし、ユーザが録音中であることを認識できるような態様であればその他の態様で表示されてもよい。また、録音時間は、タイムバー67以外の表示によって表されてもよい。例えば、録音時間は、数字で表されてもよいし、ユーザが録音時間を認識できるような表示態様であればどのような表示態様で表されてもよい。ユーザによって画像66が押下されると、又は、録音時間が経過すると、表示部109の表示画面が図3(B)の音声入力画面から図3(C)の画面に切り替わる。
図3(C)は、候補マンガデータの選択中であることを示す執筆中画面を表す図である。図3(C)に示すように、執筆中画面は、音声入力画面に執筆中パターン画像68を重畳して表示される。執筆中パターン画像68とは、現在どのような処理が行われているのかを示す画像である。送信者端末10の処理状況に応じて複数の執筆中パターン画像68が表示される。執筆中パターン画像68に関する説明は後述する。画面上に執筆中画面が表示されている間、以下の処理が実行される。音声認識サーバ20は、音声入力期間中に入力されたメッセージの音声認識を行い、音声認識後に音声認識結果に基づきテキストデータの生成を行う。その後、音声認識サーバ20は、生成したテキストデータを送信者端末10に送信する。送信者端末10の画像選択部107は、音声認識サーバ20から受信されたテキストデータに基づいて候補マンガデータを抽出する。次に、画像選択部107は、抽出した候補マンガデータ以外の選択対象として、ユーザに選択されたジャンルに応じた所定数のマンガデータを抽出する。また、抽出された候補マンガデータ及び選択対象のマンガデータの吹き出しに、生成されたテキストデータが合成されると、表示部109の表示画面が図3(C)の執筆中画面から図3(D)の画面に切り替わる。
図3(D)は、送信するマンガ音声ファイルの確認画面を表す図である。図3(D)に示される確認画面には、連絡先情報領域60、候補マンガデータに対応する候補マンガ画像69−a、選択ジャンルに基づき抽出された選択対象となるマンガデータに対応するマンガ画像69−b及び69−c、送信ボタン70、キャンセルボタン71、音声状況確認記号72、タイムバー73が表示される。
候補マンガ画像69−aの吹き出しには、ユーザの発話内容の冒頭から所定数の文字(例えば、10文字から20文字)が表示される。なお、吹き出しに表示される発話内容の文字数は、マンガデータごとに異なってもよいし、同じであってもよい。文字数がマンガデータごとに異なる場合には、例えばマンガデータ記憶部106が各マンガデータに合成される文字数を対応付けて記憶する。
なお、図3(B)の音声入力画面でユーザが発話した音声が音声認識サーバ20において認識されなかった場合、候補マンガ画像69−aの吹き出しには“□□△△”などの予め決められた記号又はランダムに生成された文字列が表示される。
また、マンガデータ記憶部106には、マンガデータ毎に、領域情報及び文字情報が記憶されている。領域情報とは、吹き出し内のテキストデータが表示又は合成される領域に関する情報であり、例えば文字枠の左上座標(x,y)、文字枠の幅や高さ(w,h)などの情報を含む。文字情報とは、吹き出し内に表示又は合成されるテキストデータの文字に関する情報であり、例えばテキストカラー(例えば、黒、白、青等)、文字枠内の1行あたりの文字数、文字の大きさ(ピクセル)などの情報を含む。
ユーザが、確認画面に表示されている候補マンガ画像69−aを左右どちらか一方向にスライドさせると、確認画面に表示される候補マンガ画像69−aが切り替わる。具体的には、確認画面に表示されている候補マンガ画像69−aが、候補マンガ画像69−aと同じジャンルの別のマンガ画像(図3に示す例では、マンガ画像69−b又はマンガ画像69−c)に切り替わる。この場合、切り替え後のマンガ画像の吹き出しに表示される発話内容は、切り替え後のマンガ画像のマンガデータに予め定められた領域情報、文字情報に基づいて決定される。なお、テキストデータ生成後にマンガ画像と文字を表示するまでに至る処理は、端末またはOS(Operating System)によって異なる。例えば、マンガ画像(マンガデータ)と文字(テキストデータ)とを合成して、これらとは別に新たに画像を予め生成してから表示する場合と、マンガ画像(マンガデータ)と文字(テキストデータ)とをリアルタイムに重畳し生成して表示する場合がある。予め画像を生成する場合、合成部108は候補マンガ画像、切り替え候補として画像選択部107によって抽出されたマンガ画像のそれぞれに文字(テキストデータ)を合成した1又は複数の画像を生成する。また、合成部108は、候補マンガ画像と、少なくとも候補マンガ画像の左右に配置されるマンガ画像とに予めテキストデータを合成した1又は複数のマンガ画像を生成する。また、合成部108は、マンガ画像が表示部109の所定位置、例えば中央に移動した時に、中央に位置するマンガ画像にのみテキストデータを合成したマンガ画像を生成する。また、リアルタイムに生成する場合には、合成部108は、ユーザのスライド入力に合わせて、マンガ画像と文字とをオブジェクトとして移動させつつ、マンガ画像と文字とをリアルタイムに重畳して表示用のマンガ画像を生成する。
送信ボタン70は、表示部109の中央に表示されているマンガ画像に対応するマンガデータと、テキストデータと、音声データとを用いてマンガ音声ファイルを生成し、ID通信サーバ30にアップロードする際に使用されるボタンである。ユーザによって送信ボタン70が押下されると、表示部109に表示されているマンガ音声ファイルがID通信サーバ30に送信される。なお、マンガ音声ファイルのアップロードが完了すると、制御部104は表示部109の表示画面を確認画面から受付画面に切り替える。その後、アップロードされたマンガ音声ファイルのうち少なくともマンガデータに対応するマンガ画像が、最新のサムネイル画像として受付画面に表示される。なお、テキストデータを吹き出しに合成したマンガ画像が、最新のサムネイル画像として受付画面に表示されるようにしてもよい。一方、マンガ音声ファイルのアップロードができなかった場合、制御部104はエラーを示す通知(例えば、送信エラーのポップアップ画像)を表示部109に表示させる。その後、ユーザの操作によって、エラー表示が解除されると、マンガ音声ファイルを送信する前の確認画面に戻る。
キャンセルボタン71は、マンガ音声ファイルの送信を取りやめる際に使用されるボタンである。ユーザによってキャンセルボタン71が押下されると、マンガ音声ファイルの送信が取りやめられ、表示部109の表示画面が確認画面から受付画面に切り替わる。この際、録音された送信者端末10のユーザの音声データは削除される。また、ユーザによって候補マンガ画像69−aが押下されると、ユーザが発話した内容の音声が再生される。音声状況確認記号72は、現在、マンガ音声ファイルの生成前後のマンガ音声ファイルの音声が再生されているか否かを示す記号である。例えば、音声状況確認記号72が図3(D)に示すような記号である場合、現在、マンガ音声ファイルの音声出力が停止していることを示す。一方、音声状況確認記号72が右向き三角(不図示)である場合、現在、マンガ音声ファイルの音声が再生されていることを示す。この際、音声の再生時間に応じてタイムバー73の表示も変化する。
図4は、執筆中パターン画像68の具体例を示す図である。図4(A)〜図4(E)は、候補マンガデータの選択中に執筆中画面に表示される執筆中パターン画像68である。以下、図4(A)〜図4(E)について具体的に説明する。
図4(A)及び図4(B)に示される執筆中パターン画像68は、送信者端末10が音声データを音声認識サーバ20に送信し、音声認識サーバ20からテキストデータを受信するまでの間、繰り返し執筆中画面に表示される画像である。
図4(C)に示される執筆中パターン画像68は、送信者端末10が音声認識サーバ20からテキストデータを受信した際に執筆中画面に表示される画像である。
図4(D)及び図4(E)に示される執筆中パターン画像68は、送信者端末10がテキストデータに基づいて候補マンガデータを選択するまでの間、繰り返し執筆中画面に表示される画像である。
なお、執筆中パターン画像68は、図4(A)〜図4(E)に示される執筆中パターン画像68に限定される必要はない。例えば、候補マンガデータが選択された際に執筆中画面に表示される執筆中パターン画像68が存在してもよいし、その他の執筆中パターン画像68が表示されてもよい。また、執筆中パターン画像68は、所定の時間が経過する度に切り替えて表示されてもよい。また、執筆中パターン画像68は、必ずしも全ての執筆中パターン画像68(図4(A)〜図4(E))が表示されなくてもよい。例えば、候補マンガデータの選択時間に応じて表示される執筆中パターン画像68が変更されてもよい。
図5は、マンガ音声ファイル生成処理の概略図である。図5(A)〜図5(E)は、それぞれマンガ音声ファイル生成時に行われる5つのステップの概略を示す図である。以下、図5(A)〜図5(E)の各ステップについて具体例を挙げて詳細に説明する。
図5(A)に示される第1ステップでは、送信者端末10は、ユーザの操作に応じて音声入力画面を表示部109に表示し、ユーザから音声入力を受け付ける。ユーザは、「アイスとってもおいしいよ!また買ってきてね!よろしく!」と送信者端末10に発話する。ユーザによって音声入力画面に表示されているアイコンが押下される、又は、録音時間が経過すると、第2ステップに移行する。
図5(B)に示される第2ステップでは、送信者端末10は、ユーザが発話した内容の音声データを音声認識サーバ20に送信し、音声認識サーバ20から音声認識結果として図5(B)に示すテキストデータを受信する。その後、第3ステップに移行する。
図5(C)に示される第3ステップでは、画像選択部107は、マンガデータ記憶部106に記憶されているマンガデータと、図5(B)に示されるテキストデータとに基づいて候補マンガデータを選択する。具体的には、まず、画像選択部107は、共通単語を含む確定タグ情報があるか否かを判定する。共通単語を含む確定タグ情報がある場合には、画像選択部107は当該確定タグ情報が対応付けられているマンガデータを候補マンガデータに選択する。
一方、共通単語を含む確定タグ情報がない場合には、画像選択部107は共通単語を含むステータスタグ情報があるか否かを判定する。例えば図5(C)の識別ID_001で識別されるマンガデータには確定タグ情報として「はっぴー」の単語が対応付けられており、識別ID_002で識別されるマンガデータには確定タグ情報として「ごきげんよう」の単語が対応付けられている。画像選択部107は、音声認識結果に含まれている単語「あいす」、「とっても」、「おいしい」、「よ」、「また」、「かって」、「きて」、「ね」、「よろしく」の何れかの単語を含む確定タグ情報を検索する。図3(B)に示される音声認識結果に含まれている単語には図5(C)に示される確定タグ情報の単語が存在しない。そのため、画像選択部107は、音声認識結果に含まれている単語の何れかの単語を含むステータスタグ情報を検索する。画像選択部107は、検索されたステータスタグ情報が対応付けられているマンガデータをマンガデータ記憶部106から抽出する。例えば図5(B)に示される音声認識結果が受信された場合、画像選択部107は音声認識結果に含まれている単語「あいす」、「とっても」、「おいしい」、「よ」、「また」、「かって」、「きて」、「ね」、「よろしく」の何れかの単語を含むステータスタグ情報を検索する。そして、画像選択部107は、検索されたステータスタグ情報が対応付けられている図5(C)に示される2つのマンガデータをマンガデータ記憶部106から抽出する。
例えば、図5(C)の上図に示す識別ID_001で識別されるマンガデータには、ステータスタグ情報として「あいして」、「うれしい」、「おいしい」、「かわいい」、「らぶ」の複数の単語が対応付けられている。図5(C)の下図に示す識別ID_002で識別されるマンガデータには、ステータスタグ情報として「こんにちは」、「やあ」、「よろしく」、「りょうかい」の複数の単語が対応付けられている。
画像選択部107は、共通単語を含むID_001で識別されるマンガデータ及びID_002で識別されるマンガデータをマンガデータ記憶部106から抽出する。抽出したマンガデータが複数存在するため、画像選択部107は抽出した複数のマンガデータの中からランダムで1つのマンガデータを候補マンガデータに選択する。画像選択部107によって候補マンガデータが選択されると、第4ステップに移行する。以下、ID_001で識別されるマンガデータが候補マンガデータに選択された場合について説明する。
図5(D)に示される第4ステップでは、合成部108は、選択された候補マンガデータの吹き出しにテキストデータを埋め込むことによって、マンガ画像を生成する。図5(D)に示される例では、マンガ画像の吹き出し領域には、テキストデータ「あいすとってもおいしいよまたかってきてねよろしく」と、候補マンガデータに記憶されている領域情報及び文字情報とに基づいてテキストデータの冒頭から所定数の文字「アイスとってもおいしいよ」が抽出され、発話内容に続きの内容があることを示す「・・・」(例えば、全角1文字で点3つの記号)を、吹き出し領域の所定の領域内に、所定のテキストカラー、文字の大きさで合成され、「アイスとってもおいしいよ・・・」が表示されている。その後、第5ステップに移行する。
図5(E)に示される第5ステップでは、合成部108は、マンガ画像に音声データを合成することによってマンガ音声ファイルを生成する。その後、制御部104は、生成されたマンガ音声ファイルを表示部109に表示させる。ユーザによってマンガ音声ファイルの確認画面に表示されているマンガ音声ファイルの画像が押下されると、音声が再生される。
以上で、マンガ音声ファイル生成処理の詳細な説明を終了する。
図6は、本実施形態における送信者端末10のマンガ音声ファイル生成処理の流れを示すフローチャートである。
表示部109は、ユーザの操作に応じて画面上に受付画面を表示し、ユーザからマンガのジャンルの選択を受け付ける(ステップS101)。ユーザによってマンガのジャンルが選択されると、制御部104は表示画面を受付画面から音声入力画面に切り替える。その後、音声入力部102は、ユーザから音声入力を受け付ける(ステップS102)。
通信部105は、ユーザの発話した内容の音声データを音声認識サーバ20に送信する(ステップS103)。具体的には、まず、ユーザから音声入力がなされると、音声入力部102はユーザが発話することによって生じた音波を受け、音波に応じたアナログ信号を生成し、生成したアナログ信号を信号処理部103に出力する。次に、信号処理部103は、音声入力部102によって生成されたアナログ信号を、デジタル信号の音声データに変換する。そして、通信部105は、変換された音声データを音声認識サーバ20に送信する。
通信部105は、送信した音声データに対応するテキストデータを音声認識サーバ20から受信する(ステップS104)。画像選択部107は、マンガデータ記憶部106に記憶されているマンガデータの確定タグ情報を参照し、受信された共通単語を含む確定タグ情報があるか否かを判定する(ステップS105)。共通単語を含む確定タグ情報がある場合(ステップS105−YES)、画像選択部107は共通単語を含む確定タグ情報が複数あるか否かを判定する(ステップS106)。
共通単語を含む確定タグ情報が複数ある場合(ステップS106−YES)、画像選択部107は共通単語を含む確定タグ情報が対応付けられているマンガデータの中からランダムに1つのマンガデータを候補マンガデータに選択する(ステップS107)。
一方、共通単語を含む確定タグ情報が複数ない場合(ステップS106−NO)、画像選択部107は確定タグ情報が対応付けられているマンガデータを候補マンガデータに選択する(ステップS108)。
次に、合成部108は、選択された候補マンガデータと、テキストデータと、音声データとを用いてマンガ音声ファイルを生成する(ステップS109)。具体的には、合成部108は、候補マンガデータに対してテキストデータを埋め込むことによってマンガ画像を生成する。その後、合成部108は、生成したマンガ画像にユーザが発話した音声データを合成することによってマンガ音声ファイルを生成する。通信部105は、生成されたマンガ音声ファイルをID通信サーバ30が備えるHTTPサーバ31に送信する(ステップS110)。具体的には、通信部105は、マンガ音声ファイルのマンガ画像及び音声データをそれぞれHTTPサーバ31に送信する。その後、処理を終了する。
また、ステップS105の処理において、共通単語を含む確定タグ情報がない場合(ステップS105−NO)、画像選択部107はマンガデータ記憶部106に記憶されているマンガデータのステータスタグ情報を参照し、共通単語を含むステータスタグ情報があるか否かを判定する(ステップS111)。共通単語を含むステータスタグ情報がない場合(ステップS111−NO)、画像選択部107はステップS101の処理で選択されたジャンルのマンガデータの中からランダムに1つのマンガデータを候補マンガデータに選択する(ステップS112)。その後、ステップS109以降の処理が行なわれる。
一方、共通単語を含むステータスタグ情報がある場合(ステップS111−YES)、画像選択部107は共通単語を含むステータスタグ情報が複数あるか否かを判定する(ステップS113)。共通単語を含むステータスタグ情報が複数ある場合(ステップS113−YES)、画像選択部107は共通単語を含むステータスタグ情報が対応付けられているマンガデータの中からランダムに1つのマンガデータを候補マンガデータに選択する(ステップS114)。その後、ステップS109以降の処理が行なわれる。
一方、共通単語を含むステータスタグ情報が複数ない場合(ステップS113−NO)、画像選択部107はステータスタグ情報が対応付けられているマンガデータを候補マンガデータに選択する(ステップS115)。その後、ステップS109以降の処理が行なわれる。
図7〜図9は、本実施形態におけるコミュニケーションシステムの動作の流れを示すシーケンス図である。
送信者端末10の表示部109は、ユーザの操作に応じて画面上に受付画面を表示し、ユーザからマンガのジャンルの選択を受け付ける(ステップS201)。ユーザによってマンガのジャンルが選択されると、制御部104は表示画面を受付画面から音声入力画面に切り替える。その後、音声入力部102は、ユーザから音声入力を受け付ける(ステップS202)。音声入力部102は、ユーザの発話内容を送信者端末10に入力する。具体的には、音声入力部102は、ユーザが発話することによって生じた音波を受け、音波に応じたアナログ信号を生成する。音声入力部102は、生成したアナログ信号を信号処理部103に出力する。
信号処理部103は、音声入力部102によって生成されたアナログ信号を、デジタル信号の音声データに変換する(ステップS203)。通信部105は、変換された音声データを音声認識サーバ20に送信する(ステップS204)。
音声認識サーバ20は、送信者端末10から音声データを受信する(ステップS205)。音声認識サーバ20は、受信した音声データに基づいてテキストデータを生成する(ステップS206)。音声認識サーバ20は、生成したテキストデータを送信者端末10に送信する(ステップS207)。
送信者端末10の通信部105は、音声認識サーバ20からテキストデータを受信する(ステップS208)。画像選択部107は、受信されたテキストデータと、マンガデータ記憶部106に記憶されているマンガデータとに基づいて候補マンガデータを選択する(ステップS209)。合成部108は、選択された候補マンガデータと、テキストデータと、音声データとを用いてマンガ音声ファイルを生成する(ステップS210)。通信部105は、アップロード要求信号を生成する。アップロード要求信号は、ファイルやデータのアップロードを要求するために使用される信号である。通信部105は、アップロード要求信号をID通信サーバ30のHTTPサーバ31に送信する(ステップS211)。
HTTPサーバ31は、送信者端末10からアップロード要求信号を受信する(ステップS212)。HTTPサーバ31は、受信したアップロード要求信号の応答としてファイルやデータをアップロードするためのURI(Uniform Resource Identifier)を送信者端末10に送信する(ステップS213)。HTTPサーバ31は、例えば所定の時間(例えば、30分、1時間など)有効なワンタイムURIを送信者端末10に送信する。送信者端末10の通信部105は、HTTPサーバ31からURIを受信する(ステップS214)。通信部105は、受信したURIを利用して、マンガ音声ファイルをHTTPサーバ31にアップロードする(ステップS215)。HTTPサーバ31は、マンガ音声ファイルを送信者端末10から受信する(ステップS216)。その後、HTTPサーバ31は、受信したマンガ音声ファイルをバッファに蓄積する。HTTPサーバ31は、蓄積したマンガ音声ファイルを識別するためのファイルIDを、マンガ音声ファイルを蓄積したことを示す応答として送信者端末10に送信する(ステップS217)。
送信者端末10の通信部105は、HTTPサーバ31からファイルIDを受信する(ステップS218)。通信部105は、受信したファイルIDを用いてメッセージを生成する。通信部105は、生成したメッセージをID通信サーバ30のSIPサーバ32に送信する(ステップS219)。SIPサーバ32は、送信者端末10からメッセージを受信し、受信者端末40に転送する(ステップS220)。受信者端末40の通信部401は、SIPサーバ32を介して送信者端末10からメッセージを受信する(ステップS221)。通信部401は、受信したメッセージからファイルIDを取得する。次に、通信部401は、ファイルIDを取得すると、ダウンロード要求信号を生成する。ダウンロード要求信号は、ファイルやデータのダウンロードを要求するために使用される信号である。なお、ダウンロード要求信号には、ファイルIDが格納される。通信部401は、生成したダウンロード要求信号をHTTPサーバ31に送信する(ステップS222)。
HTTPサーバ31は、ダウンロード要求信号を受信者端末40から受信する(ステップS223)。HTTPサーバ31は、受信したダウンロード要求信号からファイルIDを取得する。HTTPサーバ31は、取得したファイルIDで識別されるマンガ音声ファイルが蓄積されている場所を示すURIを受信者端末40に送信する(ステップS224)。HTTPサーバ31は、例えば所定の時間(例えば、30分、1時間など)有効なワンタイムURIを送信者端末10に送信する。受信者端末40の通信部401は、URIをHTTPサーバ31から受信する(ステップS225)。通信部401は、受信したURIを利用して、マンガ音声ファイルをダウンロードする(ステップS226)。HTTPサーバ31は、URIを受信者端末40から受信し、受信したURIで識別されるマンガ音声ファイルを受信者端末40に送信する(ステップS227)。受信者端末40の通信部401は、マンガ音声ファイルをHTTPサーバ32から受信し、マンガ音声ファイルを受信したことを示す通知を、画面表示とファイル着信音の再生により行う(ステップS228)。制御部402は、ユーザの操作に応じて、受信されたマンガ音声ファイルを表示し、再生する(ステップS229)。具体的には、制御部402は、表示部404にマンガ画像を表示させ、音声出力部405に音声データを出力させる。
以上のように構成されたコミュニケーションシステムによれば、送信者端末10のユーザが発話した内容に合ったマンガデータが選択される。さらに、選択されたマンガデータに送信者端末10のユーザが発話した内容と音声データとが合成されることによってマンガ音声ファイルが生成される。したがって、文字や音声以外に送信者端末10のユーザが発話した内容に合ったマンガデータがメッセージとして会話相手に送信される。そのため、メールなどの文字でのやり取りや電話でのやり取りよりも会話相手の興味を引くことができる。このように、本発明のコミュニケーションシステムでは、ユーザ間において新しい形のコミュニケーションを取ることが可能になる。
<変形例>
本実施形態では、コミュニケーションシステムに接続される送信者端末10の数は一台であるが、複数台の送信者端末10がコミュニケーションシステムに接続されるように構成されてもよい。また、本実施形態では、コミュニケーションシステムに接続される受信者端末40の数は一台であるが、複数台の受信者端末40がコミュニケーションシステムに接続されるように構成されてもよい。
コミュニケーションシステムは、一台の装置に実装されてもよいし、複数台の装置に実装されてもよい。
本実施形態では、吹き出しに埋め込まれたテキストデータが横書きで表示される構成を示したが、テキストデータが縦書きで表示されるように構成されてもよい。
画像選択部107は、かな漢字変換された文字列の単語に基づいて候補マンガデータを選択するように構成されてもよい。
なお、本実施形態では、画像選択部107は、発話内容が単語ごとに分割されたテキストデータを用いて候補マンガデータを選択する構成を示したが、これに限定される必要はない。例えば、画像選択部107は、テキストデータ全文(全文ひらがな文字列、かな漢字変換)を用いて候補マンガデータを選択するように構成されてもよい。
ファイルIDは、ID通信サーバ30からのプッシュ通知により受信者端末40に送信されてもよい。この場合、以下のような処理が行なわれる。まず、送信者端末10の通信部105は、マンガ音声ファイルをID通信サーバ30に送信する。次に、ID通信サーバ30は、マンガ音声ファイルを送信者端末10から受信し、HTTPサーバ31のバッファに蓄積する。そして、HTTPサーバ31は、蓄積したマンガ音声ファイルを識別するためのファイルIDをSIPサーバ32に出力する。SIPサーバ32は、出力されたファイルIDを受信者端末40に送信する。
また、送信者端末10は、表示プログラムを実行するように構成されてもよい。この場合、送信者端末10は、操作入力部403、表示部404、音声出力部405をさらに備えるように構成される。また、受信者端末40は、マンガ音声ファイル生成プログラムを実行するように構成されてもよい。この場合、受信者端末40は、音声入力部102、信号処理部103、マンガデータ記憶部106、画像選択部107、合成部108をさらに備えるように構成される。
また、本実施形態では、送信者端末10がマンガ音声ファイルを生成して、生成したマンガ音声ファイルをID通信サーバ30に送信する構成を示したが、これに限定される必要はない。例えば、送信者端末10は、音声データのみをHTTPサーバ31に蓄積するように構成されてもよい。
この場合、以下のような処理が行なわれる。ID通信サーバ30は、送信者端末10から音声データを受信し、HTTPサーバ31のバッファに蓄積する。HTTPサーバ31は、蓄積した音声データを識別するためのファイルIDを、当該音声データを蓄積したことを示す応答として送信者端末10に送信する。送信者端末10の通信部105は、HTTPサーバ31からファイルIDを受信する。通信部105は、受信したファイルIDと、候補マンガデータを識別するための識別IDと、テキストデータとをメッセージとしてSIPサーバ32を介して受信者端末40に送信する。受信者端末40の通信部401は、SIPサーバ32を介して送信者端末10からファイルID、識別ID及びテキストデータを受信する。その後、通信部401は、受信した識別IDを画像選択部107に出力する。画像選択部107は、マンガデータ記憶部106に記憶されているマンガデータを参照し、出力された識別IDで識別されるマンガデータを候補マンガデータに選択する。また、通信部401は、受信したファイルIDをHTTPサーバ31に送信し、当該ファイルIDで識別される音声データをHTTPサーバ31から受信する。合成部108は、候補マンガデータと、受信された音声データ及びテキストデータとに基づいてマンガ音声ファイルを生成する。その後、制御部402は、ユーザの操作に応じて、生成されたマンガ音声ファイルを表示し、再生する。
このように構成されることによって、送信者端末10は、マンガデータをID通信サーバ30に送信する必要がない。したがって、データサイズの大きいマンガデータが送信されないため、帯域が圧迫されてしまうおそれを軽減することができる。そのため、送信者端末10と受信者端末40との間で行われる通信における通信効率を向上させることができる。
また、送信者端末10と音声認識サーバ20とが一体化されて構成されてもよい。すなわち、送信者端末10が音声認識を行うことによって、ユーザの発話内容の音声データをテキストデータに変換してもよい。この場合、送信者端末10は、音声認識部を備えるように構成される。音声認識部は、信号処理部103によってユーザが発話した内容に応じたアナログ信号がデジタル信号の音声データに変換されると、当該音声データに対応するテキストデータを生成する。その後、音声認識部は、生成したテキストデータを画像選択部107に出力する。
また、本実施形態では、ユーザが発話した内容の音声データに基づいてテキストデータが生成される構成を示したが、これに限定される必要はない。例えば、送信者端末10のユーザが操作入力部101を介して入力した文字情報に基づいてテキストデータが生成されてもよい。この場合、送信者端末10は、文字認識部を備えるように構成される。文字認識部は、操作入力部101を介して入力された文字情報をテキストデータに変換する。このように構成される場合、以下のような処理が行なわれる。
まず、ユーザが操作入力部101を操作して会話相手に対するメッセージを入力する。次に、文字認識部は、入力されたメッセージをテキストデータに変換する。画像選択部107は、テキストデータに基づいて候補マンガデータを選択する。その後、合成部108は、選択された候補マンガデータの吹き出しにテキストデータを合成することによってマンガ画像を生成する。通信部105は、生成されたマンガ画像をHTTPサーバ31に送信する。HTTPサーバ31は、送信者端末10からマンガ画像を受信し、受信したマンガ画像を蓄積する。HTTPサーバ31は、蓄積したマンガ画像を識別するためのファイルIDを、当該マンガ画像を蓄積したことを示す応答として送信者端末10に送信する。送信者端末10の通信部105は、HTTPサーバ31からファイルIDを受信する。通信部105は、SIPサーバ32を介して、受信したファイルIDをメッセージとして受信者端末40に送信する。受信者端末40の通信部401は、SIPサーバ32を介して送信者端末10からファイルIDを受信する。その後、通信部401は、HTTPサーバ31にファイルIDを送信し、当該ファイルIDに対応するマンガ画像を受信する。その後、制御部402は、受信したマンガ画像を表示部404に表示させる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
10…端末装置, 20…音声認識サーバ, 30…ID通信サーバ, 31…HTTPサーバ, 32…SIPサーバ, 40…端末装置, 50…ネットワーク, 101…操作入力部, 102…音声入力部, 103…信号処理部, 104…制御部, 105…通信部, 106…マンガデータ記憶部, 107…画像選択部, 108…合成部, 109…表示部, 110…音声出力部, 401…通信部, 402…制御部, 403…操作入力部, 404…表示部, 405…音声出力部

Claims (7)

  1. ユーザの音声を変換したメッセージに応じて画像を選択する画像選択部と、
    前記画像選択部により選択された選択画像に予め付与された領域情報に基づいて、前記メッセージの内容を前記選択画像に合成する合成部と、
    を備えるコミュニケーションシステム。
  2. 前記画像には、前記画像の特徴を表す語句がタグ情報として付与されており、
    前記画像選択部は、前記メッセージに含まれている語句ごとに、前記語句から特定される画像を抽出し、抽出された画像の中から前記メッセージに応じた画像を選択する、請求項1に記載のコミュニケーションシステム。
  3. 前記合成部は、前記メッセージの音声データを前記選択画像にさらに合成する、請求項1又は2に記載のコミュニケーションシステム。
  4. 前記合成部は、
    前記選択画像に付与された文字情報に基づいて、メッセージの色、文字数、文字の大きさのうち少なくとも何れか1つの情報を用いて前記メッセージの内容を前記選択画像に合成する、請求項1〜3のいずれか1項に記載のコミュニケーションシステム。
  5. 前記合成部は、
    前記メッセージの文字数が所定の文字数を超える場合、前記メッセージの冒頭から所定の文字数分の文字を抽出し、抽出した前記文字数分の文字と、前記メッセージの続きを示す記号等を含む所定の文字を、前記選択画像に合成する、請求項1〜4のいずれか1項に記載のコミュニケーションシステム。
  6. コミュニケーションシステムを構成するコンピュータを制御するコミュニケーション方法において、
    ユーザの音声を変換したメッセージに応じて画像を選択する画像選択ステップと、
    前記画像選択ステップにより選択された選択画像に予め付与された領域情報に基づいて、前記メッセージの内容を前記選択画像に合成する合成ステップと、
    を有するコミュニケーション方法。
  7. ユーザの音声を変換したメッセージに応じて画像を選択する画像選択ステップと、
    前記画像選択ステップにより選択された選択画像に予め付与された領域情報に基づいて、前記メッセージの内容を前記選択画像に合成する合成ステップと、
    をコンピュータに実行させるためのコンピュータプログラム。
JP2013185339A 2013-09-06 2013-09-06 コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム Active JP6196850B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013185339A JP6196850B2 (ja) 2013-09-06 2013-09-06 コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013185339A JP6196850B2 (ja) 2013-09-06 2013-09-06 コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2015053603A true JP2015053603A (ja) 2015-03-19
JP6196850B2 JP6196850B2 (ja) 2017-09-13

Family

ID=52702318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013185339A Active JP6196850B2 (ja) 2013-09-06 2013-09-06 コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6196850B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081664A (ja) * 2017-02-10 2018-05-24 株式会社FiNC コンピュータ実装方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305893A (ja) * 1995-05-10 1996-11-22 Casio Comput Co Ltd 画像制御装置
JP2001268342A (ja) * 2000-03-17 2001-09-28 Fuji Photo Film Co Ltd メッセージ付き画像再生方法およびシステム
JP2002073480A (ja) * 2000-08-31 2002-03-12 Matsushita Electric Ind Co Ltd 漫画メール作成装置及び漫画メール配信装置
JP2002215533A (ja) * 2001-01-24 2002-08-02 Victor Co Of Japan Ltd コミック自動生成装置
JP2002218092A (ja) * 2001-01-19 2002-08-02 Fujitsu General Ltd 音声入力による携帯電話メール方法と携帯電話メール装置
JP2003152891A (ja) * 2001-11-09 2003-05-23 Ricoh Co Ltd 情報処理システム
JP2005173705A (ja) * 2003-12-08 2005-06-30 Ricoh Co Ltd 会議支援システム、プログラム及び記憶媒体
JP2005234074A (ja) * 2004-02-18 2005-09-02 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びにプログラム
JP2008097261A (ja) * 2006-10-11 2008-04-24 Nec Fielding Ltd 挿絵作成装置、挿絵提供システム、挿絵作成方法、挿絵作成プログラム
JP2009282815A (ja) * 2008-05-23 2009-12-03 Catalyst Mobile Kk テキスト合成処理システム及びそれを備える可搬型通信端末

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305893A (ja) * 1995-05-10 1996-11-22 Casio Comput Co Ltd 画像制御装置
JP2001268342A (ja) * 2000-03-17 2001-09-28 Fuji Photo Film Co Ltd メッセージ付き画像再生方法およびシステム
JP2002073480A (ja) * 2000-08-31 2002-03-12 Matsushita Electric Ind Co Ltd 漫画メール作成装置及び漫画メール配信装置
JP2002218092A (ja) * 2001-01-19 2002-08-02 Fujitsu General Ltd 音声入力による携帯電話メール方法と携帯電話メール装置
JP2002215533A (ja) * 2001-01-24 2002-08-02 Victor Co Of Japan Ltd コミック自動生成装置
JP2003152891A (ja) * 2001-11-09 2003-05-23 Ricoh Co Ltd 情報処理システム
JP2005173705A (ja) * 2003-12-08 2005-06-30 Ricoh Co Ltd 会議支援システム、プログラム及び記憶媒体
JP2005234074A (ja) * 2004-02-18 2005-09-02 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びにプログラム
JP2008097261A (ja) * 2006-10-11 2008-04-24 Nec Fielding Ltd 挿絵作成装置、挿絵提供システム、挿絵作成方法、挿絵作成プログラム
JP2009282815A (ja) * 2008-05-23 2009-12-03 Catalyst Mobile Kk テキスト合成処理システム及びそれを備える可搬型通信端末

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081664A (ja) * 2017-02-10 2018-05-24 株式会社FiNC コンピュータ実装方法

Also Published As

Publication number Publication date
JP6196850B2 (ja) 2017-09-13

Similar Documents

Publication Publication Date Title
CN105594163B (zh) 具有实时状态通知的语音通信
US8285257B2 (en) Emotion recognition message system, mobile communication terminal therefor and message storage server therefor
CN109726367B (zh) 一种批注展示的方法及相关装置
US9049161B2 (en) Linking sounds and emoticons
CN110620720B (zh) 具有实时状态通知的语音通信
US20120162350A1 (en) Audiocons
EP1473937A1 (en) Communication apparatus
US10085127B2 (en) Pre-determined responses for wireless devices
WO2007034303A2 (en) Mobile terminal allowing impulsive non-language messaging
JP2005196780A (ja) 携帯端末機でアバターを用いたメッセージ処理装置及び方法
KR101200559B1 (ko) 모바일 인스턴트 메신저에서 플래시콘을 제공하는 시스템,장치 및 방법
KR20050036963A (ko) 애니메이티드 메시징
KR20080063345A (ko) 전자 메시징 방법, 송신자 단말기, 수신자 단말기 및 전자메시징 시스템
US20090096782A1 (en) Message service method supporting three-dimensional image on mobile phone, and mobile phone therefor
US20150052211A1 (en) Message based conversation function execution method and electronic device supporting the same
JP6196850B2 (ja) コミュニケーションシステム、コミュニケーション方法及びコンピュータプログラム
US20130210419A1 (en) System and Method for Associating Media Files with Messages
JP2007122438A (ja) データ通信装置及びデータ通信装置制御方法
JP2004193809A (ja) 通信装置
JP2006352309A (ja) 電話機
KR20090106989A (ko) 감정 인식 메시지 시스템과, 이 시스템의 모바일 통신 단말및 메시지 기억 서버
US20080010614A1 (en) Mobile communication terminal and method for setting slide attribute thereof
JP2016091195A (ja) 情報送受信プログラム及びシステム
JP2008108275A (ja) 端末装置
KR20050101099A (ko) 통합 메시징 서비스 기능을 가지는 무선통신단말기 및 그방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R150 Certificate of patent or registration of utility model

Ref document number: 6196850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250