JP4666789B2 - Content distribution system and content distribution server - Google Patents

Content distribution system and content distribution server Download PDF

Info

Publication number
JP4666789B2
JP4666789B2 JP2001050086A JP2001050086A JP4666789B2 JP 4666789 B2 JP4666789 B2 JP 4666789B2 JP 2001050086 A JP2001050086 A JP 2001050086A JP 2001050086 A JP2001050086 A JP 2001050086A JP 4666789 B2 JP4666789 B2 JP 4666789B2
Authority
JP
Japan
Prior art keywords
data
image
speech
comic
serif
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001050086A
Other languages
Japanese (ja)
Other versions
JP2002251279A (en
Inventor
義直 平沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001050086A priority Critical patent/JP4666789B2/en
Publication of JP2002251279A publication Critical patent/JP2002251279A/en
Application granted granted Critical
Publication of JP4666789B2 publication Critical patent/JP4666789B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像および文字を含むコンテンツを配信する配信システムおよびこれに利用されるサーバに関する。
【0002】
【従来の技術】
従来より、インターネットなどを介し各種コンテンツを配信するコンテンツ配信サービスが行われている。このような配信サービスの対象には、音楽、ビデオ画像、図書など各種のコンテンツがある。
【0003】
この中には、コミックコンテンツの配信サービスもある。このコミックコンテンツは、作家の書いた絵であって、通常登場するキャラクタと吹き出しなどに記載されたキャラクタのセリフ等を含んでいる。そして、これら全体を画像データとして取り込んで配信している。
【0004】
一方、配信を受ける端末装置としては、通常のパーソナルコンピュータ等の他、PDA(パーソナルデジタルアシスタント)や携帯電話等の携帯端末がある。このような携帯端末では、画面が比較的小さい。そこで、このような携帯端末への配信においては、1コマまたは4コマの漫画に限定し、1画面に1コマを表示するように配信している。
【0005】
【発明が解決しようとする課題】
しかし、携帯端末では、その画面が小さいため、セリフなどの文字表示が小さくなり読みづらいという問題があった。
【0006】
【課題を解決するための手段】
本発明は、画像および文字を含むコンテンツを配信する配信システムであって、送信側は、複数の画面を構成する画像データと、この画像データの画面に対応づけられた文字データと、各画面の前記画像データと文字データの対応づけを含む制御データと、を送信し、これらデータを受信する受信側は、画像データの1画面の画像データを画面の画像表示領域に表示するとともに、制御データによって対応づけられた文字データを同一画面上の画像表示領域から区別された文字表示領域に表示することを特徴とする。
【0007】
このように、文字データを画像データと分離して送るため、文字データについてはテキストデータにでき、データ量を小さくできる。また、文字表示領域を別に設けたため、携帯端末において漫画などを読む場合においてセリフを読みやすくできる。また、文字データが分離されているため、セリフを他国語にすることも容易である。
【0008】
また、送信側は、前記受信側における画像データおよび文字データを表示するためのアプリケーションプログラムをあわせて送信し、受信側は、受信したアプリケーションプログラムを利用して表示を行うことが好適である。例えば、java言語で書いたプログラムをコンテンツデータとともにダウンロードできるようにして、受信側においてコンテンツを表示することができる。
【0009】
また、送信側は、画像データおよび文字データをウェッブコンテンツとして記憶し、受信側がウェッブブラウザによって、データを取得することが好適である。これによって、受信側は特別なプログラムが不要になる。
【0010】
また、本発明は、画像および文字を含むコンテンツを配信する配信サーバであって、画像データと、この画像データに対応づけられた文字データと、画面上の画像データを表示する画像表示領域と、文字データを表示する文字表示領域とを指定するとともに同時に表示する画像データと文字データの対応付けデータを含む制御データを送信することを特徴とする。
【0011】
また、前記画像データには内部に文字表示が本来行われるべき文字該当領域の表示が含まれており、1画面の画像データ中に文字該当領域が複数ある場合に、表示される文字データに対応する文字該当領域と他の文字該当領域から区別する表示を含めることが好適である。これによって、文字表示領域に表示された文字の本来の位置を容易に認識できる。
【0012】
また、前記画像データは複数のキャラクタと含み、前記文字データは前記キャラクタのセリフデータであることが好適である。
【0013】
また、前記文字データには、キャラクタ名称についてのデータが含まれ、画面上のセリフデータの表示には、キャラクタ名称が追加表示されることが好適である。これによって、誰のセリフであるかを容易に認識できる。
【0014】
また、前記文字データには、複数国の言語で文字データが含まれており、表示言語が選択可能であることが可能である。文字データが別なので、他国語のデータを用意することも簡単であり、ユーザが容易に言語を選択できる。
【0015】
【発明の実施の形態】
図1は、本発明に係るコミックコンテンツ配信サービスの構成例を示す図である。
【0016】
コミック閲覧クライアント1は、インターネット等のネットワーク2を介して配信されるコミックコンテンツを閲覧するための端末であり、携帯電話、PDA、パソコン、デジタルTV受像機などである。このコミック閲覧クライアント1は、少なくとも記憶部11、制御部12、出力部13、通信インタフェース部14、入力部15を備える。
【0017】
記憶部11はROM、RAM、メモリカード、ハードディスクなどの2次記憶装置からなり、コミック閲覧クライアントの制御プログラム、コミック閲覧プログラム、コミックコンテンツ等を格納する。制御部12はCPUからなり、記憶部11に格納されたプログラムに従い、周辺装置の制御を行う。出力部13はLCD、ブラウン管等の表示出力装置及びスピーカ等の音声出力装置からなり、コミックイメージやセリフテキストの表示及びBGMやセリフの発声を行う。入力部15はキーボード、ボタン、タッチパネル、リモコン等からなり、コミック閲覧者の入力を受け付ける。
【0018】
通信インタフェース部14は、ネットワーク2を介してコミックサーバ3の通信インタフェース部31と接続し、コマンドやデータの送受信を行う。ネットワーク2は、例えばインターネットであるが、その他の通信回線であってもよい。
【0019】
コミックサーバ3は、コミックコンテンツを蓄積し、閲覧を要求するクライアントに対してコンテンツを配信するサーバであり、ワークステーション、パソコンなどで構成される。コミックサーバは少なくとも通信インタフェース部31、記憶部32、制御部33を備える。
【0020】
記憶部32は、ROM、RAM、ハードディスクなどの記憶媒体からなり、コミックサーバの制御プログラム、コミックコンテンツ等を格納する。制御部33はCPUからなり、制御プログラムを実行して、通信インタフェース部31を介し、ネットワーク2はコミックコンテンツを送信するなどの処理を行う。
【0021】
図2はコミック閲覧クライアントでコミックコンテンツを読んでいるときの表示画面例を示す。表示画面4は少なくともイメージ表示エリア41とセリフ表示エリア42とからなる。
【0022】
イメージ表示エリア41はコミックのビットマップイメージの一部領域を表示するエリアであり、現在読み進めているコマのビットマップイメージが表示される。
【0023】
セリフ表示エリア42はテキストを表示するエリアであり、現在読み進めているセリフとそのセリフを言っている登場人物名がテキストで表示される。図2の例は、右側の登場人物A子が「これあげる。」と言っている場面である。
【0024】
吹き出しエリア43は、セリフ表示エリアに表示されているセリフに対応する吹き出しイメージであり、他の吹き出しイメージと区別ができるように強調表示される。図2の例では、吹き出しイメージの内部を塗りつぶすことで、セリフに対応する吹き出しが判別できるようになっている。このように、イメージ表示エリア42には、吹き出しが2つあるが、セリフ表示エリア42には、一方の吹き出し表示エリア43に対応するセリフのみが表示される。これによって、小さなセリフ表示エリア42を利用して、比較的大きな字で読みやすい表示が行える。また、セリフが長い場合には、1つの吹き出しについてのセリフを複数回に分けて表示してもよい。また、セリフが短い場合には2つの吹き出しについてのセリフを一緒に表示してもよく、この場合には複数の吹き出しにセリフ表示中のマークがつけられる。なお、区別ができれば、丸や四角のマークを表示したり、色を変更したりしてもよい。
【0025】
図3はコミックコンテンツ5のデータ構成を示している。コミックコンテンツは図1に示すコミックサーバ3の記憶部32に蓄積されており、コミック閲覧クライアント1からの要求に応じて、ネットワーク2を介してコミック閲覧クライアント1の記憶部11に転送される。
【0026】
コミックコンテンツは、ヘッダ情報部51と本体部52とからなる。ヘッダ情報部51には、コミックコンテンツに対する属性情報が格納されている。すなわち、コミックのタイトル、連載コミックの場合の話数とサブタイトル、ページ総数、原作者・作画者・出版者等の著作情報、成年向け等を示す年齢制限情報、あらすじ等である。
【0027】
本体部52には、コミックコンテンツの実際のデータが格納されており、ページデータテーブル、コマデータテーブル、セリフデータテーブル、イメージデータテーブル、音声データテーブルからなる。
【0028】
ページデータテーブルはページ番号フィールド及びそのページに対応するイメージデータ識別子フィールドから構成される表データである。コマデータテーブルはコミックコンテンツ内で時系列に一意に付けられるコマ番号フィールド、そのコマが存在するページを示すページ番号フィールド、コマがページのどの位置にあるかを示す位置情報フィールド、そのコマに対応するBGM・効果音を示す音声データ識別子フィールドから構成される表データである。
【0029】
セリフデータテーブルは、コミックコンテンツ内で時系列に一意に付けられるセリフ番号フィールド、そのセリフに対応する吹き出しが存在するコマを示すコマ番号フィールド、セリフに対応する吹き出しがコマのどの位置にあるかを示す位置情報フィールド、セリフを発声している登場人物名を示す役柄フィールド、セリフを示すセリフフィールド、セリフに対応する効果音・肉声を示す音声データ識別子フィールドから構成される表データである。
【0030】
イメージデータテーブルは、イメージデータ識別子フィールドと、対応する画像データを格納するデータフィールドとから構成される表データである。音声データテーブルは、音声データ識別子フィールドと、対応する音声データを格納するデータフィールドとから構成される表データである。
【0031】
コミックコンテンツは構成されるデータ全てをひとまとめにして一つのファイルとして扱ってもよいし、別々のファイルとして扱ってもよい。後者の構成とする場合の具体例を挙げると、一つのディレクトリに一つのコミックコンテンツのデータファイル一式を格納することとし、ヘッダ情報部のデータを格納するヘッダファイル、本体部52のページデータテーブル、コマデータテーブル、セリフデータテーブルを格納するボディファイルを用意する。具体的には、1ページに複数のコマがあり、各コマに複数のセリフがあるという階層構造となる。
【0032】
イメージデータテーブル及び音声データテーブルは、各イメージデータ、音声データ毎にファイルとして格納し、イメージデータ識別子及び音声データ識別子はそれぞれのファイル名とする。予めサーバから全てのデータをダウンロードしたのちに閲覧するような実装方式の場合には前者が、コミックを読み進めながら必要なデータを必要なときに逐次サーバから取り出すような実装方式の場合には後者が好適である。
【0033】
このようなコミックコンテンツは、構造化したテキストデータとして保持することが好適である。この構造化テキストには、例えば、ネットワークにおけるデータ交換用フォーマットの1つであるXML(eXtensible Markup Language)を採用することができる。
【0034】
コミックコンテンツのXML文書において、本体部52を構成する各要素が保持する具体的な情報について以下にまとめる。
【0035】
(i)ページ:ページ全体の印刷イメージのビットマップデータ。ただし、XMLではバイナリデータを持つことはできないため、ビットマップデータは別ファイルとして作成し、XMLではイメージファイルの置かれた場所情報(URL)を持つ。
【0036】
(ii)コマ:そのコマがページ内のどの位置に配置されているかを表す情報。ページの左上を原点とする座標系を用い、コマの左上の座標、及びサイズ(幅、高さ)をピクセル値(px)または百分率(%)で保持する。コマの形状は様々であるが、今回はコマを内包する長方形の値を持たせることにする。
【0037】
(iii)セリフ:吹き出しの位置情報及びセリフのテキストデータ。位置情報はコマの左上からの相対座標とし、吹き出しの左上座標及びサイズをピクセル値または百分率で保持する。今回は吹き出し内のセリフ部分を内包する長方形の値を持つことにした。セリフデータは実際のセリフ及びそれを話している人物名をテキストで持つ。また、セリフデータは、他国語のテキストデータを並べて記述できるようにする。
【0038】
これらにしたがって、コミックの1ページ分のデータをXML文書に変換したサンプルを下に示す。
【0039】
【表1】

Figure 0004666789
このようにして、このXML文書と同じ場所にある「filename-01.jpg」というイメージファイルが読み出し表示される。表示された画像の中の表示セリフに対応した吹き出しには四角の表示が行われる。
【0040】
さらに、上述の例では、他国語へも対応している。すなわち、上述のXML文書において、<head>内の<language>タグは本XML文書が対応する言語を示している。例えば「<language lang=”ja”>日本語</language>」と記述されている場合、そのXML文書内のセリフデータ(<dialogue>タグ)のうち、「ja」というlang属性を持つものが日本語版であることを意味する。そして、他国語版のセリフデータを追加する場合は、まず追加したい言語のlang属性を指定した<language>タグをヘッダ情報に追加し、各セリフの位置に<dialogue lang=”言語”>タグで括ったデータを記述する。上述の例では、英語版が追加されている。
【0041】
そして、実際に複数言語のデータを持つコンテンツから特定の言語版のコミックを読むためには、次のようなロジックを閲覧アプリケーションに実装すればよい。
【0042】
まず、<language>タグにある言語の一覧を表示し、ユーザが言語を選択する。次に、選択した言語のlang属性を記憶する。そして、セリフの表示ステップにおいて、記憶しているlang属性のテキストだけを読み出し、表示する。このように、複数の言語のセリフを予め用意しておくことができ、ユーザが適宜選択することができる。また、この場合にイメージデータについては全く変更する必要がなく、他国語への対応が非常に容易になる。
【0043】
なお、他国語への対応の際に必ずしも複数言語を用意する必要はなく、1つの言語のみのファイルを用意してもよい。この場合においても、文字データのみを入れ替えることで、セリフを変更できるため、他国語のコミックコンテンツを用意することが容易である。
【0044】
図4には、2種類のコンテンツの配信の方式を示してある。図4(a)には、クライアント加工型配信方式の例が示してある。この方式では、コミックコンテンツ及び閲覧アプリケーションをサーバからダウンロードし、携帯情報端末上で加工、表示する。この配信方式のメリットとしては次の点が挙げられる。
【0045】
(i)閲覧アプリケーションはJava言語で書かれていることから、JavaVMが搭載された携帯情報端末であればサービスが利用できる。
【0046】
(ii)アプリケーション自体もダウンローダブルであるため、機能の拡張が行いやすい。
【0047】
図4(b)には、サーバ加工型配信方式の例が示してある。この方式では、サーバ側でコミックコンテンツをWebコンテンツのフォーマットへ変換しておき、携帯情報端末からはWebコンテンツへアクセスする。例えば、NTTドコモの携帯電話用サービスであるiモード(情報配信サービス名)においてこの配信を行うと仮定した場合、コミックコンテンツを各コマに分割したCompactHTML文書に変換する。この変換作業に必要な情報は全てコミックXML文書に含まれているため、処理の自動化が可能である。
【0048】
現行の携帯情報端末は既にWebコンテンツへのアクセス機能を備えているため、本配信方式はすぐにサービスを実現できるという長所を持つ。
【0049】
図5はコミックの閲覧処理を示すフローチャートである。図4(a)の方式では、処理プログラムは、図1に示すコミック閲覧クライアント1の記憶部11に格納され、制御部12に逐次読み込まれ実行される。また、図4(a)の方式では、このプログラムデータをコミックサーバ3に置き、コミックコンテンツとともにコミック閲覧クライアントへダウンロードすることになる。
【0050】
以下に各ステップの詳細を述べる。S1では、コミックコンテンツのヘッダ情報部を読み込み、表示画面上にタイトルや著作者等の表示を行う。S2では、ヘッダ情報部の年齢制限情報を読み取り、成年向けコミック等の年齢制限のあるコンテンツの場合はチェックを行う。チェック方法の一例を挙げる。コミックサーバの利用を会員制とし、登録時に生年月情報を入力してもらう。コミックサーバへの登録が完了すると、ユーザはIDを受け取り、そのIDを使ってコミックサーバへアクセスしコンテンツをダウンロードする。コミックサーバはIDによってアクセスしてきたユーザの年齢を特定し、年齢制限付きコンテンツへのアクセス可否をクライアントに通達する。
【0051】
S3では、コミックコンテンツの本体部を読み込む。S4では、コンテンツの表示・再生に必要な変数を初期化する。変数としては現在表示中のページ番号・コマ番号・セリフ番号、音声のON/OFF等がある。ページ番号=1、コマ番号=1、セリフ番号=1、音声=ONにそれぞれ設定する。
【0052】
S5では、ページ番号、コマ番号、セリフ番号、音声の変数値に従って表示出力装置へのイメージ表示及び音声出力装置への音声再生を行う。
【0053】
ここで、図6はS5の表示/再生処理の詳細を示すフローチャートである。まず、S501で現在表示中のページ番号とこれから表示するページ番号とを比較し、異なっていればS502に、同じであればS510にそれぞれ進む。
【0054】
S502ではページ番号に対応するイメージデータを読み込む。図3のコミックコンテンツのページデータテーブルから、ページ番号に対応するイメージデータ識別子を特定し、さらにイメージデータテーブルからそのイメージデータ識別子に対応するデータを取り出し、メモリ上に展開する。
【0055】
S503では図2のイメージ表示エリア上にコマ番号に対応するコマのイメージを表示する。図3のコミックコンテンツのコマデータテーブルから、コマ番号に対応するイメージの位置情報を取り出し、メモリ上に展開されているページイメージから位置情報により特定される領域をイメージ表示エリアへ転送する。このとき、イメージ表示エリアよりも表示すべき領域が大きいときは縮小処理を行う。
【0056】
S504ではコマに対応する音声データのチェックを行う。音声変数がOFFの場合、あるいは、コマデータテーブルからコマ番号に対応する音声データ識別子が見つからない場合はS506に進む。それ以外の場合はS505に進む。
【0057】
S505ではコマに対応する音声データの再生を行う。コマデータテーブルからコマ番号に対応する音声データ識別子を特定し、さらに音声データテーブルからその音声データ識別子に対応するデータを取り出し、音声出力装置へ転送する。これにより、コマ毎に異なるBGMや効果音を発声させることが可能である。
【0058】
S506ではコマイメージの中からセリフ番号に対応する吹き出し部分を強調表示する。コミックコンテンツのセリフデータテーブルから、セリフ番号に対応する吹き出しの位置情報を取り出し、イメージ表示エリア上に表示されたコマイメージから位置情報により特定される領域を強調表示する。強調表示の方法としては、目立つ色による枠線描画や、領域の色反転などがある。
【0059】
S507では図2のセリフ表示エリアにセリフ番号に対応するテキストを表示する。セリフデータテーブルから、セリフ番号に対応する役柄名とセリフテキストを取り出し、それらを“「”や“:”などのセパレータ文字で結合したのち、その文字列をイメージに展開してセリフ表示エリアへ転送する。
【0060】
S508ではセリフに対応する音声データのチェックを行う。音声変数がOFFの場合、あるいは、セリフデータテーブルからセリフ番号に対応する音声データ識別子が見つからない場合は処理を終了する。それ以外の場合はS509に進む。
【0061】
S509ではセリフに対応する音声データの再生を行う。セリフデータテーブルからセリフ番号に対応する音声データ識別子を特定し、さらに音声データテーブルからその音声データ識別子に対応するデータを取り出し、音声出力装置へ転送する。これにより、セリフ表示エリアへのセリフ文字列の表示とともに、その効果音や肉声音を同時に再生させることが可能である。
【0062】
S510では現在表示中のコマ番号とこれから表示するコマ番号とを比較し、異なっていればS503に、同じであればS511にそれぞれ進む。S511では現在表示中のセリフ番号とこれから表示するセリフ番号とを比較し、異なっていればS512に、同じであれば処理を終了する。
【0063】
S512では、イメージ表示エリア上の直前のセリフに対応する吹き出しの強調表示を解除する。反転処理による強調の場合は、同じ領域に対してもう一度反転処理を行うことで強調表示が解除される。それ以外の場合はメモリ上に展開されているページイメージから強調表示領域をイメージ表示エリアへ転送し上書きする。その後、新しいセリフに対応する吹き出し部分を強調表示すべくS506へ進む。
【0064】
図4のコミックの閲覧処理を示すフローチャートに戻る。S5の表示/再生処理が終わると、S6のキー入力読み込み待ちとなる。予めクライアントとなる端末のキーあるいはボタンに、コミックを閲覧するための機能を割り当てておく。機能としては音声ON/OFF切り替え、次ページ、前ページ、次コマ、前コマ、次セリフ、前セリフ、終了等がある。キー入力があると、S7へ進む。
【0065】
S7ではS6で入力されたキーが終了キーであるかをチェックし、終了キーであれば処理を終了する。終了キーでなければS8へ進む。
【0066】
S8ではS6で入力されたキーに基づき、変数値を更新する。音声ON/OFF切り替えキーの場合、音声変数を反転する。次ページキーの場合、ページ番号変数を1増加する。これに伴い、コマ番号変数及びセリフ番号変数も連動して変更する。コマデータテーブルのページ番号フィールドから現在のページ番号変数を検索し、その最初のレコードのコマ番号をコマ番号変数へセットする。さらに、セリフデータテーブルのコマ番号フィールドから現在のコマ番号変数を検索し、その最初のレコードのセリフ番号をセリフ番号変数へセットする。前ページ、次コマ、前コマ、次セリフ、前セリフの各キーについても次ページキーと同様な処理でページ番号変数、コマ番号変数、及びセリフ番号変数を更新する。その後S5へ進み、イメージ表示及び音声再生を更新する。
【0067】
このように、ストーリー漫画のような不定形のコマからなるコミックコンテンツが携帯電話のような表示エリアの限られた端末で閲覧可能となる。
【0068】
なお、前述の実施の形態では、処理プログラムをコミックサーバ3に置いた例を示したが、これには限られず、処理プログラムをコミック閲覧クライアント1に予め格納しておいてもよい。
【0069】
【発明の効果】
以上説明したように、本発明によれば、文字データを画像データと分離して送るため、文字データについてはテキストデータにでき、データ量を小さくできる。また、文字表示領域を別に設けたため、携帯端末において漫画などを読む場合においてセリフを読みやすくできる。また、文字データが分離されているため、セリフを他国語にすることも容易である。特に、コミックコンテンツにおけるセリフを見やすくできる。さらに、吹き出しにマークをつけるなどの手法によって、どのセリフについての文字が表示されているかを容易に認識できる。
【図面の簡単な説明】
【図1】 実施形態のシステム全体構成例を示す図である。
【図2】 表示例を示す図である。
【図3】 データの構成例を示す図である。
【図4】 配信方式を説明する図である。
【図5】 コミック閲覧処理を示すフローチャートである。
【図6】 表示/再生処理を示すフローチャートである。
【符号の説明】
1 コミック閲覧クライアント、2 ネットワーク、3 コミックサーバ、11,32 記憶部、12,33 制御部、13 出力部、14,31 通信IF部、15 入力部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a distribution system for distributing content including images and characters, and a server used therefor.
[0002]
[Prior art]
Conventionally, a content distribution service for distributing various contents via the Internet or the like has been performed. Examples of such distribution services include various contents such as music, video images, and books.
[0003]
Among them, there is also a comic content distribution service. This comic content is a picture written by the writer, and includes characters that appear normally in a speech balloon and the like. These are all taken in as image data and distributed.
[0004]
On the other hand, as terminal devices that receive distribution, there are mobile terminals such as PDAs (personal digital assistants) and mobile phones in addition to ordinary personal computers. Such a portable terminal has a relatively small screen. Therefore, in such distribution to mobile terminals, the distribution is limited to one or four frames of comics so that one frame is displayed on one screen.
[0005]
[Problems to be solved by the invention]
However, since the screen of the portable terminal is small, there is a problem that character display such as lines is small and difficult to read.
[0006]
[Means for Solving the Problems]
The present invention is a distribution system that distributes content including images and characters, and the transmission side includes image data constituting a plurality of screens, character data associated with the screens of the image data, The receiving side that transmits the control data including the correspondence between the image data and the character data, and displays the image data of one screen of the image data in the image display area of the screen, The associated character data is displayed in a character display area distinguished from the image display area on the same screen.
[0007]
In this way, since the character data is sent separately from the image data, the character data can be converted into text data, and the amount of data can be reduced. Further, since the character display area is provided separately, it is possible to easily read the dialogue when reading a comic or the like on the mobile terminal. In addition, since the character data is separated, it is easy to make the dialogue into another language.
[0008]
Further, it is preferable that the transmission side also transmits an application program for displaying image data and character data on the reception side, and the reception side performs display using the received application program. For example, a program written in the Java language can be downloaded together with the content data, and the content can be displayed on the receiving side.
[0009]
Further, it is preferable that the transmission side stores image data and character data as web contents, and the reception side acquires the data using a web browser. This eliminates the need for a special program on the receiving side.
[0010]
Further, the present invention is a distribution server for distributing content including images and characters, image data, character data associated with the image data, an image display area for displaying image data on the screen, Characteristic display areas for displaying character data are designated and control data including association data of image data and character data to be displayed at the same time is transmitted.
[0011]
In addition, the image data includes a display of a character corresponding area where character display should be originally performed, and corresponds to the character data to be displayed when there are a plurality of character corresponding areas in one screen image data. It is preferable to include a display that distinguishes the corresponding character area from the other character corresponding areas. Thereby, the original position of the character displayed in the character display area can be easily recognized.
[0012]
Preferably, the image data includes a plurality of characters, and the character data is speech data of the characters.
[0013]
The character data preferably includes data on the character name, and the character name is preferably additionally displayed in the display of the speech data on the screen. This makes it easy to recognize who the lines are.
[0014]
Further, the character data includes character data in a plurality of languages, and a display language can be selected. Since character data is different, it is easy to prepare data in other languages, and the user can easily select a language.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration example of a comic content distribution service according to the present invention.
[0016]
The comic browsing client 1 is a terminal for browsing comic content distributed via a network 2 such as the Internet, and is a mobile phone, a PDA, a personal computer, a digital TV receiver, or the like. The comic browsing client 1 includes at least a storage unit 11, a control unit 12, an output unit 13, a communication interface unit 14, and an input unit 15.
[0017]
The storage unit 11 includes a secondary storage device such as a ROM, a RAM, a memory card, and a hard disk, and stores a comic browsing client control program, a comic browsing program, comic content, and the like. The control unit 12 includes a CPU, and controls peripheral devices according to a program stored in the storage unit 11. The output unit 13 includes a display output device such as an LCD and a cathode ray tube, and a sound output device such as a speaker, and displays comic images and speech texts and utters BGM and speech. The input unit 15 includes a keyboard, buttons, a touch panel, a remote controller, and the like, and receives an input from a comic viewer.
[0018]
The communication interface unit 14 is connected to the communication interface unit 31 of the comic server 3 via the network 2 and transmits and receives commands and data. The network 2 is, for example, the Internet, but may be another communication line.
[0019]
The comic server 3 is a server that accumulates comic content and distributes the content to clients that request browsing, and includes a workstation, a personal computer, and the like. The comic server includes at least a communication interface unit 31, a storage unit 32, and a control unit 33.
[0020]
The storage unit 32 includes a storage medium such as a ROM, a RAM, and a hard disk, and stores a comic server control program, comic content, and the like. The control unit 33 includes a CPU, executes a control program, and the network 2 performs processing such as transmitting comic content via the communication interface unit 31.
[0021]
FIG. 2 shows an example of a display screen when comic content is read by the comic browsing client. The display screen 4 includes at least an image display area 41 and a serif display area 42.
[0022]
The image display area 41 is an area for displaying a partial area of a comic bitmap image, and displays a bitmap image of a currently read frame.
[0023]
The serif display area 42 is an area for displaying text, and the serif currently being read and the name of the character who says the serif are displayed in text. The example of FIG. 2 is a scene where the character A child on the right side says "I'll give you this".
[0024]
The speech balloon area 43 is a speech balloon image corresponding to the speech displayed in the speech display area, and is highlighted so that it can be distinguished from other speech balloon images. In the example of FIG. 2, the balloon corresponding to the speech can be identified by painting the inside of the balloon image. Thus, although there are two balloons in the image display area 42, only the lines corresponding to one of the balloon display areas 43 are displayed in the line display area 42. This makes it possible to display a relatively large character in an easy-to-read manner using the small dialogue display area 42. In addition, when the lines are long, the lines for one speech balloon may be displayed in multiple times. In addition, when the lines are short, the lines for the two balloons may be displayed together. In this case, a mark during line display is added to the plurality of balloons. If the distinction can be made, a circle or square mark may be displayed or the color may be changed.
[0025]
FIG. 3 shows the data structure of the comic content 5. The comic content is stored in the storage unit 32 of the comic server 3 shown in FIG. 1, and transferred to the storage unit 11 of the comic browsing client 1 via the network 2 in response to a request from the comic browsing client 1.
[0026]
The comic content includes a header information part 51 and a main body part 52. The header information section 51 stores attribute information for comic content. That is, the title of the comic, the number of stories and subtitles in the case of serial comics, the total number of pages, the copyright information of the original author, the creator, the publisher, etc., the age restriction information indicating for adults, the synopsis, and the like.
[0027]
The main unit 52 stores actual data of comic content, and includes a page data table, a frame data table, a serif data table, an image data table, and an audio data table.
[0028]
The page data table is table data composed of a page number field and an image data identifier field corresponding to the page. The frame data table is a frame number field uniquely assigned in time series within the comic content, a page number field indicating the page where the frame is located, a position information field indicating the position of the frame on the page, and corresponding to the frame It is the table data comprised from the audio | voice data identifier field which shows BGM and sound effect to perform.
[0029]
The serif data table includes a serif number field uniquely assigned in time series within the comic content, a frame number field indicating a frame where a speech bubble corresponding to the speech exists, and a position of the speech bubble corresponding to the speech at which position. The table data is composed of a position information field to indicate, a role field indicating the name of the character who is speaking the speech, a speech field indicating the speech, and an audio data identifier field indicating the sound effect / real voice corresponding to the speech.
[0030]
The image data table is table data composed of an image data identifier field and a data field for storing corresponding image data. The audio data table is table data composed of an audio data identifier field and a data field for storing corresponding audio data.
[0031]
Comic content may be handled as a single file by collecting all the configured data together or as a separate file. As a specific example in the case of the latter configuration, a set of data files of one comic content is stored in one directory, a header file storing data of the header information part, a page data table of the main body part 52, Prepare a body file to store the frame data table and the serif data table. Specifically, there is a hierarchical structure in which there are a plurality of frames on one page and a plurality of lines in each frame.
[0032]
The image data table and the audio data table are stored as files for each image data and audio data, and the image data identifier and the audio data identifier are the respective file names. In the case of an implementation method in which all data is downloaded from the server in advance and then viewed, the former is used. In the case of an implementation method in which necessary data is sequentially retrieved from the server while reading a comic, the latter is used. Is preferred.
[0033]
Such comic content is preferably held as structured text data. For this structured text, for example, XML (eXtensible Markup Language) which is one of data exchange formats in a network can be adopted.
[0034]
Specific information held by each element constituting the main body 52 in the XML document of the comic content is summarized below.
[0035]
(I) Page: Bitmap data of the print image of the entire page. However, since XML cannot have binary data, bitmap data is created as a separate file, and XML has location information (URL) where an image file is placed.
[0036]
(Ii) Frame: Information indicating where in the page the frame is arranged. Using the coordinate system with the top left of the page as the origin, the top left coordinates of the frame and the size (width, height) are held as pixel values (px) or percentages (%). The shape of the frame is various, but this time we will give it a rectangular value that encloses the frame.
[0037]
(Iii) Line: Speech balloon position information and line text data. The position information is relative coordinates from the upper left of the frame, and the upper left coordinates and size of the balloon are held as pixel values or percentages. This time, we decided to have a rectangular value that included the speech part in the speech bubble. The serif data has the actual serif and the name of the person who speaks it as text. In the serif data, text data in other languages can be described side by side.
[0038]
A sample of the comic page data converted to an XML document is shown below.
[0039]
[Table 1]
Figure 0004666789
In this way, the image file “filename-01.jpg” in the same location as the XML document is read and displayed. A square is displayed in a balloon corresponding to a display line in the displayed image.
[0040]
Further, in the above example, other languages are also supported. That is, in the above XML document, a <language> tag in <head> indicates a language to which the XML document corresponds. For example, if “<language lang =” ja ”> Japanese </ language>” is described, the dialogue data (<dialogue> tag) in the XML document has a lang attribute of “ja”. It means that it is a Japanese version. And when adding other language version of speech data, first add <language> tag specifying the lang attribute of the language you want to add to the header information, and use <dialogue lang = ”language”> tag at the location of each speech Describe the enclosed data. In the above example, the English version is added.
[0041]
Then, in order to read a comic of a specific language version from content having data in a plurality of languages, the following logic may be implemented in the browsing application.
[0042]
First, a list of languages in the <language> tag is displayed, and the user selects a language. Next, the lang attribute of the selected language is stored. Then, in the dialog display step, only the stored text of the lang attribute is read and displayed. In this manner, a plurality of languages can be prepared in advance, and the user can select as appropriate. In this case, it is not necessary to change the image data at all, and it becomes very easy to deal with other languages.
[0043]
Note that it is not always necessary to prepare a plurality of languages when dealing with other languages, and a file of only one language may be prepared. Even in this case, since the dialogue can be changed by replacing only the character data, it is easy to prepare comic contents in other languages.
[0044]
FIG. 4 shows two types of content distribution methods. FIG. 4A shows an example of the client processing type distribution method. In this method, comic content and a browsing application are downloaded from a server, processed and displayed on a portable information terminal. Advantages of this distribution method include the following points.
[0045]
(I) Since the browsing application is written in the Java language, the service can be used with any portable information terminal equipped with JavaVM.
[0046]
(Ii) Since the application itself is downloadable, it is easy to expand functions.
[0047]
FIG. 4B shows an example of a server processing type distribution method. In this method, comic content is converted into a Web content format on the server side, and the mobile content terminal accesses the Web content. For example, assuming that this distribution is performed in i-mode (information distribution service name) which is a service for mobile phones of NTT Docomo, the comic content is converted into a CompactHTML document divided into frames. Since all the information necessary for this conversion work is included in the comic XML document, the processing can be automated.
[0048]
Since the current portable information terminal already has a function to access Web contents, this distribution method has the advantage that the service can be realized immediately.
[0049]
FIG. 5 is a flowchart showing comic browsing processing. In the method shown in FIG. 4A, the processing program is stored in the storage unit 11 of the comic browsing client 1 shown in FIG. In the method of FIG. 4A, the program data is placed on the comic server 3 and downloaded to the comic browsing client together with the comic content.
[0050]
Details of each step will be described below. In S1, the header information part of the comic content is read and the title, author, etc. are displayed on the display screen. In S2, the age restriction information in the header information section is read, and a check is performed for age-restricted contents such as comics for adults. An example of a check method is given. Use the comic server as a membership system, and have your date of birth information entered during registration. When the registration to the comic server is completed, the user receives the ID, accesses the comic server using the ID, and downloads the content. The comic server specifies the age of the user who has accessed through the ID, and notifies the client whether or not access to the age-restricted content is possible.
[0051]
In S3, the main part of the comic content is read. In S4, variables necessary for content display / playback are initialized. Variables include the currently displayed page number, frame number, serif number, voice ON / OFF, and the like. Page number = 1, frame number = 1, speech number = 1, and voice = ON are set.
[0052]
In S5, image display on the display output device and audio reproduction on the audio output device are performed according to the page number, frame number, serif number, and audio variable value.
[0053]
Here, FIG. 6 is a flowchart showing details of the display / reproduction processing in S5. First, in step S501, the page number currently displayed is compared with the page number to be displayed. If they are different, the process proceeds to step S502, and if they are the same, the process proceeds to step S510.
[0054]
In S502, image data corresponding to the page number is read. The image data identifier corresponding to the page number is specified from the page data table of the comic content in FIG. 3, and the data corresponding to the image data identifier is extracted from the image data table and developed on the memory.
[0055]
In S503, the image of the frame corresponding to the frame number is displayed on the image display area of FIG. The position information of the image corresponding to the frame number is extracted from the comic content frame data table of FIG. 3, and the area specified by the position information from the page image developed on the memory is transferred to the image display area. At this time, if the area to be displayed is larger than the image display area, the reduction process is performed.
[0056]
In S504, the audio data corresponding to the frame is checked. If the audio variable is OFF, or if no audio data identifier corresponding to the frame number is found from the frame data table, the process proceeds to S506. Otherwise, the process proceeds to S505.
[0057]
In S505, the audio data corresponding to the frame is reproduced. An audio data identifier corresponding to the frame number is specified from the frame data table, and data corresponding to the audio data identifier is extracted from the audio data table and transferred to the audio output device. Thereby, it is possible to utter a different BGM or sound effect for each frame.
[0058]
In step S506, the balloon portion corresponding to the speech number is highlighted from the frame image. The speech balloon position information corresponding to the speech number is extracted from the comic content speech data table, and the area specified by the position information is highlighted from the frame image displayed on the image display area. As a highlighting method, there are frame drawing with a conspicuous color, color reversal of an area, and the like.
[0059]
In S507, the text corresponding to the line number is displayed in the line display area of FIG. Takes the role name and the serif text corresponding to the serif number from the serif data table, combines them with separator characters such as ““ ”and“: ”, expands the character string into an image, and transfers it to the serif display area To do.
[0060]
In S508, the voice data corresponding to the speech is checked. If the speech variable is OFF, or if the speech data identifier corresponding to the speech number is not found from the speech data table, the process ends. Otherwise, the process proceeds to S509.
[0061]
In S509, audio data corresponding to the speech is reproduced. The speech data identifier corresponding to the speech number is specified from the speech data table, and the data corresponding to the speech data identifier is extracted from the speech data table and transferred to the speech output device. As a result, it is possible to simultaneously reproduce the sound effect and the real voice along with the display of the serif character string in the serif display area.
[0062]
In S510, the currently displayed frame number is compared with the frame number to be displayed. If they are different, the process proceeds to S503, and if they are the same, the process proceeds to S511. In S511, the currently displayed line number is compared with the line number to be displayed in the future. If they are different, the process is terminated in S512.
[0063]
In S512, the highlighted display of the speech balloon corresponding to the immediately preceding line on the image display area is canceled. In the case of emphasis by inversion processing, highlighting is canceled by performing inversion processing once again on the same region. In other cases, the highlight area is transferred from the page image developed in the memory to the image display area and overwritten. Thereafter, the process advances to step S506 to highlight the balloon portion corresponding to the new line.
[0064]
Returning to the flowchart showing the comic browsing process of FIG. When the display / reproduction process in S5 is completed, the process waits for key input reading in S6. A function for browsing a comic is assigned to a key or button of a terminal serving as a client in advance. Functions include voice ON / OFF switching, next page, previous page, next frame, previous frame, next line, previous line, end, and the like. If there is a key input, the process proceeds to S7.
[0065]
In S7, it is checked whether or not the key input in S6 is an end key. If it is an end key, the process is terminated. If it is not the end key, the process proceeds to S8.
[0066]
In S8, the variable value is updated based on the key input in S6. In the case of the voice ON / OFF switch key, the voice variable is inverted. In the case of the next page key, the page number variable is incremented by one. Along with this, the frame number variable and the serif number variable are also changed in conjunction. The current page number variable is searched from the page number field of the frame data table, and the frame number of the first record is set in the frame number variable. Further, the current frame number variable is searched from the frame number field of the serif data table, and the serif number of the first record is set in the serif number variable. For the previous page, next frame, previous frame, next serif, and previous serif keys, the page number variable, the frame number variable, and the serif number variable are updated in the same process as the next page key. Thereafter, the process proceeds to S5 to update the image display and sound reproduction.
[0067]
In this way, comic content composed of indefinite frames such as story comics can be viewed on a terminal with a limited display area such as a mobile phone.
[0068]
In the above-described embodiment, an example in which the processing program is placed in the comic server 3 has been described. However, the present invention is not limited to this, and the processing program may be stored in the comic browsing client 1 in advance.
[0069]
【The invention's effect】
As described above, according to the present invention, since character data is sent separately from image data, the character data can be converted into text data, and the data amount can be reduced. Further, since the character display area is provided separately, it is possible to easily read the dialogue when reading a comic or the like on the mobile terminal. In addition, since the character data is separated, it is easy to make the dialogue into another language. In particular, it is easier to see the lines in comic content. Furthermore, it is possible to easily recognize which line the character is displayed by, for example, marking the balloon.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to an embodiment.
FIG. 2 is a diagram showing a display example.
FIG. 3 is a diagram illustrating a configuration example of data.
FIG. 4 is a diagram illustrating a distribution method.
FIG. 5 is a flowchart showing comic browsing processing.
FIG. 6 is a flowchart showing a display / playback process.
[Explanation of symbols]
1 comic browsing client, 2 network, 3 comic server, 11, 32 storage unit, 12, 33 control unit, 13 output unit, 14, 31 communication IF unit, 15 input unit.

Claims (5)

受信端末の画面に標示する画像データおよび文字データを含むコンテンツを配信する配信システムであって、
前記画像データには吹き出し画像が含まれ、
前記文字データには当該吹き出し画像に対応づけられたセリフデータが含まれ、
前記受信端末の画面は、前記画像データを表示するイメージエリアと、当該イメージエリアと区別され前記セリフデータを表示するセリフ表示エリアで構成され、
送信装置は、前記画像データと、前記文字データと前記吹き出し画像と前記セリフデータの対応づけを含む制御データと、を受信端末に送信し、
受信端末は、前記セリフデータ毎に前記イメージエリアに吹き出し画像を順に強調表示するとともに、前記制御データによって対応づけられたセリフデータを前記セリフ表示エリアに表示することを特徴とするコンテンツ配信システム。
A distribution system that distributes content including image data and character data to be displayed on a screen of a receiving terminal,
The image data includes a balloon image,
The character data includes speech data associated with the balloon image,
The screen of the receiving terminal includes an image area for displaying the image data, and a serif display area for displaying the serif data that is distinguished from the image area.
The transmission device transmits the image data, the control data including the correspondence between the character data, the speech balloon image, and the speech data to the reception terminal,
The receiving terminal highlights balloon images in order in the image area for each of the serif data, and displays the serif data associated with the control data in the serif display area.
前記強調表示は前記吹き出し画像の枠の色を変化させることを特徴とする請求項1に記載のコンテンツ配信システム。  The content distribution system according to claim 1, wherein the highlighting changes a color of a frame of the balloon image. 前記強調表示は前記吹き出し画像の色を反転させることを特徴とする請求項1に記載のコンテンツ配信システム。  The content distribution system according to claim 1, wherein the highlighting reverses a color of the balloon image. 前記受信端末は小型の表示画面を備えた携帯端末であることを特徴とする請求項1乃至請求項3のいずれか1つに記載のコンテンツ配信システム。The content delivery system according to any one of claims 1 to 3 , wherein the receiving terminal is a portable terminal having a small display screen. 前記セリフデータは複数国の言語の文字データからなり、ユーザの選択により選択された国の言語の文字データを前記セリフ表示エリアに表示することを特徴とする請求項1乃至請求項4のいずれか1つに記載のコンテンツ配信システム。5. The speech data is composed of character data in a plurality of languages, and the character data in a language selected by a user is displayed in the speech display area . the content delivery system, according to 1.
JP2001050086A 2001-02-26 2001-02-26 Content distribution system and content distribution server Expired - Fee Related JP4666789B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001050086A JP4666789B2 (en) 2001-02-26 2001-02-26 Content distribution system and content distribution server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001050086A JP4666789B2 (en) 2001-02-26 2001-02-26 Content distribution system and content distribution server

Publications (2)

Publication Number Publication Date
JP2002251279A JP2002251279A (en) 2002-09-06
JP4666789B2 true JP4666789B2 (en) 2011-04-06

Family

ID=18911103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001050086A Expired - Fee Related JP4666789B2 (en) 2001-02-26 2001-02-26 Content distribution system and content distribution server

Country Status (1)

Country Link
JP (1) JP4666789B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4671726B2 (en) * 2005-03-25 2011-04-20 有限会社リュウプロ Content output device, content output program, and content distribution system
US7882430B2 (en) 2005-10-27 2011-02-01 Hewlett-Packard Development Company, L.P. Utility, method and device providing vector images that may be formatted for display in different locales
JP5237773B2 (en) * 2008-12-01 2013-07-17 スパイシーソフト株式会社 Image group editing apparatus and electronic device
JP5881929B2 (en) * 2009-04-10 2016-03-09 ソニー株式会社 Server apparatus, advertisement information generation method and program
JP5376685B2 (en) 2011-07-13 2013-12-25 Necビッグローブ株式会社 CONTENT DATA DISPLAY DEVICE, CONTENT DATA DISPLAY METHOD, AND PROGRAM
WO2014041914A1 (en) * 2012-09-14 2014-03-20 富士フイルム株式会社 Page image display device, and method and program for controlling operation of same
KR102131895B1 (en) * 2017-01-31 2020-07-08 리마 주식회사 Method and program for tracking replicated webtoon
JP7282444B1 (en) 2022-05-24 2023-05-29 株式会社オプティム Program, information processing device, information processing system, information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240953A (en) * 1997-02-24 1998-09-11 Toshiba Corp Picture display system
JP2000099225A (en) * 1998-09-18 2000-04-07 Sony Corp Device and method for processing information and distribution medium
JP2000227851A (en) * 1999-02-08 2000-08-15 Toshiba Corp Two-way communication system and recording medium
JP2002229766A (en) * 2000-11-29 2002-08-16 Eastman Kodak Co Method for sending image to low-display function terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240953A (en) * 1997-02-24 1998-09-11 Toshiba Corp Picture display system
JP2000099225A (en) * 1998-09-18 2000-04-07 Sony Corp Device and method for processing information and distribution medium
JP2000227851A (en) * 1999-02-08 2000-08-15 Toshiba Corp Two-way communication system and recording medium
JP2002229766A (en) * 2000-11-29 2002-08-16 Eastman Kodak Co Method for sending image to low-display function terminal

Also Published As

Publication number Publication date
JP2002251279A (en) 2002-09-06

Similar Documents

Publication Publication Date Title
US6771743B1 (en) Voice processing system, method and computer program product having common source for internet world wide web pages and voice applications
US7707316B2 (en) Information processing apparatus and method
US20040205620A1 (en) Information distributing program, computer-readable recording medium recorded with information distributing program, information distributing apparatus and information distributing method
US20020062396A1 (en) Server devices for displaying web pages
US20050178821A1 (en) Manual providing apparatus, multi function printer, server, electronic manual presentation method, and computer program
US7735002B2 (en) User interface in a mobile station
KR101010490B1 (en) Data processing device
JP4094777B2 (en) Image communication system
JP4769032B2 (en) Screen changing method, screen generating device, program, and recording medium
JP2003223463A (en) Information providing server device and information providing system
JP4666789B2 (en) Content distribution system and content distribution server
JP2008077171A (en) Data distribution device, data display device, data distribution method, data display method, data distribution program, data display program and recording medium with the same program recorded thereon
US20040201591A1 (en) Data transfer method, data transfer program, storage medium and information terminal
EP1341328A1 (en) Data broadcast system, for broadcasting multimedia data; receiving terminal device for receiving said multimedia data
CN107248947A (en) Expression processing method and processing device, computer equipment and storage medium
JPH10322478A (en) Hypertext access device in voice
JP2002202935A (en) Server device
JP2001056825A (en) Data distribution system and device used for the system
JP2006185064A (en) Data processor and program
WO2004068352A1 (en) Table display switching method, text data conversion program, and tag program
US20020130901A1 (en) Enhanced program listing
JPH0962687A (en) Information processor and information providing system
US20050119888A1 (en) Information processing apparatus and method, and program
JP4689488B2 (en) Information addition device, information addition method, information addition program, information addition system, information addition management server, information addition management method, and information addition management program
JP6388425B2 (en) Content provision system, service provision server, information terminal, application program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees