JP2001228947A - 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体 - Google Patents

表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体

Info

Publication number
JP2001228947A
JP2001228947A JP2000041917A JP2000041917A JP2001228947A JP 2001228947 A JP2001228947 A JP 2001228947A JP 2000041917 A JP2000041917 A JP 2000041917A JP 2000041917 A JP2000041917 A JP 2000041917A JP 2001228947 A JP2001228947 A JP 2001228947A
Authority
JP
Japan
Prior art keywords
data
control
icon
expression data
animation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000041917A
Other languages
English (en)
Other versions
JP3720230B2 (ja
JP2001228947A5 (ja
Inventor
Minoru Nishihata
実 西畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2000041917A priority Critical patent/JP3720230B2/ja
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to CNB018064221A priority patent/CN1241095C/zh
Priority to US10/204,054 priority patent/US20030011643A1/en
Priority to AU2001228864A priority patent/AU2001228864A1/en
Priority to EP01953006A priority patent/EP1278115A4/en
Priority to PCT/JP2001/000684 priority patent/WO2001061446A1/ja
Publication of JP2001228947A publication Critical patent/JP2001228947A/ja
Publication of JP2001228947A5 publication Critical patent/JP2001228947A5/ja
Application granted granted Critical
Publication of JP3720230B2 publication Critical patent/JP3720230B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】 【課題】 各表現間の相違が微妙になっても、迅速かつ
的確に多様な表現を制御可能な表現データ制御システム
を実現する。 【解決手段】 端末は、アニメーションや音あるいは文
字列などの表現データに関連して、動作/状態を示すア
イコン111…をアイコンパレット110上に表示す
る。また、端末の表示画面上には、アイコン121と文
字列122とを混在して表示可能な制御入力エリア12
0が設けられており、ユーザは、アイコンパレット11
0からアイコン111を選択してアイコン121を入力
すると共に、キーボードなどから文字列122を入力す
る。端末は、入力結果に基づき、アニメーション表示エ
リア100aに表示される自キャラクタの動作/状態
を、アイコン121に応じて制御すると共に、アイコン
121の直後に位置する文字列122を、自キャラクタ
のアニメーションと同期しながら表示する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えば、アニメー
ションや音あるいは文字列など、時間に沿って出力さ
れ、表現される表現データを制御する表現データ制御シ
ステムに関し、特に、各表現間の相違が微妙になって
も、迅速かつ的確に多様な表現を制御可能な表現データ
制御システムに関するものである。
【0002】
【従来の技術】例えば、特開平9−81353号公報で
は、文字列と画像とが併用された画面を表示する表示装
置において、入力された文字列に含まれる制御文字列に
よって、対応する画像を表示する装置が開示されてい
る。当該表示装置は、例えば、入力された文字列
に、「:-) 」という、笑顔を示す制御文字列が含まれて
いる場合、表示装置に笑顔を表示する。これにより、文
字だけの表示に比べて微妙なニュアンスを表示しやすく
なる。
【0003】一方、米国では、Microsoft 社によって、
「Comic Chat」という題名で同様の提案を含む通信装置
に関する論文が発表されている(COMPUTER GRAPHICS Pr
oceedings, SIGGRAPH Annual Conference Series, 199
6)。当該論文では、画像を制御するための文字列とし
て、「:-) 」のような特殊な記号から構成される文字列
だけではなく、例えば、”hello ”という単語を含む文
章が入力された場合に手を振る画像を表示するなど、通
常の文章に含まれる語句を制御文字列として用いること
も提案されている。同様に、特開平11−242751
号公報や特開平9−65815号公報では、文章に含ま
れる特定の語句によって制御されるアニメーションを表
示しながら、文章を読み上げる文章読み上げ装置が開示
されている。
【0004】
【発明が解決しようとする課題】しかしながら、特開平
9−81353号公報の表示装置のように、特殊な制御
文字列を入力する場合、多様な表現を迅速に入力するこ
とが難しいという問題が生ずる。
【0005】具体的には、一概に笑顔といっても、「に
こにこ」した笑顔や、「ニヤッ」とした笑顔など、多様
な笑顔が存在するので、「:-) 」だけでは多様な笑顔を
表現できない。また、「:-P 」などの他の文字列を用い
たとしても限界がある。加えて、表現可能な笑顔の増加
に伴って、制御文字列の種類も増加して、ユーザが、こ
れらの制御文字列全てを記憶し、的確に区別することが
益々困難になる。
【0006】なお、特開平9−81353号公報では、
「:-) 」と「:-< 」との間に、例えば、「:-)0.5 :-<0.
8 」のように、変形指示パラメータを挿入することで、
両者の間の中間的な表情を指定する方法も記載されてい
る。ところが、多くのユーザにとって、変形指示パラメ
ータから実際の表情を想像しにくいため、試行錯誤を繰
り返して、変形指示パラメータの入力に習熟する必要が
ある。
【0007】加えて、上記表示装置では、動作のパター
ンが限定されているため、参加者にとっての意外性や多
様性を満たすことが難しい。この結果、参加者に飽きら
れやすくなってしまう。なお、文章中の特定の語句をキ
ーワードにする装置にも同様の問題があり、当該装置で
は、特定の語句から一意に表情が特定されるため、ユー
ザは、それ以上の表情を制御できない。
【0008】本発明は、上記の問題点に鑑みてなされた
ものであり、その目的は、各表現間の相違が微妙になっ
ても、迅速かつ的確に多様な表現を制御可能な表現デー
タ制御システムを実現することにある。
【0009】
【課題を解決するための手段】本発明に係る表現データ
制御システムは、上記課題を解決するために、表現デー
タとしてのアニメーションについて、動作/状態を示す
制御データを生成する制御データ生成部と、制御データ
に基づいて表現データを制御する表現データ制御部とを
有する表現データ制御システムにおいて、表現データの
動作/状態を示すアイコンを組み合わせて入力する入力
部を備え、上記制御データ生成部は、入力されたアイコ
ンに基づいて、上記制御データを生成することを特徴と
している。
【0010】上記構成では、入力部によって、制御デー
タがアイコンを組み合わせて入力される。ここで、アイ
コンは、制御文字列を入力する場合とは異なり、それぞ
れが示す動作/状態を直感的にユーザへ伝えることがで
きる。また、種類が増えても、制御文字列を入力する場
合に比べて、入力の手間が増えない。さらに、アニメー
ションもアイコンも画像として表現されるため、各動作
/状態で制御されるアニメーション間の相違が微妙であ
っても、それぞれの相違を識別しやすい。この結果、多
様な動作/状態を迅速に入力可能な表現データ制御シス
テムを実現できる。
【0011】また、上記構成に加えて、上記入力部は、
アイコンと文字列とを混在して入力可能であり、上記表
現データ制御部は、アイコンの直前または直後に位置す
るように入力された文字列を、当該アイコンが示すアニ
メーションに同期して表示または発音する方が望まし
い。
【0012】当該構成によれば、表現データ制御部が文
字列とアニメーションとを表示する際に必須の入力のみ
を行う場合、すなわち、アイコンと文字列とを入力する
場合に比べて、入力が増えていないにも拘らず、アニメ
ーションと文字列とが同期している。また、互いに同期
するアイコンおよび文字列は、連続して位置するように
入力されるため、ユーザは、両者の関係を把握しやす
い。この結果、アニメーションおよび文字列を、簡単な
入力で、より自然に制御できる。
【0013】同期の方法として、上記表現データ制御部
は、前記文字列の長さ、あるいは、前記文字列の発音に
要する時間に応じて、上記アイコンが示すアニメーショ
ンの長さを調整してもよい。なお、アニメーションの長
さは、例えば、各フレームの提示時間を調整したり、キ
ーフレームを補間して生成されるフレーム数を調整した
りして設定される。
【0014】当該構成では、文字列の長さや発声の所要
時間に応じてアニメーションの長さが調整される。した
がって、アニメーションの長さを特に指示する必要がな
く、アニメーションおよび文字列を、簡単な入力で、よ
り自然に制御できる。
【0015】また、同期の他の方法として、上記表現デ
ータ制御部は、前記文字列の長さ、あるいは、前記文字
列の発音に要する時間に応じて、上記アイコンが示すア
ニメーションの再生回数を調整してもよい。
【0016】当該構成では、文字列の長さや発声の所要
時間に応じてアニメーションの再生回数が調整される。
したがって、アニメーションの再生回数を特に指示する
必要がなく、アニメーションおよび文字列を、簡単な入
力で、より自然に制御できる。
【0017】さらに、本発明に係る表現データ制御装置
は、上記課題を解決するために、表現データとしてのア
ニメーションについて、動作/状態を示す制御データを
生成する制御データ生成部を有する表現データ制御装置
において、表現データの動作/状態を示すアイコンを組
み合わせて入力する入力部を備え、上記制御データ生成
部は、入力されたアイコンに基づいて、上記制御データ
を生成することを特徴としている。
【0018】当該構成でも、入力部によって、制御デー
タがアイコンを組み合わせて入力されるので、上述の表
現データ制御システムと同様に、多様な動作/状態を迅
速に入力できる。
【0019】また、上記構成の表現データ制御装置にお
いて、上記アイコンは、当該アイコンに対応するアニメ
ーションの一部を構成する静止画または動画を縮小した
画像として表示される方が望ましい。
【0020】当該構成では、アイコンがアニメーション
の一部を縮小した画像として表示されるので、各アニメ
ーション間の相違が微妙であり、文字などに翻訳しにく
い場合であっても、各ユーザは、当該画像によって各ア
ニメーション間の相違を把握できる。この結果、より多
様で、それぞれの相違が微妙な動作/状態を迅速に入力
できる。
【0021】さらに、上記各構成の表現データ制御装置
は、制御可能な各動作/状態のアニメーションを再生す
るためのリソースデータを追加あるいは置き換えて記憶
可能なリソース記憶部と、当該リソースデータに応じた
アイコンを登録するアイコン登録部を備えている方が望
ましい。
【0022】当該構成によれば、リソースデータが変更
可能なので、制御可能な動作/状態のアニメーションを
追加したり、変更したりできる。この結果、制御可能な
動作/制御が予め定められている場合に比べて、より多
様にアニメーションを制御できる。また、当該リソース
データに合わせて、アイコンを登録できるので、リソー
スデータが変更されても、何ら支障なく、動作/状態を
迅速に入力できる。
【0023】また、上記構成の表現データ制御装置は、
上記制御データに基づいて表現データを制御する表現デ
ータ制御部へ、通信路を介して、当該制御データを伝送
するデータ送信部と、制御データの生成および伝送が繰
り返される前に、上記リソース記憶部に記憶されたリソ
ースデータを上記表現データ制御部に送出するリソース
送出部とを備えていてもよい。
【0024】当該構成では、上記表現データ制御部は、
制御データの伝送が繰り返される前に、リソース送出部
からリソースデータを受け取る。したがって、制御デー
タの伝送毎にアニメーション自体を示すデータを伝送す
る場合に比べて、制御データの伝送時におけるデータ量
を削減でき、より迅速なレスポンスが可能になる。ま
た、リソースデータを受け取るまで、表現データ制御部
は、リソースデータの内容が判らないので、意外性のあ
るアニメーションが再生される。この結果、より多様な
制御データを迅速に送信可能な表現データ制御装置を実
現できる。
【0025】一方、本発明に係る表現データ制御システ
ムは、上記課題を解決するために、表現データの動作/
状態を示す制御データを生成する制御データ生成部と、
通信路を介して受け取った制御データに基づいて表現デ
ータを制御する表現データ制御部とを有する表現データ
制御システムにおいて、表現データの動作/状態を示す
アイコンを組み合わせて入力する入力部を備え、上記制
御データ生成部は、入力されたアイコンに基づいて、上
記制御データを生成すると共に、さらに、制御可能な各
動作/状態の表現データを再生するためのリソースデー
タを追加あるいは置き換えて記憶可能なリソース記憶部
と、上記制御データの生成および伝送が繰り返される前
に、上記リソース記憶部に記憶されたリソースデータを
上記表現データ制御部に送出するリソース送出部とを備
えていることを特徴としている。なお、表現データは、
時間に沿って出力されるデータであれば、例えば、アニ
メーションに限らず、音や文字列であってもよい。
【0026】当該構成では、入力部によって、制御デー
タがアイコンを組み合わせて入力される。また、制御デ
ータの伝送が繰り返される前に、リソース送出部からリ
ソースデータを受け取る。したがって、上述の表現デー
タ制御システムや表現データ制御装置と同様に、多様な
動作/状態を示す制御データを、迅速に入力/伝送でき
る。
【0027】また、本発明に係る表現データ制御システ
ムは、上記課題を解決するために、表現データとしての
文字列について、表現方法を指示する制御データを生成
する制御データ生成部と、制御データに基づいて表現デ
ータを制御する表現データ制御部とを有する表現データ
制御システムにおいて、上記文字列と混在させて、当該
文字列の表示方法を示すアイコンを入力する入力部を備
え、上記制御データ生成部は、入力されたアイコンに基
づいて、上記制御データを生成し、上記表現データ制御
部は、アイコンの直前または直後に位置するように入力
された文字列の表示方法を、アイコンに応じて変更する
ことを特徴としている。
【0028】当該構成によれば、入力部によって、制御
データがアイコンを組み合わせて入力されるので、上述
の表現データ制御システムと同様に、それぞれが示す表
示方法を直感的にユーザへ伝えることができる。また、
種類が増えても、制御文字列を入力する場合に比べて、
入力の手間が増えない。したがって、文字列の表示方法
を直感的かつ迅速に入力可能な表現データ制御システム
を実現できる。
【0029】さらに、上記各表現データ制御システムに
おいて、上記入力部は、入力されたアイコンの組み合わ
せを表示する方が望ましい。
【0030】上記構成によれば、アイコンの組み合わせ
が表示されるので、ユーザは、入力結果を確認し、十分
に吟味できる。なお、多くの場合、アイコンの組み合わ
せ表示は、表現データの制御に比べて演算量が少ないの
で、処理能力の低い入力部でも十分表示できる。また、
上述したように、表現データの制御結果(動作/状態)
は、アイコンの組み合わせから直感的に理解できる。
【0031】加えて、本発明に係る記録媒体は、表現デ
ータとしてのアニメーションについて、動作/状態を示
す制御データを生成する表現データ制御プログラムが記
録された記録媒体であって、上記課題を解決するため
に、表現データの動作/状態を示すアイコンを組み合わ
せて入力する入力部、並びに、入力されたアイコンに基
づいて、上記制御データを生成する制御データ生成部と
して、コンピュータを動作させるプログラムが記録され
ていることを特徴としている。
【0032】コンピュータが当該プログラムを読み取っ
て実行すると、上述の表現データ制御装置が実現され
る。したがって、多様な動作/状態を迅速に入力でき
る。
【0033】
【発明の実施の形態】本発明の一実施形態について図1
ないし図18に基づいて説明すると以下の通りである。
すなわち、本実施形態に係るシステムは、表現データと
してのアニメーションおよび文字列を制御するシステム
であって、例えば、台詞付きのアニメーションを用いて
相互通信するチャットシステムなどとして、特に好適に
使用される。
【0034】図2に示すように、本実施形態に係るチャ
ットシステム(表現データ制御システム)1は、無線あ
るいは有線の通信路を介して、相互に接続される複数の
端末2…を備えており、各端末(表現データ制御装置)
2には、図3に示すように、相手の端末2と通信する送
受信部(データ送信部・リソース送出部)11と、図1
に示すアニメーション表示エリア100aおよび100
bへ、自らおよび相手キャラクタのアニメーションをそ
れぞれ表示するアニメーション表示部(表現データ制御
部)12と、アニメーションを表示するためのリソース
(アニメーションリソース)を記憶するリソース記憶部
13と、図2に示すアイコンパレット110および制御
入力エリア120を表示するなどして、アイコンおよび
文字列を組み合わせ、自キャラクタの制御データを作成
する制御データ作成部14と、アイコンパレット110
にアイコン111を登録するアイコン登録部15とが設
けられている。なお、各端末2は、直接通信してもよい
し、交換機やネットワークサーバを介して接続されても
良い。
【0035】上記各端末2は、相手の端末2に自らを示
すキャラクタを表示させると共に、制御データを相手の
端末2へ送出して、相手の端末2に、台詞付きのアニメ
ーションとして表示される自らのキャラクタについて、
動作/状態を制御する。この結果、文字だけでコミュニ
ケートする従来のチャットシステムに比べて、より微妙
なニュアンスを比較的容易に相互に伝え合うことができ
る。
【0036】本実施形態に係る制御データ作成部14
は、上記アイコンパレット110に各アイコン111…
を表示するためのアイコンデータテーブルを記憶するア
イコンデータテーブル記憶部21と、上記制御入力エリ
ア120に表示される制御データを記憶する入力バッフ
ァ記憶部22と、ユーザの文字列入力やアイコン111
の選択などに基づき、上記入力バッファ記憶部22内の
制御データを編集し、制御入力エリア120内の表示を
更新する制御データ編集部(入力部)23と、編集結果
に基づいて、相手の端末2へ送出するデータ(制御デー
タ)を作成する送出データ作成部(表現データ生成部)
24とを備えており、ユーザは、図1の制御入力エリア
120に示すように、文字列を入力し、各アイコンを選
択するだけで、所望の台詞をしゃべり、所望の状態/動
作を行うキャラクタをアニメーション表示するための制
御データを作成できる。
【0037】上記構成では、図4のステップ1(以下で
は、S1のように略称する)に示すように、各端末2
は、チャットに先立ち、自キャラクタのアニメーション
リソースとして、チャット時に自キャラクタがとり得る
各動作/状態のアニメーションを示すデータを用意す
る。本実施形態に係るアニメーションリソースには、例
えば、図5に示すように、アニメーションを構成する一
連のフレーム群G1が、各動作/状態毎に含まれてお
り、各フレーム群G1には、それぞれの動作/状態を識
別するラベルN2が付されている。
【0038】これらのデータは、例えば、ユーザの入力
に応じて、線、多角形、楕円、文字列などの図形を組み
合わせて複数の静止画を作成すると共に、それら静止画
間に順序をつけることによって生成して、リソース記憶
部13に格納してもよい。なお、各図形には、色を設定
してもよい。また、送受信部11を介して、例えば、ア
ニメーションリソースを配信するサーバなどから、気に
入ったアニメーションリソースをダウンロードして、リ
ソース記憶部13に格納してもよい。
【0039】また、S2では、上記アイコンデータテー
ブル記憶部21に、上記自キャラクタのアニメーション
リソースに応じたアイコンデータテーブルが格納され
る。本実施形態に係るアイコンデータテーブルは、例え
ば、図6に示すように、各アイコン111について、ア
イコン111の画像を示すアイコン画像データD11
と、アイコン111が選択された場合に送出される制御
データを示すデータD12との組み合わせ(レコード)
を含んでいる。
【0040】当該データD12は、アイコン111が特
定のアニメーションや音声を示している場合、当該アニ
メーションや音声の再生指示を含み、台詞の色変更な
ど、文字列の表現変更を示している場合は、表現変更指
示を含んでいる。例えば、図1に示すアイコン111b
は、例えば、挨拶などの際に用いられる、にこやかなア
ニメーションを示しており、例えば、図6に示すデータ
D12bのように、当該アニメーションの再生を指示す
る文字列”<ANIMATE LABEL="SMILE1"/> ”が格納されて
いる。なお、各アイコン111に対応する指示は、複数
の指示の組み合わせでもよく、例えば、データD12d
では、アニメーションの再生指示に加えて、文字列の表
現変更指示が含まれている。
【0041】これらのアイコン画像データD11や文字
列D12は、アイコン登録部15が、リソース記憶部1
3内のアニメーションリソースの各フレーム群G1か
ら、当該アニメーションの一部を構成する静止画または
動画を抜き出して、アイコン画像データD11を生成す
ると共に、それぞれのラベルN2を変換して文字列D1
2を生成してもよいし、上記アニメーションリソースと
共に上記サーバからダウンロードしてもよい。さらに、
アイコン登録部15は、ラベルN2の抽出に代えて(加
えて)、ユーザの指示に応じてデータD12を登録(修
正)することもできる。
【0042】なお、アイコン登録部15がアニメーショ
ンリソースに基づいて生成する場合、アイコン画像デー
タD11の元となる静止画/動画は、例えば、アニメー
ション全体におけるフレーム位置や各フレーム間の変化
などに基づいて、アイコン登録部15が自動的に選択し
てもよいし、例えば、ユーザに候補を提示して、ユーザ
が選択した静止画/動画を元にしてもよい。いずれの場
合であっても、アイコン111がアニメーションを示し
ている場合、上記アイコン画像データD11は、アニメ
ーションの特徴的な静止画/動画を元にする方が望まし
い。
【0043】図4に示すS1・S2にて、アニメーショ
ンリソースおよびアイコンが登録されると、各端末2の
送受信部11は、S3において、相互に通信して、S4
以降のチャットで使用するアニメーションリソースを交
換する。これにより、リソース記憶部13には、図5に
示す自キャラクタのアニメーションリソースだけではな
く、図7に示す相手キャラクタのアニメーションリソー
スも格納される。なお、自および相手キャラクタのアニ
メーションリソースを格納できれば、各端末2は、アニ
メーションリソース自体を交換せず、例えば、識別番号
など、アニメーションリソースを特定する情報のみを交
換し、例えば、上記サーバなど、アニメーションリソー
ス自体を端末2以外から受け取ってもよい。
【0044】各端末2に、自および相手キャラクタのア
ニメーションリソースが格納されると、以下のS4以降
において、各端末2間のチャットが開始される。チャッ
トの間、端末2において、制御データ作成部14の制御
データ編集部23は、S4において、図1に示すアイコ
ンパレット110および制御入力エリア120を表示
し、アイコン111や文字列の組み合わせで自キャラク
タの動作/制御あるいは台詞を入力するように促す。
【0045】当該制御データ120は、アイコン121
と文字列122とを混在させて入力するエリアであり、
各文字は、キーボードなどによって、入力カーソル12
3が示す位置に入力される。また、各アイコン121…
は、アイコンパレット110内に表示されるアイコン1
11のうち、例えば、マウスで指示(ポイント)して入
力操作(クリック) するなどして選択されたアイコン1
11であり、入力カーソル123の位置に1つずつ入力
される。
【0046】アイコンあるいは文字が入力されると、制
御データ編集部23は、入力に応じて入力バッファ記憶
部22の内容を変更し、制御入力エリア120の表示を
更新する。これにより、にこやかに挨拶しながら、「お
はよう」としゃべり、悲しそうな顔で、「じつはちょっ
と困ったことがあってね」としゃべるように、自キャラ
クタを制御するためのデータは、にこやかに笑うアイコ
ン121aと、「おはよう」という文字列121aと、
悲しそうなアイコン121bと、「じつはちょっと困っ
たことがあってね」という文字列122bとの組み合わ
せとして入力でき、表現間の相違が微妙で多様な場合で
あっても、制御データを直感的かつ高速に入力できる。
【0047】なお、上記アイコン111は、アニメーシ
ョンだけではなく、音を示していてもよいし、例えば、
アイコン121dのように、文字列122dの表示状態
変更を示していてもよい。図1の例では、アイコン12
1dは、黒インクがこぼれるように表示されており、以
降に記述された文字列122dの黒色表示を指示する。
【0048】また、図1に示すように、制御入力エリア
120には、ユーザの入力に応じて、自キャラクタの動
作/状態を示すアイコン121aと、自キャラクタの台
詞を示す文字列122aとが混在して表示される。した
がって、ユーザは、制御データを送信する前に、制御入
力エリア120の表示によって、アイコン121や文字
列122の組み合わせを確認できる。この結果、制御内
容を十分吟味した上で、送信できる。ここで、多くの場
合、アイコンの組み合わせ表示は、アニメーションの表
示/制御に比べて演算量が少ないので、処理能力の低い
端末2でも十分表示できる。なお、制御データ編集部2
3は、制御入力エリア120の入力結果を編集できるの
で、送信前の吟味の結果に応じて、編集/修正した上で
送信できる。
【0049】さらに、本実施形態に係るアニメーション
表示部12は、リソース記憶部13に格納された自キャ
ラクタのアニメーションリソースを参照しながら、図1
に示すアニメーション表示エリア100aへ、制御入力
エリア120への入力が示すアニメーションを表示して
いる。この結果、端末2のユーザは、制御入力エリア1
20の表示だけを見るよりも正確に、相手端末2で表示
される自キャラクタのアニメーションを確認できる。
【0050】上記S4において、自キャラクタの動作/
状態や台詞が、アイコン121や文字列122の組み合
わせとして入力されると、S5において、各端末2の送
出データ作成部24は、例えば、図1に示す「送信」ボ
タン130の押し操作など、ユーザの指示に応じて、入
力結果を制御データに変換し、送受信部11を介して、
相手の端末2に送信する。なお、以下では、1度に相手
に送信される制御データを1発言と称する。また、上記
押し操作は、例えば、マウスによる指示およびクリック
操作である。
【0051】ここで、本実施形態では、上記S3におい
て、チャット時に自キャラクタがとり得る各動作/状態
のアニメーションが、相手の端末2にアニメーションリ
ソースとして先送りされており、相手端末2のアニメー
ション表示部12は、後述するS7において、先送りさ
れたアニメーションリソースを参照しながら、制御デー
タが示すアニメーションを再生する。この結果、チャッ
ト中のS5では、図8に示すように、制御データとし
て、アニメーションリソースを特定するための情報(後
述するタグL1)と、アニメーションや文字の組み合わ
せ(後述するタグL2や文字列L3など)とを送出すれ
ばよく、アニメーションを構成するフレームの内容を送
出する必要がない。したがって、発言毎に、フレーム内
容を送信する場合に比べて、端末2間に伝送されるデー
タ量を大幅に削減できる。この結果、アイコン111や
文字列の組み合わせによる高速入力とあいまって、高速
なレスポンスが可能になり、各端末2のユーザは、リア
ルタイムにコミュニケートできる。
【0052】一方、S6において、相手の端末2から制
御データを受け取ると、S7において、アニメーション
表示部12は、リソース記憶部13内の相手のアニメー
ションリソースを参照しながら、図1に示すアニメーシ
ョン表示エリア100bに、制御データが示すアニメー
ションを再生する。なお、アニメーション表示部12
は、アニメーションを表示する際、台詞の長さに合わせ
て、アニメーションの提示時間を調整したり、提示回数
を調整したりして、アニメーションを台詞に同期させて
表示する。これにより、同期が取れていない場合よりも
見やすいアニメーション表示が可能になる。ここで、ア
イコンが示すアニメーションの長さを短くすると、より
正確に同期を取れるようになるが、アイコンの入力回数
が増えたり、各アイコンが示すアニメーションを識別し
にくくなるので、両者のバランスは、用途に応じて設定
される。
【0053】ここで、アニメーション表示部12は、相
手の端末2からの制御データに基づくアニメーション
を、アニメーション表示エリア100bに表示し、自ら
が作成した制御データに基づくアニメーションをアニメ
ーション表示エリア100aに表示する。この結果、そ
れぞれに表示される相手および自キャラクタが、あたか
も会話しているようなアニメーションが、自および相手
の端末2に順次表示される。ただし、相手端末2では、
自および相手キャラクタが逆になるので、アニメーショ
ン表示エリア100aおよび100bの内容は、逆に表
示されており、アイコンパレット110には、相手のキ
ャラクタを示すアイコン111が表示される。なお、図
1では、アニメーション表示エリア100…が2つ表示
され、2つの端末2間で通信している場合を例示してい
るが、3者以上で通信する場合、アニメーション表示部
12は、各端末2を示すアニメーション表示エリア10
0を表示してもよい。
【0054】上記S4〜S7の処理は、チャットが終了
するまで、各端末2の発言毎に、繰り返され、各端末2
のユーザは、アイコン121や文字列122の組み合わ
せで、自キャラクタの動作/状態と台詞とを制御しなが
ら、リアルタイムにコミュニケートできる。
【0055】ここで、アニメーションでコミュニケート
する場合、例えば、笑顔の範疇には、「にこにこ」した
笑顔や、「ニヤッ」とした笑顔など、多様な表現が考え
らえれる。したがって、上述した特開平9−81353
号公報のように、台詞を示す文字列に混在して、自キャ
ラクタの動作を示す制御文字列を入力しようとすると、
多様な表現を入力するために入力文字数が増加したり、
入力文字数を削減するために、表現の種類が制限された
りする虞れがある。また、ユーザは、制御文字列と表現
との対応を記憶する必要があり、制御文字列とし
て、”:-) ”や”:-P”などのフェースマークを使用し
たとしても、表現が多様になるに従って、ユーザの負担
が極めて大きくなってしまう。さらに、文字列では、表
情や動作という複雑な情報のごく一部を表現しているに
過ぎないため、直感的ではない。したがって、表現の種
類が増加したり、各表現間の相違が微妙になるに従っ
て、的確な入力が困難になっていく。
【0056】これに対して、本実施形態では、端末2
は、アイコン121や文字列122の組み合わせとして
制御データを入力している。ここで、アイコン121
は、制御対象であるアニメーションと同様、画像なの
で、アニメーションを文字列で特定する場合に比べて、
微妙な相違を表現しやすい。また、各アイコン121
は、文字を組み合わせて特定する場合と異なり、アイコ
ンパレット110から選択するなど、1操作で入力でき
る。したがって、表現が多様で、各表現間の相違が微妙
な場合であっても、迅速に入力できる。
【0057】また、上記端末2では、動作/状態を示す
アイコン121を組み合わせて入力できる。したがっ
て、1回の発言中で、動作/状態を変えるための制御デ
ータを容易に入力できる。この結果、より多様な表現を
迅速に入力できる。
【0058】加えて、本実施形態では、相手キャラクタ
のアニメーションリソースは、相手の端末2から通知さ
れるため、受け手の端末2のユーザが予期しないアニメ
ーションを再生することができる。この結果、各端末2
が、予め定められたアニメーションの中から制御文字列
に応じたアニメーションを選択して表示する場合、すな
わち、表現可能なアニメーションが固定されている場合
に比べて、表現の多様性を、さらに向上できる。なお、
受信側では、各表現が受信したアニメーションリソース
から選択されるため、受け手の端末2のユーザが予期し
ないアニメーションであっても、当該端末2は、何ら支
障なくアニメーションを再生できる。また、アニメーシ
ョンリソースが多様化するに従って、各表現間の微妙な
相違を一律に文字列で表現することが益々困難になる
が、上述したように、送信側では、各表現がアイコンで
識別されるため、送信側のユーザは、何ら支障なく、多
様な表現を、直感的かつ迅速に入力できる。
【0059】なお、上記では、制御対象がアニメーショ
ンの場合を例にして説明したが、これに限るものではな
い。アイコンを使用すれば、制御文字列と表現との対応
を記憶することなく、多様な表現を直感的かつ迅速に入
力できるので、制御対象は、例えば、音声、効果音や音
楽を含む音、あるいは、文字列などであってもよい。こ
の場合は、例えば、「元気な音楽を示すアイコン」、
「おはよう!」、「残念な効果音を示すアイコン」、
「おっと遅刻か?」のように入力することで、「おはよ
う!」という文字列を表示しながら元気な音楽を再生
し、「おっと遅刻か?」という文字列を表示しながら残
念な効果音を再生するための制御データを作成できる。
また、制御対象が他の場合であっても、音を示すリソー
ス、あるいは、例えば、フォントなど、文字列の表現変
更を示すリソースを先送りすることで、表現の多様性
と、直感的かつ迅速な入力を実現できる。
【0060】ただし、本実施形態のように、制御対象が
アニメーションなど画像で表現される場合、入力に使用
するアイコンと制御対象との双方が画像で表現されるた
め、アイコンパレット110あるいは制御入力エリア1
20に表示されるアイコン111上で、表現の微妙な相
違を的確に表示できる。したがって、制御対象がアニメ
ーションの場合に特に効果的である。
【0061】なお、制御対象にアニメーションが含まれ
る場合、文字列や音など、他の制御対象もアイコンで入
力すると、アニメーションの動作/状態の制御指示と、
他の制御対象への指示とが同じ入力方法になる。したが
って、制御対象にアニメーションを含む場合は、他の制
御対象への指示もアイコンで入力し、操作感を統一する
方が望ましい。
【0062】ところで、3者間以上で通信する場合、す
なわち、相手の端末2が複数の場合、自分が席を離れて
いたり、発言から注意を逸らしてたりすると、他者同士
の会話が進む可能性がある。また、相手の端末2が単数
の場合であっても、以前の発言を参照したいことがあ
る。
【0063】本実施形態に係る端末2では、図3に示す
ように、上述の構成に加えて、送受信部11が送信/受
信した制御データの履歴を管理する履歴管理部16が設
けられている。当該履歴管理部16は、図1に示す「戻
る」ボタン131あるいは「進む」ボタン132などの
押し操作に応じて、アニメーション表示部12が表示す
る制御データ(発言)を、より先の発言、あるいは、よ
り後の発言に変更する。例えば、参加者XおよびYの発
言を、時刻順にX1、Y1、X2、Y2、Y3(頭文字
は発言者)とすると、アニメーション表示部12が発言
Y3を表示している状態では、アニメーション表示部1
2が表示する発言は、「戻る」ボタン131を押す毎
に、Y2、X2、Y1、X1と逆順に変更される。この
結果、各端末2のユーザは、以前の発言を確認できる。
【0064】なお、上記では、アニメーション表示部1
2が、アニメーションや音などの制御対象に付随して、
文字列を表示する場合を例にして説明したが、これに限
らず、文字列を発声してもよい。いずれの場合であって
も、アニメーションや音などの制御対象に付随して、ア
ニメーション表示部12が文字列を報知できれば、同様
の効果が得られる。また、図1では、文字列は、キャラ
クタの台詞として再生されるが、これに限るものではな
い。制御データが、アニメーションや音などの制御対象
に付随しながら文字列を表示あるいは発声することを指
示していれば、同様の効果が得られる。さらに、図1の
例では、アイコン121aを文字列122aの前に置く
場合を例にして説明したが、アイコン121aを文字列
122aの後に表示して、同じ内容の制御を表現しても
よい。いずれの場合であっても、制御対象の動作/状態
を示すアイコン121aと、制御対象に付随して表示
(発声)する文字列122aとが隣接していれば、両者
の関係を把握しやすいので、より直感的かつ迅速な入力
が可能になる。
【0065】ここで、上記各部材の、より詳細な構成例
について説明すると、以下の通りである。図9に示すよ
うに、リソース記憶部13は、各アニメーションリソー
スについて、アニメーションの各フレームを示す画像デ
ータD20と、各画像データD20とフレームとの対応
を管理するアニメーションフレームデータD30とを格
納している。上記アニメーションフレームデータD30
には、各フレームについて、各画像データD20を示す
ポインタP31と、ラベル名データN32との組み合わ
せが記憶されており、ある動作/状態に対応するアニメ
ーションの先頭フレームには、当該動作/状態を識別す
るラベル名が、ラベル名データN32として格納され
る。また、残余のフレームのラベル名データN32とし
ては、空文字記号が格納される。
【0066】この場合、アニメーション表示部12は、
アニメーションフレームデータD30に格納された各フ
レームのうち、ラベル名データN32の内容が所望のラ
ベル名と一致するフレームを検索し、当該フレームを先
頭に、ラベル名データN32が空文字記号のフレームの
画像データD20を順次再生することで、所望のラベル
名に対応するアニメーションを表示できる。
【0067】本実施形態では、アニメーションリソース
がキーフレーム形式で表現されており、アニメーション
表示部12は、キーフレームとしての画像データD20
を、必要に応じて補間しながら再生している。具体的に
は、本実施形態では、各フレームが図形要素の組み合わ
せとして表現され、上記画像データD20は、当該フレ
ームに含まれる各図形要素について、当該図形要素を特
定する描画コマンドC21と、次のフレームにおいて、
当該図形要素に対応する図形要素を示すポインタP23
と、同じフレームにおいて、次の図形要素を示すポイン
タP22とを含んでいる。上記描画コマンドC21は、
例えば、三角形を示す場合、”LINE (0,0)-(0,10)-(10-
10)-(0,0) ”のように、図形の形状や位置を示すコマン
ドを含み、例えば、辺の太さや色、あるいは、内部の色
など、種々の属性を付加することができる。また、図形
の形状として、文字列を示すコマンドが指定される場合
もある。なお、上記対応する図形要素や次の図形要素が
ない場合、上記各ポインタP22やP23として、予め
定められる終端記号が格納される。
【0068】この場合、アニメーション表示部12は、
あるフレームを再生する場合、ポインタP22をたどり
ながら、各描画コマンドC21が示す図形要素を描画し
てフレームを再生する。また、アニメーション表示部1
2は、例えば、アニメーション表示部12の描画/演算
能力などに応じて、連続する2つのキーフレーム(画像
データD20)間で、対応する図形要素が滑らかに変化
するように、図形要素の形状、位置や色など、両キーフ
レーム間で相違している特徴量を補間する。
【0069】例えば、前後のキーフレームで、ある図形
要素の座標が(0,0) と(10,10) とであり、両キーフレー
ム間に1枚のフレームを線形に補間する場合、フレーム
における当該図形要素の座標は、(5,5) となる。なお、
この例では、特徴量としての座標を線形に補間する場
合、すなわち等分する場合を例にして説明したが、キー
フレームから任意の数のフレームを作成できれば、予め
定められた関数で非線形に補間するなど、他の方法で補
間してもよい。
【0070】また、上記リソース記憶部13には、アニ
メーションリソース名テーブルT40が格納されてお
り、当該テーブルT40は、自らに格納された各アニメ
ーションリソースについて、リソース本体となる上記ア
ニメーションフレームデータD30を示すポインタP4
1とリソース名データN42との組み合わせを格納して
いる。
【0071】一方、上記アイコンデータテーブル記憶部
21は、例えば、図10に示すように、アイコンデータ
テーブルT50として、アイコン111の画像を示すデ
ータ(アイコン画像データD51)と、アイコン111
に対応する制御データD52との組み合わせを、アイコ
ンパレット110に表示されるアイコン111毎に格納
している。なお、上記アイコンデータテーブルT50
は、例えば、アイコン画像データD51を示すポインタ
P53と、制御データD52を示すポインタP54との
配列として実現されている。この例では、各制御データ
D52の末尾に、文字終端記号が付されている。
【0072】また、上記制御データ編集部23におい
て、入力バッファ記憶部22は、図11に示すように、
制御入力エリア120に表示される順番に、アイコン1
21を示すアイコン指定データD61と、文字列122
を示すデータD62とを記憶している。ここで、同図で
は、アイコン指定データD61は、特定の文字(”
#”)とアイコンデータテーブルT50上の順序数とを
組み合わせた文字列として記載し、各データD61・D
62の区切りを改行して表示している。また、上記順序
数は、例えば、アイコンパレット110の左上のアイコ
ン111を基点(1)として数えている。なお、当然な
がら、アイコン指定データD61の形式は、文字列(文
字コード)に限るものでなく、アイコン121を特定で
きれば、表示可能な文字に対応しない制御コードで表現
してもよい。
【0073】文字列122やアイコン121が入力され
ると、制御データ編集部23は、入力バッファ記憶部2
2のうち、入力カーソル123に対応する位置に、入力
に応じたアイコン指定データD61または文字列データ
D62を挿入する。また、制御データ編集部23は、入
力バッファ記憶部22に記憶されている順番に従って、
アイコン指定データD61に対応するアイコン画像デー
タD51、または、あるいは、文字列データD62が示
す文字列を表示する。これにより、図1に示すように、
アイコン121と文字列122とを混在させて表示でき
る。
【0074】なお、上記では、文字列やアイコンの入力
操作のみについて説明したが、制御データ編集部23
は、例えば、図示しないキー操作あるいはマウス操作な
どによって、削除や切り取り、貼り付け、複写など、他
の編集操作が指示された場合、各編集操作に応じて入力
バッファ記憶部22の内容を変更し、制御入力エリア1
20の表示を更新できる。
【0075】また、送出データ作成部24は、図1に示
す、「送信」ボタン130の押し操作など、制御データ
の送出指示を受け取ると、入力バッファ記憶部22の内
容を図8に示す形式の制御データに変更する。制御デー
タは、例えば、制御データを再生するために必要なアニ
メーションリソースなど、相手の端末2で正しく再生す
るための情報を、入力バッファ記憶部22の内容に加え
たものであって、本実施形態に係るチャットシステム1
では、標準化団体World Wide Webコンソーシアム(W3
C)が勧告するXML(eXtensible Mark-up Language
)1.0の仕様に準拠した形式が採用されている。ま
た、履歴管理部16は、例えば、図12に示すように、
各発言毎に、制御データを記憶している。
【0076】具体的には、図8に示す制御データは、図
13に示すような論理構成を有しており、1つの制御デ
ータを、SPEECH要素が構成している。当該SPE
ECH要素は、制御データの作成者を示すPERSON
属性と、アニメーションリソースを示すFILE属性と
を有しており、さらに、アイコン121に対応するAN
IMATE要素と、文字列122に対応するテキストデ
ータとを、順序を保ちながら含むことができる。
【0077】なお、本実施形態に係る制御データ編集部
23は、アイコンパレット110のアイコンを用途毎に
段分けして表示しており、例えば、図1の例では、上の
段に、アニメーション制御用のアイコン111…が表示
され、下の段には、文字列の制御あるいは初期状態への
移行など、他の用途のアイコン111…が表示されてい
る。本実施形態では、制御データ編集部23がアイコン
データテーブルT50における記憶位置(登録順)に各
アイコン111を表示しているので、各アイコン111
の表示位置は、アイコンデータテーブルT50への記憶
位置を調整することで設定される。なお、アイコンデー
タテーブルT50に、各アイコン111の用途を示すフ
ィールドを追加して、制御データ編集部23が当該デー
タに基づいてアイコン111の表示位置を制御する場合
は、アイコンデータテーブルT50の当該フィールドに
用途を示すデータが格納される。
【0078】上記構成において、チャット時における端
末2の詳細な動作について、図14に基づき説明する
と、以下の通りである。なお、制御データ作成部14
は、ユーザインタフェースとして、図1に示す画面を表
示している。
【0079】すなわち、S11において、現在表示すべ
き発言の順序数を示す変数Pが、表示すべき発言がない
状態を示す”0”に初期化され、S12において、端末
2は、入力イベント待ちの状態になる。なお、本実施形
態に係る端末2は、入力イベントとして、「キーボード
からの文字入力」、「マウスによる画面上の特定位置の
指示・クリック」、並びに、「送受信部11を介して、
外部からのデータ受信」の3種類を待ち受ける。
【0080】入力イベントがあると、端末2は、S13
において、入力イベントの種類を判定する。ここで、ユ
ーザの手順として、まず、図1に示す制御入力エリア1
20に、アイコン121を入力するために、アイコンパ
レット110の特定のアイコン111bをクリックした
場合、上記S13の判定で、入力イベントがマウスクリ
ックであると判定され、S14において、クリック位置
が、アイコンパレット110の選択と判定される。この
場合、S15において、制御データ編集部23は、図1
1に示すように、入力バッファ記憶部22の先頭に、ア
イコン111bを示すアイコン指定データD61(”#
2”)を格納する。
【0081】上記S15あるいは後述のS17におい
て、入力バッファ記憶部22の内容が変更されると、制
御データ編集部23は、S16において、制御入力エリ
ア120の表示を更新する。具体的には、入力バッファ
記憶部22内のアイコン指定データD61(”#2”)
に基づいて、図10に示すアイコンデータテーブルT5
0の2番目のレコードが内包するアイコン画像データD
51が検索され、制御入力エリア120中のアイコン1
21として表示される。なお、上記S16の表示更新が
終了すると、ステップS12以降の処理が繰り返され
る。
【0082】次のユーザ操作として、文字列「おはよ
う」のうちの文字「お」がキーボードから入力される
と、上記S13の判定により、S17の処理が行われ、
入力バッファ記憶部22には、図11に示す文字列「お
はよう」のうち、「お」が格納される。この場合も、S
16において、入力バッファ記憶部22の内容に応じ
て、制御入力エリア120の表示が更新され、文字
「お」が表示された後、S12の待ち受け処理へと回帰
する。
【0083】上記S12からS17の処理が繰り返され
て、制御入力エリア120に示す全てのアイコン指定デ
ータD61および文字列データD62を入力すると、ユ
ーザは、図1に示す「送信」ボタン130を押す。ここ
で、「送信」ボタン130の押し操作は、マウスのクリ
ック操作なので、上記S14の判定が行われ、さらに、
「送信」ボタンの押し操作なので、S21において、送
出データ作成部24は、入力バッファの内容をタグ形式
の制御データに変更する。
【0084】すなわち、制御データ編集部23は、1回
の変換処理で、1つのSPEECH要素(図8に示す行
L1からL11までの全て)要素を作成する。ここで、
SPEECH要素の開始タグ(L1)に含まれるPER
SON属性の値(例えば、”A”)は、ユーザにより予
め定められた自身のニックネームである。また、FIL
E属性の値(例えば、”CHARA−A”)は、アイコ
ンパレット110が表示しているアイコン111に対応
するアニメーションリソースから特定される。
【0085】また、行L2〜L10までは、制御入力エ
リア120に表示されるアイコン121や文字列122
を示しており、例えば、行L2の”<ANIMATE LABEL="SM
ILE1"/> ”は、入力バッファ記憶部22のアイコン指定
データD61(#2)に基づいて、図10に示すアイコ
ンデータテーブルT50の2番目のレコードが内包する
制御データD52が検索され、そのまま転送されたもの
である。また、文字列データD62は、例えば、行L3
などのように、そのまま文字列データとして使用され
る。また、行L4およびL5は、行L2と同様の手順
で、アイコンデータテーブルT50の制御データD52
が転送されて作成されるが、アイコンデータテーブルT
50の4番目のレコードには、制御データD52とし
て、複数(この場合は、2行)の制御データが格納され
ているので、複数の行L4およびL5が生成される。な
お、アニメーションに代えて/加えて、音響効果も制御
する場合は、アイコンデータテーブルT50の制御デー
タD52中に、例えば、”<MUSICTITLE="vivid.mid">
”のように、音楽の再生(この場合は、元気な音楽)
を示す要素が記憶される。制御データD52中に、AN
IMATE要素とMUSIC要素とを併記すれば、単一
のアイコンでアニメーションと音とを同時に制御可能に
なる。
【0086】このようにして、図8に示す制御データが
生成されると、S22において、送受信部11は、通信
路を介して、当該制御データを相手の端末2へ送出す
る。また、S23において、当該制御データは、履歴管
理部16内の図示しない制御履歴管理バッファに転送さ
れる。また、これに伴い、履歴管理部16は、例えば、
第1の発言SP1が転送された時点で最新位置を”1”
に設定するなど、発言の履歴における最新位置を更新す
る。なお、図12では、制御データの送信後、相手から
受信した制御データと、ユーザがその後入力した制御デ
ータとが追加された状態、すなわち、3つの発言SP1
〜SP3を含む場合を図示している。
【0087】さらに、S24において、履歴管理部16
は、変数Pの値、すなわち、現在表示すべき発言の順序
数が、最新位置の一つ前か否かを判定する。ここで、最
初の時点では、上記S11において、変数Pが”0”に
設定されている。一方、履歴管理部16は、第1の発言
SP1のみを格納しており、最新位置を”1”に設定し
ている。したがって、この時点では、上記S24の判定
がYES となり、S25において、変数Pが1増加された
後、S26において、アニメーション表示部12は、変
数Pが示す制御データ、すなわち、第1の発言SP1を
基にしたアニメーションを再生する。
【0088】ここで、上述したように、図1に示す「戻
る」ボタン131や「進む」ボタン132が押される
と、S13・S14の判定の結果、S27において、変
数Pの値が操作に応じて増減された後、上記S26と同
様に、変数Pが示す制御データが再生される。例えば、
「戻る」ボタン131が押されたときは、変数Pが”
0”で、それ以上戻れない場合を除いて、変数Pが1つ
減算される。また、「進む」ボタン132が押されたと
きは、変数Pが最新位置で、それ以上進めない場合を除
いて、変数Pが1つ加算される。これにより、図12に
示すように、履歴管理部16に格納されている各制御デ
ータ(SPEECH要素)のうち、変数Pに対応するS
PEECH要素が前後に移動し、上記S26において、
対応するSPEECH要素が表示される。
【0089】なお、例えば、「送信」ボタン130を押
した場合など、変数Pが最新位置を指していない状態
で、上記S23において、新たなSPEECH要素が追
加された場合、上記S24の判定がNOとなり、最新のア
ニメーションは表示されない。これにより、過去の発言
を再生している間は、新たな発言の割り込み表示が防止
され、過去の発言再生時における会話の流れの断続(不
連続)を防止できる。なお、この過去の発言を再生して
いる場合であっても、ユーザが「進む」ボタン132を
押すことで、最新のアニメーション表示に復帰できる。
【0090】一方、送受信部11が相手の端末2から制
御データを受け取ると、S31において、データ受信の
イベントが発生し、上述のS12・S13を経て、S2
3以降の処理が行われ、アニメーションおよび文字列が
表示される。
【0091】ここで、図15に基づき、上記S26の処
理を、さらに詳細に説明する。すなわち、S41におい
て、アニメーション表示部12は、上記変数Pに対応す
るSPEECH要素をパースする。なお、パースとは、
SPEECH要素など、処理対象データを解析した上
で、以降の処理を容易にするためのデータ形式に再構成
する処理であって、図12に示す第1の発言SP1をパ
ースすると、図13に示すデータ形式にパースされる。
図13では、ノードを四角形で囲んで表示しており、最
も上位のノードにSPEECH要素がパースされてい
る。また、SPEECH要素は、属性として、PERS
ON属性やFILE属性を持つと共に、子ノードとし
て、ANIMATE要素やFONT要素あるいはテキス
トデータを持っている。なお、この例は、XMLの定型
的なパース処理であり、XML関係機関などが公開・配
布しているコンピュータプログラム(XMLパーサ)を
用いて行うことができる。
【0092】さらに、アニメーション表示部12は、S
42において、上記S41でのパース結果のうち、FI
LE属性の値(”CHARA−A”)を用いて、予めリ
ソース記憶部13に格納されているアニメーションリソ
ース群の中から、同名のアニメーションリソースを選択
し、再生に備える。また、S43において、以降で用い
る文字属性を、初期値(例えば、文字色を黒、太さを細
字など)に設定すると共に、S44において、処理対象
のノードの順序数を示す変数Iが初期値”1”に設定さ
れる。
【0093】その後、処理対象が無くなるまで、S45
以降の処理が繰り返される。すなわち、S45におい
て、I番目のノードがテキストデータか否かを判定す
る。ここで、図13の最初(1番目)の子ノードは、A
NIMATE要素であり、テキストデータではないの
で、S46において、タグの種類が判定される。さら
に、タグがANIMATEなので、S47の処理が行わ
れ、アニメーション表示部12は、ANIMATE要素
のLABEL属性の値(この場合は”SMILE1”)
に対応するアニメーション、すなわち、上記S42で選
択されたアニメーションリソースのうち、属性値と同じ
ラベルを有するフレーム群G1の先頭フレームがアニメ
ーションの開始フレームとして設定される。さらに、変
数Iが示すノードが最終ノードではない場合(S50に
て、NO)、S51において、変数Iに1が加算され、次
のノードを処理対象として、上記S35以降の処理が繰
り返される。
【0094】図13の例では、2番目のノードがテキス
トデータなので、上記S45の判定により、S49の処
理が行われ、テキストデータに同期して、上記フレーム
群G1が再生される。ここで、文字属性が上記S43に
おける初期設定から変更されていないので、図1に示す
ように、初期設定の文字属性(黒色かつ細字)の台詞を
しゃべるキャラクタのアニメーションが表示される。
【0095】各ノードが順次処理され、変数Iが4にな
ると、4番目のノードがFONT要素なので、上記S4
5・S46の判定の結果、S48の処理が行われ、以降
で用いるフォントの属性が、当該ノードの属性値に設定
される。図13の4番目のノードでは、COLOR属性
の値が”BLUE”に設定されているので、アニメーシ
ョン表示部12は、以降に表示される文字の属性を青色
に変更する。この結果、例えば、次のノード(テキスト
データ”じつは…”)は、青色で表示される。
【0096】上記S45ないしS51の処理は、最後の
ノードになるまで繰り返され、アニメーション表示部1
2は、アニメーション表示エリア100aおよび100
bに、アニメーションと文字列とを同期しながら表示す
る。なお、最後のノードになると、上記S50の判定が
YES となり、1発言の表示処理が終了する。
【0097】ここで、アニメーション表示部12がアイ
コンが示すアニメーションと、文字列が示す台詞とを同
期させる方法として、例えば、各アイコンがキーフレー
ムを示し、アニメーション表示部12が、次のキーフレ
ームとの間で、形状や色などの特徴量を補間しながら、
中間の形状が描画されたフレームを生成することで、よ
り滑らかなアニメーションを再生する場合を例にして、
提示時間の調整について説明すると、アニメーション表
示部12は、「アイコン1」、「おはよう」、「アイコ
ン2」と入力して生成される制御データを再生する際、
「アイコン1」が示すフレームから、「アイコン2」が
示すフレームへ変化する時間を、文字列「おはよう」の
長さによって制御する。したがって、例えば、「アイコ
ンo」が「お」の口をした顔画像のキーフレームを示
し、「アイコンa」が「あ」を発声する際の顔画像のキ
ーフレームを示す場合、「アイコンo」、「お」、「ア
イコンa」、「はよう」「アイコンo」と入力して制御
データを生成することによって、当該制御データを再生
するアニメーション表示部12は、口の形が「おはよ
う」という台詞に略同期して、「お」→「あ」→「お」
へと変化するような、アニメーションを再生する。この
ように、各アイコンに対応するアニメーションを短く設
定することで、アニメーションをより細かく制御でき、
より正確に同期を取ることができる。
【0098】また、アイコンがキーフレームを示し、提
示回数を調整する場合を例にすると、「アイコンope
n」および「アイコンclose」が、それぞれ、口が
開いている顔画像と閉じている顔画像を示している場
合、「アイコンopen」、「こんにちは」、「アイコ
ンclose」と入力して制御データを生成すること
で、アニメーション表示部12は、文字列「こんにち
は」の長さに応じて、口を「開く」→「閉じる」→「開
く」→「閉じる」と変化するようなアニメーションを再
生する。この場合、口の形は厳密ではないまでも、動き
のタイミングが台詞「こんにちは」に略同期したアニメ
ーションを再生できる。なお、提示時間を調整するか、
提示回数を調整するかは、入力側の制御データ作成部1
4と表示側のアニメーション表示部12とで一致するよ
うに、予め定められていてもよいし、例えば、制御デー
タ中に、両者の切り換え指示を含ませてもよい。この場
合、両者の切り換えは、他の入力との整合を取るため
に、アイコンで入力する方が望ましい。
【0099】なお、図9では、アニメーションリソース
がキーフレーム形式の場合を例にして説明したが、これ
に限るものではない。例えば、図16に示すように、ビ
ットマップ形式であってもよい。この場合、各画像デー
タD20は、例えば、縦横サイズ固定のビットマップデ
ータとして格納されており、アニメーション表示部12
は、各フレームのポインタP32が示す画像データD2
0を表示することで、当該フレームを再生できる。ただ
し、本実施形態のように、キーフレーム形式の方が、一
般に伝送するデータ量が少ない。また、図形要素の対応
を記憶している方が補間しやすく、文字列とアニメーシ
ョンとの同期を取りやすい。
【0100】なお、端末2を構成する各部材は、CPU
などの演算手段が、ROMやRAMなどの記録媒体に格
納されたプログラムを実行することで実現される機能ブ
ロックであってもよいし、同様の処理を行うハードウェ
アで実現してもよい。また、処理の一部を行うハードウ
ェアと、当該ハードウェアの制御や残余の処理を行うプ
ログラムを実行する上記演算手段とを組み合わせても実
現することもできる。さらに、上記演算手段は、単体で
あってもよいし、装置内部のバスや種々の通信路を介し
て接続された複数の演算手段が共同してプログラムを実
行してもよい。
【0101】上記プログラムは、プログラム自体や当該
プログラムを作成するためのデータなどを示すプログラ
ムデータを記録媒体に格納し、当該記録媒体を配付した
り、あるいは、上記プログラムデータを、有線または無
線の通信手段で送信したりして配付され、上記演算手段
で実行される。
【0102】ここで、プログラムデータを配付する際の
記録媒体は、取外し可能である方が好ましいが、プログ
ラムデータを配付した後の記録媒体は、取外し可能か否
かを問わない。また、上記記録媒体は、プログラムデー
タが記憶されていれば、書換え(書き込み)可能か否
か、揮発性か否か、記録方法および形状を問わない。記
録媒体の一例として、磁気テープやカセットテープなど
のテープ、あるいは、フロッピーディスクやハードディ
スクなどの磁気ディスク、または、CD−ROMや光磁
気ディスク(MO)、ミニディスク(MD)やデジタル
ビデオディスク(DVD)などのディスクが挙げられ
る。また、記録媒体は、ICカードや光カードのような
カード、あるいは、マスクROMやEPROM、EEP
ROMまたはフラッシュROMなどのような半導体メモ
リであってもよい。
【0103】なお、上記プログラムデータは、上記各処
理の全手順を上記演算手段へ指示するコードであっても
よいし、所定の手順で呼び出すことで、上記各処理の一
部または全部を実行可能な基本プログラム(例えば、オ
ペレーティングシステムやライブラリなど)が既に存在
していれば、当該基本プログラムの呼び出しを上記演算
手段へ指示するコードやポインタなどで、上記全手順の
一部または全部を置き換えてもよい。
【0104】また、上記記録媒体にプログラムデータを
格納する際の形式は、例えば、実メモリに配置した状態
のように、演算手段がアクセスして実行可能な格納形式
であってもよいし、実メモリに配置する前で、演算手段
が常時アクセス可能なローカルな記録媒体(例えば、実
メモリやハードディスクなど)にインストールした後の
格納形式、あるいは、ネットワークや搬送可能な記録媒
体などから上記ローカルな記録媒体にインストールする
前の格納形式などであってもよい。また、プログラムデ
ータは、コンパイル後のオブジェクトコードに限るもの
ではなく、ソースコードや、インタプリトまたはコンパ
イルの途中で生成される中間コードとして格納されてい
てもよい。いずれの場合であっても、圧縮の解凍や、復
号化、インタプリト、コンパイル、リンク、あるいは、
実メモリへの配置などの処理や各処理の組み合わせによ
って、上記演算手段が実行可能な形式に変換可能であれ
ば、プログラムデータを記録媒体に格納する際の形式に
拘わらず、同様の効果を得ることができる。
【0105】ここで、図17および図18を参照して、
ハードウェア構成の一例を説明すると以下の通りであ
る。すなわち、端末2は、図17に示すように、所定の
プログラムを実行することにより、上記各部材を実現す
るCPU201と、CPU201に接続されたメモリ2
02と、CPU201に接続されたディスプレイ画面2
03と、CPU201に接続された入力装置204と、
CPU201に接続され、送受信部11として動作する
通信装置205とを備えている。また、表現データとし
て、音響を用いる場合には、上記構成に加えて、図示し
ないD/Aコンバータ、アナログ信号増幅器、スピーカ
などを含む音響再生モジュール206が追加される。ま
た、表現データが音楽の場合には、音響再生モジュール
206が音源装置を含んでいてもよい。また、表現デー
タとして、文字列を元にした合成音声を用いる場合は、
音響再生モジュール206が音声合成装置を含む場合も
ある。また、タイマ207は、アニメーション再生など
において、再生時間に関する正確な制御が必要な場合に
追加される。
【0106】上記各部材201〜207は、例えば、図
18に示すように、CPU201・メモリ202などが
内臓された筺体301と、上記入力装置204として
の、キーボード302およびマウス303と、上記ディ
スプレイ画面203としての表示装置304とによって
実現される。さらに、図17の通信装置205に対応す
る通信装置306は、例えば、DSU、ターミナルアダ
プタやモデムなどの機器、あるいは、これらの機器を組
み合わせた機器などであり、それらを介して外部の通信
ネットワークに接続される。また、スピーカ305は、
音響再生モジュール206の一部であり、残余の部分
は、筐体301に内蔵される。なお、当然ながら、機器
構成の例は、これに限るものではなく、例えば、携帯電
話器であってもよい。
【0107】ところで、本実施形態では、双方向にアニ
メーションでコミュニケート可能なチャットシステムを
例にしたが、これに限るものではない。一方からのみ、
アニメーションで、他方からは、文字列や音声のみな
ど、他のコミュニケート方法を採用する双方向コミュニ
ケーションシステムでも同様の効果が得られる。さら
に、一方向通信、あるいは、通信せず、ユーザが自らの
入力したアニメーションを表示する構成(オーサリング
する構成)であっても、多様な表現を高速入力できるの
で、ある程度の効果が得られる。ただし、双方向コミュ
ニケーションシステムの場合、より高速なレスポンスが
要求されるので、特に効果が大きい。
【0108】
【発明の効果】本発明に係る表現データ制御システム
は、以上のように、表現データとしてのアニメーション
の動作/状態を示すアイコンを組み合わせて入力する入
力部を備え、制御データ生成部は、入力されたアイコン
に基づいて、上記制御データを生成する構成である。
【0109】上記構成では、入力部によって、制御デー
タがアイコンを組み合わせて入力されるので、多様な動
作/状態を迅速に入力可能な表現データ制御システムを
実現できるという効果を奏する。
【0110】本発明に係る表現データ制御システムは、
以上のように、上記入力部がアイコンと文字列とを混在
して入力可能であり、上記表現データ制御部は、アイコ
ンの直前または直後に位置するように入力された文字列
を、当該アイコンが示すアニメーションに同期して表示
または発音する構成である。
【0111】当該構成によれば、表現データ制御部が文
字列とアニメーションとを表示する際に必須の入力のみ
を行う場合に比べて、入力が増えていないにも拘らず、
アニメーションと文字列とが同期している。この結果、
アニメーションおよび文字列を、簡単な入力で、より自
然に制御できるという効果を奏する。
【0112】本発明に係る表現データ制御システムは、
以上のように、上記表現データ制御部が前記文字列の長
さ、あるいは、前記文字列の発音に要する時間に応じ
て、上記アイコンが示すアニメーションの長さを調整す
る構成である。
【0113】それゆえ、アニメーションの長さを特に指
示する必要がなく、アニメーションおよび文字列を、簡
単な入力で、より自然に制御できるという効果を奏す
る。
【0114】本発明に係る表現データ制御システムは、
以上のように、上記表現データ制御部が前記文字列の長
さ、あるいは、前記文字列の発音に要する時間に応じ
て、上記アイコンが示すアニメーションの再生回数を調
整する構成である。
【0115】それゆえ、アニメーションの再生回数を特
に指示する必要がなく、アニメーションおよび文字列
を、簡単な入力で、より自然に制御できるという効果を
奏する。
【0116】本発明に係る表現データ制御装置は、以上
のように、表現データの動作/状態を示すアイコンを組
み合わせて入力する入力部を備え、上記制御データ生成
部は、入力されたアイコンに基づいて、上記制御データ
を生成する構成である。
【0117】当該構成でも、入力部によって、制御デー
タがアイコンを組み合わせて入力されるので、上述の表
現データ制御システムと同様に、多様な動作/状態を迅
速に入力できるという効果を奏する。
【0118】本発明に係る表現データ制御装置は、以上
のように、上記アイコンが、当該アイコンに対応するア
ニメーションの一部を構成する静止画または動画を縮小
した画像として表示される構成である。
【0119】当該構成では、アイコンがアニメーション
の一部を縮小した画像として表示されるので、各アニメ
ーション間の相違を文字などに翻訳しにくい場合であっ
ても、相違を把握でき、より多様で、それぞれの相違が
微妙な動作/状態を迅速に入力できるという効果を奏す
る。
【0120】本発明に係る表現データ制御装置は、以上
のように、制御可能な各動作/状態のアニメーションを
再生するためのリソースデータを追加あるいは置き換え
て記憶可能なリソース記憶部と、当該リソースデータに
応じたアイコンを登録するアイコン登録部を備えている
構成である。
【0121】当該構成によれば、リソースデータが変更
可能なので、制御可能な動作/状態のアニメーションを
追加したり、変更したりできる。この結果、制御可能な
動作/制御が予め定められている場合に比べて、より多
様にアニメーションを制御できるという効果を奏する。
【0122】本発明に係る表現データ制御装置は、以上
のように、上記制御データに基づいて表現データを制御
する表現データ制御部へ、通信路を介して、当該制御デ
ータを伝送するデータ送信部と、制御データの生成およ
び伝送が繰り返される前に、上記リソース記憶部に記憶
されたリソースデータを上記表現データ制御部に送出す
るリソース送出部とを備えている構成である。
【0123】当該構成では、上記表現データ制御部は、
制御データの伝送が繰り返される前に、リソース送出部
からリソースデータを受け取る。したがって、制御デー
タの伝送時におけるデータ量を削減できる。また、リソ
ースデータを受け取るまで、表現データ制御部は、リソ
ースデータの内容が判らないので、意外性のあるアニメ
ーションを再生できる。この結果、より多様な制御デー
タを迅速に送信可能な表現データ制御装置を実現できる
という効果を奏する。
【0124】本発明に係る表現データ制御システムは、
以上のように、表現データの動作/状態を示すアイコン
を組み合わせて入力する入力部を備え、上記制御データ
生成部は、入力されたアイコンに基づいて、上記制御デ
ータを生成すると共に、さらに、制御可能な各動作/状
態の表現データを再生するためのリソースデータを追加
あるいは置き換えて記憶可能なリソース記憶部と、上記
制御データの生成および伝送が繰り返される前に、上記
リソース記憶部に記憶されたリソースデータを上記表現
データ制御部に送出するリソース送出部とを備えている
構成である。
【0125】当該構成では、入力部によって、制御デー
タがアイコンを組み合わせて入力される。また、制御デ
ータの伝送が繰り返される前に、リソース送出部からリ
ソースデータを受け取る。したがって、上述の表現デー
タ制御システムや表現データ制御装置と同様に、多様な
動作/状態を示す制御データを、迅速に入力/伝送でき
るという効果を奏する。
【0126】本発明に係る表現データ制御システムは、
以上のように、上記文字列と混在させて、当該文字列の
表示方法を示すアイコンを入力する入力部を備え、上記
制御データ生成部は、入力されたアイコンに基づいて、
上記制御データを生成し、上記表現データ制御部は、ア
イコンの直前または直後に位置するように入力された文
字列の表示方法を、アイコンに応じて変更する構成であ
る。
【0127】当該構成によれば、入力部によって、制御
データがアイコンを組み合わせて入力されるので、上述
の表現データ制御システムと同様に、それぞれが示す表
示方法を直感的にユーザへ伝えることができる。また、
種類が増えても、制御文字列を入力する場合に比べて、
入力の手間が増えない。したがって、文字列の表示方法
を直感的かつ迅速に入力可能な表現データ制御システム
を実現できるという効果を奏する。
【0128】本発明に係る表現データ制御システムは、
以上のように、上記入力部は、入力されたアイコンの組
み合わせを表示する構成である。それゆえ、ユーザは、
入力結果を確認し、十分に吟味できるという効果を奏す
る。
【0129】本発明に係る記録媒体は、上記表現データ
制御装置を実現するプログラムが記録されている。した
がって、コンピュータが当該プログラムを読み取って実
行することで、上述の表現データ制御装置を実現でき、
多様な動作/状態を迅速に入力できるという効果を奏す
る。
【図面の簡単な説明】
【図1】本発明の一実施形態を示すものであり、端末の
表示画面を示す説明図である。
【図2】上記端末の接続を説明する接続図である。
【図3】上記端末の要部構成を示すブロック図である。
【図4】上記端末の動作を示すフローチャートである。
【図5】上記端末に格納され、自キャラクタのアニメー
ションリソースを示す説明図である。
【図6】上記端末に格納されるアイコンデータテーブル
を示す説明図である。
【図7】上記端末に格納され、相手キャラクタのアニメ
ーションリソースを示す説明図である。
【図8】上記端末が相手の端末へ送出する制御データを
例示する説明図である。
【図9】上記アニメーションリソースのデータ構造を詳
細に説明する説明図である。
【図10】上記アイコンデータテーブルのデータ構造を
詳細に説明する説明図である。
【図11】上記端末に設けられた入力バッファ記憶部の
内容を示す説明図である。
【図12】上記端末において、制御データの履歴を示す
説明図である。
【図13】上記制御データの論理的な構造を示す説明図
である。
【図14】上記端末の動作を詳細に説明するフローチャ
ートである。
【図15】上記端末の動作をさらに詳細に説明するもの
であり、アニメーションの再生動作を示すフローチャー
トである。
【図16】上記アニメーションリソースの他の構成例を
示す説明図である。
【図17】上記端末を実現するハードウェアの要部構成
を示すブロック図である。
【図18】上記ハードウェアの構成例を示す斜視図であ
る。
【符号の説明】
1 チャットシステム(表現データ制御システム) 2 端末(表現データ制御装置) 11 送受信部(データ送信部・リソース送出部) 12 アニメーション表示部(表現データ制御部) 13 リソース記憶部 15 アイコン登録部 23 制御データ編集部(入力部) 24 送出データ作成部(制御データ作成部)

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】表現データとしてのアニメーションについ
    て、動作/状態を示す制御データを生成する制御データ
    生成部と、制御データに基づいて表現データを制御する
    表現データ制御部とを有する表現データ制御システムに
    おいて、 表現データの動作/状態を示すアイコンを組み合わせて
    入力する入力部を備え、 上記制御データ生成部は、入力されたアイコンに基づい
    て、上記制御データを生成することを特徴とする表現デ
    ータ制御システム。
  2. 【請求項2】上記入力部は、アイコンと文字列とを混在
    して入力可能であり、 上記表現データ制御部は、アイコンの直前または直後に
    位置するように入力された文字列を、当該アイコンが示
    すアニメーションに同期して表示または発音することを
    特徴とする請求項1記載の表現データ制御システム。
  3. 【請求項3】上記表現データ制御部は、前記文字列の長
    さ、あるいは、前記文字列の発音に要する時間に応じ
    て、上記アイコンが示すアニメーションの長さを調整す
    ることを特徴とする請求項2記載の表現データ制御シス
    テム。
  4. 【請求項4】上記表現データ制御部は、前記文字列の長
    さ、あるいは、前記文字列の発音に要する時間に応じ
    て、上記アイコンが示すアニメーションの再生回数を調
    整することを特徴とする請求項2記載の表現データ制御
    システム。
  5. 【請求項5】表現データとしてのアニメーションについ
    て、動作/状態を示す制御データを生成する制御データ
    生成部を有する表現データ制御装置において、 表現データの動作/状態を示すアイコンを組み合わせて
    入力する入力部を備え、 上記制御データ生成部は、入力されたアイコンに基づい
    て、上記制御データを生成することを特徴とする表現デ
    ータ制御装置。
  6. 【請求項6】上記アイコンは、当該アイコンに対応する
    アニメーションの一部を構成する静止画または動画を縮
    小した画像として表示されることを特徴とする請求項5
    記載の表現データ制御装置。
  7. 【請求項7】制御可能な各動作/状態のアニメーション
    を再生するためのリソースデータを追加あるいは置き換
    えて記憶可能なリソース記憶部と、 当該リソースデータに応じたアイコンを登録するアイコ
    ン登録部を備えていることを特徴とする請求項5または
    6記載の表現データ制御装置。
  8. 【請求項8】上記制御データに基づいて表現データを制
    御する表現データ制御部へ、通信路を介して、当該制御
    データを伝送するデータ送信部と、 制御データの生成および伝送が繰り返される前に、上記
    リソース記憶部に記憶されたリソースデータを上記表現
    データ制御部に送出するリソース送出部とを備えている
    ことを特徴とする請求項7記載の表現データ制御装置。
  9. 【請求項9】表現データの動作/状態を示す制御データ
    を生成する制御データ生成部と、通信路を介して受け取
    った制御データに基づいて表現データを制御する表現デ
    ータ制御部とを有する表現データ制御システムにおい
    て、 表現データの動作/状態を示すアイコンを組み合わせて
    入力する入力部を備え、 上記制御データ生成部は、入力されたアイコンに基づい
    て、上記制御データを生成すると共に、 さらに、制御可能な各動作/状態の表現データを再生す
    るためのリソースデータを追加あるいは置き換えて記憶
    可能なリソース記憶部と、 上記制御データの生成および伝送が繰り返される前に、
    上記リソース記憶部に記憶されたリソースデータを上記
    表現データ制御部に送出するリソース送出部とを備えて
    いることを特徴とする表現データ制御システム。
  10. 【請求項10】表現データとしての文字列について、表
    現方法を指示する制御データを生成する制御データ生成
    部と、制御データに基づいて表現データを制御する表現
    データ制御部とを有する表現データ制御システムにおい
    て、 上記文字列と混在させて、当該文字列の表示方法を示す
    アイコンを入力する入力部を備え、 上記制御データ生成部は、入力されたアイコンに基づい
    て、上記制御データを生成し、 上記表現データ制御部は、アイコンの直前または直後に
    位置するように入力された文字列の表示方法を、アイコ
    ンに応じて変更することを特徴とする表現データ制御シ
    ステム。
  11. 【請求項11】上記入力部は、入力されたアイコンの組
    み合わせを表示することを特徴とする請求項1、9また
    は10に記載の表現データ制御システム。
  12. 【請求項12】表現データとしてのアニメーションにつ
    いて、動作/状態を示す制御データを生成する表現デー
    タ制御プログラムが記録された記録媒体であって、 表現データの動作/状態を示すアイコンを組み合わせて
    入力する入力部、並びに、 入力されたアイコンに基づいて、上記制御データを生成
    する制御データ生成部として、コンピュータを動作させ
    るプログラムが記録された記録媒体。
JP2000041917A 2000-02-18 2000-02-18 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体 Expired - Fee Related JP3720230B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2000041917A JP3720230B2 (ja) 2000-02-18 2000-02-18 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体
US10/204,054 US20030011643A1 (en) 2000-02-18 2001-01-31 Representation data control system, and representation data control device constituting it, and recording medium recording its program
AU2001228864A AU2001228864A1 (en) 2000-02-18 2001-01-31 Representation data control system, and representation data control device constituting it, and recording medium recording its program
EP01953006A EP1278115A4 (en) 2000-02-18 2001-01-31 PRESENTATION DATA CONTROL SYSTEM AND PRESENTATION DATA MANAGEMENT COMPOSING THIS, AND RECORDING MEDIA RECORDING ITS PROGRAM
CNB018064221A CN1241095C (zh) 2000-02-18 2001-01-31 表达数据控制系统、构成该系统的表达数据控制装置
PCT/JP2001/000684 WO2001061446A1 (fr) 2000-02-18 2001-01-31 Systeme et dispositif de commande de donnees de representation, et support d'enregistrement du programme de ce systeme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000041917A JP3720230B2 (ja) 2000-02-18 2000-02-18 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体

Publications (3)

Publication Number Publication Date
JP2001228947A true JP2001228947A (ja) 2001-08-24
JP2001228947A5 JP2001228947A5 (ja) 2004-08-12
JP3720230B2 JP3720230B2 (ja) 2005-11-24

Family

ID=18565062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000041917A Expired - Fee Related JP3720230B2 (ja) 2000-02-18 2000-02-18 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体

Country Status (6)

Country Link
US (1) US20030011643A1 (ja)
EP (1) EP1278115A4 (ja)
JP (1) JP3720230B2 (ja)
CN (1) CN1241095C (ja)
AU (1) AU2001228864A1 (ja)
WO (1) WO2001061446A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003038759A1 (fr) * 2001-10-29 2003-05-08 Sharp Kabushiki Kaisha Terminal cellulaire, procede de creation d'animations sur des terminaux cellulaires, et systeme de creation d'animations
JP2006164011A (ja) * 2004-12-09 2006-06-22 Pioneer Electronic Corp 操作指示装置、電子機器、操作指示方法、および操作指示プログラム
JP2006520053A (ja) * 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド 通信するためにアバターを使用する方法
JP2011244081A (ja) * 2010-05-14 2011-12-01 Funai Electric Co Ltd 通信方法、マスター表示装置、スレーブ表示装置、及びそれらを備えた通信システム
JP2013080486A (ja) * 2012-11-26 2013-05-02 Funai Electric Co Ltd 通信方法、マスター表示装置、スレーブ表示装置、及びそれらを備えた通信システム
JP2016502184A (ja) * 2013-04-08 2016-01-21 小米科技有限▲責▼任公司Xiaomi Inc. アイコン整理方法、装置、機器、プログラム及び記録媒体
JP2020009249A (ja) * 2018-07-10 2020-01-16 Line株式会社 情報処理方法、情報処理装置、及びプログラム

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016828B1 (en) 2000-10-23 2006-03-21 At&T Corp. Text-to-scene conversion
US7664313B1 (en) * 2000-10-23 2010-02-16 At&T Intellectual Property Ii, L.P. Text-to scene conversion
EP1357517A4 (en) * 2001-02-02 2009-05-20 Sharp Kk METHOD AND DEVICE FOR CREATING ANIMATION DATA, TERMINAL, COMPUTER-READABLE RECORDING MEDIUM RECORDING AN ANIMATION DATA CREATION PROGRAM, AND ANIMATION DATA CREATION PROGRAM
US6957389B2 (en) * 2001-04-09 2005-10-18 Microsoft Corp. Animation on-object user interface
EP1391825A4 (en) * 2001-05-18 2005-12-21 Sharp Kk CONTENT DISTRIBUTION SYSTEM, CONTENT SERVER, AND CONTENT DISTRIBUTION METHOD
EP1267532A3 (en) * 2001-06-11 2007-03-21 Qript one soft, Inc. Messaging system
US7093201B2 (en) * 2001-09-06 2006-08-15 Danger, Inc. Loop menu navigation apparatus and method
US20030222874A1 (en) * 2002-05-29 2003-12-04 Kong Tae Kook Animated character messaging system
AU2002950502A0 (en) 2002-07-31 2002-09-12 E-Clips Intelligent Agent Technologies Pty Ltd Animated messaging
US8037150B2 (en) 2002-11-21 2011-10-11 Aol Inc. System and methods for providing multiple personas in a communications environment
US7636755B2 (en) 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US7908554B1 (en) 2003-03-03 2011-03-15 Aol Inc. Modifying avatar behavior based on user action or mood
US20040179037A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band
WO2005074596A2 (en) * 2004-01-30 2005-08-18 Yahoo! Inc. Method and apparatus for providing real-time notification for avatars
US7707520B2 (en) * 2004-01-30 2010-04-27 Yahoo! Inc. Method and apparatus for providing flash-based avatars
KR100630085B1 (ko) * 2004-02-06 2006-09-27 삼성전자주식회사 무선단말기의 조합형 이모티콘 입력방법
US8872843B2 (en) * 2004-07-02 2014-10-28 Samsung Electronics Co., Ltd. Method for editing images in a mobile terminal
US8015009B2 (en) * 2005-05-04 2011-09-06 Joel Jay Harband Speech derived from text in computer presentation applications
JP4756914B2 (ja) * 2005-05-30 2011-08-24 キヤノン株式会社 遠隔協調作業支援システム及びその制御方法
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
JP4087420B2 (ja) * 2006-06-28 2008-05-21 シャープ株式会社 画像表示装置、画像データ送信装置、画像表示システム、画像表示方法、画像表示プログラムおよびその記録媒体、並びに、画像データ送信プログラムおよびその記録媒体
CN100570545C (zh) * 2007-12-17 2009-12-16 腾讯科技(深圳)有限公司 表情输入方法及装置
US20100087173A1 (en) * 2008-10-02 2010-04-08 Microsoft Corporation Inter-threading Indications of Different Types of Communication
US20100087169A1 (en) * 2008-10-02 2010-04-08 Microsoft Corporation Threading together messages with multiple common participants
US8411046B2 (en) * 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US8385952B2 (en) * 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US20100107100A1 (en) * 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US20100105441A1 (en) * 2008-10-23 2010-04-29 Chad Aron Voss Display Size of Representations of Content
US20100105424A1 (en) * 2008-10-23 2010-04-29 Smuga Michael A Mobile Communications Device User Interface
US8352269B2 (en) * 2009-01-15 2013-01-08 K-Nfb Reading Technology, Inc. Systems and methods for processing indicia for document narration
US8175653B2 (en) * 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US8238876B2 (en) 2009-03-30 2012-08-07 Microsoft Corporation Notifications
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8269736B2 (en) * 2009-05-22 2012-09-18 Microsoft Corporation Drop target gestures
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
EP2355472B1 (en) * 2010-01-22 2020-03-04 Samsung Electronics Co., Ltd. Apparatus and method for transmitting and receiving handwriting animation message
JP5601070B2 (ja) * 2010-07-27 2014-10-08 コニカミノルタ株式会社 Gui実装プログラム、gui実装装置およびgui実装方法
US9449308B2 (en) * 2010-12-14 2016-09-20 Microsoft Technology Licensing, Llc Defining actions for data streams via icons
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US9235324B2 (en) * 2012-05-04 2016-01-12 Google Inc. Touch interpretation for displayed elements
US20140002260A1 (en) * 2012-06-08 2014-01-02 Elta Wright Apology Stick
CN102761610B (zh) * 2012-06-29 2015-07-08 宇龙计算机通信科技(深圳)有限公司 一种基于云计算的图标配置方法、装置和终端
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
USD731553S1 (en) * 2013-07-31 2015-06-09 Sears Brands, L.L.C. Display screen or portion thereof with an icon
USD758379S1 (en) * 2013-08-01 2016-06-07 Sears Brands, L.L.C. Display screen or portion thereof with icon
USD731551S1 (en) * 2013-08-01 2015-06-09 Sears Brands, L.L.C. Display screen or portion thereof with an icon
USD734345S1 (en) * 2013-08-01 2015-07-14 Sears Brands, L.L.C. Display screen or portion thereof with an icon
USD759036S1 (en) * 2013-08-01 2016-06-14 Sears Brands, L.L.C. Display screen or portion thereof with icon
CN105359094A (zh) 2014-04-04 2016-02-24 微软技术许可有限责任公司 可扩展应用表示
WO2015154273A1 (en) 2014-04-10 2015-10-15 Microsoft Technology Licensing, Llc Collapsible shell cover for computing device
WO2015154276A1 (en) 2014-04-10 2015-10-15 Microsoft Technology Licensing, Llc Slider cover for computing device
US9412358B2 (en) * 2014-05-13 2016-08-09 At&T Intellectual Property I, L.P. System and method for data-driven socially customized models for language generation
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US9779532B2 (en) * 2014-07-31 2017-10-03 Emonster, Inc. Customizable animations for text messages
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
KR102131895B1 (ko) * 2017-01-31 2020-07-08 리마 주식회사 복제된 웹툰 추적 방법 및 프로그램
US10318109B2 (en) * 2017-06-09 2019-06-11 Microsoft Technology Licensing, Llc Emoji suggester and adapted user interface
US11443646B2 (en) 2017-12-22 2022-09-13 Fathom Technologies, LLC E-Reader interface system with audio and highlighting synchronization for digital books
US10671251B2 (en) 2017-12-22 2020-06-02 Arbordale Publishing, LLC Interactive eReader interface generation based on synchronization of textual and audial descriptors
USD929412S1 (en) 2019-08-08 2021-08-31 Carrier Corporation Display screen or portion thereof with graphical user interface

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04196987A (ja) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd 動画アクセス装置及び動画リンク編集装置
JPH08212388A (ja) * 1995-02-03 1996-08-20 Fujitsu Ltd 三次元画像処理装置
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JPH10198615A (ja) * 1996-11-18 1998-07-31 Sharp Corp マルチメディア型電子メールシステム及びマルチメディア型電子メールプログラムを記録した記録媒体
JPH1195778A (ja) * 1997-09-19 1999-04-09 Pioneer Electron Corp 同期映像生成方法およびそれを用いたカラオケ装置
JPH11205672A (ja) * 1998-01-16 1999-07-30 Sony Corp 編集装置および方法、並びに提供媒体
JP2000048222A (ja) * 1998-07-31 2000-02-18 Sharp Corp アニメーション作成方法、アニメーション作成装置、及びアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000099225A (ja) * 1998-09-18 2000-04-07 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000123191A (ja) * 1998-10-19 2000-04-28 Canon Inc 情報処理装置及び方法及び情報伝送システム
JP2000331182A (ja) * 1999-05-21 2000-11-30 Fujitsu Ltd アニメーション編集装置とアニメーション再生装置とプログラム記録媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3185225B2 (ja) * 1991-01-10 2001-07-09 三菱電機株式会社 コミュニケーション装置及びコミュニケーション方法
US5689618A (en) * 1991-02-19 1997-11-18 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
JP2798119B2 (ja) * 1995-05-23 1998-09-17 日本電気株式会社 電子書籍表示装置
US5973694A (en) * 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
JP3437686B2 (ja) * 1995-09-13 2003-08-18 富士通株式会社 表示装置
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6414685B1 (en) * 1997-01-29 2002-07-02 Sharp Kabushiki Kaisha Method of processing animation by interpolation between key frames with small data quantity
US6567779B1 (en) * 1997-08-05 2003-05-20 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
US6636219B2 (en) * 1998-02-26 2003-10-21 Learn.Com, Inc. System and method for automatic animation generation
US6181351B1 (en) * 1998-04-13 2001-01-30 Microsoft Corporation Synchronizing the moveable mouths of animated characters with recorded speech
US6654018B1 (en) * 2001-03-29 2003-11-25 At&T Corp. Audio-visual selection process for the synthesis of photo-realistic talking-head animations
US7076429B2 (en) * 2001-04-27 2006-07-11 International Business Machines Corporation Method and apparatus for presenting images representative of an utterance with corresponding decoded speech
US20040179037A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04196987A (ja) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd 動画アクセス装置及び動画リンク編集装置
JPH08212388A (ja) * 1995-02-03 1996-08-20 Fujitsu Ltd 三次元画像処理装置
JPH09138767A (ja) * 1995-11-14 1997-05-27 Fujitsu Ten Ltd 感情表現の通信装置
JPH10198615A (ja) * 1996-11-18 1998-07-31 Sharp Corp マルチメディア型電子メールシステム及びマルチメディア型電子メールプログラムを記録した記録媒体
JPH1195778A (ja) * 1997-09-19 1999-04-09 Pioneer Electron Corp 同期映像生成方法およびそれを用いたカラオケ装置
JPH11205672A (ja) * 1998-01-16 1999-07-30 Sony Corp 編集装置および方法、並びに提供媒体
JP2000048222A (ja) * 1998-07-31 2000-02-18 Sharp Corp アニメーション作成方法、アニメーション作成装置、及びアニメーション作成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000099225A (ja) * 1998-09-18 2000-04-07 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000123191A (ja) * 1998-10-19 2000-04-28 Canon Inc 情報処理装置及び方法及び情報伝送システム
JP2000331182A (ja) * 1999-05-21 2000-11-30 Fujitsu Ltd アニメーション編集装置とアニメーション再生装置とプログラム記録媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003038759A1 (fr) * 2001-10-29 2003-05-08 Sharp Kabushiki Kaisha Terminal cellulaire, procede de creation d'animations sur des terminaux cellulaires, et systeme de creation d'animations
JP2006520053A (ja) * 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド 通信するためにアバターを使用する方法
JP2006164011A (ja) * 2004-12-09 2006-06-22 Pioneer Electronic Corp 操作指示装置、電子機器、操作指示方法、および操作指示プログラム
JP2011244081A (ja) * 2010-05-14 2011-12-01 Funai Electric Co Ltd 通信方法、マスター表示装置、スレーブ表示装置、及びそれらを備えた通信システム
JP2013080486A (ja) * 2012-11-26 2013-05-02 Funai Electric Co Ltd 通信方法、マスター表示装置、スレーブ表示装置、及びそれらを備えた通信システム
JP2016502184A (ja) * 2013-04-08 2016-01-21 小米科技有限▲責▼任公司Xiaomi Inc. アイコン整理方法、装置、機器、プログラム及び記録媒体
JP2020009249A (ja) * 2018-07-10 2020-01-16 Line株式会社 情報処理方法、情報処理装置、及びプログラム
JP7179512B2 (ja) 2018-07-10 2022-11-29 Line株式会社 情報処理方法、情報処理装置、及びプログラム

Also Published As

Publication number Publication date
EP1278115A4 (en) 2007-01-17
AU2001228864A1 (en) 2001-08-27
JP3720230B2 (ja) 2005-11-24
WO2001061446A1 (fr) 2001-08-23
CN1241095C (zh) 2006-02-08
EP1278115A1 (en) 2003-01-22
CN1416543A (zh) 2003-05-07
US20030011643A1 (en) 2003-01-16

Similar Documents

Publication Publication Date Title
JP3720230B2 (ja) 表現データ制御システム、および、それを構成する表現データ制御装置、並びに、そのプログラムが記録された記録媒体
JP2001228947A5 (ja)
US6275849B1 (en) Communication system for electronic messages
KR101019268B1 (ko) 텍스트 표시 단말 장치 및 서버
US20040027352A1 (en) Device, system, method, and program for reproducing or transfering animation
JP2005293280A (ja) チャットシステム、通信装置、その制御方法及びプログラム
US20230027035A1 (en) Automated narrative production system and script production method with real-time interactive characters
CN113778419A (zh) 多媒体数据的生成方法、装置、可读介质及电子设备
JP2004023225A (ja) 情報通信装置およびその信号生成方法、ならびに情報通信システムおよびそのデータ通信方法
KR20040107509A (ko) 통신 네트워크에서 메시지들 및 단순 패턴들을 전달하는방법 및 장치
US20230072483A1 (en) Moving image editing device, moving image editing method, and program
JP4586063B2 (ja) 端末装置
JPH10198615A (ja) マルチメディア型電子メールシステム及びマルチメディア型電子メールプログラムを記録した記録媒体
JP4183866B2 (ja) データベースの更新方法、及び記憶媒体
JP2002230573A (ja) アニメーション転送装置、アニメーション再生装置、アニメーション再生システム、アニメーション転送プログラムおよびアニメーション再生プログラム
JP4530016B2 (ja) 情報通信システムおよびそのデータ通信方法
JP3987172B2 (ja) 対話型コミュニケーション端末装置
JP2001350704A (ja) 電子装置、記憶媒体及びコンピュータプログラム
JPH0962687A (ja) 情報処理装置および情報提供システム
CN115730159A (zh) 虚拟数字对象的交互方法及装置、存储介质、终端
JP3469231B2 (ja) アニメーション検索装置
KR100481585B1 (ko) 실물의 모션 정보, 음악 정보, 자막 정보 또는 메시지 정보 중 하나 이상을 포함하는 실물형 2차원 동영상 정보물을 제공하는 실물형 2차원 동영상 정보물 다운로드 서비스 방법 및 시스템
CN115643243A (zh) 多媒体数据的分享方法、装置、设备及介质
CN115770387A (zh) 一种文本数据处理方法、装置、设备以及介质
JP2016171529A (ja) 動画生成装置及び動画生成方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050907

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080916

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090916

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees