JP2004234213A - コミュニケーションツール - Google Patents
コミュニケーションツール Download PDFInfo
- Publication number
- JP2004234213A JP2004234213A JP2003020583A JP2003020583A JP2004234213A JP 2004234213 A JP2004234213 A JP 2004234213A JP 2003020583 A JP2003020583 A JP 2003020583A JP 2003020583 A JP2003020583 A JP 2003020583A JP 2004234213 A JP2004234213 A JP 2004234213A
- Authority
- JP
- Japan
- Prior art keywords
- character
- user
- message
- personal computer
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】知覚,感情,思考といった送信者の思想が表現されたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達するコミュニケーションツールを提供すること。
【解決手段】相手先装置11の表示手段611に表示するキャラクタ85の動作や相手先装置11の入力手段612からの入力に対するキャラクタ85の反応と、キャラクタ85を介して相手先装置11に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、所定のプログラム言語によりユーザプログラムとしてプログラミングするプログラムエディタ52と、このプログラムエディタ52によりプログラミングされたユーザプログラムを相手先装置11に伝送する通信手段56とを備えることによる。
【選択図】 図2
【解決手段】相手先装置11の表示手段611に表示するキャラクタ85の動作や相手先装置11の入力手段612からの入力に対するキャラクタ85の反応と、キャラクタ85を介して相手先装置11に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、所定のプログラム言語によりユーザプログラムとしてプログラミングするプログラムエディタ52と、このプログラムエディタ52によりプログラミングされたユーザプログラムを相手先装置11に伝送する通信手段56とを備えることによる。
【選択図】 図2
Description
【0001】
【発明の属する技術分野】
本発明は、パーソナルコンピュータや家庭用電子機器の間でメッセージを伝送するコミュニケーションツールに係り、特に、送信者の感情を表現するキャラクタを介してメッセージを相手先に伝送するコミュニケーションツールに関する。
【0002】
【従来の技術】
メッセージの伝達手段としての電話は、通話相手先である相手の都合に関わらず通話を一方的に要請する性質をもつ伝達手段である。
【0003】
それに対して、電子メールは、先方の都合のよいときに開封でき、しかも一過性の会話ではなく記録として残せる伝達手段であるため、手軽なコミュニケーションツールとして、広く普及している。
【0004】
このように、電子メールは、このようにビジネスやプライベートにおけるメッセージ伝達手段として優れているものの、伝達できるメッセージの形式は主にテキスト形式であるため、知覚,感情,思考といった送信者の思想を、相手の視覚や聴覚に訴えて表現するには、まだ情報量が不足している。例えば、友人同士や趣味サークル、家族といった親しい間柄におけるコミュニケーションでにおいては、言葉では表現できない、あるいは言葉では表現したくない感情やや気持ち、や仲間意識などを伝えたいという場合がある。そこで、知覚,感情,思考といった送信者の思想が込められたメッセージを、文字によるテキストだけでなく、相手の視覚や聴覚に訴えた表現形式で伝達できるコミュニケーションツールが要求されている。
【0005】
このような要求に対して、送信側及び受信側双方のパソコンの画面上で、動物等のキャラクタがあたかも電子メールを配達するように動作する、エージェント送受信技術が提案されている(例えば、特許文献1を参照)。
【0006】
【特許文献1】
特開2002−163209号公報
【0007】
【発明が解決しようとする課題】
しかしながら、特許文献1に記載されているようなエージェントの送受信技術においては、電子メールやメッセージを配達する動作を、キャラクタにより視覚的に表現したのものであり、送信者利用者の遊び心や個性などをある程度表現してはいるものの、知覚,感情,思考といった送信者の思想が込められたメッセージを相手の視覚や聴覚に訴えた表現形式で伝達することまではできない。
【0008】
本発明は、このような状況を鑑みて成されたものであり、知覚,感情,思考といった送信者の思想が込められたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達するコミュニケーションツールを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明に係るコミュニケーションツールは、相手先装置の表示手段に表示するキャラクタの動作や相手先装置の入力手段からの入力に対するキャラクタの反応と、キャラクタを介して相手先装置に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、所定のプログラム言語によりユーザプログラムとしてプログラミングするプログラムエディタと、このプログラムエディタによりプログラミングされたユーザプログラムを相手先装置に伝送する通信手段とを備えることを特徴とする。
【0010】
このようなコミュニケーションツールによれば、言葉では表現できない、あるいは言葉では表現したくない感情や気持ち、仲間意識といった送信者の思想をキャラクタの動作や反応により表現し、このキャラクタを介してテキスト,画像,音声の少なくとも1つを含むメッセージを伝達することで、知覚,感情,思考といった送信者の思想が込められたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達することができる。
【0011】
また、上記コミュニケーションツールにおいて、ユーザプログラムの伝送元とは異なるプラットホームを有する相手先装置においても、上記プログラム言語によりプログラミングされたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を実行させるように構成することで、ハードウェアのアーキテクチャやオペレーティングシステム(OS)といったプラットホームが異なる電子機器間でも、上記キャラクタを介したメッセージの伝達が可能となる。
【0012】
更に、上記コミュニケーションツールにおいて、プログラムエディタにおいてプログラミングした上記キャラクタの動作や反応をキャラクタの性格形成要因データとして蓄積し、蓄積された前記性格形成要因データに基づいて、キャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を相手先装置において実行させるように構成することで、上記プログラムエディタによるプログラミングや、伝達するメッセージの内容を簡略化しても、送信者の思想が表現されたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達が可能となる。
【0013】
更にまた、上記コミュニケーションツールにおいて、電子機器を制御するための操作を促すメッセージを、上記キャラクタを介して相手先装置に伝達し、相手先装置における入力操作に従って、電子機器を制御するように構成することで、視覚や聴覚に訴えた表現形式によるキャラクタに対する入力操作により、例えばドアホンやエアコンといった家庭用電子機器の制御を行うことができる。
【0014】
【発明の実施の形態】
以下、図1〜図8を参照しながら、本発明の実施形態について詳しく説明する。
【0015】
尚、各図面を通じて同一もしくは同等の部位や構成要素には、同一もしくは同等の参照符号を付し、その説明を省略もしくは簡略化する。
【0016】
図1は、本実施形態におけるネットワーク構成の一例を示す図である。ユーザAが操作するパソコン10はインターネット1に接続され、ユーザBが操作する携帯情報端末11は移動体通信網2を介してインターネット1に接続されている。ユーザCの宅内システム3においては、パソコン12、ドアホン14、テレビ15、エアコン16がホームゲートウェイ13にそれぞれ接続され、ホームゲートウェイ13はインターネット1に接続されている。
【0017】
図2は、ユーザAが操作するパソコン10とユーザBが操作する携帯情報端末11の構成例を示しており、パソコン10と携帯情報端末11はそれぞれ異なるアーキテクチャによるプラットホームで構成されており、パソコン10を送り手側の装置、携帯情報端末11を受け手側の相手先装置として説明する。
【0018】
パソコン10は、表示手段511と入出力手段512とからなる入出力/表示手段51、プログラムエディタ52、プロトコル54、セキュリティ手段55、通信手段56、各部を制御する制御手段50などから構成される。携帯情報端末11は、表示手段611と入出力手段612とからなる入出力/表示手段61、インタプリタ63、プロトコル64、セキュリティ手段65、通信手段66、各部を制御する制御手段60などから構成される。
【0019】
パソコン10の通信手段56と携帯情報端末11の通信手段66は、例えばインターネット1などのIPネットワークによる通信手段である点では共通であるが、ゲートウェイ72でブリッジされる通信路70及び通信路71の物理的接続が異なるため同一のアーキテクチャではない。
【0020】
この通信手段56が接続する通信路70と通信手段66が接続する通信路71との差異をそれぞれの通信手段56及び通信手段66が吸収し、セキュリティ手段55及びセキュリティ手段65の間でパソコン10と携帯情報端末11とのセキュリティが確立され、その上にパソコン10と携帯情報端末11の双方に共通のプログラミング言語体系によるプログラム実行環境が搭載される。
【0021】
尚、図2に示した例は、最下位が物理層、最上位がアプリケーション層をイメージしており、図示したセキュリティ手段55及びセキュリティ手段65の位置は便宜的に位置づけたものである。従って、様々な層(レイヤ)で適用される様々な種類のセキュリティ手段は、図2に示した位置に固定されるものではない。
【0022】
メッセージの送り手であるユーザAは、プログラムエディタ52により、メッセージの受け手であるユーザBの携帯情報端末11の表示手段611に表示するキャラクタの動作や、携帯情報端末11の入出力手段612からの入力に対するキャラクタの反応と、キャラクタを介して携帯情報端末11に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、共通のプログラミング言語によりユーザプログラムとしてプログラミングする。このプログラムエディタ52は、定型プログラムテンプレート58に格納されているプログラムテンプレートの中から適当な雛形を選択し、パーツファイル59に格納されているキャラクタ群の中から所望するキャラクタを選択して、通知するメッセージを穴埋めするだけでプログラミングが可能に構成されており、例えばプログラミングが苦手なユーザでも容易にプログラミングすることができる。
【0023】
プログラムエディタ52によりプログラミングされた、キャラクタ及びメッセージを組み込まれたユーザプログラムは、既に確立されているセキュリティを介して、プロトコル54により、携帯情報端末11に伝送される。
【0024】
このとき、プロトコル54を介してユーザプログラムの伝送を開始するトリガとしては、入出力手段512からの伝送開始指示や、タイマーによる伝送開始指示、イベント発生による伝送開始指示などがある。
【0025】
携帯情報端末11に伝送されたユーザプログラムは、共通のプログラム言語体系によるインタプリタ63によって翻訳されながら実行され、プログラミングされたキャラクタの動作や反応を表示手段611上で実行し、キャラクタを介したメッセージを表示手段611等に表示・出力する。つまり、パソコン10とは異なるプラットホームを有する携帯情報端末11においても、共通のプログラム言語体系によりプログラミングされたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を実行させるように構成されている。
【0026】
また、プログラムエディタ52においてプログラミングしたキャラクタの動作や反応をキャラクタの性格形成要因データとして性格形成ファイル57に蓄積し、蓄積された性格形成要因データに基づいて、キャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を相手先の携帯情報端末11において実行させる。
【0027】
以上のように構成されるコミュニケーションツールは、ビジネスからプライベートに至るまで、様々なシーンで実施することができる。以下に示す第1の実施形態においては、言葉では表現できない、あるいは言葉では表現したくない感情や気持ち、仲間意識といった送信者側の思想を、キャラクタの動作や反応により表現し、このキャラクタを介してテキスト,画像,音声の少なくとも1つを含むメッセージを伝達するための、電話や電子メールに継ぐ第3の通信手段としてコミュニケーションツールを用いる例を示す。
【0028】
[第1の実施形態]
第1の実施形態では、ごく親しい仲間であるユーザA、ユーザB、ユーザCの3者間において、メッセージの送信者であるユーザAが言葉による詳細なメッセージを送らなくても、ユーザAのエージェントであるキャラクタの動作や表情でユーザAの気持ちや感情を表現し、『一杯やりたい』という一言のメッセージだけで、ユーザB及びユーザCを食事に誘うという簡単な例を示す。
【0029】
ユーザB及びユーザCは、これまでにユーザAの身の回りに起こった出来事やその背景等を熟知しており、ユーザAの感情や気持ちを表現するように動作や表情をプログラミングしたキャラクタを、ユーザBの携帯情報端末11及びユーザCのパソコン12上で実行させることで、ユーザB及びユーザCは、ユーザAが現在抱いている感情や気持ちを察することができる。つまり、ユーザAのエージェントであるキャラクタが、遠隔地にいるユーザBの携帯情報端末11及びユーザCのパソコン12上に出現し、憂鬱そうな表情を浮かべて『一杯やりたい』というメッセージを表示するだけで、ユーザB及びユーザCは、ユーザAが一緒に食事をしたがる度合いの深さを理解することができる。
【0030】
図3は、ユーザAのパソコン10、ユーザBの携帯情報端末11及びユーザCのパソコン12間の処理シーケンスを例示している。パソコン10には、パソコン用のアプリケーションA(図示せず)がインストールされており、携帯情報端末11には、携帯情報端末11用のアプリケーションB(図示せず)が、パソコン12には、パソコン10用のアプリケーションC(図示せず)がインストールされている。
【0031】
まず、パソコン10のプログラムエディタ52において、定型プログラムテンプレート58やパーツファイル59などを適宜用いながら、携帯情報端末11及びパソコン12に伝送するキャラクタ及びメッセージを組み込んだユーザプログラムがプログラミングされる。このプログラミングは、キャラクタの基本動作を定型プログラムテンプレート58やパーツファイル59から選択するという簡単なプログラミングから、キャラクタの手足を上げ下げさせる、あるいは歩くといった程度の動作プログラミング、キャラクタの指先や眉毛などの細かい動きを制御する高度なプログラミングまで、幅広い層のユーザへの応用が可能である。また、キャラクタの動作や表情を伝達元から遠隔操作できるようにしても良い。
【0032】
プログラミングを終えた後、入出力手段512からユーザプログラムの伝送指示がなされると、パソコン10のセキュリティ手段55及び携帯情報端末11のセキュリティ手段65の間で、パソコン10と携帯情報端末11と間のセキュリティ確立シーケンスが開始される(S110)。
【0033】
セキュリティ確立シーケンスにより、パソコン10と携帯情報端末11とのセキュリティが確立すると、パソコン10から携帯情報端末11にアプリケーションBを起動するための起動キーが送付され、送付された起動キーにより携帯情報端末11のアプリケーションBが起動される(S111)。
【0034】
次に、パソコン10と携帯情報端末11と間のファイルアップデートシーケンスが開始される(S112)。
【0035】
尚、ユーザAのエージェントであるキャラクタのデータを、パソコン10から携帯情報端末11へ伝送された経緯があれば、携帯情報端末11において最後にキャラクタを動作させたときからの差分データのみを携帯情報端末11に伝送することで、無駄な伝送時間を削減することができ、トラフィックを低減することができる。携帯情報端末11へのキャラクタの伝送が、今回が初回である場合には、キャラクタデータの全てのデータをパソコン10から携帯情報端末11に伝送する。
【0036】
ファイルアップデートシーケンスが終了すると、ユーザB向けのユーザプログラムがパソコン10から携帯情報端末11に伝送され(S113)、携帯情報端末11のインタプリタ63にてユーザB向けのユーザプログラムが実行され、キャラクタの動作やメッセージの表示等の処理が実行される(S114)。尚、ユーザプログラムによっては実行中に、各種テキストデータ,音声データ,画像データ等の交換が発生する場合もある(S115)。尚、S114にて実行されるユーザB向けのユーザプログラムの処理については、後で詳細に説明する。
【0037】
S114にて実行されるユーザB向けのユーザプログラムの処理が完了すると、携帯情報端末11からパソコン10に起動キーが返送され、一連のパソコン10と携帯情報端末11との間の処理が完了する(S116)。
【0038】
パソコン10と携帯情報端末11の間の処理が完了すると、パソコン10のセキュリティ手段55及びパソコン12のセキュリティ手段65の間で、セキュリティ確立シーケンスが開始される(S117)。
【0039】
セキュリティ確立シーケンスにより、パソコン10とパソコン12とのセキュリティが確立すると、パソコン10からパソコン12にアプリケーションCを起動するための起動キーが送付され、送付された起動キーによりパソコン12のアプリケーションCが起動される(S118)。
【0040】
次に、パソコン10とパソコン12と間のファイルアップデートシーケンスが開始される(S119)。ユーザAのエージェントであるキャラクタのデータを、パソコン10からパソコン12へ伝送された経緯があれば、パソコン12において最後にキャラクタを動作させたときからの差分データのみをパソコン12に伝送することで、伝送時間を削減することができ、トラフィックを低減することができる。パソコン12へのキャラクタの伝送が、今回が初回である場合には、キャラクタデータの全てのデータをパソコン10からパソコン12に伝送する。
【0041】
ファイルアップデートシーケンスが終了すると、ユーザC向けのユーザプログラムがパソコン10からパソコン12に伝送され(S120)、パソコン12のインタプリタ63にてユーザC向けのユーザプログラムが実行され、キャラクタの動作やメッセージの表示等の処理が実行される(S121)。尚、ユーザプログラムによっては実行中に、各種テキストデータ,音声データ,画像データ等の交換が発生する場合もある(S122)。
【0042】
S122にて実行されるユーザC向けのユーザプログラムの処理が完了すると、パソコン12からパソコン10に起動キーが返送され、一連のパソコン10とパソコン12との間の処理が完了する(S123)。
【0043】
図4は、上記S114において、携帯情報端末11のインタプリタ63にて実行される、ユーザB向けのユーザプログラムの処理手順例を示すフローチャートである。
【0044】
携帯情報端末11のインタプリタ63にてユーザB向けのユーザプログラムの処理が開始されると(S200)、図5(a)に例示するように、携帯情報端末11の表示手段611の画面80におけるキャラクタ85の表示位置が、ロケート処理によって設定される(S201)。このロケート処理による表示位置の設定方法は、ドット単位に細かく設定することもできるし、例えば表示エリア81の中で『画面左下』といったように簡略的に設定することもできる。
【0045】
次に、表示手段611の画面80に表示されたキャラクタ85の動作や表情を、キャラクタ処理によって設定する(S202)。例えば、まずキャラクタ85の表情として『笑顔』をつくり、続いて、ユーザBに気づいてもらえるように、キャラクタ85の動作として『画面下方を歩く』ように指示する。
【0046】
次に、表示手段611の画面80上を笑顔で歩いているキャラクタ85が『こんにちは。』というテキスト84を表示するように、テキスト処理によって指示される(S203)。ここで、ユーザBにとってみれば、ユーザAのエージェントがあたかも遊びに来たといったイメージで、画面80を観ることができる。
【0047】
次に、ユーザプログラムは、所定の時間(例えば10分間)のタイマーを起動し(S204)、ユーザBによる入力を待つ(S206)。ここで、ユーザBによる入力とは、画面80に表示されているキャラクタ85をマウス等で操作する、画面80の入力エリア82のカーソル83位置にキーボードを用いてテキストを入力する、などの操作である。
【0048】
S205におけるタイマー起動中に、ユーザBによる入力がなければ(S205)、処理を終了する(S213)。
【0049】
一方、S205におけるタイマー起動中に、ユーザBによる入力があれば、ユーザBからの反応があったものと判断し、次に要件(メッセージ)の伝達処理に移る。
【0050】
例えば、キャラクタ処理により、画面80上を歩いているキャラクタ85に『止まる』ように指示し、更に『憂鬱』な表情をするようにキャラクタ85に指示する(S207)。尚、キャラクタ85の動作や表情を性格形成要因データとして性格形成ファイル67に蓄積し、後から利用するようにしても良い。
【0051】
そして、画面80上で止まって憂鬱な表情をしているキャラクタに、図5(b)に示すように、テキスト処理により、『一杯やりたい』というテキスト84を表示するように指示する(S208)。
【0052】
次に、ユーザプログラムは、所定の時間(例えば5分間)のタイマーを起動し(S209)、ユーザBによる入力を待つ(S211)。S209におけるタイマー起動中に、ユーザBによる入力がなければ(S210)、処理を終了する(S213)。
【0053】
一方、S209におけるタイマー起動中に、図5(b)に示すように、ユーザBによる入力(例えば『了解。いつもの時間いつもの場所で』)があれば、入力されたメッセージをパソコン10に返信し(S212)、処理を終了する(S213)。
【0054】
パソコン10にユーザBからのメッセージが返信されると、図6に例示するように、パソコン10の表示手段511の画面90上に、ユーザBのエージェントであるキャラクタ95が表示され、ユーザBからの『了解。いつもの時間いつもの場所で』というテキスト94が表示される。
【0055】
以上、第1の実施形態について説明したように、言葉では表現できない、あるいは言葉では表現したくない感情や気持ち、仲間意識といった送信者の思想をキャラクタの動作や反応により表現し、このキャラクタを介してテキスト,画像,音声の少なくとも1つを含むメッセージを伝達することで、知覚,感情,思考といった送信者の思想が表現されたメッセージを、相手の視覚や聴覚に訴えて伝達することができる。従って、より親密なコミュニケーションを図ることができ、あるいは遊び心を加味したコミュニケーションを図ることができ、対話の相手を身近に感じることができる。
【0056】
また、異なるプラットホームを有する相手先装置においても、上記プログラム言語によりプログラミングされたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を実行させるように構成することで、ハードウェアのアーキテクチャやオペレーティングシステム(OS)といったプラットホームが異なる電子機器間でも、上記キャラクタを介したメッセージの伝達が可能となる。
【0057】
更に、プログラムエディタ52においてプログラミングした上記キャラクタの動作や反応をキャラクタの性格形成要因データとして蓄積し、蓄積された前記性格形成要因データに基づいて、キャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を相手先装置において実行させるように構成することで、上記プログラムエディタ52によるプログラミングや、伝達するメッセージの内容を簡略化しても、送信者の思想が表現されたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達が可能となる。
【0058】
[第2の実施形態]
図1に示したユーザCの宅内システム3において、ホームゲートウェイ13を介して接続されたドアホン14には、ドアホン14用のコミュニケーションツールの機能が実行されており、外来者がドアホン14の呼出しボタンを押したときにパソコン12に伝送する、ドアホン14の制御インタフェースであるキャラクタの動作等が予めプログラミングされている。
【0059】
図7のフローチャートに例示するように、ドアホン14及びパソコン12の電源が投入されると(S300,S301)、ドアホン14のセキュリティ手段55及びパソコン12のセキュリティ手段65の間で、セキュリティ確立シーケンスが開始される(S302)。
【0060】
セキュリティ確立シーケンスにより、ドアホン14とパソコン12とのセキュリティが確立すると、次に、ドアホン14とパソコン12と間のファイルアップデートシーケンスが開始される(S303)。
【0061】
外来者によってドアホン14の呼出しボタン(入出力手段512)が押されると(S304)、ドアホン14のカメラ(入出力手段512)が外来者の画像を静止画像データとしてキャプチャする(S305)。
【0062】
そして、外来者の静止画像データがユーザプログラムに添付されて、ドアホン14からパソコン12に伝送され(S308)、パソコン12のインタプリタ63にてユーザC向けのユーザプログラムが実行され、キャラクタの動作やメッセージの表示等の処理が実行される(S307)。例えば、パソコン12の画面上にドアホンのエージェントであることが明確になるキャラクタが出現し、外来者が訪れた旨のテキストを表示すると共に、外来者の静止画像データを表示する。
【0063】
ここで、ドアホン14の伝達先としてパソコン12を例にしたが、宅内3の中に留守状況を検出する手段等があれば、この検出結果に基づいて宅内3が留守の場合には、インターネット1や移動体通信網2を介して、遠隔地にいるユーザCの携帯電話機17を伝送先とすることもできる。
【0064】
あるいはまた、宅内システム3におけるエアコン16の制御インタフェースとしてのキャラクタを、ホームゲートウェイ13を介してテレビ15の画面(表示手段511)に出現させ、キャラクタに『暑いですか?』あるいは『寒いですか?』などと問いかけさせる。その問いかけに対して、ユーザCがテレビ15の入出力手段512(例えば、スイッチ、リモコンなど)から意思表示をすることで、エアコン16自身が温度調節を自動制御するように構成することもできる。
【0065】
このように、電子機器を制御するための操作を促すメッセージを、キャラクタを介して相手先装置に伝達し、相手先装置における入力操作に従って、電子機器を制御するように構成することで、視覚や聴覚に訴えた表現形式によるキャラクタに対する入力操作を行うことで、例えばドアホン14やエアコン16といった家庭用電子機器の制御を行うことができる。従って、例えば幼児や高齢者などの電子機器の操作に馴染まない人にとって、優しいヒューマンインタフェースを実現できる。
【0066】
以上、本発明の実施の形態を詳細に説明したが、本発明は、その精神または主要な特徴から逸脱することなく、他の色々な形で実施することができる。
【0067】
例えば、前述の実施形態においては、伝達するメッセージを文字により相手先装置の画面80(表示手段511)に表示する例を示したが、例えば、伝達するメッセージを相手先装置のスピーカから音声で出力するようにしても良いし、文字による表示と音声による出力を組み合わせても良い。
【0068】
また、前述の実施形態においては、例えばドアホン14やエアコン16といった家庭用電子機器を制御するための操作を促すメッセージを、キャラクタを介して伝達し、相手先装置における入力操作に従って、電子機器を制御する例を示したが、ドアホン14やエアコン16以外にも、例えばAV家電機器,白物家電機器,セキュリティ機器,施錠制御機器など、様々な分野の電子機器に応用が可能である。
【0069】
このように、前述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には何ら拘束されない。更に、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。
【0070】
【発明の効果】
本発明によれば、知覚,感情,思考といった送信者の思想が表現されたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達するコミュニケーションツールを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態におけるネットワーク構成の一例を示す概略図である。
【図2】図1に示したネットワーク構成のうち、メッセージの送り手側の装置とメッセージの受け手である相手先装置の構成例を示す概略ブロック図である。
【図3】第1の実施形態における送り手側の装置と相手先装置間の処理シーケンスを例示するタイムチャートである。
【図4】第1の実施形態において、送り手側の装置から伝送されるユーザプログラムの、相手先装置における処理手順を例示するフローチャートである。
【図5】第1の実施形態において、相手先装置の画面に表示されるキャラクタ及びメッセージの一例を示すイメージ図である。
【図6】第1の実施形態において、送り手側の装置の画面に表示されるキャラクタ及び返送されたメッセージの一例を示すイメージ図である。
【図7】第2の実施形態において、送り手側の装置から伝送されるユーザプログラムの、相手先装置における処理手順を例示するフローチャートである。
【符号の説明】
1…インターネット
2…移動体通信網
3…宅内システム
10…パソコン
11…携帯情報端末
12…パソコン
13…ホームゲートウェイ
14…ドアホン
15…テレビ
16…エアコン
17…携帯電話機
50…制御手段
51…入出力/表示手段
511…表示手段
512…入出力手段
52…プログラムエディタ
54…プロトコル
55…セキュリティ手段
56…通信手段
57…性格形成ファイル
58…定型プログラムテンプレート
59…パーツファイル
60…制御手段
61…入出力/表示手段
611…表示手段
612…入出力手段
63…インタプリタ
64…プロトコル
65…セキュリティ手段
66…通信手段
67…性格形成ファイル
70,71…通信路
72…ゲートウェイ
80…画面
81…表示エリア
82…入力エリア
83…カーソル
84…テキスト
85…キャラクタ
90…画面
91…表示エリア
92…入力エリア
93…カーソル
94…テキスト
95…キャラクタ
【発明の属する技術分野】
本発明は、パーソナルコンピュータや家庭用電子機器の間でメッセージを伝送するコミュニケーションツールに係り、特に、送信者の感情を表現するキャラクタを介してメッセージを相手先に伝送するコミュニケーションツールに関する。
【0002】
【従来の技術】
メッセージの伝達手段としての電話は、通話相手先である相手の都合に関わらず通話を一方的に要請する性質をもつ伝達手段である。
【0003】
それに対して、電子メールは、先方の都合のよいときに開封でき、しかも一過性の会話ではなく記録として残せる伝達手段であるため、手軽なコミュニケーションツールとして、広く普及している。
【0004】
このように、電子メールは、このようにビジネスやプライベートにおけるメッセージ伝達手段として優れているものの、伝達できるメッセージの形式は主にテキスト形式であるため、知覚,感情,思考といった送信者の思想を、相手の視覚や聴覚に訴えて表現するには、まだ情報量が不足している。例えば、友人同士や趣味サークル、家族といった親しい間柄におけるコミュニケーションでにおいては、言葉では表現できない、あるいは言葉では表現したくない感情やや気持ち、や仲間意識などを伝えたいという場合がある。そこで、知覚,感情,思考といった送信者の思想が込められたメッセージを、文字によるテキストだけでなく、相手の視覚や聴覚に訴えた表現形式で伝達できるコミュニケーションツールが要求されている。
【0005】
このような要求に対して、送信側及び受信側双方のパソコンの画面上で、動物等のキャラクタがあたかも電子メールを配達するように動作する、エージェント送受信技術が提案されている(例えば、特許文献1を参照)。
【0006】
【特許文献1】
特開2002−163209号公報
【0007】
【発明が解決しようとする課題】
しかしながら、特許文献1に記載されているようなエージェントの送受信技術においては、電子メールやメッセージを配達する動作を、キャラクタにより視覚的に表現したのものであり、送信者利用者の遊び心や個性などをある程度表現してはいるものの、知覚,感情,思考といった送信者の思想が込められたメッセージを相手の視覚や聴覚に訴えた表現形式で伝達することまではできない。
【0008】
本発明は、このような状況を鑑みて成されたものであり、知覚,感情,思考といった送信者の思想が込められたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達するコミュニケーションツールを提供することを目的とする。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明に係るコミュニケーションツールは、相手先装置の表示手段に表示するキャラクタの動作や相手先装置の入力手段からの入力に対するキャラクタの反応と、キャラクタを介して相手先装置に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、所定のプログラム言語によりユーザプログラムとしてプログラミングするプログラムエディタと、このプログラムエディタによりプログラミングされたユーザプログラムを相手先装置に伝送する通信手段とを備えることを特徴とする。
【0010】
このようなコミュニケーションツールによれば、言葉では表現できない、あるいは言葉では表現したくない感情や気持ち、仲間意識といった送信者の思想をキャラクタの動作や反応により表現し、このキャラクタを介してテキスト,画像,音声の少なくとも1つを含むメッセージを伝達することで、知覚,感情,思考といった送信者の思想が込められたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達することができる。
【0011】
また、上記コミュニケーションツールにおいて、ユーザプログラムの伝送元とは異なるプラットホームを有する相手先装置においても、上記プログラム言語によりプログラミングされたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を実行させるように構成することで、ハードウェアのアーキテクチャやオペレーティングシステム(OS)といったプラットホームが異なる電子機器間でも、上記キャラクタを介したメッセージの伝達が可能となる。
【0012】
更に、上記コミュニケーションツールにおいて、プログラムエディタにおいてプログラミングした上記キャラクタの動作や反応をキャラクタの性格形成要因データとして蓄積し、蓄積された前記性格形成要因データに基づいて、キャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を相手先装置において実行させるように構成することで、上記プログラムエディタによるプログラミングや、伝達するメッセージの内容を簡略化しても、送信者の思想が表現されたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達が可能となる。
【0013】
更にまた、上記コミュニケーションツールにおいて、電子機器を制御するための操作を促すメッセージを、上記キャラクタを介して相手先装置に伝達し、相手先装置における入力操作に従って、電子機器を制御するように構成することで、視覚や聴覚に訴えた表現形式によるキャラクタに対する入力操作により、例えばドアホンやエアコンといった家庭用電子機器の制御を行うことができる。
【0014】
【発明の実施の形態】
以下、図1〜図8を参照しながら、本発明の実施形態について詳しく説明する。
【0015】
尚、各図面を通じて同一もしくは同等の部位や構成要素には、同一もしくは同等の参照符号を付し、その説明を省略もしくは簡略化する。
【0016】
図1は、本実施形態におけるネットワーク構成の一例を示す図である。ユーザAが操作するパソコン10はインターネット1に接続され、ユーザBが操作する携帯情報端末11は移動体通信網2を介してインターネット1に接続されている。ユーザCの宅内システム3においては、パソコン12、ドアホン14、テレビ15、エアコン16がホームゲートウェイ13にそれぞれ接続され、ホームゲートウェイ13はインターネット1に接続されている。
【0017】
図2は、ユーザAが操作するパソコン10とユーザBが操作する携帯情報端末11の構成例を示しており、パソコン10と携帯情報端末11はそれぞれ異なるアーキテクチャによるプラットホームで構成されており、パソコン10を送り手側の装置、携帯情報端末11を受け手側の相手先装置として説明する。
【0018】
パソコン10は、表示手段511と入出力手段512とからなる入出力/表示手段51、プログラムエディタ52、プロトコル54、セキュリティ手段55、通信手段56、各部を制御する制御手段50などから構成される。携帯情報端末11は、表示手段611と入出力手段612とからなる入出力/表示手段61、インタプリタ63、プロトコル64、セキュリティ手段65、通信手段66、各部を制御する制御手段60などから構成される。
【0019】
パソコン10の通信手段56と携帯情報端末11の通信手段66は、例えばインターネット1などのIPネットワークによる通信手段である点では共通であるが、ゲートウェイ72でブリッジされる通信路70及び通信路71の物理的接続が異なるため同一のアーキテクチャではない。
【0020】
この通信手段56が接続する通信路70と通信手段66が接続する通信路71との差異をそれぞれの通信手段56及び通信手段66が吸収し、セキュリティ手段55及びセキュリティ手段65の間でパソコン10と携帯情報端末11とのセキュリティが確立され、その上にパソコン10と携帯情報端末11の双方に共通のプログラミング言語体系によるプログラム実行環境が搭載される。
【0021】
尚、図2に示した例は、最下位が物理層、最上位がアプリケーション層をイメージしており、図示したセキュリティ手段55及びセキュリティ手段65の位置は便宜的に位置づけたものである。従って、様々な層(レイヤ)で適用される様々な種類のセキュリティ手段は、図2に示した位置に固定されるものではない。
【0022】
メッセージの送り手であるユーザAは、プログラムエディタ52により、メッセージの受け手であるユーザBの携帯情報端末11の表示手段611に表示するキャラクタの動作や、携帯情報端末11の入出力手段612からの入力に対するキャラクタの反応と、キャラクタを介して携帯情報端末11に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、共通のプログラミング言語によりユーザプログラムとしてプログラミングする。このプログラムエディタ52は、定型プログラムテンプレート58に格納されているプログラムテンプレートの中から適当な雛形を選択し、パーツファイル59に格納されているキャラクタ群の中から所望するキャラクタを選択して、通知するメッセージを穴埋めするだけでプログラミングが可能に構成されており、例えばプログラミングが苦手なユーザでも容易にプログラミングすることができる。
【0023】
プログラムエディタ52によりプログラミングされた、キャラクタ及びメッセージを組み込まれたユーザプログラムは、既に確立されているセキュリティを介して、プロトコル54により、携帯情報端末11に伝送される。
【0024】
このとき、プロトコル54を介してユーザプログラムの伝送を開始するトリガとしては、入出力手段512からの伝送開始指示や、タイマーによる伝送開始指示、イベント発生による伝送開始指示などがある。
【0025】
携帯情報端末11に伝送されたユーザプログラムは、共通のプログラム言語体系によるインタプリタ63によって翻訳されながら実行され、プログラミングされたキャラクタの動作や反応を表示手段611上で実行し、キャラクタを介したメッセージを表示手段611等に表示・出力する。つまり、パソコン10とは異なるプラットホームを有する携帯情報端末11においても、共通のプログラム言語体系によりプログラミングされたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を実行させるように構成されている。
【0026】
また、プログラムエディタ52においてプログラミングしたキャラクタの動作や反応をキャラクタの性格形成要因データとして性格形成ファイル57に蓄積し、蓄積された性格形成要因データに基づいて、キャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を相手先の携帯情報端末11において実行させる。
【0027】
以上のように構成されるコミュニケーションツールは、ビジネスからプライベートに至るまで、様々なシーンで実施することができる。以下に示す第1の実施形態においては、言葉では表現できない、あるいは言葉では表現したくない感情や気持ち、仲間意識といった送信者側の思想を、キャラクタの動作や反応により表現し、このキャラクタを介してテキスト,画像,音声の少なくとも1つを含むメッセージを伝達するための、電話や電子メールに継ぐ第3の通信手段としてコミュニケーションツールを用いる例を示す。
【0028】
[第1の実施形態]
第1の実施形態では、ごく親しい仲間であるユーザA、ユーザB、ユーザCの3者間において、メッセージの送信者であるユーザAが言葉による詳細なメッセージを送らなくても、ユーザAのエージェントであるキャラクタの動作や表情でユーザAの気持ちや感情を表現し、『一杯やりたい』という一言のメッセージだけで、ユーザB及びユーザCを食事に誘うという簡単な例を示す。
【0029】
ユーザB及びユーザCは、これまでにユーザAの身の回りに起こった出来事やその背景等を熟知しており、ユーザAの感情や気持ちを表現するように動作や表情をプログラミングしたキャラクタを、ユーザBの携帯情報端末11及びユーザCのパソコン12上で実行させることで、ユーザB及びユーザCは、ユーザAが現在抱いている感情や気持ちを察することができる。つまり、ユーザAのエージェントであるキャラクタが、遠隔地にいるユーザBの携帯情報端末11及びユーザCのパソコン12上に出現し、憂鬱そうな表情を浮かべて『一杯やりたい』というメッセージを表示するだけで、ユーザB及びユーザCは、ユーザAが一緒に食事をしたがる度合いの深さを理解することができる。
【0030】
図3は、ユーザAのパソコン10、ユーザBの携帯情報端末11及びユーザCのパソコン12間の処理シーケンスを例示している。パソコン10には、パソコン用のアプリケーションA(図示せず)がインストールされており、携帯情報端末11には、携帯情報端末11用のアプリケーションB(図示せず)が、パソコン12には、パソコン10用のアプリケーションC(図示せず)がインストールされている。
【0031】
まず、パソコン10のプログラムエディタ52において、定型プログラムテンプレート58やパーツファイル59などを適宜用いながら、携帯情報端末11及びパソコン12に伝送するキャラクタ及びメッセージを組み込んだユーザプログラムがプログラミングされる。このプログラミングは、キャラクタの基本動作を定型プログラムテンプレート58やパーツファイル59から選択するという簡単なプログラミングから、キャラクタの手足を上げ下げさせる、あるいは歩くといった程度の動作プログラミング、キャラクタの指先や眉毛などの細かい動きを制御する高度なプログラミングまで、幅広い層のユーザへの応用が可能である。また、キャラクタの動作や表情を伝達元から遠隔操作できるようにしても良い。
【0032】
プログラミングを終えた後、入出力手段512からユーザプログラムの伝送指示がなされると、パソコン10のセキュリティ手段55及び携帯情報端末11のセキュリティ手段65の間で、パソコン10と携帯情報端末11と間のセキュリティ確立シーケンスが開始される(S110)。
【0033】
セキュリティ確立シーケンスにより、パソコン10と携帯情報端末11とのセキュリティが確立すると、パソコン10から携帯情報端末11にアプリケーションBを起動するための起動キーが送付され、送付された起動キーにより携帯情報端末11のアプリケーションBが起動される(S111)。
【0034】
次に、パソコン10と携帯情報端末11と間のファイルアップデートシーケンスが開始される(S112)。
【0035】
尚、ユーザAのエージェントであるキャラクタのデータを、パソコン10から携帯情報端末11へ伝送された経緯があれば、携帯情報端末11において最後にキャラクタを動作させたときからの差分データのみを携帯情報端末11に伝送することで、無駄な伝送時間を削減することができ、トラフィックを低減することができる。携帯情報端末11へのキャラクタの伝送が、今回が初回である場合には、キャラクタデータの全てのデータをパソコン10から携帯情報端末11に伝送する。
【0036】
ファイルアップデートシーケンスが終了すると、ユーザB向けのユーザプログラムがパソコン10から携帯情報端末11に伝送され(S113)、携帯情報端末11のインタプリタ63にてユーザB向けのユーザプログラムが実行され、キャラクタの動作やメッセージの表示等の処理が実行される(S114)。尚、ユーザプログラムによっては実行中に、各種テキストデータ,音声データ,画像データ等の交換が発生する場合もある(S115)。尚、S114にて実行されるユーザB向けのユーザプログラムの処理については、後で詳細に説明する。
【0037】
S114にて実行されるユーザB向けのユーザプログラムの処理が完了すると、携帯情報端末11からパソコン10に起動キーが返送され、一連のパソコン10と携帯情報端末11との間の処理が完了する(S116)。
【0038】
パソコン10と携帯情報端末11の間の処理が完了すると、パソコン10のセキュリティ手段55及びパソコン12のセキュリティ手段65の間で、セキュリティ確立シーケンスが開始される(S117)。
【0039】
セキュリティ確立シーケンスにより、パソコン10とパソコン12とのセキュリティが確立すると、パソコン10からパソコン12にアプリケーションCを起動するための起動キーが送付され、送付された起動キーによりパソコン12のアプリケーションCが起動される(S118)。
【0040】
次に、パソコン10とパソコン12と間のファイルアップデートシーケンスが開始される(S119)。ユーザAのエージェントであるキャラクタのデータを、パソコン10からパソコン12へ伝送された経緯があれば、パソコン12において最後にキャラクタを動作させたときからの差分データのみをパソコン12に伝送することで、伝送時間を削減することができ、トラフィックを低減することができる。パソコン12へのキャラクタの伝送が、今回が初回である場合には、キャラクタデータの全てのデータをパソコン10からパソコン12に伝送する。
【0041】
ファイルアップデートシーケンスが終了すると、ユーザC向けのユーザプログラムがパソコン10からパソコン12に伝送され(S120)、パソコン12のインタプリタ63にてユーザC向けのユーザプログラムが実行され、キャラクタの動作やメッセージの表示等の処理が実行される(S121)。尚、ユーザプログラムによっては実行中に、各種テキストデータ,音声データ,画像データ等の交換が発生する場合もある(S122)。
【0042】
S122にて実行されるユーザC向けのユーザプログラムの処理が完了すると、パソコン12からパソコン10に起動キーが返送され、一連のパソコン10とパソコン12との間の処理が完了する(S123)。
【0043】
図4は、上記S114において、携帯情報端末11のインタプリタ63にて実行される、ユーザB向けのユーザプログラムの処理手順例を示すフローチャートである。
【0044】
携帯情報端末11のインタプリタ63にてユーザB向けのユーザプログラムの処理が開始されると(S200)、図5(a)に例示するように、携帯情報端末11の表示手段611の画面80におけるキャラクタ85の表示位置が、ロケート処理によって設定される(S201)。このロケート処理による表示位置の設定方法は、ドット単位に細かく設定することもできるし、例えば表示エリア81の中で『画面左下』といったように簡略的に設定することもできる。
【0045】
次に、表示手段611の画面80に表示されたキャラクタ85の動作や表情を、キャラクタ処理によって設定する(S202)。例えば、まずキャラクタ85の表情として『笑顔』をつくり、続いて、ユーザBに気づいてもらえるように、キャラクタ85の動作として『画面下方を歩く』ように指示する。
【0046】
次に、表示手段611の画面80上を笑顔で歩いているキャラクタ85が『こんにちは。』というテキスト84を表示するように、テキスト処理によって指示される(S203)。ここで、ユーザBにとってみれば、ユーザAのエージェントがあたかも遊びに来たといったイメージで、画面80を観ることができる。
【0047】
次に、ユーザプログラムは、所定の時間(例えば10分間)のタイマーを起動し(S204)、ユーザBによる入力を待つ(S206)。ここで、ユーザBによる入力とは、画面80に表示されているキャラクタ85をマウス等で操作する、画面80の入力エリア82のカーソル83位置にキーボードを用いてテキストを入力する、などの操作である。
【0048】
S205におけるタイマー起動中に、ユーザBによる入力がなければ(S205)、処理を終了する(S213)。
【0049】
一方、S205におけるタイマー起動中に、ユーザBによる入力があれば、ユーザBからの反応があったものと判断し、次に要件(メッセージ)の伝達処理に移る。
【0050】
例えば、キャラクタ処理により、画面80上を歩いているキャラクタ85に『止まる』ように指示し、更に『憂鬱』な表情をするようにキャラクタ85に指示する(S207)。尚、キャラクタ85の動作や表情を性格形成要因データとして性格形成ファイル67に蓄積し、後から利用するようにしても良い。
【0051】
そして、画面80上で止まって憂鬱な表情をしているキャラクタに、図5(b)に示すように、テキスト処理により、『一杯やりたい』というテキスト84を表示するように指示する(S208)。
【0052】
次に、ユーザプログラムは、所定の時間(例えば5分間)のタイマーを起動し(S209)、ユーザBによる入力を待つ(S211)。S209におけるタイマー起動中に、ユーザBによる入力がなければ(S210)、処理を終了する(S213)。
【0053】
一方、S209におけるタイマー起動中に、図5(b)に示すように、ユーザBによる入力(例えば『了解。いつもの時間いつもの場所で』)があれば、入力されたメッセージをパソコン10に返信し(S212)、処理を終了する(S213)。
【0054】
パソコン10にユーザBからのメッセージが返信されると、図6に例示するように、パソコン10の表示手段511の画面90上に、ユーザBのエージェントであるキャラクタ95が表示され、ユーザBからの『了解。いつもの時間いつもの場所で』というテキスト94が表示される。
【0055】
以上、第1の実施形態について説明したように、言葉では表現できない、あるいは言葉では表現したくない感情や気持ち、仲間意識といった送信者の思想をキャラクタの動作や反応により表現し、このキャラクタを介してテキスト,画像,音声の少なくとも1つを含むメッセージを伝達することで、知覚,感情,思考といった送信者の思想が表現されたメッセージを、相手の視覚や聴覚に訴えて伝達することができる。従って、より親密なコミュニケーションを図ることができ、あるいは遊び心を加味したコミュニケーションを図ることができ、対話の相手を身近に感じることができる。
【0056】
また、異なるプラットホームを有する相手先装置においても、上記プログラム言語によりプログラミングされたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を実行させるように構成することで、ハードウェアのアーキテクチャやオペレーティングシステム(OS)といったプラットホームが異なる電子機器間でも、上記キャラクタを介したメッセージの伝達が可能となる。
【0057】
更に、プログラムエディタ52においてプログラミングした上記キャラクタの動作や反応をキャラクタの性格形成要因データとして蓄積し、蓄積された前記性格形成要因データに基づいて、キャラクタの動作や反応、及びキャラクタを介したメッセージの伝達を相手先装置において実行させるように構成することで、上記プログラムエディタ52によるプログラミングや、伝達するメッセージの内容を簡略化しても、送信者の思想が表現されたキャラクタの動作や反応、及びキャラクタを介したメッセージの伝達が可能となる。
【0058】
[第2の実施形態]
図1に示したユーザCの宅内システム3において、ホームゲートウェイ13を介して接続されたドアホン14には、ドアホン14用のコミュニケーションツールの機能が実行されており、外来者がドアホン14の呼出しボタンを押したときにパソコン12に伝送する、ドアホン14の制御インタフェースであるキャラクタの動作等が予めプログラミングされている。
【0059】
図7のフローチャートに例示するように、ドアホン14及びパソコン12の電源が投入されると(S300,S301)、ドアホン14のセキュリティ手段55及びパソコン12のセキュリティ手段65の間で、セキュリティ確立シーケンスが開始される(S302)。
【0060】
セキュリティ確立シーケンスにより、ドアホン14とパソコン12とのセキュリティが確立すると、次に、ドアホン14とパソコン12と間のファイルアップデートシーケンスが開始される(S303)。
【0061】
外来者によってドアホン14の呼出しボタン(入出力手段512)が押されると(S304)、ドアホン14のカメラ(入出力手段512)が外来者の画像を静止画像データとしてキャプチャする(S305)。
【0062】
そして、外来者の静止画像データがユーザプログラムに添付されて、ドアホン14からパソコン12に伝送され(S308)、パソコン12のインタプリタ63にてユーザC向けのユーザプログラムが実行され、キャラクタの動作やメッセージの表示等の処理が実行される(S307)。例えば、パソコン12の画面上にドアホンのエージェントであることが明確になるキャラクタが出現し、外来者が訪れた旨のテキストを表示すると共に、外来者の静止画像データを表示する。
【0063】
ここで、ドアホン14の伝達先としてパソコン12を例にしたが、宅内3の中に留守状況を検出する手段等があれば、この検出結果に基づいて宅内3が留守の場合には、インターネット1や移動体通信網2を介して、遠隔地にいるユーザCの携帯電話機17を伝送先とすることもできる。
【0064】
あるいはまた、宅内システム3におけるエアコン16の制御インタフェースとしてのキャラクタを、ホームゲートウェイ13を介してテレビ15の画面(表示手段511)に出現させ、キャラクタに『暑いですか?』あるいは『寒いですか?』などと問いかけさせる。その問いかけに対して、ユーザCがテレビ15の入出力手段512(例えば、スイッチ、リモコンなど)から意思表示をすることで、エアコン16自身が温度調節を自動制御するように構成することもできる。
【0065】
このように、電子機器を制御するための操作を促すメッセージを、キャラクタを介して相手先装置に伝達し、相手先装置における入力操作に従って、電子機器を制御するように構成することで、視覚や聴覚に訴えた表現形式によるキャラクタに対する入力操作を行うことで、例えばドアホン14やエアコン16といった家庭用電子機器の制御を行うことができる。従って、例えば幼児や高齢者などの電子機器の操作に馴染まない人にとって、優しいヒューマンインタフェースを実現できる。
【0066】
以上、本発明の実施の形態を詳細に説明したが、本発明は、その精神または主要な特徴から逸脱することなく、他の色々な形で実施することができる。
【0067】
例えば、前述の実施形態においては、伝達するメッセージを文字により相手先装置の画面80(表示手段511)に表示する例を示したが、例えば、伝達するメッセージを相手先装置のスピーカから音声で出力するようにしても良いし、文字による表示と音声による出力を組み合わせても良い。
【0068】
また、前述の実施形態においては、例えばドアホン14やエアコン16といった家庭用電子機器を制御するための操作を促すメッセージを、キャラクタを介して伝達し、相手先装置における入力操作に従って、電子機器を制御する例を示したが、ドアホン14やエアコン16以外にも、例えばAV家電機器,白物家電機器,セキュリティ機器,施錠制御機器など、様々な分野の電子機器に応用が可能である。
【0069】
このように、前述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には何ら拘束されない。更に、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。
【0070】
【発明の効果】
本発明によれば、知覚,感情,思考といった送信者の思想が表現されたメッセージを、相手の視覚や聴覚に訴えた表現形式で伝達するコミュニケーションツールを提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態におけるネットワーク構成の一例を示す概略図である。
【図2】図1に示したネットワーク構成のうち、メッセージの送り手側の装置とメッセージの受け手である相手先装置の構成例を示す概略ブロック図である。
【図3】第1の実施形態における送り手側の装置と相手先装置間の処理シーケンスを例示するタイムチャートである。
【図4】第1の実施形態において、送り手側の装置から伝送されるユーザプログラムの、相手先装置における処理手順を例示するフローチャートである。
【図5】第1の実施形態において、相手先装置の画面に表示されるキャラクタ及びメッセージの一例を示すイメージ図である。
【図6】第1の実施形態において、送り手側の装置の画面に表示されるキャラクタ及び返送されたメッセージの一例を示すイメージ図である。
【図7】第2の実施形態において、送り手側の装置から伝送されるユーザプログラムの、相手先装置における処理手順を例示するフローチャートである。
【符号の説明】
1…インターネット
2…移動体通信網
3…宅内システム
10…パソコン
11…携帯情報端末
12…パソコン
13…ホームゲートウェイ
14…ドアホン
15…テレビ
16…エアコン
17…携帯電話機
50…制御手段
51…入出力/表示手段
511…表示手段
512…入出力手段
52…プログラムエディタ
54…プロトコル
55…セキュリティ手段
56…通信手段
57…性格形成ファイル
58…定型プログラムテンプレート
59…パーツファイル
60…制御手段
61…入出力/表示手段
611…表示手段
612…入出力手段
63…インタプリタ
64…プロトコル
65…セキュリティ手段
66…通信手段
67…性格形成ファイル
70,71…通信路
72…ゲートウェイ
80…画面
81…表示エリア
82…入力エリア
83…カーソル
84…テキスト
85…キャラクタ
90…画面
91…表示エリア
92…入力エリア
93…カーソル
94…テキスト
95…キャラクタ
Claims (4)
- 相手先装置の表示手段に表示するキャラクタの動作や前記相手先装置の入力手段からの入力に対する前記キャラクタの反応と、前記キャラクタを介して前記相手先装置に伝達するテキスト,画像,音声の少なくとも1つを含むメッセージとを、所定のプログラム言語によりユーザプログラムとしてプログラミングするプログラムエディタと、
前記プログラムエディタによりプログラミングされた前記ユーザプログラムを前記相手先装置に伝送する通信手段と
を備えることを特徴とするコミュニケーションツール。 - 請求項1に記載のコミュニケーションツールにおいて、
前記ユーザプログラムの伝送元とは異なるプラットホームを有する相手先装置においても、前記プログラム言語によりプログラミングされた前記キャラクタの動作や反応、及び前記キャラクタを介したメッセージの伝達を実行させること
を特徴とするコミュニケーションツール。 - 請求項1または請求項2に記載のコミュニケーションツールにおいて、
前記プログラムエディタにおいてプログラミングした前記キャラクタの動作や反応を前記キャラクタの性格形成要因データとして蓄積し、
蓄積された前記性格形成要因データに基づいて、前記キャラクタの動作や反応、及び前記キャラクタを介したメッセージの伝達を前記相手先装置において実行させること
を特徴とするコミュニケーションツール。 - 請求項1ないし請求項3のいずれかに記載のコミュニケーションツールにおいて、
電子機器を制御するための操作を促すメッセージを、前記キャラクタを介して前記相手先装置に伝達し、
前記相手先装置における入力操作に従って、前記電子機器を制御すること
を特徴とするコミュニケーションツール。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003020583A JP2004234213A (ja) | 2003-01-29 | 2003-01-29 | コミュニケーションツール |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003020583A JP2004234213A (ja) | 2003-01-29 | 2003-01-29 | コミュニケーションツール |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004234213A true JP2004234213A (ja) | 2004-08-19 |
Family
ID=32950184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003020583A Pending JP2004234213A (ja) | 2003-01-29 | 2003-01-29 | コミュニケーションツール |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004234213A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012081779A1 (ko) * | 2010-12-14 | 2012-06-21 | (주)유아짱 | 영상 아바타 제작 및 서비스 방법 |
JP2014071844A (ja) * | 2012-10-01 | 2014-04-21 | Sharp Corp | 操作支援装置、操作支援方法、制御プログラム、および記録媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11312159A (ja) * | 1998-02-13 | 1999-11-09 | Fuji Xerox Co Ltd | 自律的パ―ソナルアバタ―作成方法及び装置 |
JP2000123191A (ja) * | 1998-10-19 | 2000-04-28 | Canon Inc | 情報処理装置及び方法及び情報伝送システム |
JP2001325052A (ja) * | 2000-05-17 | 2001-11-22 | Sharp Corp | エージェント表示装置、エージェント表示方法およびエージェント表示プログラムを記録した記録媒体 |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2002163447A (ja) * | 2000-09-12 | 2002-06-07 | Sony Corp | 情報提供システム、情報提供装置および情報提供方法、並びに記録媒体 |
-
2003
- 2003-01-29 JP JP2003020583A patent/JP2004234213A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11312159A (ja) * | 1998-02-13 | 1999-11-09 | Fuji Xerox Co Ltd | 自律的パ―ソナルアバタ―作成方法及び装置 |
JP2000123191A (ja) * | 1998-10-19 | 2000-04-28 | Canon Inc | 情報処理装置及び方法及び情報伝送システム |
JP2001325052A (ja) * | 2000-05-17 | 2001-11-22 | Sharp Corp | エージェント表示装置、エージェント表示方法およびエージェント表示プログラムを記録した記録媒体 |
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2002163447A (ja) * | 2000-09-12 | 2002-06-07 | Sony Corp | 情報提供システム、情報提供装置および情報提供方法、並びに記録媒体 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012081779A1 (ko) * | 2010-12-14 | 2012-06-21 | (주)유아짱 | 영상 아바타 제작 및 서비스 방법 |
JP2014071844A (ja) * | 2012-10-01 | 2014-04-21 | Sharp Corp | 操作支援装置、操作支援方法、制御プログラム、および記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI683578B (zh) | 視頻通信的方法、裝置、終端及電腦可讀儲存介質 | |
JP4199665B2 (ja) | インターネットを介したリッチ・コミュニケーション | |
KR101894644B1 (ko) | 채팅창에서 게임을 구현하는 방법, 장치 및 단말 | |
CN104836977B (zh) | 即时通讯过程中的视频通讯方法及系统 | |
JP3930489B2 (ja) | チャットシステム、通信装置、その制御方法及びプログラム | |
JP7507859B2 (ja) | 対話方法及び電子機器 | |
KR20160144479A (ko) | 영상 통화 데이터의 디스플레이 | |
WO2017068816A1 (ja) | 情報処理システム、および情報処理方法 | |
JP2015515643A (ja) | インスタントコミュニケーション音声認識方法および端末 | |
KR100883352B1 (ko) | 원격대화에서 감정 및 의사의 표현 방법과 이를 위한 리얼이모티콘 시스템 | |
JP6889464B2 (ja) | チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラム | |
TWI421767B (zh) | 資訊溝通互動裝置及方法 | |
KR20190016671A (ko) | 통신 장치, 서버 및 통신 방법 | |
JP2004214895A (ja) | 通信補助装置 | |
WO2016157993A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN113965539B (zh) | 消息发送方法、消息接收方法、装置、设备及介质 | |
JP2006338685A (ja) | チャットシステム、通信装置、その制御方法及びプログラム | |
JP2004234213A (ja) | コミュニケーションツール | |
US20160316054A1 (en) | Communication device, method, and program | |
JP5199970B2 (ja) | 視聴可能範囲のユーザを操作対象装置のディスプレイに表示するシステム及び方法 | |
WO2013131328A1 (zh) | 终端动感互动的方法和系统 | |
WO2024103618A1 (zh) | 电子红包发送方法、装置、电子设备和存储介质 | |
JP2006262411A (ja) | 音声映像通信システム | |
KR101364935B1 (ko) | 캐릭터 진동 출력 방법 및 그 단말기 | |
JP2004021606A (ja) | 仮想空間提供サーバを用いたインターネットサービス提供システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071120 |