JP2014186744A - 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム - Google Patents

動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム Download PDF

Info

Publication number
JP2014186744A
JP2014186744A JP2014105658A JP2014105658A JP2014186744A JP 2014186744 A JP2014186744 A JP 2014186744A JP 2014105658 A JP2014105658 A JP 2014105658A JP 2014105658 A JP2014105658 A JP 2014105658A JP 2014186744 A JP2014186744 A JP 2014186744A
Authority
JP
Japan
Prior art keywords
unit
user
operation target
operation data
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014105658A
Other languages
English (en)
Other versions
JP5781666B2 (ja
Inventor
Tetsuya Fuyuno
哲也 冬野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014105658A priority Critical patent/JP5781666B2/ja
Publication of JP2014186744A publication Critical patent/JP2014186744A/ja
Application granted granted Critical
Publication of JP5781666B2 publication Critical patent/JP5781666B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動作対象(キャラクター)によって動作パターンを変化させることができ、ユーザに対するエンターテインメント性を向上させる。
【解決手段】動作対象制御装置は、動作対象の動作を示す動作データに基づいて動作対象の動作を制御し、性格または嗜好を示す属性情報の入力を受け付ける入力部と、動作対象制御装置のユーザが入力した属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、入力部が入力を受け付けた属性情報に基づいてユーザ用動作データを生成する生成部と、生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部とを備える。
【選択図】図1

Description

本発明は、動作対象の動作を示す動作データに基づいて動作対象の動作を制御する動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムに関する。
近年、仮想空間における自己表現の方法として、自分の分身であるアバター(Avatar)を生成し、利用したサービスが利用されている(例えば、非特許文献1を参照)。このようなサービスによって、ユーザは、思い通りのアバターを作成し、他人に披露することによる優越感を得ることができる。さらにユーザは、他のアバターを有するユーザとコミュニケーションを図ることができる。
また、ユーザは、アバターの動作を指定することができ、これによりアバターに感情を表現させることができる。
"livedoor アバター"、[online]、株式会社ライブドア、[200 9年1月22日検索]、インターネット〈URL:http://avatar.livedoor.com/〉
しかしながら、従来のアバターは、外見の情報のみを有するキャラクターである。このため、アバターの動作は、ユーザに指定された動作に限られ、またアバターが自発的に動作する場合も、その動作は定型化された動作に限られてしまう。このため、ユーザに対して十分な楽しみや満足を与えることができなかった。
本発明は上記の点に鑑みてなされた。本発明の目的は、動作対象(キャラクター)によって動作パターンを変化させることができ、ユーザに対するエンターテインメント性を向上させることができる動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムを提供することにある。
本発明は上記の課題を解決するためになされた。本発明の第1の実施態様に係る動作対象制御装置は、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御し、性格または嗜好を示す属性情報の入力を受け付ける入力部と、前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成されるユーザ用動作対象の動作を制御するための動作データとして、前記入力部が入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成する生成部と、前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部とを備える。
本発明の第2の実施態様に係る動作対象制御システムは、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置と前記動作対象の動作を制御するための動作データを保持するサーバ装置とを備える。前記動作対象制御装置は、性格または嗜好を示す属性情報の入力を受け付ける入力部と、前記入力部が入力を受け付けた前記属性情報に基づいて生成される前記動作対象の動作を制御するための動作データを生成する生成部と、前記生成部が生成した動作データに固有の動作データ識別情報を生成する識別情報生成部と、前記識別情報生成部が生成した動作データ識別情報を記憶部に登録する登録部と、前記サーバ装置に前記生成部が生成した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する装置側送信部と、前記記憶部が記憶する動作データ識別情報が示す動作データを前記サーバ装置から受信する装置側受信部と、前記装置側受信部が受信した動作データに基づいて動作対象の動作を変化させる制御部とを備える。前記サーバ装置は、前記動作対象制御装置から前記動作データと前記動作データ識別情報とを受信するサーバ側受信部と、前記受信した動作データ識別情報に前記受信した動作データを関連付けてサーバ側記憶部に登録するサーバ側登録部と、前記動作データ識別情報に対応する動作データをサーバ側記憶部から取得し、前記動作対象制御装置に送信するサーバ側送信部とを備える。
本発明の第3の実施態様に係る動作対象制御方法は、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を用い、性格または嗜好を示す属性情報の入力を受け付け前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、前記入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、前記生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させることを含む。
本発明の第4の実施態様に係るプログラムは、動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を、性格または嗜好を示す属性情報の入力を受け付ける入力部、前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象を示すユーザ用動作対象の動作を制御するための動作データであるユーザ用動作データを前記入力部が入力を受け付けた前記属性情報に基づいて生成する生成部、前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させる制御部として動作させる。
本発明の第5の実施態様に係る動作対象制御装置は、動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させ、前記他の装置から動作データを受信する動作データ受信部と、前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部とを備える。
本発明の第6の実施態様に係るプログラムは、動作対象の動作を制御するための動作データを保持する他の装置と通信を行い、前記動作対象を動作させる動作対象制御装置を、前記他の装置から動作データを受信する動作データ受信部、前記動作データ受信部が受信した動作データに基づいて前記動作対象の動作を変化させる制御部として動作させる。
本発明によれば、動作対象制御装置の生成部が、入力された属性情報に基づいて動作データを生成し、制御部が、動作データに基づいて動作対象の動作を変化させる。これにより、属性情報が異なる動作対象の動作を異ならせることができるので、エンターテインメント性に富んだキャラクターを生成することができる。
本発明の一実施形態によるキャラクターシステムの構成図である。 図1に示す携帯端末の構成を示す概略ブロック図である。 図1に示すサーバ装置の構成を示す概略ブロック図である。 図1に示す携帯端末の補助記憶部が記憶するキャラクターテーブルを示す図である。 図1に示す携帯端末の補助記憶部が記憶する親密度テーブルを示す図である。 図1に示す携帯端末の動作を示すフローチャートである。 図1に示す携帯端末によるキャラクター生成動作を示す第1のフローチャートである。 図1に示す携帯端末によるキャラクター生成動作を示す第2のフローチャートである。 図1に示すキャラクターシステムの動作を示す第1のシーケンス図である。 図1に示すキャラクターシステムの動作を示す第2のシーケンス図である。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態によるキャラクターシステムの構成図である。
キャラクターシステム(動作対象制御システム)は、携帯端末100−1〜100−N(動作対象制御装置)とサーバ装置200とを備える。携帯端末100−1〜100−Nとサーバ装置200とはネットワークによって接続されている。携帯端末100−1〜100−N同士は、ネットワークまたは赤外線通信等の近距離通信によって接続できる。以下の説明では1つの携帯端末100−1について説明するが、他の携帯端末100−2〜100−Nも同様の構成を備える。
携帯端末100−1は、キャラクターC(動作対象)を表示する。キャラクターCは、携帯端末100−1の画面上で動いたりメッセージを表示させたりする。
サーバ装置200は、キャラクターCの情報(動作データ)並びにキャラクターCの動作及びメッセージのパターンを記憶する。
図2Aは、携帯端末の構成を示す概略ブロック図である。
携帯端末100−1は、入力部110と、通信部120(属性情報受信部、動作データ受信部、電子文書受信部、電子文書送信部、装置側送信部、装置側受信部)と、表示部130(待ち受け表示部)と、撮影部140と、補助記憶部150(記憶部)と、主記憶部160と、CPU170とを備える。
入力部110は、テンキー等の入力インターフェイスを介してユーザからの情報の入力を受け付ける。
通信部120は、他の携帯端末100−2〜100−Nまたはサーバ装置200との通信を行う。
表示部130は、画面の表示を制御する。
撮影部140は、携帯端末100−1に内蔵されたデジタルカメラによる画像の撮影を行う。
補助記憶部150は、携帯端末100−1のシステム情報やプログラムを記憶する。また、補助記憶部150は、キャラクターCを格納するキャラクターテーブル、及びキャラクターC同士の親密度を格納する親密度テーブルを記憶する。
主記憶部160は、CPU170が演算に用いる情報を記憶する。
CPU170は、プログラムを実行し、携帯端末100−1の動作を制御する。
バス180は、携帯端末100−1の内部において各処理部へデータを転送する伝送路である。
CPU170は、補助記憶部150が記憶するプログラムを実行すると、生成部171(生成部、識別情報生成部)、登録部172(登録部)、画像解析部173、文章解析部174(電子文書解析部)、待ち受け制御部175(待ち受け表示部)、スケジューラ制御部176(スケジュール登録部)、メール制御部177(電子メール送信部)及び動作決定部178(制御部、感情決定部、親密度決定部、文書生成部)として動作する。
生成部171は、ユーザが入力した情報に基づいてキャラクターCを生成する。
登録部172は、キャラクターCを補助記憶部150に登録する。
画像解析部173は、撮影部140が撮影した画像を解析し、似顔絵画像を生成する。
文章解析部174は、電子文書の内容を解析する。
待ち受け制御部175は、待ち受け画面の設定、表示等の制御を行う。
スケジューラ制御部176は、スケジューラへのスケジュール登録、表示等の制御を行う。
メール制御部177は、電子メールの生成、送受信、表示等の制御を行う。
動作決定部178は、キャラクターCの動作及びメッセージを決定する。
図3Aおよび図3Bは、補助記憶部が記憶するテーブルを示す図である。
図3Aはキャラクターテーブルを示している。
補助記憶部150が記憶するキャラクターテーブルは、キャラクターCを識別するキャラクターID(動作データ識別情報)と、キャラクターCを生成した携帯端末のメールアドレスと、キャラクターCの外見と、キャラクターCの性格(属性)と、キャラクターCの嗜好(属性)と、キャラクターCの感情とを格納する。
図3Aでは、厳格さ、優しさ、冷静さ、自由さ、及び従順さの5つのパラメータの値によって性格を表現する場合の例を示している。この表現方法は一例であり、パラメータの内容及び個数はこれに限られない。性格の表現もパラメータによる表現に限られず、例えば性格を所定の類型に分類することで表現しても良い。
嗜好は、キーワードの羅列によって表現している。
図3Bは、親密度テーブルを示している。
補助記憶部150が記憶する親密度テーブルは、2つのメールアドレスと、親密度とを格納する。
図2Bは、サーバ装置200の構成を示す概略ブロック図である。
サーバ装置200は、通信部210(サーバ側受信部、サーバ側送信部)と、制御部220(サーバ側登録部)と、記憶部230(サーバ側記憶部、動作パターン記憶部)とを備える。
通信部210は、携帯端末100−1〜100−Nとの通信を行う。
制御部220は、サーバ装置200の制御を行う。
記憶部は230、キャラクターCを格納するキャラクターテーブルと、キャラクターC同士の親密度を格納する親密度テーブルと、キャラクターCの動作パターンを格納する動作テーブルと、キャラクターCのメッセージパターンを格納するメッセージテーブルと、キャラクターCのレコメンドパターンを格納するレコメンドテーブルと、電子メールの文面のパターンを格納するメールテーブルとを記憶する。
キャラクターテーブル及び親密度テーブルは、携帯端末100−1が記憶するキャラクターテーブル及び親密度テーブルと同様の構成である。
動作テーブルは、キャラクターCの性格と動作パターンと発生確率とを関連付けて格納する。例えば、自由さのパラメータ値が高い性格は「横になる」動作の発生確率を高く設定し、「厳格さ」のパラメータ値が高い性格は「怒る」動作の発生確率を高く設定しておく。
メッセージテーブルは、キャラクターCの性格とメッセージパターンとを関連付けて格納する。
レコメンドテーブルは、キャラクターCの嗜好等のキーワードとレコメンドパターンとを関連付けて格納する。
メールテーブルは、キャラクターCの性格とキーワードとメールの文面パターンとを関連付けて格納する。
携帯端末100−1においては、入力部110がキャラクターCの属性を示す属性情報の入力を受け付ける。CPU170の生成部171がその属性情報に基づいてキャラクターCを生成する。登録部172が生成したキャラクターCを補助記憶部150に登録する。動作決定部178は、補助記憶部150が記憶するキャラクターCの動作を属性情報に対応させて変化させる。
これにより、携帯端末100−1は、キャラクターCによって異なる動作をさせることができる。
次に、携帯端末100−1の動作を説明する。
キャラクターCを携帯端末100−1の待ち受け画面に設定する場合を例に説明する。
図4は、携帯端末の動作を示すフローチャートである。
まず、ユーザが携帯端末100−1の設定画面より、待ち受け画面にキャラクターCを設定することを示す情報を入力すると、CPU170の待ち受け制御部175は、補助記憶部150がキャラクターCを記憶しているか否かを判定する(ステップS1)。待ち受け制御部175が、補助記憶部150がキャラクターCを記憶していると判定した場合(ステップS1:YES)、入力部110は、補助記憶部150が記憶するキャラクターCを待ち受け画面に設定するか否かを選択する情報の入力を受け付ける(ステップS2)。
待ち受け制御部175がステップS1によって補助記憶部150がキャラクターCを記憶していないと判定した場合(ステップS1:NO)、またはステップS2で、待ち受け制御部175が、補助記憶部150が記憶していないキャラクターCを待ち受け画面に設定することを示す情報を受け付けた場合(ステップS2:NO)について説明する。この場合には、生成部171は、入力部110を介してキャラクターCを新規作成するか、他の携帯端末100−2〜100−Nまたはサーバ装置200からキャラクターCを受信するかを選択する情報の入力を受け付ける(ステップS3)。サーバ装置200からキャラクターCを受信する場合としては、サーバ装置200で公開されている著名人のキャラクターCを受信する場合等が挙げられる。
生成部171は、キャラクターCを新規作成することを示す情報を受け付けた場合(ステップS3:YES)、入力部110を介してキャラクターCの性格や嗜好などを示す属性情報の入力を自端末(携帯端末100−1)で行うか、他の携帯端末100−2〜100−Nで行うかを選択する情報の入力を受け付ける(ステップS4)。他の携帯端末100−2〜100−Nで属性情報の入力を行う場合としては、例えば、他の携帯端末100−2〜100−Nがキャラクターシステムに対応していない場合等がある。
生成部171が属性情報の入力を自端末で行うことを示す情報を受け付けた場合(ステップS4:YES)、携帯端末100−1は、属性情報の入力を受け付け、キャラクターCを生成する(ステップS5)。この処理の詳細は後述する。
他方、待ち受け画面制御部175が属性情報の入力を他の携帯端末100−2〜100−Nで行うことを示す情報を受け付けた場合(ステップS4:NO)、携帯端末100−1は、他の携帯端末100−2〜100−Nから属性情報を受信し、キャラクターCを生成する(ステップS6)。この処理の詳細は後述する。
ステップS3で、生成部171がキャラクターCを外部から受信することを示す情報を受け付けた場合(ステップS3:NO)、通信部120は、他の携帯端末100−2〜100−Nまたはサーバ装置200からキャラクターCを受信する(ステップS7)。通信部120がキャラクターCを受信すると、登録部172は、キャラクターCを補助記憶部150に記憶させる(ステップS8)。
ステップS2で、待ち受け制御部175が、補助記憶部150が記憶していないキャラクターCを待ち受け画面に設定することを示す情報を受け付けた場合(ステップS2:NO)、ステップS5で属性情報の入力を受け付けてキャラクターCを生成した場合、ステップS6で属性情報を受信してキャラクターCを生成した場合、またはステップS8でキャラクターCを補助記憶部150に記憶させた場合について説明する。この場合は、待ち受け制御部175は、該当するキャラクターCを待ち受け画面に設定する(ステップS9)。
待ち受け制御部175は、キャラクターCを待ち受け画面に設定すると、主記憶部160にキャラクターC及びプログラムを常駐させる。表示部130は、待ち受け画面を表示させる際、主記憶部160からキャラクターC及びプログラムを読み出し、待ち受け画面にキャラクターCを表示させる。
次に、上述したステップS5による、属性情報の入力を自端末で行い、キャラクターCを生成する処理について説明する。
図5は、携帯端末によるキャラクター生成動作を示す第1のフローチャートである。
上述したステップS4で、生成部171が属性情報の入力を自端末で行うことを示す情報を受け付けると、生成部171は、入力部110を介して、キャラクターCの顔を補助記憶部150が記憶している画像から生成するか否かを示す情報の入力を受け付ける(ステップS5−1)。
生成部171が、キャラクターCの顔を補助記憶部150が記憶している画像から生成することを示す情報の入力を受け付けた場合(ステップS5−1:YES)、生成部171は、補助記憶部150から該当する画像を取得する(ステップS5−2)。
他方、生成部171が、キャラクターCの顔を補助記憶部150が記憶していない画像から生成することを示す情報の入力を受け付けた場合(ステップS5−1:NO)、撮影部140は、画像の撮影を受け付け、生成部171は撮影した画像を取得する(ステップS5−3)。
ステップS5−2またはステップS5−3で生成部171が画像を取得すると、画像解析部173は、取得した画像を解析し、似顔絵画像を生成する(ステップS5−4)。似顔絵画像の生成は、例えば以下のように行う。
まず、画像解析部173は、画像から、色相、明度、及び輝度の値が肌色の色相、明度、及び輝度の値と比較して所定の範囲内となる領域を抽出する。画像解析部173は、抽出した領域のうち、形状が略楕円形である領域を顔領域として抽出する。次に、画像解析部173は、顔領域の上方に接する色を選択する。次に、画像解析部173は、画像から、色相、明度、及び輝度の値が選択した色の色相、明度、及び輝度の値と比較して所定の範囲内となり、顔領域の情報に接する領域を髪領域として抽出する。次に、画像解析部173は、顔領域及び髪領域の輪郭を抽出し、眉、目、鼻、口、顔の輪郭等のパーツを抽出する。次に、画像解析部173は、予め補助記憶部150が記憶している似顔絵パーツの中から抽出したパーツと類似する似顔絵パーツを抽出し、該当する座標に似顔絵パーツを配置する。このような手法により似顔絵画像を生成することができるが、これに限られず他の手法を用いても良い。
ステップS5−4で画像解析部173が似顔絵画像を生成すると、生成部171は、補助記憶部150が予め記憶する胴体情報を読み出す(ステップS5−5)。胴体情報とは、キャラクターCの胴体を示す画像の集合であり、例えば、「走る」、「座る」等の動作パターンと動作パターンに対応する胴体の画像とを関連付けて格納した連想配列等によって表される。画像は静止画像に限られず、動画像であっても良い。生成部171は、胴体情報を読み出すと、読み出した胴体情報の顔部分にキャラクターCの似顔絵画像を合成し、キャラクターCの外見情報を生成する(ステップS5−6)。
生成部171は、キャラクターCの外見情報を生成すると、補助記憶部150が予め記憶する質問事項を取得し、表示部130に表示させる(ステップS5−7)。この質問事項により、生成部171はユーザの性格及び嗜好の判定に用いる情報を収集する。性格の判定に用いる質問は、例えば、「時間を守るか」や「好奇心が強いか」等の質問である。
嗜好の判定に用いる質問は、例えば、「好きな音楽は何か」や「好きな食べ物は何か」等である。
表示部130が質問事項を表示すると、生成部171は、入力部110を介して質問事項に対する回答の入力を受け付ける(ステップS5−8)。
生成部171は、回答の入力を受け付けると、回答に基づいてキャラクターCの性格を決定する(ステップS5−9)。性格は、例えば厳格さ、優しさ、冷静さ、自由さ、従順さの5つのパラメータの値によって表現する。性格の決定は、例えば、パラメータと質問事項とを予め対応付けておき、パラメータに対応付けられた質問事項への回答が肯定的であるか否定的であるかに基づいてパラメータを算出することで行うことができる。
生成部171は、キャラクターCの性格を決定すると、そのキャラクターCを識別するキャラクターIDを生成する(ステップS5−10)。生成部171がキャラクターIDを生成すると、登録部172は、キャラクターIDと自端末のメールアドレスとに関連付けて、外見情報と性格を示す情報と嗜好を示す情報とをキャラクターCとして補助記憶部150のキャラクターテーブルに記憶させる(ステップS5−11)。
登録部172がキャラクターCを補助記憶部150に記憶させると、通信部120は、キャラクターIDと自端末のメールアドレスとキャラクターCとをサーバ装置200に送信する(ステップS5−12)。
これにより、携帯端末100−1は、キャラクターCを生成し、補助記憶装置150とサーバ装置200にキャラクターCを記憶させることができる。
次に、上述したステップS6による、属性情報の入力を他の携帯端末100−2〜100−Nで行い、自端末でキャラクターCを生成する処理について説明する。
図6は、携帯端末によるキャラクター生成動作を示す第2のフローチャートである。
上述したステップS4で、生成部171が属性情報の入力を他の携帯端末100−2〜100−Nで行うことを示す情報を受け付けると、生成部171は、入力部110を介して、キャラクターCの顔を補助記憶部150が記憶している画像から生成するか否かを示す情報の入力を受け付ける(ステップS6−1)。
生成部171は、キャラクターCの顔を補助記憶部150が記憶している画像から生成することを示す情報の入力を受け付けた場合(ステップS6−1:YES)、補助記憶部150が記憶する質問事項からアンケートフォームを生成し、通信部120を介して他の携帯端末100−2〜100−Nに送信する(ステップS6−2)。他の携帯端末100−2〜100−Nがアンケートフォームを受信し、アンケートの回答を送信すると、通信部120は他の携帯端末100−2〜100−Nから回答を受信する(ステップS6−3)。通信部120が回答を受信すると、生成部171は、補助記憶部150からキャラクターCの顔の生成に用いる画像を取得する(ステップS6−4)。
他方、生成部171が、キャラクターCの顔を補助記憶部150が記憶している画像から生成しないことを示す情報の入力を受け付けた場合(ステップS6−1:NO)、補助記憶部150が記憶する質問事項から画像入力欄を有するアンケートフォームを生成し、通信部120を介して他の携帯端末100−2〜100−Nに送信する(ステップS6−5)。他の携帯端末100−2〜100−Nがアンケートフォームを受信し、アンケートの回答及び画像を送信すると、通信部120は他の携帯端末100−2〜100−Nから回答及び画像を受信する(ステップS6−6)。通信部120が回答を受信すると、生成部171は、通信部120が受信した受信結果から画像を取得する(ステップS6−7)。
ステップS6−4またはステップS6−7で生成部171が画像を取得すると、画像解析部173は、取得した画像を解析し、似顔絵画像を生成する(ステップS6−8)。画像解析部173が似顔絵画像を生成すると、生成部171は、補助記憶部150が予め記憶する胴体情報を読み出す(ステップS6−9)。次に、生成部171は、読み出した胴体情報の顔部分にキャラクターCの似顔絵画像を合成し、キャラクターCの外見情報を生成する(ステップS6−10)。
生成部171は、キャラクターCの外見情報を生成すると、通信部120が受信した回答に基づいてキャラクターCの性格を決定する(ステップS6−11)。
生成部171は、キャラクターCの性格を決定すると、そのキャラクターCのキャラクターIDを生成する(ステップS6−12)。生成部171がキャラクターIDを生成すると、登録部172は、キャラクターIDと他の携帯端末100−2〜100−Nのメールアドレスとに関連付けて、似顔絵画像と性格を示す情報と嗜好を示す情報とをキャラクターCとして補助記憶部150のキャラクターテーブルに記憶させる(ステップS6−13)。
登録部172がキャラクターCを補助記憶部150に記憶させると、通信部120は、キャラクターIDと他の携帯端末100−2〜100−NのメールアドレスとキャラクターCとをサーバ装置200に送信する(ステップS6−14)。
これにより、携帯端末100−1は、キャラクターCを生成し、補助記憶装置150とサーバ装置200にキャラクターCを記憶させることができる。
次に、キャラクターCを待ち受け画面に設定した携帯端末100−1の動作を説明する。
図7は、キャラクターシステムの動作を示す第1のシーケンス図である。
まず、ユーザによる携帯端末100−1の電源の投入等によって、携帯端末100−1が起動すると、待ち受け制御部175は、補助記憶部150から待ち受け画面に設定したキャラクターCを読み出す(ステップS11)。次に、待ち受け制御部175は、表示部130にキャラクターCの外見情報の中から通常状態の画像を表示させる(ステップS12)。
表示部130がキャラクターCを表示すると、動作決定部178は、キャラクターIDとキャラクターCを作成した携帯端末100−1〜100−Nのメールアドレスとをサーバ装置200に送信する(ステップS13)。
携帯端末100−1がサーバ装置200にキャラクターIDとメールアドレスとを送信すると、サーバ装置200の通信部210は、キャラクターIDとメールアドレスとを受信する(ステップS14)。サーバ装置200の通信部210がキャラクターIDとメールアドレスとを受信すると、サーバ装置200の制御部220は、サーバ装置200の記憶部230のキャラクターテーブルからキャラクターIDとメールアドレスとに関連付けて格納されているキャラクターCの性格と嗜好とを取得する(ステップS15)。サーバ装置200の制御部220は、キャラクターCの性格を取得すると、サーバ装置200の記憶部230の動作テーブルから、取得した性格に関連付けて格納されている複数の動作パターンを取得する(ステップS16)。また、サーバ装置200の制御部220は、メッセージテーブルから、取得した性格に関連付けて格納されている複数のメッセージパターンを取得する(ステップS17)。また、サーバ装置200の制御部220は、レコメンドテーブルから、取得した嗜好と類似度が高いキーワードに関連付けて格納されている複数のレコメンドパターン(ステップS18)を取得する。
サーバ装置200の制御部220が動作パターン、メッセージパターン、及びレコメンドパターンを取得すると、サーバ装置200の通信部210は、それらを携帯端末100−1に送信する(ステップS19)。
サーバ装置200が動作パターン、メッセージパターン、及びレコメンドパターンを送信すると、携帯端末100−1の通信部120が、それらを受信する(ステップS20)。通信部120がそれぞれのパターンを受信すると、動作決定部178は、受信したパターンの中からランダムに1つを選択し(ステップS21)、表示部130が表示するキャラクターCに選択したパターンを反映させる(ステップS22)。例えば、動作決定部178が動作パターンを選択した場合、表示部130は、キャラクターCの外見情報の中から選択した動作パターンに該当する画像を表示する。また、動作決定部178がメッセージパターン、またはレコメンドパターンを選択した場合、表示部130は、選択したメッセージパターンまたはレコメンドパターンが示す文字列を格納したふきだしをキャラクターCの上方に表示する。
これにより、携帯端末100−1は、キャラクターCに、性格及び嗜好に合致した動作、メッセージ及びレコメンデーションを行わせる。
このとき、待ち受けに設定しているキャラクターC以外のキャラクターCを同時に表示させ、サーバ装置200から両キャラクターCの親密度に基づいたメッセージパターンを受信し、会話をさせても良い。
次に、携帯端末100−1においてキャラクターCを待ち受けに設定している場合に、電子メール(電子文書)を受信したときの動作を説明する。
図8は、キャラクターシステムの動作を示す第2のシーケンス図である。
キャラクターCを待ち受けに設定している場合に、メール制御部177が通信部120を介して他の通信装置100−2から電子メールを受信すると(ステップS31)、文章解析部174は、受信した電子メールの文章を解析し、形態素を抽出する(ステップS32)。文章解析部174が電子メールの形態素を抽出すると、メール制御部177は、補助記憶部150がキャラクターテーブルの中に他の通信装置100−2のメールアドレスと同一のメールアドレスをキャラクターCに関連付けて記憶しているか否かを判定する(ステップS33)。
メール制御部177が、他の通信装置100−2のメールアドレスを記憶していると判定した場合(ステップS33:YES)、文章解析部174は、抽出した形態素から感情を抽出する(ステップS34)。感情の抽出は、例えば、予め補助記憶部150に形態素と感情とを対応付けて記憶させておき、抽出した形態素に対応する感情を全て取得することで行うことができる。補助記憶部150は、例えば、「遊園地」という形態素に「楽」の感情を対応付け、「むかつく」という形態素に「怒」の感情を対応付けて記憶する。
文章解析部174が感情を抽出すると、動作決定部178は、補助記憶部150のキャラクターテーブルが格納している他の通信装置100−2のキャラクターCの感情を、抽出した感情に変更する。また、抽出した感情に基づいて、自端末のキャラクターCと他の通信装置100−2のキャラクターCとの親密度を変更する(ステップS35)。親密度の変更は、例えば、文章解析部174が「喜」や「楽」等のポジティブな感情を抽出した場合に感情の度合いに基づいて親密度の値を上昇させ、「哀」や「怒」等のネガティブな感情を抽出した場合に感情の度合いに基づいて親密度の値を低下させることで行うことができる。
動作決定部178が他の通信装置100−2のキャラクターCの感情及び親密度を変更すると、表示部130は、キャラクターCの外見情報の中から抽出した感情に該当する画像を表示する(ステップS36)。上述したように画像は静止画像に限られず、動画像であっても良い。
表示部130がキャラクターCを表示すると、通信部120は、サーバ装置200に自端末のメールアドレス、他の通信装置100−2のメールアドレス、及び変更後の親密度とを送信する(ステップS37)。
携帯端末100−1が自端末のメールアドレス、他の通信装置100−2のメールアドレス、及び変更後の親密度を送信すると、サーバ装置200の通信部210は、それらを受信する(ステップS38)。サーバ装置200の通信部210が自端末のメールアドレス、他の通信装置100−2のメールアドレス、及び変更後の親密度を受信すると、記憶部230の親密度テーブルに自端末のメールアドレスと他の通信装置100−2のメールアドレスとに関連付けて格納されている親密度の値を受信した親密度に変更する(ステップS39)。
ステップS33でメール制御部177が、他の通信装置100−2のメールアドレスを記憶していないと判定した場合(ステップS33:NO)、またはステップS37で通信部120が親密度を送信した場合について説明する。この場合、メール制御部177は、ランダムに動作決定部178へ自動生成命令を出力する(ステップS40)。ここで、ランダムにとは、必ずしもメール制御部177が毎回自動生成命令を出力するとは限らないことを意味する。
動作決定部178が自動生成命令を出力した場合(ステップS40:YES)、動作決定部178は、通信部120を介してサーバ装置200に抽出した形態素とキャラクターCの性格とを送信する(ステップS41)。
携帯端末100−1が形態素と性格とを送信すると、サーバ装置200の通信部210は、それらを受信する(ステップS42)。携帯端末100−1が形態素と性格とを受信すると、サーバ装置200の制御部220は、サーバ装置200の記憶部230のメールテーブルから受信した形態素と性格とに関連付けて登録されているメールの文面パターンを取得する(ステップS43)。サーバ装置200の制御部220が文面パターンを取得すると、サーバ装置200の通信部210は、取得した文面パターンを携帯端末100−1に送信する(ステップS44)。
サーバ装置200が文面パターンを送信すると、携帯端末100−1の通信部120は、文面パターンを受信する(ステップS45)。通信部120がサーバ装置200から文面パターンを受信すると、動作決定部178は、受信した文面パターンに基づいて電子メールの文面を生成する。すなわち、動作決定部178は、キャラクターCの性格と受信した電子メールの文章を反映した返信メールを生成する(ステップS46)。動作決定部178は、返信メールを生成すると、表示部130が表示するキャラクターCの上方に、返信メールの送信可否の入力を受け付ける旨の文字列を格納したふきだしを表示させ(ステップS47)、入力部110は返信メールの送信可否の入力を受け付ける(ステップS48)。
ユーザが携帯端末100−1の決定ボタンを押下する等により、入力部110が返信メールを送信することを示す情報を受け付けた場合(ステップS48:YES)、メール制御部177は、動作決定部178が生成した返信メールを送信する(ステップS49)。
ユーザが携帯端末100−1のキャンセルボタンを押下する等により、入力部110が返信メールを送信しないことを示す情報を受け付けた場合(ステップS48:NO)、メール制御部177は、動作決定部178が生成した返信メールを削除する(ステップS50)。
これにより、携帯端末100−1は、キャラクターCに、性格及び受信した電子メールに合致した返信メールの生成を行わせる。上述した例では電子メールの送信元が通信端末100−2である場合を説明した。しかしながら、これに限られず、他の通信端末100−3〜100−Nが電子メールの送信元の場合も同様の動作をする。
次に、キャラクターCを携帯端末100−1のスケジューラに関連付けて登録する場合の動作を説明する。
まず、スケジューラ制御部176は、入力部110を介して、スケジュール及びそのスケジュールに関連付けるキャラクターCの入力を受け付ける。入力部110がスケジュール及びキャラクターCの入力を受け付けると、登録部172は、補助記憶部150にスケジュールとキャラクターCとを関連付けて登録する。登録部172がスケジュールとキャラクターCとを登録すると、動作決定部178は、スケジュールに関連付けて登録したキャラクターCの嗜好とスケジュールの内容とを通信部120を介してサーバ装置200に送信する。
サーバ装置200の通信部210が、携帯端末100−1から嗜好とスケジュールの内容とを受信すると、サーバ装置200の制御部220は、サーバ装置200の記憶部230のレコメンドテーブルから受信した嗜好及びスケジュールの内容と最も類似度が高いキーワードに関連付けて登録されているレコメンドパターンを取得する。サーバ装置200の制御部220がレコメンドパターンを取得すると、サーバ装置200の通信部210は、取得したレコメンドパターンを携帯端末100−1に送信する。
携帯端末100−1の通信部120が、サーバ装置200からレコメンドパターンを受信すると、動作決定部178は、表示部130に、受信したレコメンドパターンが示す文字列を格納したふきだしをキャラクターCの上方に表示させる。
これにより、携帯端末100−1は、キャラクターCに、嗜好及びスケジュールに合致したレコメンデーションを行わせる。例えば、携帯端末100−2のユーザの誕生日のスケジュールに携帯端末100−2から受信したキャラクターCを関連付けて登録することで、携帯端末100−2のユーザの好みに合致したプレゼントをレコメンドすることができる。
次に、携帯端末100−1がキャラクターCを介して他の携帯端末100−2に対してメッセージを送信する場合の動作を説明する。
まず、ユーザが携帯端末100−1のキャラクターCを介して携帯端末100−2に対してメッセージを送信することを示す情報を入力すると、入力部110は、携帯端末100−2に送信するメッセージを媒介するキャラクターCの選択の入力を受け付ける。メッセージを媒介するキャラクターCは、ユーザの代理であるため、ここで選択できるキャラクターCは自端末で生成したキャラクター限ると良い。
入力部110は、キャラクターCの選択の入力を受け付けると、キャラクターCの動作パターン、及び送信するメッセージの入力を受け付ける。メッセージの入力は必須ではない。
入力部110が動作パターン及びメッセージの入力を受け付けると、通信部120は、選択されたキャラクターCのキャラクターID、動作パターン、及びメッセージを携帯端末100−2に送信する。
携帯端末100−1がキャラクターID、動作パターン、及びメッセージを送信すると、携帯端末100−2の通信部120は、それらを受信する。
通信部120がキャラクターID、動作パターン、及びメッセージを受信すると、動作決定部178は、補助記憶部150から受信したキャラクターIDに対応付けられたキャラクターCを読み出す。次に、動作決定部178は、表示部130にキャラクターCの外見情報の中から受信した動作パターンの画像を表示させ、受信したメッセージを格納したふきだしをキャラクターCの上方に表示する。
このように、キャラクターシステムによれば、携帯端末100−1が文字列のメッセージに加え、キャラクターCの動作を携帯端末100−2に送信することで、携帯端末100−2のユーザに対してより感情のこもったメッセージを伝えることができる。
一方、携帯端末100−1は、キャラクターID、動作パターン、及びメッセージを送信すると、動作パターン及びメッセージに基づいて選択されたキャラクターCと携帯端末100−2のキャラクターCとの親密度を変更してサーバ装置200にキャラクターC同士の親密度を送信し、サーバ装置200の記憶部230が記憶する親密度の値を更新させる。
上述した例では電子メールの送信先が通信端末100−2である場合を説明した。しかしながら、これに限られず、他の通信端末100−3〜100−Nが電子メールの送信先の場合も同様の動作をする。
携帯端末100−1は、電話帳やデータフォルダ等の機能により、補助記憶部150のキャラクターテーブルに格納されている全てのキャラクターCを一覧することができる。
このとき、携帯端末100−1は、例えば親密度が高いキャラクターC同士を近接に配置し、親密度が低いキャラクターC同士を遠隔に配置することでキャラクターC同士の親密度を表示させることができる。
データフォルダ機能では、キャラクターCを友達や家族等のカテゴリーに振り分けて登録することができる。
このように、本実施形態によれば、キャラクターCを待ち受け画面に設定することで、携帯端末100−1は、キャラクターCの動作、メッセージ及びレコメンデーションを性格及び嗜好に基づいて決定する。これにより、携帯端末100−1は、キャラクターCによって異なる動作をさせることができる。
以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、本実施形態では、動作決定部178がキャラクターCの動作を決定する際、携帯端末100−1が、サーバ装置200から、キャラクターCの性格または嗜好に該当する動作パターン、メッセージパターン、レコメンドパターン、及びメールの文面パターンを複数受信し、その中からキャラクターCの動作をランダムに選択する場合を説明したが、これに限られない。例えば、サーバ装置200の制御部220がランダムに1つパターンを選択して携帯端末100−1に送信し、動作決定部178は受信したパターンの動作を表示部130に表示させても良い。
本実施形態では、サーバ装置200の記憶部230がメッセージテーブル、レコメンドテーブル、及びメールテーブルを記憶し、そのテーブルに格納されている定型文のパターンからキャラクターCのメッセージ、レコメンド、及びメールの文面を決定する場合を説明したが、これに限られない。例えば、携帯端末100−1またはサーバ装置200に人工無能やチャットボット(chatterbot)システムのようなプログラムを記憶させておき、そのプログラムによってメッセージ、レコメンド、及びメールの文面を決定しても良い。
本実施形態では、キャラクターシステムがサーバ装置200を備え、サーバ装置200の記憶部230が動作テーブル、メッセージテーブル、レコメンドテーブル、及びメールテーブルを記憶する場合を説明したが、これに限られない。例えば携帯端末100−1〜100−Nの補助記憶部150に動作テーブル、メッセージテーブル、レコメンドテーブル、及びメールテーブルを記憶させることで、サーバ200を備えない構成としても良い。
本実施形態では、キャラクターCの性格、趣味及び嗜好を初回の入力によって決定する場合を説明したが、これに限られない。例えば電子メールやインターネットの利用履歴に基づいて性格、趣味及び嗜好を変更しても良い。このとき、変更した性格、趣味及び嗜好をサーバ装置200に送信し、サーバ装置200の記憶部230が記憶する性格、趣味及び嗜好を更新させることで、他の携帯端末においても自端末のキャラクターCを最新の状態にすることができる。
本実施形態では、キャラクターCとして人物を入力する場合を説明したが、これに限られない。例えば動物をキャラクターCとして登録しても良い。
本実施形態では、待ち受け画面にキャラクターCを設定する際に新たにキャラクターCを生成する場合を説明したが、これに限られない。例えば携帯端末の購入時などにキャラクターCを生成しても良い。
本実施形態では、メール及びメッセージのやりとりにおいてキャラクターC同士の親密度を変更する場合を説明したが、これに限られない。例えばスケジュールに多く登録するキャラクターCの親密度を上げてもよい。
本実施形態では、キャラクターCを表示する装置が携帯端末である場合を説明したが、これに限られない。パーソナルコンピュータや、本キャラクターシステムの専用端末にキャラクターCを表示させても良い。
本実施形態では、携帯端末100−1〜100−NがキャラクターCを表示部130に表示させる場合を説明したが、これに限られない。例えば、ロボットを内蔵するぬいぐるみ等に本発明による動作対象制御装置を内蔵し、動作決定部178がロボットの動作を制御することで、ぬいぐるみ本体を動作させても良い。
本実施形態では、携帯端末100−1〜100−Nを特定する情報としてメールアドレスを用いる場合を説明したが、これに限られない。例えば、携帯端末100−1〜100−Nの固体識別番号や、携帯端末100−1〜100−Nに搭載されているSIM(Subscriber Identity Module)カードのIMSI(International Mobile Subscriber Identi
ty)番号を用いても良い。特に、IMSI番号を用いる場合においては、ユーザが携帯端末の変更したとき、変更前の携帯端末で用いていたSIMカードを変更後の携帯端末に継続して用いることで、携帯端末の変更後も変更前と同じキャラクターCを継続して用いることができる。
本実施形態では、携帯端末100−1〜100−Nが画像解析部173を備え、携帯端末100−1〜100−Nで似顔絵画像を生成する場合を説明したが、これに限られない。例えばサーバ装置200が画像解析部を備え、サーバ装置200で似顔絵画像を生成しても良い。この場合、携帯端末100−1〜100−Nが上述したステップS6−7で画像を取得すると、通信部120は、取得した画像を介してサーバ装置200へ送信し、サーバ装置200の画像解析部は携帯端末100−1〜100−Nから受信した画像から似顔絵画像を生成する。画像解析部が似顔絵画像を生成すると、サーバ装置200は、生成した似顔絵画像を携帯端末100−1〜100−Nに送信する。これにより、携帯端末100−1〜100−Nは、似顔絵画像を取得することができる。
本実施形態では、上述したステップS5によってキャラクターCを生成する処理を行う際に、携帯端末100−1がアンケートフォームを生成し、ユーザが入力した回答に基づいて携帯端末100−1がキャラクターCの性格を決定する場合を説明したが、これに限られない。
例えば、携帯端末100−1の通信部120がサーバ装置200へアクセスし、表示部130は、サーバ装置200が記憶するアンケートフォームを表示する。アンケートフォームを表示すると、入力部110は、アンケートフォームへの回答の入力を行う。入力部110が回答の入力を受け付けると、通信部120は、入力部110が入力を受け付けた回答をサーバ装置200に送信する。サーバ装置200は、携帯端末100−1から受信した回答に基づき、キャラクターCの性格を決定する。サーバ装置200は、キャラクターCの性格を決定すると、携帯端末100−1に決定した性格を示す情報を送信する。これによって携帯端末100−1は、キャラクターCの性格を取得することができる。
本実施形態では、上述したステップS6によって、属性情報の入力を他の携帯端末100−2〜100−Nで行い、携帯端末100−1でキャラクターCを生成する処理を行う際に、携帯端末100−1がアンケートフォームを生成し、他の携帯端末100−2〜100−Nからアンケートフォームの回答を受信し、受信した回答に基づいて携帯端末100−1がキャラクターCの性格を決定する場合を説明したが、これに限られない。
例えば、携帯端末100−1が他の携帯端末100−2に、サーバ装置200が記憶するアンケートフォームを示すURLを送信する。他の携帯端末100−2が、携帯端末100−1から受信したURLに基づいて通信部120を介してサーバ装置200へアクセスし、サーバ装置200が記憶するアンケートフォームへの回答の入力を行う。他の携帯端末100−2が回答の入力を終了すると、サーバ装置200は、他の携帯端末100−2の回答に基づき、キャラクターCの性格を決定する。サーバ装置200は、キャラクターCの性格を決定すると、携帯端末100−1に決定した性格を示す情報を送信する。これによって携帯端末100−1は、携帯端末100−2の回答に基づくキャラクターCの性格を取得することができる。
上述の携帯端末100−1〜100−Nは内部に、コンピュータシステムを有している。上述した各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータがそのプログラムを実行するようにしても良い。
上記プログラムは、前述した機能の一部を実現しても良い。
上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
この出願は、2009年2月18日に出願された日本出願特願2009−035422を基礎とする優先権を主張し、その開示の全てをここに取り込む。
本発明は、動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムに適用することがきる。本発明を適用した動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラムによれば、動作対象(キャラクター)によって動作パターンを変化させることができ、ユーザに対するエンターテインメント性を向上させることができる。
100−1〜100−N 携帯端末
110 入力部
120 通信部
130 表示部
140 撮影部
150 補助記憶部
160 主記憶部
170 CPU
171 生成部
172 登録部
173 画像解析部
174 文章解析部
175 待ち受け設定部
176 スケジューラ制御部
177 メール制御部
178 動作決定部
200 サーバ装置
210 通信部
220 制御部
230 記憶部

Claims (16)

  1. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置であって、
    性格または嗜好を示す属性情報の入力を受け付ける入力部と、
    前記動作対象制御装置とは異なる他の装置から前記属性情報を受信する属性情報受信部と、
    前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成されるユーザ用動作対象の動作を制御するための動作データとして、前記入力部が入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、前記属性情報受信部が受信した前記属性情報に基づいて他ユーザ用動作データを生成する生成部と、
    前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させ、前記生成部が生成した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる制御部と
    を備える動作対象制御装置。
  2. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置であって、
    性格または嗜好を示す属性情報の入力を受け付ける入力部と、
    前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成されるユーザ用動作対象の動作を制御するための動作データとして、前記入力部が入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成する生成部と、
    前記動作対象制御装置とは異なる他の装置から送信された、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、他ユーザ用動作データを受信する動作データ受信部と、
    前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させ、前記動作データ受信部が受信した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる制御部と、
    を備える動作対象制御装置。
  3. 前記他の装置から前記他ユーザ用動作対象の動作を指定する動作指定情報を受信する動作指定情報受信部をさらに備え、
    前記制御部は、前記動作指定情報受信部が受信した動作指定情報に基づいて前記他ユーザ用動作対象を動作させる、
    請求項2に記載の動作対象制御装置。
  4. 前記他ユーザ用動作データは、前記他のユーザの感情を表す感情情報を含み、
    前記制御部は、前記動作対象の動作を前記感情情報に対応させて変化させ、
    前記他の装置から電子文書を受信する電子文書受信部と、
    前記電子文書受信部が受信した電子文書の内容を解析して、前記他のユーザの感情を推定する電子文書解析部と、
    前記他ユーザ用動作データに含まれる感情情報を前記電子文書解析部が推定した感情に決定する感情決定部と、
    をさらに備える請求項1から請求項3のいずれか1項に記載の動作対象制御装置。
  5. 前記動作データに基づいて文章を作成する文章生成部と、
    前記文章生成部が生成した文章を電子文書として送信する電子文書送信部と、
    をさらに備える請求項1から請求項4のいずれか1項に記載の動作対象制御装置。
  6. 前記動作対象の属性情報の入力は、前記動作対象制御装置の初回の起動時に行われる請求項1から請求項5のいずれか1項に記載の動作対象制御装置。
  7. 待ち受け画面に前記動作対象を表示する待ち受け表示部をさらに備える請求項1から請求項6のいずれか1項に記載の動作対象制御装置。
  8. スケジュールと前記動作データとを関連付けて登録するスケジュール登録部をさらに備え、
    前記制御部は、前記スケジュールの内容と前記動作データとに基づいて前記動作対象の動作を変化させる
    請求項1から請求項7のいずれか1項に記載の動作対象制御装置。
  9. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置と前記動作対象の動作を制御するための動作データを保持するサーバ装置とを備える動作対象制御システムであって、
    前記動作対象制御装置は、
    性格または嗜好を示す属性情報の入力を受け付ける入力部と、
    前記動作対象制御装置とは異なる他の装置から前記属性情報を受信する属性情報受信部と、
    前記入力部が入力を受け付けた前記属性情報に基づいて生成される前記動作対象の動作を制御するための動作データを生成し、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、前記属性情報受信部が受信した前記属性情報に基づいて他ユーザ用動作データを生成する生成部と、
    前記生成部が生成した動作データに固有の動作データ識別情報を生成する識別情報生成部と、
    前記識別情報生成部が生成した動作データ識別情報を記憶部に登録する登録部と、
    前記サーバ装置に前記生成部が生成した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する装置側送信部と、
    前記記憶部が記憶する動作データ識別情報が示す動作データを前記サーバ装置から受信する装置側受信部と、
    前記装置側受信部が受信した動作データに基づいて動作対象の動作を変化させ、前記生成部が生成した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる制御部と、
    を備え、
    前記サーバ装置は、
    前記動作対象制御装置から前記動作データと前記動作データ識別情報とを受信するサーバ側受信部と、
    前記受信した動作データ識別情報に前記受信した動作データを関連付けてサーバ側記憶部に登録するサーバ側登録部と、
    前記動作データ識別情報に対応する動作データをサーバ側記憶部から取得し、前記動作対象制御装置に送信するサーバ側送信部と、
    を備える動作対象制御システム。
  10. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置と前記動作対象の動作を制御するための動作データを保持するサーバ装置とを備える動作対象制御システムであって、
    前記動作対象制御装置は、
    性格または嗜好を示す属性情報の入力を受け付ける入力部と、
    前記入力部が入力を受け付けた前記属性情報に基づいて生成される前記動作対象の動作を制御するための動作データを生成する生成部と、
    前記動作対象制御装置とは異なる他の装置から送信された、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、他ユーザ用動作データを受信する動作データ受信部と、
    前記生成部が生成した動作データに固有の動作データ識別情報を生成する識別情報生成部と、
    前記識別情報生成部が生成した動作データ識別情報を記憶部に登録する登録部と、
    前記サーバ装置に前記生成部が生成した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する装置側送信部と、
    前記記憶部が記憶する動作データ識別情報が示す動作データを前記サーバ装置から受信する装置側受信部と、
    前記装置側受信部が受信した動作データに基づいて動作対象の動作を変化させ、前記動作データ受信部が受信した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる制御部と、
    を備え、
    前記サーバ装置は、
    前記動作対象制御装置から前記動作データと前記動作データ識別情報とを受信するサーバ側受信部と、
    前記受信した動作データ識別情報に前記受信した動作データを関連付けてサーバ側記憶部に登録するサーバ側登録部と、
    前記動作データ識別情報に対応する動作データをサーバ側記憶部から取得し、前記動作対象制御装置に送信するサーバ側送信部と、
    を備える動作対象制御システム。
  11. 前記動作対象制御装置は、前記動作データを変更する変更部をさらに備え、
    前記動作対象制御装置の装置側送信部は、前記サーバ装置に前記変更部が変更した動作データと前記識別情報生成部が生成した動作データ識別情報とを送信する、
    請求項9または請求項10に記載の動作対象制御システム。
  12. 前記サーバ装置は、前記動作データと動作対象の動作パターンとを関連付けて記憶する動作パターン記憶部をさらに備え、
    前記サーバ装置のサーバ側送信部は、前記動作データに加えて前記動作データに対応する動作パターンを前記動作対象制御装置に送信し、
    前記動作対象制御装置の装置側受信部は、前記動作データに加えて前記動作パターンを受信し、
    前記動作対象制御装置の制御部は、前記装置側受信部が受信した前記動作パターンに基づいて前記動作対象の動作を決定する、
    請求項9から請求項11の何れか1項に記載の動作対象制御システム。
  13. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を用いた動作対象制御方法であって、
    前記動作対象制御装置が、性格または嗜好を示す属性情報の入力を受け付け、
    前記動作対象制御装置が、前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、前記入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、
    前記動作対象制御装置が、前記生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させ、
    前記動作対象制御装置が、前記動作対象制御装置とは異なる他の装置から前記属性情報を受信し、
    前記動作対象制御装置が、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、前記受信した前記属性情報に基づいて他ユーザ用動作データを生成し、
    前記動作対象制御装置が、前記生成した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる
    ことを含む動作対象制御方法。
  14. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を用いた動作対象制御方法であって、
    前記動作対象制御装置が、性格または嗜好を示す属性情報の入力を受け付け、
    前記動作対象制御装置が、前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象であるユーザ用動作対象の動作を制御するための動作データとして、前記入力を受け付けた前記属性情報に基づいてユーザ用動作データを生成し、
    前記動作対象制御装置が、前記生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させ、
    前記動作対象制御装置が、前記動作対象制御装置とは異なる他の装置から送信された、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、他ユーザ用動作データを受信し、
    前記動作対象制御装置が、前記受信した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる
    ことを含む動作対象制御方法。
  15. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を、
    性格または嗜好を示す属性情報の入力を受け付ける入力部、
    前記動作対象制御装置とは異なる他の装置から前記属性情報を受信する属性情報受信部、
    前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象を示すユーザ用動作対象の動作を制御するための動作データであるユーザ用動作データを前記入力部が入力を受け付けた前記属性情報に基づいて生成し、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、前記属性情報受信部が受信した前記属性情報に基づいて他ユーザ用動作データを生成する生成部、
    前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させ、前記生成部が生成した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる制御部、
    として動作させるためのプログラム。
  16. 動作対象の動作を示す動作データに基づいて前記動作対象の動作を制御する動作対象制御装置を、
    性格または嗜好を示す属性情報の入力を受け付ける入力部、
    前記動作対象制御装置のユーザが入力した前記属性情報に基づいて生成される動作対象を示すユーザ用動作対象の動作を制御するための動作データであるユーザ用動作データを前記入力部が入力を受け付けた前記属性情報に基づいて生成する生成部、
    前記動作対象制御装置とは異なる他の装置から送信された、前記他の装置のユーザである他のユーザが入力した属性情報に基づいて生成される他ユーザ用動作対象の動作を制御するための動作データとして、他ユーザ用動作データを受信する動作データ受信部、
    前記生成部が生成したユーザ用動作データに基づいて、前記ユーザ用動作対象の動作を変化させ、前記動作データ受信部が受信した他ユーザ用動作データに基づいて、前記他ユーザ用動作対象の動作を変化させる制御部、
    として動作させるためのプログラム。
JP2014105658A 2009-02-18 2014-05-21 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム Expired - Fee Related JP5781666B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014105658A JP5781666B2 (ja) 2009-02-18 2014-05-21 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009035422 2009-02-18
JP2009035422 2009-02-18
JP2014105658A JP5781666B2 (ja) 2009-02-18 2014-05-21 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011500488A Division JP5582135B2 (ja) 2009-02-18 2010-02-08 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014186744A true JP2014186744A (ja) 2014-10-02
JP5781666B2 JP5781666B2 (ja) 2015-09-24

Family

ID=42633678

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011500488A Expired - Fee Related JP5582135B2 (ja) 2009-02-18 2010-02-08 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
JP2014105658A Expired - Fee Related JP5781666B2 (ja) 2009-02-18 2014-05-21 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011500488A Expired - Fee Related JP5582135B2 (ja) 2009-02-18 2010-02-08 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム

Country Status (6)

Country Link
US (1) US20110298810A1 (ja)
EP (1) EP2400462A1 (ja)
JP (2) JP5582135B2 (ja)
KR (2) KR20140032506A (ja)
CN (1) CN102317980A (ja)
WO (1) WO2010095388A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162027A (ja) * 2016-03-07 2017-09-14 セイコーソリューションズ株式会社 注文入力装置および注文入力方法
WO2018061862A1 (ja) * 2016-09-29 2018-04-05 株式会社東芝 コミュニケーション装置、コミュニケーション方法、および記憶媒体
JP2019091387A (ja) * 2017-11-14 2019-06-13 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020181254A (ja) * 2019-04-23 2020-11-05 大日本印刷株式会社 携帯端末、icカード、表示システム、およびプログラム
JP2021086618A (ja) * 2019-11-28 2021-06-03 有限会社クロマニヨン 仮想人物対話システム、映像生成方法、映像生成プログラム
JP7496128B2 (ja) 2020-10-26 2024-06-06 株式会社シルバコンパス 仮想人物対話システム、映像生成方法、映像生成プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5937992B2 (ja) 2012-06-25 2016-06-22 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
WO2014002551A1 (ja) * 2012-06-25 2014-01-03 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法および記録媒体
JP5756487B2 (ja) * 2012-06-25 2015-07-29 株式会社コナミデジタルエンタテインメント メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
JP6145614B2 (ja) * 2012-09-27 2017-06-14 株式会社コナミデジタルエンタテインメント 端末装置、メッセージ表示システム、端末装置の制御方法およびプログラム
KR102022592B1 (ko) * 2013-03-04 2019-09-19 삼성전자주식회사 전자 장치에서 전송 정보를 관리하기 위한 방법 및 장치
CN104158963A (zh) * 2014-08-05 2014-11-19 广东欧珀移动通信有限公司 一种智能手机的智能表达表情系统
CN111773668B (zh) * 2020-07-03 2024-05-07 珠海金山数字网络科技有限公司 一种动画播放方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328439A (ja) * 1998-05-08 1999-11-30 Hitachi Ltd アニメーションの生成方法およびコンピュータグラフイックス
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
JP2006065684A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
JP2007018433A (ja) * 2005-07-11 2007-01-25 Okayama Prefecture アバター表示機能付き通話端末
JP2007164408A (ja) * 2005-12-13 2007-06-28 First:Kk 顔画像認識と似顔絵作成管理システム
JP2008107895A (ja) * 2006-10-23 2008-05-08 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP2008293401A (ja) * 2007-05-28 2008-12-04 Nomura Research Institute Ltd 仮想空間提供装置、仮想空間管理方法及びコンピュータプログラム

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285380B1 (en) * 1994-08-02 2001-09-04 New York University Method and system for scripting interactive animated actors
CA2248909A1 (en) * 1996-03-15 1997-09-25 Zapa Digital Arts Ltd. System for producing an animation sequence according to character behaviour characteristics
US5982390A (en) * 1996-03-25 1999-11-09 Stan Stoneking Controlling personality manifestations by objects in a computer-assisted animation environment
US5923337A (en) * 1996-04-23 1999-07-13 Image Link Co., Ltd. Systems and methods for communicating through computer animated images
US6064383A (en) * 1996-10-04 2000-05-16 Microsoft Corporation Method and system for selecting an emotional appearance and prosody for a graphical character
US6175857B1 (en) * 1997-04-30 2001-01-16 Sony Corporation Method and apparatus for processing attached e-mail data and storage medium for processing program for attached data
US6112177A (en) * 1997-11-07 2000-08-29 At&T Corp. Coarticulation method for audio-visual text-to-speech synthesis
JP4266411B2 (ja) * 1998-10-19 2009-05-20 キヤノン株式会社 情報処理装置及びその制御方法、情報伝送システム、記憶媒体
US6243669B1 (en) * 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US7061493B1 (en) * 1999-04-07 2006-06-13 Fuji Xerox Co., Ltd. System for designing and rendering personalities for autonomous synthetic characters
US6714201B1 (en) * 1999-04-14 2004-03-30 3D Open Motion, Llc Apparatuses, methods, computer programming, and propagated signals for modeling motion in computer applications
US6947044B1 (en) * 1999-05-21 2005-09-20 Kulas Charles J Creation and playback of computer-generated productions using script-controlled rendering engines
US6559845B1 (en) * 1999-06-11 2003-05-06 Pulse Entertainment Three dimensional animation system and method
US6522333B1 (en) * 1999-10-08 2003-02-18 Electronic Arts Inc. Remote communication through visual representations
US6766299B1 (en) * 1999-12-20 2004-07-20 Thrillionaire Productions, Inc. Speech-controlled animation system
WO2001084275A2 (en) * 2000-05-01 2001-11-08 Lifef/X Networks, Inc. Virtual representatives for use as communications tools
US7035803B1 (en) * 2000-11-03 2006-04-25 At&T Corp. Method for sending multi-media messages using customizable background images
US6976082B1 (en) * 2000-11-03 2005-12-13 At&T Corp. System and method for receiving multi-media messages
US6990452B1 (en) * 2000-11-03 2006-01-24 At&T Corp. Method for sending multi-media messages using emoticons
JP2003223394A (ja) * 2001-11-20 2003-08-08 Matsushita Electric Ind Co Ltd 交渉機能を有する装置と合意形成システム
EP1345179A3 (en) * 2002-03-13 2004-01-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for computer graphics animation
JP4150198B2 (ja) * 2002-03-15 2008-09-17 ソニー株式会社 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
US20040102973A1 (en) * 2002-11-21 2004-05-27 Lott Christopher B. Process, apparatus, and system for phonetic dictation and instruction
US20040179037A1 (en) * 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
CN101268494B (zh) * 2005-09-21 2012-01-04 松下电器产业株式会社 视频制作装置以及视频制作方法
US8726195B2 (en) * 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
JP4862573B2 (ja) * 2006-09-12 2012-01-25 フリュー株式会社 メッセージ作成支援装置、その制御方法および制御プログラム、並びに該プログラムを記録した記録媒体
CN101606190B (zh) * 2007-02-19 2012-01-18 松下电器产业株式会社 用力声音转换装置、声音转换装置、声音合成装置、声音转换方法、声音合成方法
US8812296B2 (en) * 2007-06-27 2014-08-19 Abbyy Infopoisk Llc Method and system for natural language dictionary generation
JP4151734B1 (ja) 2007-08-01 2008-09-17 良三 太田 自動廻り階段
US20090113314A1 (en) * 2007-10-30 2009-04-30 Dawson Christopher J Location and placement of avatars in virtual worlds

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328439A (ja) * 1998-05-08 1999-11-30 Hitachi Ltd アニメーションの生成方法およびコンピュータグラフイックス
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
JP2006065684A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
JP2007018433A (ja) * 2005-07-11 2007-01-25 Okayama Prefecture アバター表示機能付き通話端末
JP2007164408A (ja) * 2005-12-13 2007-06-28 First:Kk 顔画像認識と似顔絵作成管理システム
JP2008107895A (ja) * 2006-10-23 2008-05-08 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP2008293401A (ja) * 2007-05-28 2008-12-04 Nomura Research Institute Ltd 仮想空間提供装置、仮想空間管理方法及びコンピュータプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162027A (ja) * 2016-03-07 2017-09-14 セイコーソリューションズ株式会社 注文入力装置および注文入力方法
WO2018061862A1 (ja) * 2016-09-29 2018-04-05 株式会社東芝 コミュニケーション装置、コミュニケーション方法、および記憶媒体
JP2018055437A (ja) * 2016-09-29 2018-04-05 株式会社東芝 コミュニケーション装置、コミュニケーション方法、およびコミュニケーションプログラム
CN109791525A (zh) * 2016-09-29 2019-05-21 株式会社东芝 交流装置、交流方法及存储介质
US11144713B2 (en) 2016-09-29 2021-10-12 Kabushiki Kaisha Toshiba Communication device generating a response message simulating a response by a target user
CN109791525B (zh) * 2016-09-29 2023-03-10 株式会社东芝 交流装置、交流方法及存储介质
JP2019091387A (ja) * 2017-11-14 2019-06-13 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7010000B2 (ja) 2017-11-14 2022-01-26 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2020181254A (ja) * 2019-04-23 2020-11-05 大日本印刷株式会社 携帯端末、icカード、表示システム、およびプログラム
JP7251290B2 (ja) 2019-04-23 2023-04-04 大日本印刷株式会社 携帯端末、表示システム、およびプログラム
JP2021086618A (ja) * 2019-11-28 2021-06-03 有限会社クロマニヨン 仮想人物対話システム、映像生成方法、映像生成プログラム
JP7496128B2 (ja) 2020-10-26 2024-06-06 株式会社シルバコンパス 仮想人物対話システム、映像生成方法、映像生成プログラム

Also Published As

Publication number Publication date
EP2400462A1 (en) 2011-12-28
JP5582135B2 (ja) 2014-09-03
JPWO2010095388A1 (ja) 2012-08-23
WO2010095388A1 (ja) 2010-08-26
CN102317980A (zh) 2012-01-11
KR20140032506A (ko) 2014-03-14
US20110298810A1 (en) 2011-12-08
JP5781666B2 (ja) 2015-09-24
KR20110114650A (ko) 2011-10-19

Similar Documents

Publication Publication Date Title
JP5781666B2 (ja) 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
CN107294838B (zh) 社交应用的动画生成方法、装置、系统以及终端
KR102530264B1 (ko) 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치
RU2488232C2 (ru) Сеть связи и устройства для преобразования текста в речь и текста в анимацию лица
KR20190049886A (ko) 언어 모델을 사용한, 메시지들에서 수신되는 이미지들에 대한 자동적인 제안 응답들
CN111541950B (zh) 表情的生成方法、装置、电子设备及存储介质
JP4869340B2 (ja) キャラクタ服飾決定装置、キャラクタ服飾決定方法、およびキャラクタ服飾決定プログラム
KR20050047537A (ko) 아바타를 사용하는 개선된 통신
JP2016528571A (ja) パーソナル感情アイコンを提供するための方法及びシステム
CN113014471B (zh) 会话处理方法,装置、终端和存储介质
CN115803723A (zh) 在消息收发系统中更新化身状态
CN113112614B (zh) 基于增强现实的互动方法及装置
CN102902704B (zh) 信息处理设备、短语输出方法
JP7329293B1 (ja) 情報処理装置、方法、プログラム、およびシステム
CN115516445A (zh) 对于检测到的对象对增强现实内容的基于语音的选择
JP3135098U (ja) 電子メール画像提供システム
JP2009223419A (ja) ネットワークチャットサービスにおけるアバターの作成編集方法、チャットサービスシステム、および画像データの作成編集方法
JP7460839B1 (ja) プログラム及びシステム
JP6482037B2 (ja) 制御装置、制御方法及び制御プログラム
CN114945949A (zh) 化身显示装置、化身显示系统、化身显示方法以及化身显示程序
JP5224538B2 (ja) メールコミュニケーションシステム
JP2018151966A (ja) 情報処理装置及びプログラム
JP2009163465A (ja) 似顔絵イラストデータ提供システム
KR20230103665A (ko) 텍스트 기반 아바타 생성 기능을 제공하는 메타버스 공간 장치, 방법, 및 프로그램
CN111461005B (zh) 一种手势识别方法、装置、计算机设备以及存储介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150715

R150 Certificate of patent or registration of utility model

Ref document number: 5781666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees