JP6102939B2 - 情報処理装置、システム、情報処理方法およびプログラム - Google Patents

情報処理装置、システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP6102939B2
JP6102939B2 JP2014548484A JP2014548484A JP6102939B2 JP 6102939 B2 JP6102939 B2 JP 6102939B2 JP 2014548484 A JP2014548484 A JP 2014548484A JP 2014548484 A JP2014548484 A JP 2014548484A JP 6102939 B2 JP6102939 B2 JP 6102939B2
Authority
JP
Japan
Prior art keywords
user
attribute
unit
information
attribute score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014548484A
Other languages
English (en)
Other versions
JPWO2014080678A1 (ja
Inventor
めぐみ 菊池
めぐみ 菊池
利彦 河合
利彦 河合
淳 栗林
淳 栗林
丹下 明
明 丹下
重文 田村
重文 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014080678A1 publication Critical patent/JPWO2014080678A1/ja
Application granted granted Critical
Publication of JP6102939B2 publication Critical patent/JP6102939B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/556Player lists, e.g. online players, buddy list, black list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/61Score computation

Description

本開示は、情報処理装置、システム、情報処理方法およびプログラムに関する。
例えばオンラインゲームやコミュニティサイトなどの仮想空間でユーザ同士が会話する場合、発言を示すテキストとともにユーザを示すアバター(avatar)が表示されることが多くある。アバターは、例えば仮想空間におけるユーザの存在に視覚的なイメージを与え、実空間での存在に近づけることによって、仮想空間におけるユーザ同士のコミュニケーションを円滑にする。
このようなアバターの表示に、ユーザの実際の状態を関連付ける技術も提案されている。例えば特許文献1には、ユーザの生体情報や表情の変化に対応した感情が表現されるように、アバターの表情や動きを変化させる技術が記載されている。また、特許文献2には、他のユーザとの親密度や他のユーザの活動状態を、それぞれのユーザを表示するオブジェクトの表示位置によって表現する技術が記載されている。
特開2002−190034号公報 特開2010−134802号公報
しかしながら、上記のような技術では、アバターの表情や動きなどはユーザの状態に応じて変化するものの、アバターそのものはユーザによって任意に設定されるものであった。それゆえ、アバターがユーザの実際の人となりから乖離するような状況も起きうる。例えば、ユーザである中年男性が彼のアバターとして少女を設定した場合、表情の変化などによってユーザの状態を表現することはできても、アバター自体は依然としてユーザの実際の人となりからは乖離している。
仮想空間でのコミュニケーションにおいては、ユーザが現実のありようから自由になれる場面もあってよい。しかしながら、最近は、SNS(Social Networking Service)またはソーシャルメディアの普及などによって、仮想空間での存在と現実の存在とがリンクされる場合も多くなっている。このような場合には、アバターがユーザの実際の人となりを表現している方が、より自然で円滑なコミュニケーションが期待できる。
そこで、本開示では、ユーザの人となりを反映したオブジェクトによってユーザを表象することを可能にする、新規かつ改良された情報処理装置、システム、情報処理方法およびプログラムを提案する。
本開示によれば、所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する属性スコア算出部と、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成するオブジェクト生成部とを含むサーバが提供される。
また、本開示によれば、ユーザの行動をセンシングするセンシング部と、上記センシングの結果をサーバに送信し、該センシングの結果を含む情報に基づいて生成される上記ユーザの行動履歴情報を所定の期間蓄積したものに基づいて属性群のうちの1または複数の属性について算出される属性スコアに基づいて生成される上記ユーザを表象するオブジェクトの情報を上記サーバから受信する通信部と、上記オブジェクトを表示部に表示させる表示制御部とを含むクライアントが提供される。
また、本開示によれば、クライアントおよびサーバを含み、上記クライアントは、ユーザの行動をセンシングするセンシング部と、上記センシングの結果をサーバに送信し、上記ユーザを表象するオブジェクトの情報を上記サーバから受信する通信部と、上記オブジェクトを表示部に表示させる表示制御部とを有し、上記サーバは、所定の期間に蓄積された、上記センシングの結果を含む情報に基づいて生成される上記ユーザの行動履歴情報を取得する行動履歴取得部と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する属性スコア算出部と、上記属性スコアに基づいて上記オブジェクトを生成するオブジェクト生成部とを有するシステムが提供される。
また、本開示によれば、所定の期間に蓄積されたユーザの行動履歴情報を取得することと、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出することと、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成することとを含む情報処理方法が提供される。
また、本開示によれば、所定の期間に蓄積されたユーザの行動履歴情報を取得する機能と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する機能と、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成する機能とをコンピュータに実現させるためのプログラムが提供される。
所定の期間に蓄積されたユーザの行動履歴情報には、その期間におけるユーザの生活が反映されているといえる。この行動履歴情報から、属性群のうちの1または複数の属性についての属性スコアを算出することによって、ユーザの人となりを表す指標を得ることができる。その指標である属性スコアに基づいてオブジェクトを生成すれば、生成されるオブジェクトにユーザの人となりが反映される。
以上説明したように本開示によれば、ユーザの人となりを反映したオブジェクトによってユーザを表象することができる。
本開示の第1の実施形態に係るシステムの概略的な機能構成を示すブロック図である 本開示の第1の実施形態に係るシステムによって実現されるオブジェクトの表示の例を示す図である。 図2に示したような表示を実現するための処理の例を示すフローチャートである。 本開示の第1の実施形態で用いられるデータの例を示す図である。 本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第1の例を示す図である。 本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第2の例を示す図である。 本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第3の例を示す図である。 図7の例の変形例を示す図である。 本開示の第1の実施形態におけるオブジェクトの段階的設定の例を示す図である。 本開示の第1の実施形態の機能構成の第1の変形例を示すブロック図である。 本開示の第1の実施形態の機能構成の第2の変形例を示すブロック図である。 本開示の第2の実施形態における第1の表示例を示す図である。 本開示の第2の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態で用いられるデータの例を示す図である。 本開示の第3の実施形態における処理の例を示すフローチャートである。 本開示の第3の実施形態における第1の表示例を示す図である。 本開示の第3の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態の変形例に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態の変形例を示すフローチャートである。 本開示の第4の実施形態における第1の表示例を示す図である。 本開示の第4の実施形態においてユーザ間の友達登録時にオブジェクトの表示を共有する場合の処理の例を示す図である。 本開示の第4の実施形態における第2の表示例を示す図である。 図23に示したような表示を実現するための処理の例を示すフローチャートである。 情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.機能構成
1−2.処理の例
1−3.データの例
1−4.オブジェクト生成条件の例
1−5.オブジェクトの段階的設定の例
1−6.機能構成に関する変形例
2.第2の実施形態
3.第3の実施形態
3−1.機能構成
3−2.処理の例
3−3.表示例
3−4.変形例
4.第4の実施形態
5.ハードウェア構成
6.補足
(1.第1の実施形態)
まず、図1〜図11を参照して、本開示の第1の実施形態について説明する。
(1−1.機能構成)
図1は、本開示の第1の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図1を参照すると、システム10は、クライアント100と、サーバ150とを含む。クライアント100とサーバ150とは、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。以下、クライアント100およびサーバ150のそれぞれの構成について、さらに説明する。
(クライアント)
クライアント100は、センシング部102、入力部104、表示制御部106、表示部108、および通信部110を含む。クライアント100は、ユーザによって使用される各種の情報処理装置、例えば携帯電話(スマートフォン)、各種のPC(Personal Computer)、メディアプレーヤ、ゲーム機などによって実現される。情報処理装置は、例えば後述するハードウェア構成によって実現される。
ここで、クライアント100は、単一の装置によって実現されてもよいし、複数の装置によって実現されてもよい。例えば、センシング部102は、ユーザの行動をセンシングするため、携帯電話(スマートフォン)などのユーザによって携帯される装置によって実現されることが望ましい。その一方で、入力部104、表示制御部106、および表示部108は、必ずしもユーザによって携帯されなくてもよいため、センシング部102と同一の装置によって実現されてもよいし、センシング部102とは異なる装置、例えばデスクトップ型のPCなどの据え置き型の装置によって実現されてもよい。以下、かかるクライアント100の各機能構成について説明する。
センシング部102は、クライアント100を使用するユーザの行動をセンシングする。センシング部102は、例えば加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサ、および/またはGPS(Global Positioning System)受信機などによって実現され、ユーザの位置や活動状態などをセンシングする。センシング部102は、センシングの結果を通信部110を介してサーバ150に送信する。
入力部104は、サーバ150におけるオブジェクト生成時のフィルタリング条件に関するユーザの入力を受け付ける。後述するように、サーバ150は、ユーザを表象するオブジェクトを生成するにあたり、取得する行動履歴の範囲や、強調して用いる属性スコアなどを選択する機能を有する場合がある。この場合、ユーザは、例えば入力部104を介して選択に関する情報を入力することによって、オブジェクトの生成にある程度の要望を反映させることができる。入力部104は、例えばタッチパネルやキーボード、マウスなどの入力装置によって実現され、受け付けた入力を通信部110を介してサーバ150に送信する。
表示制御部106は、サーバ150で生成されたオブジェクトの情報を通信部110を介して受信し、そのオブジェクトを表示部108に表示させる。オブジェクトは、例えばアバターのようにユーザを表象するオブジェクトである。ここで受信された情報を用いて表示されるオブジェクトは、センシング部102によって行動がセンシングされるユーザについて生成されたオブジェクトであってもよいし、他のユーザについて生成されたオブジェクトであってもよいし、その両方であってもよい。表示制御部106は、オブジェクトを単体で表示してもよいし、他のアプリケーションなどの画面の中で表示させてもよい。また、表示制御部106は、オブジェクトを対応するユーザの画像(例えばAR(Augmented Reality)アプリケーションなどで提供される撮像画像、またはシースルー型の表示部108で透過して見えている実空間の像など)に重畳させて表示させてもよい。表示制御部106は、例えばCPU(Central Processing unit)がメモリに格納されたプログラムに従って動作することによって実現される。
表示部108は、表示制御部106の制御に従って、各種の情報をユーザに向けて表示する。表示制御部106について説明したように、表示部108に表示される情報には、ユーザを表象するオブジェクトが含まれる。表示部108は、例えば各種のディスプレイによって実現される。ディスプレイは、例えば平面型であってもよく、ヘッドマウント型であってもよい。また、ディスプレイは、例えば非透過型であってもよく、透過型であってもよい。
通信部110は、クライアント100とサーバ150との間でやりとりされる各種の情報を送受信する。通信部110は、例えばネットワークに接続される各種の通信インターフェースによって実現される。
(サーバ)
サーバ150は、行動認識部152、行動履歴DB154、行動履歴取得部156、属性スコア算出部158、属性DB160、オブジェクト生成部162、オブジェクトDB164、ユーザDB166、および通信部168を含む。サーバ150は、さらに、期間選択部170および属性選択部172の一方または両方を含んでもよい。サーバ150は、単一の情報処理装置、または有線もしくは無線の各種のネットワークによって互いに接続された複数の情報処理装置の協働によって実現される。情報処理装置は、例えば後述するハードウェア構成によって実現される。以下、各機能構成について説明する。なお、DBおよび通信部を除く各部は、例えばCPUがメモリに格納されたプログラムに従って動作することによって実現される。DBは、例えばストレージ装置によって実現される。
行動認識部152は、クライアント100のセンシング部102から通信部168を介して受信したセンシング結果に基づいて、クライアント100のユーザの行動を認識し、認識の結果を行動履歴DB154に格納する。行動認識部152は、さらに他のサーバなどからその他の情報を取得し、この情報にさらに基づいてユーザの行動を認識してもよい。その他の情報は、例えば店舗における購買ログや、特定の場所に設置された端末を操作した履歴などでありうる。行動認識部152は、さらに、ユーザの住所や勤務地などの登録情報を行動の認識に利用してもよい。なお、行動認識の技術の詳細に関しては、例えば特開2012−8771号公報など多くの文献で紹介されており、行動認識部152ではそれらの技術を適宜利用してユーザの行動を認識する。
行動履歴DB154には、行動認識部152による認識の結果が、ユーザの行動履歴として蓄積される。行動履歴DB154に蓄積される情報は、例えばユーザの位置履歴や、購入履歴、操作履歴などであってもよいし、行動認識部152による認識結果を反映した行動パターン履歴や行動種別履歴などであってもよい。このような情報の限定的ではない例として、例えば以下のようなものが蓄積されうる。端末装置が充電中であるか、操作中であるか。ユーザが止まっているか、座っているか、歩いているか、走っているか、ジャンプしているか。ユーザが移動中であるかと、その位置。ユーザが電車に乗っているか、自動車に乗っているか、エレベータに乗っているか。ユーザが仕事中であるか、買い物中であるか。ユーザが入力したテキストログの口調から推定されるユーザの行動。行動履歴DB154に蓄積された上記のような情報を参照すれば、ユーザが、過去のある時点においてどのような行動をしていたかを特定することができる。
行動履歴取得部156は、所定の期間に蓄積されたユーザの行動履歴情報を、行動履歴DB154から取得する。行動履歴取得部156は、所定の期間として、直近の特定の期間(例えば過去1年間など)を指定してもよいし、行動履歴情報が存在するすべての期間(つまり、ユーザが行動履歴を取得するサービスを利用し始めてから現在まで)を指定してもよい。また、付加的に期間選択部170が設けられる場合、期間選択部170による期間の選択があれば、行動履歴取得部156は選択された期間について行動履歴情報を取得する。選択がなければ、行動履歴取得部156は、期間選択部170が設けられない場合と同様に行動履歴情報を取得する。
属性スコア算出部158は、行動履歴取得部156が取得したユーザの行動履歴情報に基づいて、属性群のうちの1または複数の属性について属性スコアを算出する。属性は、ユーザの人となりを示す属性であり、例えば仕事や、買い物、食事などに関するものでありうる。属性は、属性群として予め属性DB160に登録されている。属性スコア算出部158は、属性群のうちのすべての属性について属性スコアを算出してもよいし、そのうちの一部について属性スコアを算出してもよい。複数の属性について属性スコアを算出する場合、属性スコア算出部158は、それぞれのスコアを正規化して、異なる属性間でスコアの大小を比較することを可能にしてもよい。また、属性スコア算出部158は、一旦算出した属性スコアをユーザに対応づけて属性DB160に格納し、定期的に更新してもよい。
ここで、付加的に属性選択部172が設けられる場合、後述するオブジェクト生成部162によってオブジェクトの生成において強調される属性スコアが、属性選択部172による選択によって決定される。この場合、例えば、属性スコア算出部158は、属性選択部172によって選択された属性に限定して、または選択された属性に重みをつけて属性スコアを算出してもよい。あるいは、属性スコア算出部158は、属性選択部172の選択に関わらず、属性群のうちの1または複数の属性について属性スコアを算出して属性DB160に格納しており、属性選択部172の選択に応じて格納された属性スコアを読み出すときに、重みづけなどの再計算を実行してもよい。なお、属性および属性スコアは、後述するオブジェクトの生成と関連しているため、それらの具体的な例についてはオブジェクトの例とともに説明する。
属性DB160には、属性スコア算出部158によって算出される属性スコアに関する情報が格納される。例えば、属性DB160には、属性スコアの算出の対象になる属性群を定義する情報が格納される。また、属性DB160には、属性スコア算出部158が算出した属性スコアがユーザに対応づけて格納され、属性スコア算出部158によって定期的に更新されてもよい。属性群に含まれるそれぞれの属性の定義情報は、例えば、行動履歴と属性スコアとの関係を定義する情報を含む。例えば、“仕事”という属性の場合、“ユーザが職場にいた時間に応じて属性スコアを加算する”といったようなルールが定義されうる。
なお、後述するように、属性スコアに基づいてオブジェクトを生成するときには、オブジェクトDB164の情報が参照される。それゆえ、属性DB160に格納された属性の定義情報と、オブジェクトDB164に格納されたオブジェクトの情報とは対応している。例えば、属性DB160で“仕事”という属性が定義されていれば、オブジェクトDB164には“仕事”の属性スコアに応じて選択されるオブジェクトが定義されている。
オブジェクト生成部162は、属性スコア算出部158から提供された属性スコアに基づいて、ユーザを表象するオブジェクトを生成する。オブジェクトは、例えば、行動履歴情報が提供されたユーザ、および/または他のユーザに向けて、ユーザを表すものとして表示される画像である。例えば、オブジェクトが何らかの具体物(例えば人、動物、ロボット、など)の画像であれば、オブジェクトはユーザのアバター(化身)であるともいえる。また、オブジェクトは、図形などの抽象的な画像であってもよい。この場合も、オブジェクトはその形、サイズ、色などによってユーザを表象する。なお、オブジェクトの具体的な例については後述する。オブジェクト生成部162は、生成されたオブジェクトを通信部を介してクライアント100に送信し、表示制御部106による表示部108への表示に供する。さらに、オブジェクト生成部162は、生成されたオブジェクトを、ユーザDB166にユーザと関連付けて格納し、その後に再びオブジェクトの提供の要求があったときに読み出してもよい。
ここで、オブジェクト生成部162は、予めオブジェクトDB164に登録された情報を参照し、属性スコアに基づいてオブジェクトを生成する。より具体的には、オブジェクト生成部162は、属性スコアを用いて、オブジェクトDB164に登録された情報を検索し、ユーザを表象するのに適切なオブジェクトの情報を抽出する。例えば、属性スコア算出部158によって複数の属性について属性スコアが算出された場合、オブジェクト生成部162は、そのうち最も属性スコアが高い属性について設定されたオブジェクトの情報を抽出してもよい。あるいは、オブジェクト生成部162は、複数の属性についてそれぞれ設定されたオブジェクトの情報を抽出し、これらをそれぞれの属性スコアに応じて合成してオブジェクトを生成してもよい。
さらに、オブジェクト生成部162は、ユーザDB166に格納されたユーザの登録情報を参照してオブジェクトを生成してもよい。この場合、オブジェクト生成部162は、ユーザの性別、年齢、職業などに応じて、同じ属性スコアに対して用意された複数のオブジェクトの中から適切なものを選択してもよい。例えば、同じ“仕事”の属性のオブジェクトであっても、ユーザが男性か女性か、若者かシニアか、オフィスワーカーか工場労働者か、などといったことに応じて、異なるオブジェクトが生成されうる。このようにユーザの情報を参照してオブジェクトを生成することで、オブジェクトによってユーザの人となりをより適切に表現することができる。なお、オブジェクトが抽象的な画像であったり、具体物の画像であっても性別や年齢などの属性が関係ないものであるような場合、オブジェクト生成部162は必ずしもユーザDB166を参照しなくてもよい。また、例えばオブジェクトに現れる性別や年齢などについては、あえてユーザによる自由な設定を許容してもよい。
オブジェクトDB164には、オブジェクト生成部162によるオブジェクトの生成に用いられるオブジェクトの情報が格納される。オブジェクトは、例えば、属性DB160で定義された属性に対応して設定される。例えば、属性DB160で“仕事”という属性が定義されている場合、オブジェクトDB164には、“仕事”の属性に対応する少なくとも1つのオブジェクトの情報が格納される。さらに、オブジェクトは、属性スコアに応じて複数設定されてもよい。例えば、“仕事”という属性について、属性スコアが低い場合、中程度の場合、高い場合、といったように、何段階かのオブジェクトが設定され、ユーザがどの程度仕事熱心であるかを表現することが可能であってもよい。また、オブジェクトDB164は、オブジェクトをさまざまな姿勢やサイズで表示することを可能にするデータを、オブジェクトごとに格納していてもよい。この場合、オブジェクト生成部162、またはクライアント100の表示制御部106で、表示されるオブジェクトの姿勢やサイズが決定される。
ユーザDB166には、ユーザに関する情報が格納される。ユーザに関する情報は、例えば、ユーザID、性別、年齢、住所、職業、勤務地などの登録情報を含みうる。上記の通り、ユーザDB166に格納されたユーザの登録情報は、オブジェクト生成部162におけるオブジェクトの生成に用いられてもよい。登録情報は、オブジェクト生成部162だけではなく、行動認識部152など、サーバ150のさまざまな部分から参照されうる。また、ユーザDB166には、オブジェクト生成部162によって生成されたオブジェクトの情報がユーザに関連付けて格納され、オブジェクトの表示要求があった場合に読み出されてもよい。
通信部168は、サーバ150とクライアント100との間でやりとりされる各種の情報を送受信する。通信部168は、例えばネットワークに接続される各種の通信インターフェースによって実現される。
期間選択部170は、付加的に設けられる。期間選択部170は、クライアント100でユーザの操作を取得した入力部104から通信部168を介して受信した情報に基づいて、オブジェクト生成部162でオブジェクトの生成において強調される期間を選択する。期間は、例えば“夏”、“平日”、“週末”、“昼間”、“オフタイム”、“家にいる時間”など、周期的な期間によって選択されてもよいし、例えば“10年前まで”、“最近1年間”、“10年後”などのように非周期的な期間によって選択されてもよい。期間選択部170によって期間が選択された場合、例えば、行動履歴取得部156が、選択された期間に限定して行動履歴情報を取得してもよい。あるいは、属性スコア算出部158が、選択された期間の行動履歴情報に、他の期間の行動履歴情報よりも大きな重みをつけて属性スコアを算出してもよい。
なお、未来の期間を選択する場合、例えば行動履歴取得部156はユーザの比較的近い過去の行動履歴情報を取得し、属性スコア算出部158は、その行動履歴と同様の行動を続けた場合の、選択された未来の期間におけるユーザの属性スコアの推定値を算出する。この場合、例えば、現在運動をあまりしないユーザについて、未来の期間を選択して生成したオブジェクトは、肥満型の人物のオブジェクトでありうる。期間選択部170は、属性スコアの元になる行動履歴情報が取得される期間の条件を設定するという点で、オブジェクトの生成条件を設定する条件設定部の1つともいえる。
属性選択部172も、付加的に設けられる。属性選択部172は、クライアント100でユーザの操作を取得した入力部104から通信部168を介して受信した情報に基づいて、オブジェクト生成部162でのオブジェクトの生成において強調される属性スコアを選択する。例えば、属性選択部172によって、属性DB160に定義された属性群の中から1または複数の属性が選択された場合、属性スコア算出部158は、選択された属性に限定して属性スコアを算出するか(他の属性スコアは0)、選択された属性の属性スコアに他の属性スコアに比べて大きな重みをつけてもよい。あるいは、属性スコア算出部158によって属性スコアが既に算出されて属性DB160に格納されている場合、オブジェクトの生成時に読み出された属性スコアのうち、選択された属性の属性スコアに対する重みづけの再計算が実行されてもよい。
ここで、選択可能な属性スコアの数は、予め設定されていてもよい。あるいは、属性は、予め設定されたパターンに従って選択されてもよい。例えば、“日常の行動”というパターンで属性を選択した場合、“仕事”、“家での過ごし方”、“移動の仕方”などに関する1または複数の属性が選択される。また、属性選択部172による属性の選択と、期間選択部170による期間の選択とは、相互に影響を与えあってもよい。例えば、期間選択部170で“週末”の期間が選択された場合、属性選択部172が“買い物の場所”、“余暇の過ごし方”といった、“週末”の行動に関連する属性を選択してもよい。また、例えば、属性選択部172で“仕事”の属性が選択された場合、期間選択部170が“仕事”がされているであろう“平日”の期間を選択してもよい。属性選択部172も、オブジェクトの生成に用いられる属性スコアを選択するという点で、オブジェクトの生成条件を設定する条件設定部の1つともいえる。
本実施形態では、条件設定部である期間選択部170および属性選択部172が、ユーザの操作に従ってオブジェクトの生成条件を設定する。これによって、ユーザは、自らを表象するオブジェクトに、どのような時期の、どのような属性を反映させるかを選択することができる。この点で、ユーザは、“見せたい自分”をある程度演出できる。例えば、平日は仕事に追われているユーザも、週末にスポーツを楽しんでいれば、期間選択部170を介して“週末”の期間を選択することで、“スポーツ好きな自分”のオブジェクトを生成させることができる。しかしながら、ユーザは、行動履歴によって示される範囲を超えて“見せたい自分”を作り出すことはない。例えば、ユーザが平日にも週末にもスポーツをしていなければ、どのようにしても“スポーツ好きな自分”のオブジェクトは生成されない。この点で、ユーザによるオブジェクトの生成条件の設定を許容したとしても、オブジェクト生成部162によって生成されるオブジェクトは、多かれ少なかれユーザの人となりが反映されるといえる。もちろん、条件設定部を設けずに、よりリアルにユーザの人となりを反映したオブジェクトが生成されるようにしてもよい。
一方、本実施形態の変形例として、条件設定部である期間選択部170および属性選択部172は、オブジェクト生成部162によって生成されたオブジェクトが表示される状況に応じて生成条件を設定してもよい。例えば、条件設定部は、オブジェクトが表示されるコミュニティサイトの属性に応じてオブジェクトの生成条件を設定してもよい。例えば、オブジェクトがスポーツをテーマにしたコミュニティサイトで表示される場合、属性選択部172によって自動的に“スポーツ”に関する属性スコアが選択されてもよい。また、例えば、オブジェクトが学校の同窓会のコミュニティサイトで表示される場合、期間選択部170によって自動的にユーザが学校に在籍していた期間が選択されてもよい。これによって、仮想空間におけるコミュニケーションの場ごとに、その性質に合ったオブジェクトを表示することができる。
以上、本開示の第1の実施形態に係るシステムの概略的な機能構成について説明した。続いて、かかるシステムによって実現されるオブジェクトの表示や、オブジェクトを生成するための処理、用いられるデータなどの具体的な例について、さらに説明する。
(1−2.処理の例)
図2は、本開示の第1の実施形態に係るシステムによって実現されるオブジェクトの表示の例を示す図である。図2では、ユーザAおよびユーザBが、仮想空間で会話している状況が示されている。画面1100には、アバター1101と、ダイアログ1103とが表示される。ここで、アバター1101は、ユーザAのアバター1101aと、ユーザBのアバター1101bとを含み、ダイアログ1103は、ユーザAのダイアログ1103aと、ユーザBのダイアログ1103bとを含む。
ここで、アバター1101は、上記のサーバ150のオブジェクト生成部162において生成されたオブジェクトである。ユーザAのアバター1101aは、“仕事”の属性スコアに基づいて生成され、スーツを着てカバンを持ったユーザの姿を表している。このことから、会話の相手であるユーザBは、ユーザAが主に仕事をしている人物であることを認識することができる。
一方、ユーザBのアバター1101bは、“家事”の属性スコアに基づいて生成され、家で料理をしているユーザの姿を表している。このことから、ユーザAは、ユーザBが主に家事をしている人物であることを認識することができる。従って、両者の会話では、“お仕事大変そうですね”や、“家事も大変ですよね”といった話題が容易に導き出され、会話がより自然で円滑なものになることが期待される。
図3は、図2に示したような表示を実現するための処理の例を示すフローチャートである。まず、サーバ150において、属性スコア算出部158は、行動履歴取得部156が取得した行動履歴に基づいて、定期的に属性DB160に格納されたユーザの属性スコアを更新している(ステップS101)。ここで、例えば図2に示したようなアプリケーションが起動されたことなどによってオブジェクトの表示要求があった場合(ステップS103)、サーバ150ではオブジェクト生成のための処理が実行される。
まず、属性スコア算出部158は、属性DB160に格納された属性スコアを読み出すにあたり、属性選択部172による属性の選択があれば(ステップS105)、その選択に応じて使用する属性スコアを選択する(ステップS107)。なお、ここでの属性の選択は、例えばユーザの操作や、オブジェクトが表示される状況(図2に示したような会話がなされる状況)に基づくものでありうる。属性の選択がない場合、算出されているすべての属性スコアが使用される。
次に、オブジェクト生成部162が、属性DB160から読み出された属性スコアに基づいてオブジェクトを生成する(ステップS109)。そして、オブジェクト生成部162は、通信部168を介してオブジェクトの情報をクライアント100に送信する(S111)。このとき、オブジェクト生成部162は、例えば図2に示した画面1100を表示するためのデータの一部として、オブジェクトの情報を送信してもよい。以上のような処理によって、クライアント100で、ユーザを表象するオブジェクトを含む画像が表示される。
(1−3.データの例)
図4は、本開示の第1の実施形態で用いられるデータの例を示す図である。図示された例では、ユーザA〜ユーザFの6人について、オブジェクトの生成のために用いられるデータの例が示されている。データの項目ごとに説明すると、“性別”および“職業”は、ユーザの登録情報であり、例えばユーザDB166に格納される。“職場”および“家”は、ユーザの位置履歴に関して設定された属性であり、それぞれの場所にいた時間の長さに応じて属性スコアが算出される。“座る”、“歩く”、“走る”、“食事”および“買い物”は、ユーザの行動状態に関して設定された属性であり、それぞれの行動をしていた時間の長さに応じて属性スコアが算出される。図示された例において、各属性スコアは正規化されており、相互に比較することが可能である。一方、“デパート”、“スーパー”および“本屋”は、属性“買い物”をさらに細分化した属性であり、それぞれの種類の店舗で買い物をした回数、または金額に応じて属性スコアが算出される。この“買い物”の例のように、属性は階層的な構成をもっていてもよい。これらの属性スコアは、ユーザの行動履歴に基づいて属性スコア算出部158によって算出される。
上記のようなデータに基づいて、オブジェクト生成部162がユーザを表象するオブジェクトを生成する。生成条件が設定されなかった場合、オブジェクト生成部162は、算出されているすべての属性スコアを参照して、オブジェクトを生成しうる。この場合、例えば、オブジェクト生成部162は、各属性の属性スコアを比較して、最も高い属性についてオブジェクトを生成する。
例えば、ユーザA、ユーザBについては、“職場”の属性スコアが最も高い。そこで、オブジェクト生成部162は、オブジェクトDB164に格納されたオブジェクトの情報の中から、“職場”の属性に対応するオブジェクトの情報を選択する。さらに、当該オブジェクトの情報が、性別や職業などに応じて複数用意されている場合、オブジェクト生成部162は、ユーザA、ユーザBの性別および職業、すなわち男性の会社員に該当するオブジェクトの情報を選択する。このような処理の結果として、例えば、スーツを着用し、カバンを持った男性のアバター1101cが、オブジェクトとして生成される。ここで、例えば、ユーザA、ユーザBの職業が農夫であり、それに対応したオブジェクトの情報がオブジェクトDB164に格納されていれば、別のアバター、例えば麦わら帽子をかぶって鍬を持った男性のアバターが生成されうる。
同様に、ユーザC、ユーザDについても、“職場”の属性スコアが最も高いが、ユーザC、ユーザDは女性であるため、オブジェクト生成部162は、スーツを着用した女性のアバター1101dをオブジェクトして生成する。一方、ユーザE、ユーザFについては、“家”の属性スコアが最も高い。そこで、オブジェクト生成部162は、オブジェクトDB164に格納されたオブジェクトの情報の中から、“家”の属性に対応するオブジェクトの情報を選択する。また、ユーザE、ユーザFは女性であるため、オブジェクト生成部162は、家で料理をしている女性のアバター1101eをオブジェクトとして生成する。
なお、上記の例では、オブジェクト生成部162が、属性スコアが最も高い属性に基づいてオブジェクトを生成したが、本開示の実施形態はこのような例には限られない。例えば、オブジェクト生成部162は、属性スコアが比較的高い複数の属性について、これらの属性に対応するオブジェクトの情報をオブジェクトDB164から取得し、取得した情報を各属性スコアに応じて合成してオブジェクトを生成してもよい。
例えば、ユーザA〜ユーザDは、いずれも“職場”の属性スコアが最も高い点で共通しているが、ユーザB、ユーザCは“歩く”の属性スコアが比較的高く、ユーザA、ユーザDは“歩く”の属性スコアが低い、という点で相違する。例えば、オブジェクト生成部162は、このような相違をオブジェクトに反映させるべく、ユーザB、ユーザCについては、スーツを着用して歩いている男性または女性のアバターをオブジェクトとして生成し、ユーザA、ユーザDについては、スーツを着用して座っている男性または女性のアバターをオブジェクトとして生成してもよい。
このように、複数の属性についての属性スコアに基づいてオブジェクトを生成することで、ユーザに最もよくあてはまる属性を抽出して、その属性に対応するオブジェクトを生成することができる。その一方で、例えば会社員のユーザの場合、滞在時間に基づいて算出される“職場”の属性スコアが高くなってしまうために、その他の、例えば“オフタイムにスポーツを楽しんでいる”という特徴が埋没してしまう可能性もある。そのような場合、付加的に設けられる期間選択部170や属性選択部172によってオブジェクトの生成条件を設定することで、例えばよりユーザの個性を反映したオブジェクトの生成が可能になる。以下、そのような生成条件が設定された場合のオブジェクトの生成の例について、さらに説明する。
(1−4.オブジェクト生成条件の例)
図5は、本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第1の例を示す図である。図示された例では、図4と同様のデータを基にオブジェクトを生成するにあたり、“運動フィルタ”ともいえる生成条件が設定されている。より具体的には、属性選択部172が、オブジェクトの生成において強調される属性スコアとして、ユーザの運動状況に関係する“座る”、“歩く”、“走る”の属性スコアを選択している。
この場合、オブジェクト生成部162は、選択された属性スコアを強調してオブジェクトを生成する。従って、図示された例では、“座る”の属性スコアが高く、消費カロリーの低い行動が多いと推定されるユーザAについては、小太りの男性のアバター1101fが、オブジェクトとして生成される。一方、“歩く”や“走る”の属性スコアが比較的高く、消費カロリーの高い行動が多いと推定されるユーザBについては、スマートな男性のアバター1101gが、オブジェクトとして生成される。
このような生成条件の設定によって、全体として見ればいずれも“主に仕事をしている人”であって差異がないユーザAとユーザBとに、“運動をよくするか否か”という点で差が生じる。例えば、ユーザBが、よく運動をしている自信があり、そのような自分を仮想空間におけるアバターのようなオブジェクトに表現したいと望む場合、ユーザBは、属性選択部172を介して上記の“運動フィルタ”を設定すればよい。
なお、このようなフィルタ型の生成条件が設定された場合であっても、フィルタによって選択されなかった属性スコアが、オブジェクトの生成にある程度反映されてもよい。例えば、図5の例であれば、アバター1101f,1101gは必ずしもトレーニングウェアを着用していなくてもよく、例えば、選択されなかった属性スコアで一番高いものが“職場”の属性スコアであることに基づいて、スーツを着用していてもよい。
図6は、本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第2の例を示す図である。図示された例では、図4と同様のデータを基にオブジェクトを生成するにあたり、“買い物フィルタ”ともいえる生成条件が設定されている。より具体的には、属性選択部172が、オブジェクトの生成において強調される属性スコアとして、ユーザの買い物の仕方に関連する“デパート”、“スーパー”、“本屋”の属性スコアを選択している。
上記の図5の例と同様に、オブジェクト生成部162は、選択された属性スコアに基づいてオブジェクトを生成する。従って、図示された例では、“デパート”の属性スコアが高いユーザEについては、デパートのショッピングバッグを持ち、着飾った女性のアバター1101hが、オブジェクトとして生成される。一方、“スーパー”の属性スコアが高いユーザFについては、普段着でネギの突き出したビニール袋を持った女性のアバター1101iが、オブジェクトとして設定される。
このような生成条件の設定によって、全体として見ればいずれも“主に家にいる主婦”であって差異がないユーザEとユーザFとに、“どこで買い物をするか”という点で差が生じる。例えば、商品のレビューを投稿するサイトに彼女らのアバターを表示する場合、属性選択部172がサイトの属性に応じて自動的に“買い物フィルタ”を設定することで、レビューを投稿したユーザがどこで買い物をすることが多いのかを知った上でレビューを閲覧することができる。
図7は、本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第3の例を示す図である。図示された例では、図4と同様のデータを基にオブジェクトを生成するにあたり、“週末フィルタ”ともいえる生成条件が設定されている。より具体的には、期間選択部170が、オブジェクトの生成において行動履歴が強調される期間として“週末”を選択している。図には、“週末”について算出された、“家”、“移動”、“家以外の場所”の属性スコアが示されている。これらの属性スコアは、例えばユーザの位置情報がそれぞれの属性の条件を満たしていた時間の長さに応じて算出される。また、これらのスコアも正規化されており、相互に比較することが可能である。
図示された例において、オブジェクト生成部162は、選択された期間の行動履歴情報に基づいて算出された属性スコアに基づいてオブジェクトを生成する。この場合、例えば、“家以外の場所”にいる時間が長いユーザCについては、旅行カバンを持った女性のアバター1101jが、オブジェクトとして生成される。一方、“家”にいる時間が長いユーザDについては、自宅でお茶を飲んでいる女性のアバター1101kが、オブジェクトとして生成される。
このような生成条件の設定によって、図4に示した全期間についての属性データでは差異がないユーザCとユーザDとに、“週末の過ごし方”という点で差が生じる。仕事をしているユーザの多くは、平日は基本的に仕事をしており、過ごし方に個性が出にくい傾向がある。そこで、上記のような“週末フィルタ”を設定してオブジェクトを生成すれば、各ユーザについてバラエティに富んだオブジェクトが生成されうる。
図8は、図7の例の変形例を示す図である。本実施形態では、図7の例のように期間についての条件を設定して算出された属性スコアと、図4の例のように期間についての条件を設定せずに、または異なる条件を設定して算出された属性スコアとが、互いに比較されてもよい。図示された例の場合、オブジェクト生成部162は、図4および図7の例に示されたユーザDについて、期間の条件を設定せずに算出された属性スコアの中で最も高い“仕事”の属性スコア(55)と、期間を“週末”に限定して算出された属性スコアの中で最も高い“家”の属性スコア(80)とを比較し、より高い属性スコアに応じてオブジェクトを生成している。結果として、ユーザDについては、“週末”について算出された“家”の属性スコアに基づいて、アバター1101kがオブジェクトとして生成される。
このような比較によって、例えば、対象になる期間を変えて算出されたユーザの属性スコアの中で、最も特徴的なものが選択されうる。例えば、ユーザDが、週末の過ごし方には特に特徴がないけれども、平日は人一倍仕事をしているユーザであれば、“週末フィルタ”が設定されていても、平日の“職場”の属性スコアに基づいて生成されるアバター1101dが選択されうる。一方、ユーザDが、平日の仕事は人並みだけれども、週末は人一倍家で過ごすことが多いユーザであれば、週末の“家”の属性スコアに基づいて生成されるアバター1101kが選択されうる。
このような比較は、例えば期間選択部170や属性選択部172によって設定されている条件に従って実行されてもよい。あるいは、属性スコア算出部158は、さまざまな期間や属性のフィルタリングパターンでの属性スコアの算出を試行することによって、ユーザの人となりを最もよくオブジェクトに反映させることができる生成条件を探索してもよい。この生成条件は、例えばユーザごとに異なっていてもよい。
(1−5.オブジェクトの段階的設定の例)
図9は、本開示の第1の実施形態におけるオブジェクトの段階的設定の例を示す図である。図9には、本実施形態においてオブジェクトDB164に格納されうる情報の例が示されている。上述したように、オブジェクトDB164には、同じ属性について、属性スコアに応じて設定された複数のオブジェクトの情報が格納され、オブジェクト生成部162は、ユーザの属性スコアに応じてこれらの中から適切なオブジェクトの情報を選択してもよい。これによって、例えば、ユーザがその属性によって表される事項にどの程度あてはまるかを表現することができる。なお、図9に示される例は、図4〜図8の例とは相関性がない。
図示された例では、“仕事”、“買い物”、“電車旅行”の3つの属性について、属性スコアに応じて段階的にオブジェクトの情報が設定されている。例えば、“仕事”の属性の場合(例えば職場に滞在している時間に応じて属性スコアが設定される)、属性スコアが50〜59であれば、アバターがネクタイを着用する。属性スコアが60〜69になれば、アバターがさらにスーツを着用する。属性スコアが70〜99であれば、かなり仕事熱心な人であることを表現するために、アバターが汗をかく。さらに、属性スコアが100になると、相当に仕事熱心な偉い人であることを表現するためにアバターに後光がさす。
同様に“買い物”の属性の場合(例えばデパートに滞在している時間に応じて属性スコアが設定される)、属性スコアが高くなるにつれて、アバターが所持しているショッピングバッグの数が増える。さらに、背景にデパートの建物が現れ、最終的には荷物を持ってくれるお付きの者がつく。また、“電車旅行”の属性の場合(例えば電車に乗って移動している時間に応じて属性スコアが設定される)、属性スコアが高くなるにつれて、鉄道マニアがよく所持しているアイテムが次々とアバターに与えられる。なお、属性スコアの各段階について設定されるオブジェクトの情報は、1つには限られない。例えば、属性スコアの各段階には、それぞれ複数のオブジェクトの情報が設定されてもよい。この場合、ユーザが該当する属性スコアの段階のオブジェクトの中でどれを選択するかは、例えばユーザの入力操作に基づいて決定されてもよい。
このように、属性スコアに応じて段階的に変化するオブジェクトが生成されることによって、ユーザがどのような属性の人であるかという定性的な情報に加えて、どの程度その属性が強い人かという定量的な情報を、オブジェクトに反映させることができる。また、上記の例のように、属性スコアに応じて生成されるオブジェクトにある程度の遊びの要素をもたせることで、ユーザの実際の行動にモチベーションを与えられる場合もある(例えば、“今週は仕事が忙しいので、どうせならアバターに後光がさすまで頑張ってみよう”など)。
また、上記の例と同様の性質をもつ変形例として、属性DB160には、ユーザが所定のイベントを達成したか否かを示す属性が定義され、この場合、属性スコア算出部158が、行動履歴情報に基づいて、ユーザが当該イベントを達成したか否かを判定し、例えば達成した場合には属性スコアに1を、そうでない場合には属性スコアに0を設定する。さらに、オブジェクト生成部162が、上記の属性の属性スコアに1が設定されているユーザについて、オブジェクトDB164に格納された情報に基づいて、イベントを達成したことを示す特別なオブジェクトを生成してもよい。
イベントの例としては、“1日の移動距離がちょうど30kmになる”、“3日連続で朝一番に出勤する”、“ある店舗で100回以上買い物をする”、“ある店舗の開店時間中に、1日1回以上店舗の前を通過する”、“特定の日時に特定の行動をする(例えば、2012年12月12日の12時12分に建物の12階にいる)”、“ある店舗に、1年以上前にはよく来ていたが最近1年は来ていない”などがある。こうしたイベント、およびイベントに対応したオブジェクトは、例えば純粋にユーザの楽しみのために設定されてもよいし、後述する地図上へのオブジェクトの表示の実施形態などと組み合わせてマーケティングなどに利用されてもよい。
(1−6.機能構成に関する変形例)
図10は、本開示の第1の実施形態の機能構成の第1の変形例を示すブロック図である。図10を参照すると、システム20は、クライアント100と、行動認識サーバ240と、オブジェクトサーバ250とを含む。クライアント100、行動認識サーバ240、およびオブジェクトサーバ250は、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。
ここで、クライアント100は、上記のシステム10におけるクライアント100と同様の機能構成を含む。行動認識サーバ240は、行動認識部152、行動履歴DB154および通信部268(図1を参照して説明した通信部168と同様)を含む。オブジェクトサーバ250は、行動履歴取得部156、属性スコア算出部158、属性DB160、オブジェクト生成部162、オブジェクトDB164、ユーザDB166、および通信部168を含み、付加的に期間選択部170および属性選択部172の一方または両方を含む。
この例に示されるように、行動認識サーバ240とオブジェクトサーバ250とは、上記の図1の例におけるサーバ150の機能を分散して実現する2つのサーバである。上述のように、サーバ150は、単一の情報処理装置、または複数の情報処理装置の協働によって実現されるため、行動認識サーバ240とオブジェクトサーバ250とは、複数の情報処理装置の協働によって実現されたサーバ150の一例ということもできる。もちろん、行動認識サーバ240およびオブジェクトサーバ250も、それぞれ複数の情報処理装置の協働によって実現されてもよい。また、サーバ150が、図10に示された形とは異なる形で分散して複数の情報処理装置によって実現されてもよい。
図11は、本開示の第1の実施形態の機能構成の第2の変形例を示すブロック図である。図11を参照すると、システム30は、クライアント300と、オブジェクトサーバ250とを含む。クライアント300とオブジェクトサーバ250とは、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。
ここで、クライアント300は、上記のシステム10におけるクライアント100の機能構成に加えて、行動認識部152と行動履歴DB154とを含む。オブジェクトサーバ250は、図10を参照して説明したオブジェクトサーバ250と同様の機能構成を含む。
図示されているように、本変形例では、行動認識部152、および行動履歴DB154が、クライアント側に組み込まれている。例えば、クライアント300は、センシング部102に含まれる加速度センサなどのセンシング結果に基づいて行動認識部152でユーザの行動を認識し、その結果を行動履歴DB154に蓄積していてもよい。この場合、オブジェクトサーバ250は、例えば定期的に、またはユーザを表象するオブジェクトの生成がクライアント300から要求されたときに、クライアント300の行動履歴DB154にアクセスして所定の期間の行動履歴情報を取得する。
このように、本実施形態に係るシステムの機能構成は、サーバ、クライアントを問わず、ネットワーク上の任意の要素に配置されうる。この点に関し、上記の2つの変形例以外にも、さまざまな変形例が実現可能である。例えば、上記の2つの変形例のように、オブジェクトサーバ250の行動履歴取得部156が、外部の行動履歴DB154から行動履歴情報を取得できるようにすれば、オブジェクトサーバ250を提供する事業者が、行動認識サーバ240またはクライアント300で行動認識サービスを提供する別の事業者から行動履歴情報を入手することも可能である。また、複数の行動認識サービスによって取得された行動履歴情報をマージして利用してもよい。例えば、オブジェクトサーバ250を提供する事業者は、自らも行動認識サービスを提供し(従ってオブジェクトサーバ250は図1に示したサーバ150のような機能構成を有しうる)、さらに他の事業者の行動認識サービスによって取得された行動履歴情報を取得して属性スコアの算出およびオブジェクトの生成に利用してもよい。
(2.第2の実施形態)
次に、図12および図13を参照して、本開示の第2の実施形態について説明する。この第2の実施形態は、ユーザを表象するオブジェクトが、ユーザの実際の画像に重畳表示するためのオブジェクトであるという点で、上記の第1の実施形態とは異なる。なお、機能構成などそれ以外の部分については、第1の実施形態と同様であるため、重複した詳細な説明は省略する。
図12は、本開示の第2の実施形態における第1の表示例を示す図である。本実施形態では、サーバ150のオブジェクト生成部162によって生成されるオブジェクト2101が、ユーザの実際の画像2103に重畳して表示される。図示された例では、スーツを着用した男性のユーザが、実際の画像2103として表示されているところに、麦わら帽子のオブジェクト2101が重畳して表示されている。オブジェクト2101は、例えば、このユーザが、今はスーツを着用して仕事をしているけれども、週末には家庭菜園の手入れに精を出していることを表すものでありうる。このように、オブジェクトは、仮想空間において表示されるアバターのようなものには限られず、実際のユーザの画像とともに表示される服装やアクセサリー、髪形、ペットなどのオブジェクトであってもよい。
ここで、ユーザの実際の画像2103は、例えば、ARアプリケーションなどで提供される実空間の撮像画像や、シースルー型の表示部で透過して見えている実空間の像として視認される。オブジェクト生成部162、またはクライアント100の表示制御部106は、こうしたユーザの実際の画像2103の位置や姿勢を認識し、それに合わせてオブジェクト2101を表示させる。なお、このような表示がされる場合、オブジェクト生成の対象になるユーザと、表示されたオブジェクトを観察するユーザとは、別々のユーザでありうる。
図13は、本開示の第2の実施形態における第2の表示例を示す図である。図示された例では、図12の例と同様に、スーツを着た男性のユーザが、実際の画像2103として表示されている。オブジェクト2105は、例えば、この実際の画像の背景を表示する環境オブジェクトであり、表示されることによってユーザの実際の画像2103を隠蔽する。かかるオブジェクト2105は、属性スコアに基づいて、ユーザが特定の条件を満たさないことが示される場合に生成されうる。例えば、画像を見る側のユーザが、“スポーツをよくする人”というような条件を設定している場合、スポーツをあまりしないことが属性スコアによって示されるユーザは、オブジェクト2105を重畳して表示することによって画像を見る側のユーザの視界から消える。
このような表示は、例えば、多くのユーザが集まったイベント会場などで、声をかける相手を探す場合に、どのユーザが希望している条件に合うユーザかを識別し、声をかけた後のコミュニケーションが成り立ちやすくするために有効である。この場合も、オブジェクト2105は、特定の条件を満たしていないという、そのユーザの人となりを反映したオブジェクトであるといえる。
(3.第3の実施形態)
次に、図14〜図19を参照して、本開示の第3の実施形態について説明する。この第3の実施形態は、ユーザを表象するオブジェクトが地図上に表示され、その表示に対して何らかの機能を実行することが可能であるという点で、上記の第1の実施形態とは異なる。なお、それ以外の部分については、第1の実施形態と同様であるため、重複した詳細な説明は省略する。
(3−1.機能構成)
図14は、本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図14を参照すると、システム40は、クライアント400と、サーバ450とを含む。クライアント400とサーバ450とは、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。以下、クライアント400およびサーバ450のそれぞれの構成について、さらに説明する。
(クライアント)
クライアント400は、センシング部102を含まない点で、図1を参照して説明したクライアント100とは異なるが、それ以外の点ではクライアント100と同様である。クライアント400は、センシングの結果をサーバに送信せず、専ら他のユーザについて生成されたオブジェクトを含む画像を観察するユーザによって使用される。そのために、クライアント400は、入力部104、表示制御部106、および表示部108を含む。これらの機能構成の詳細については、上記のクライアント100と同様であるため、詳細な説明を省略する。
(サーバ)
サーバ450は、操作取得部474、およびメッセージ送信部476を含む点で、図1を参照して説明したサーバ150とは異なるが、それ以外の点ではサーバ150と同様である。図示されていないが、サーバ450は、期間選択部170および属性選択部172の一方または両方を含んでもよい。
図示された例では、クライアント400がセンシングの結果をサーバに送信しないため、サーバ450の行動認識部152は、クライアント400とは異なる他のクライアントからの情報に基づいて、それらのクライアントを使用するユーザの行動を認識する。従って、行動履歴DB154に格納される行動履歴情報は、クライアント400のユーザとは異なるユーザの行動履歴情報であり、行動履歴取得部156、属性スコア算出部158、およびオブジェクト生成部162の処理を経て生成されるオブジェクトも、クライアント400のユーザとは異なるユーザを表象するものである。
つまり、システム40は、サーバ450で他のユーザについて生成されたオブジェクトがクライアント400で表示され、その表示に対してクライアント400のユーザが何らかの操作を実行するためのシステムである。以下、かかるシステム40においてサーバ450に含まれる操作取得部474およびメッセージ送信部476の機能について、さらに説明する。なお、操作取得部474およびメッセージ送信部476は、いずれも、例えばCPUがメモリに格納されたプログラムに従って動作することによって実現される。
操作取得部474は、クライアント400でユーザの操作を取得した入力部104から通信部168を介して情報を受信する。ここで受信される情報は、例えば、後述する例のように、地図上に表示されたオブジェクト(オブジェクト生成部162によって生成されたオブジェクト)のうちの少なくとも一部を指定する操作を示す情報でありうる。この操作情報では、指定するオブジェクトの種類がさらに指定されてもよい。操作取得部474は、取得した情報を、メッセージ送信部476に提供する。また、操作取得部474は、地図上にオブジェクトを表示させることの要求を取得してもよい。この要求には、例えば、表示させるオブジェクトの種類や、クライアント400の位置情報などが含まれていてもよい。これらの情報は、オブジェクト生成部162に提供されうる。
メッセージ送信部476は、操作取得部474から取得した情報に従って所定の機能を実行する機能部の一例である。図示された例において、メッセージ送信部476は、操作取得部474が取得した操作情報によって指定された地図上のオブジェクトに対応するユーザに対して、メッセージの送信を実行する。メッセージの送信先は、例えば行動認識部152に行動を認識するための情報を提供したクライアントのうちの少なくとも一部でありうる。メッセージ送信部476は、メッセージの送信先の情報を取得するために、ユーザDB166を参照してもよい。
(3−2.処理の例)
図15は、本開示の第3の実施形態で用いられるデータの例を示す図である。図示されたデータは、例えばサーバ450でユーザDB166に格納されうる。このデータは、各ユーザ(ユーザA〜ユーザD)について“オブジェクト種類”、“現在位置”、“E−mail”の項目を含む。“オブジェクト種類”には、オブジェクト生成部162によって生成され、各ユーザに対応付けられたオブジェクトの種類が記録されている。“現在位置”には、GPSなどを用いて検出された各ユーザの位置情報が、例えば緯度経度によって記録されている。“E−mail”には、例えば各ユーザがサービス利用のために登録したメールアドレスが記録されている。
図示された例では、ユーザA、ユーザDについて“サラリーマン”(例えば、仕事に関する属性スコアが比較的高いユーザについて生成されるオブジェクトの種類)、ユーザBについて“ゴージャス”(例えば、高級品の買い物に関する属性スコアが比較的高いユーザについて生成されるオブジェクトの種類)、ユーザCについて“スポーツマン”(例えば、スポーツに関する属性スコアが比較的高いユーザについて生成されるオブジェクトの種類)というオブジェクト種類が記録されている。なお、これらのオブジェクト種類は、例えば、ユーザに関するすべての属性スコアに基づいて決定されてもよいし、ユーザが期間選択部170や属性選択部172などによる何らかの条件を設定した結果として決定されてもよい。
図16は、本開示の第3の実施形態における処理の例を示すフローチャートである。まず、サーバ450において、オブジェクト生成部162は、属性スコア算出部158が算出した属性スコアに基づいて、定期的にユーザDB166に格納されたユーザのオブジェクト情報を更新している(ステップS201)。これによって、例えば図15に示す“オブジェクト種類”の項目も更新される。ここで、クライアント400からオブジェクトの表示要求があった場合(ステップS203)、サーバ450ではオブジェクトの表示のための処理が実行される。
本実施形態では、オブジェクト生成部162によって予めオブジェクトが生成され、オブジェクト情報がユーザDB166に格納されている。従って、オブジェクトの表示のための処理は、表示要求において表示するオブジェクト種類の選択がある場合に(ステップS205)、オブジェクト生成部162が、ユーザDB166に格納されたオブジェクト種類の情報に基づいてどのユーザのオブジェクトを表示するかを選択する(ステップS207)処理から始まる。他の実施形態では、上記の図3の例のように、属性スコア算出部158が属性スコアを算出する、または読み出す処理が実行されてもよいし、さらには行動履歴取得部156が行動履歴を取得する処理が実行されてもよい。
次に、オブジェクト生成部162は、表示要求に含まれるクライアント400の位置情報に基づいて、表示するオブジェクトを抽出する(ステップS209)。このとき抽出されるオブジェクトは、ステップS207でオブジェクトの種類が選択されている場合、対象になる種類のオブジェクトに限られる。そうではない場合は、種類に関わらずオブジェクトが抽出される。
次に、オブジェクト生成部162は、抽出されたオブジェクトを、ユーザDB166に格納された対応するユーザの位置情報に基づいて地図にマッピングし(ステップS211)、オブジェクトがマッピングされた地図情報をクライアント400に送信する(ステップS213)。ここで、オブジェクトがマッピングされる地図は、表示要求に含まれるクライアント400の位置情報に基づいて設定される。
(3−3.表示例)
図17は、本開示の第3の実施形態における第1の表示例を示す図である。図示された例では、クライアント400の表示部108で、地図3100上に、ユーザを示すオブジェクト3101が表示される。ここでは、オブジェクト3101の色がユーザの属性スコアに応じて変化している。つまり、現在の行動を示す属性スコアとして“徒歩”のスコアが算出されたユーザのオブジェクト3101a(オブジェクト種類“徒歩”のオブジェクト)と、同じく“電車”のスコアが算出されたユーザのオブジェクト3101b(オブジェクト種類“電車”のオブジェクト)と、同じく“自動車”のスコアが算出されたユーザのオブジェクト3101c(オブジェクト種類“自動車”のオブジェクト)とでは、生成される色のオブジェクトが異なる。図示されているように、この例で生成されるオブジェクトは、円という抽象的な図形であるが、このような場合であっても、例えば色を属性スコアに応じて変化させることで、ユーザの人となりに関する情報(この場合は、どのような手段で移動しているか)を表示することができる。
図18は、本開示の第3の実施形態における第2の表示例を示す図である。図示された例では、クライアント400で、図17の例と同様に地図3100上にオブジェクト3101が表示されているときに、入力部104に含まれるタッチパネルなどを用いて、範囲指定図形3103が入力されている。また、対象とするオブジェクト種類を指定するために、オブジェクトの凡例部分に選択用のチェックボックス3105が表示され、入力部104を用いた選択が可能になっている。図示された例では、範囲指定図形3103で地図3100の中央付近に位置するユーザを指定するとともに、チェックボックス3105で対象をオブジェクト種類“徒歩”で表示されているユーザに限定している。これによって、例えば、指定された領域内に位置する、指定した属性を有するユーザに対して、限定的にメッセージを配信するといった操作を実行することができる。
このとき、サーバ450では、操作取得部474が上記の範囲指定図形3103の描画およびチェックボックス3105の選択によって示されるユーザの操作情報を取得し、メッセージ送信部476がメッセージ送信などの機能を実行する。ここで、メッセージ送信部476は、例えば図15に示されたデータの“現在位置”と、地図3100上での範囲指定図形3103によって示される領域とを比較することによって位置の条件を満たすユーザを抽出する。さらに、メッセージ送信部476は、“オブジェクト種類”とチェックボックス3105によって指定されたオブジェクト種類とを比較することによってオブジェクト種類の条件を満たすユーザを抽出し、抽出されたユーザの“E−mail”として示されるアドレスに向けてメッセージを送信する。
以上のような構成によって、例えば、特定の場所にいるユーザの中で、ある属性(オブジェクト種類によって表される)を有するユーザを抽出してメッセージを送るといったような操作を、直感的かつ容易な操作によって実行することができる。なお、属性は、2以上が設定されてもよい。例えば、図18の例で、オブジェクトが表示されているユーザ全体が“会社員”に限定されている場合(第1の属性による限定)、その中でさらに駅周辺の領域を指定し(位置情報による限定)、さらに徒歩で移動中のユーザに限定して(第2の属性による限定)メッセージを送信することによって、例えば飲食店のランチの広告を、その需要層と推定されるユーザに限定して配信することが可能である。
(3−4.変形例)
図19は、本開示の第3の実施形態の変形例に係るシステムの概略的な機能構成を示すブロック図である。図19を参照すると、システム42は、クライアント400と、サーバ450とを含む。システム42の構成は、図14を参照して説明した本実施形態に係るシステム40と基本的に同様であるが、サーバ450の機能部として、メッセージ送信部476に代えて投稿受付部478が設けられる点で異なる。
投稿受付部478は、操作取得部474から取得した情報に従って所定の機能を実行する機能部の一例である。図示された例において、投稿受付部478は、操作取得部474が取得した操作情報によってユーザからの投稿を受け付け、ユーザDB166に格納されたオブジェクト情報を参照することによって、ユーザに投稿の資格があるか否かを判定する。ユーザに投稿の資格がある場合、投稿受付部478は、通信部168を介して、クライアント400に投稿のための入力画面を送信する。投稿受付部478は、例えばCPUがメモリに格納されたプログラムに従って動作することによって実現される。
図20は、本開示の第3の実施形態の変形例を示すフローチャートである。まず、サーバ450において、オブジェクト生成部162は、属性スコア算出部158が算出した属性スコアに基づいて、定期的にユーザDB166に格納されたユーザのオブジェクト情報を更新している(ステップS301)。これによって、例えば図15に示す“オブジェクト種類”の項目も更新される。ここで、クライアント400からレビューの投稿要求があった場合(ステップS303)、サーバ450ではオブジェクト種類による判定のための処理が実行される。なお、ここで、レビューは、飲食店などを利用したユーザが、その店舗について提供する評価などの情報である。
ここで、投稿受付部478は、レビューの投稿要求を送信したユーザは、所定のオブジェクト種類に関連付けられているか否かを判定する(ステップS305)。ここでの判定は、例えば、オブジェクト生成部162によって予め生成されたオブジェクトについてユーザDB166に格納されたオブジェクト情報に基づいてされてもよい。あるいは、判定のときに、オブジェクト生成部162が属性スコアに基づいてオブジェクトを生成し、そのオブジェクトの種類によって判定がされてもよい。なお、上記所定のオブジェクト種類は、例えば、レビュー投稿の対象になる店舗や、レビューが表示されるコミュニティごとに予め設定されている。
ステップS305において、ユーザが所定のオブジェクト属性に関連付けられている場合、さらに、投稿受付部478は、ユーザDB166を参照して、ユーザの位置情報が、レビュー投稿の対象になっている店舗の周辺であるか否かを判定する(ステップS307)。ここで、ユーザの位置情報が店舗の周辺であると判定された場合、投稿受付部478は、通信部168を介して、レビュー投稿用の画面をクライアント400に送信する(ステップS309)。一方、ステップS305またはステップS307で否定的な判定がされた場合、投稿受付部478は、通信部168を介して、レビューの投稿を受け付けられないことを示すメッセージ(投稿NGメッセージ)をクライアント400に送信する(ステップS311)。
上記のような処理によって、例えば、店舗についてのレビューを投稿するユーザを、特定の属性を有するユーザに限定(例えば、女性限定、社会人限定、など)することができる。例えば店舗がターゲットにする客層を設定している場合や、レビューが特定の属性を有するユーザを対象にしたコミュニティで公開されるような場合には、このような限定が有効でありうる。また、ユーザの位置を店舗の周辺に限定することによって、実際に店舗を利用したユーザの、利用直後のレビューに限って受け付けることができる。例えば、サクラを排除したい場合や、レビューの鮮度を重視する場合には、このような限定が有効でありうる。
(4.第4の実施形態)
次に、図21〜図24を参照して、本開示の第4の実施形態について説明する。この第4の実施形態は、生成されたオブジェクトの表示および共有に関して、上記の第2の実施形態とは異なる。なお、機能構成などそれ以外の部分については、第2の実施形態と同様であるため、重複した詳細な説明は省略する。
図21は、本開示の第4の実施形態における第1の表示例を示す図である。本実施形態では、ユーザの実際の画像に重畳表示されるオブジェクトが、複数のユーザの間で共有される。つまり、サーバ150の行動履歴取得部156は、複数のユーザについて行動履歴情報を取得し、属性スコア算出部158は、複数のユーザについて属性スコアを算出し、オブジェクト生成部162は、複数のユーザが互いに視認可能なオブジェクトを生成する。
一つの例としては、各ユーザが、例えば特開2008−83290号公報で開示されているような外部を視認可能なHMD(Head Mounted Display)を装着して行動しており、他のユーザと会ったときに、そのユーザとともにオブジェクトが重畳して表示されるような場合が考えられる。図示された例では、元気そうな男性のユーザが実際の画像4103として表示されているところに、不健康そうな男性のオブジェクト4101が重畳して表示されている。オブジェクト4101は、例えば、このユーザが、実は不摂生な生活をしていることを表すものでありうる。オブジェクト4101が表示されることで、このユーザが不摂生な生活をしていることが他のユーザにも知れてしまう。
このように、オブジェクトは、見た目には現れないユーザの状態を示すアバター(分身)として機能しうる。この場合、例えば、他のユーザからも見られるアバターの見た目をよくするために、健康的な生活を実践するなど、実際のユーザの行動を改善するモチベーションが得られる。また、ユーザを限定してアバターの表示を許可したり、アバターに関するコメントなどの評価を送信できるようにすることで、ユーザ間のコミュニケーションの活性化を図ってもよい。また、アバターをユーザ自身からも視認可能にすれば、仮想的にアバターを連れて歩くような感覚が得られ、必ずしも他のユーザとの間でアバターの表示を共有しなくても楽しめる場合がある。
なお、表示されるアバターは、ユーザと同様の性別や年齢の文字通り“分身”であってもよいし、性別が異なったり、人間ではなく動物であったりしてもよい。例えば、男性のユーザが女性のアバターを仮想的なガールフレンドとして連れて歩いてもよいし、動物のアバターをペットのようにして連れ歩いてもよい。ただし、このような場合でも、アバターの見た目にはユーザ自身の行動が反映される。例えば、男性のユーザがアバターとしてガールフレンドを連れ歩く場合、ユーザ自身が不摂生な生活を送っていると、ガールフレンドが不健康そうな見た目になる。また、アバターとしてペットを連れ歩く場合、ユーザ自身が不摂生な生活を送っていると、ペットの見た目が薄汚くなる。このように、必ずしもユーザの文字通り“分身”ではないアバターの表示の場合でも、アバターにはユーザの人となりが反映され、例えば行動の改善のモチベーションが得られたり、親しみがわきやすかったりするという効用が得られうる。
図22は、本開示の第4の実施形態においてユーザ間の友達登録時にオブジェクトの表示を共有する場合の処理の例を示す図である。まず、ユーザAが使用する端末Aで、友達リクエストが送信される(ステップS401)。ユーザBが使用する端末Bでは、この友達リクエストを受信し(ステップS403)、承認するか否かが、例えばユーザBの操作に基づいて判定される(ステップS405)。ここで、承認されなければ、端末Aに非承認応答が返送され(ステップS407)、処理は終了する。
一方、ステップS405で友達リクエストが承認された場合、端末Bは承認応答を送信する(ステップS409)。端末Aでは、承認応答を受信した(ステップS411)後、ユーザAのオブジェクト情報を端末Bに送信する(ステップS413)。ここで送信されるオブジェクト情報は、例えば上記の第2の実施形態と同様にしてサーバ150のオブジェクト生成部162において生成され、端末Aに送信されたものである。端末Aでは、サーバ150から受信したオブジェクトの情報が保存されており、ステップS413では保存されているオブジェクト情報が送信される。
ここで、端末Bは、ユーザAのオブジェクト情報を受信し、保存する(ステップS415)。次に、端末Bは、ユーザBのオブジェクト情報を端末Aに送信する(ステップS417)。端末Aは、ユーザBのオブジェクト情報を受信し、保存する(ステップS419)。これによって、端末Aおよび端末Bの両方で、お互いのオブジェクト情報が共有される。以後、端末Aでは実際のユーザBの画像にユーザBのオブジェクトを重畳表示し(ステップS421)、端末Bでは実際のユーザAの画像にユーザAのオブジェクトを重畳表示する(ステップS423)ことが可能になる。なお、ユーザA、ユーザBそれぞれの顔などの認識は、予め交換された情報に基づいて端末A、端末Bの双方で可能であるものとする。また、上記の処理の後、各ユーザの行動履歴の変化によってオブジェクトが更新された場合には、再度オブジェクトの送信(ステップS413またはステップS417)が実行されうる。
なお、上記の図22では、端末同士がサーバを介さずに通信するP2P(Peer to Peer)方式の場合の例について説明したが、サーバを介した通信によってユーザ間でオブジェクトの表示を共有してもよい。この場合、それぞれの端末装置にオブジェクトを保存する必要はなく、サーバに保存されているオブジェクトの表示対象にお互いを加えるだけでよい(例えば、ユーザBがユーザAの初めての友達だとすると、ユーザAのオブジェクトの表示対象に、それまでのユーザA(本人)に加えてユーザBが設定され、端末Aおよび端末Bの両方でオブジェクトが表示されるようになる)。
図23は、本開示の第4の実施形態における第2の表示例を示す図である。図示された例では、各ユーザに対応するオブジェクトが、ユーザの身代わりとして対戦する。オブジェクト5101aはユーザAのアバターであり、オブジェクト5101bはユーザBのアバターである。ユーザAの画面5100aには、リングに見立てたノート型PCの上に立ったこれらのオブジェクト5101を、オブジェクト5101aの側から見た画像が表示されており、一方のユーザBの画面5100bには同じ状況をオブジェクト5101bの側から見た画像が表示されている。上記の図21の例との相違として、オブジェクト5101はユーザの画像に重畳していない。例えば、普段は図21の例のようにユーザの肩に乗っているアバターが、対戦が開始されると降りてきて相手と戦う、といったような演出があってもよい。
上記の例の場合、サーバ150のオブジェクト生成部162において生成されるオブジェクト(アバター)には、このような対戦の機能のためのパラメータ(対戦パラメータ)が設定されていてもよい。対戦パラメータは、両方のユーザに共通の属性スコアに基づいて設定されうる。例えば、上記の図5の例の“運動フィルタ”に従って対戦パラメータが設定されてもよい。この場合、例えば消費カロリーの高い行動が多いユーザほど、知力、体力、判断力、集中力、運などといった対戦パラメータが高くなる。従って、日頃から自身を鍛錬しているユーザほど、アバターを用いた対戦でも有利でありうる。
あるいは、対戦パラメータは、ユーザがそれぞれにフィルタなどを用いて設定した属性スコアに基づいて設定されてもよい。この場合、例えば、ユーザがそれぞれ自身の得意な属性のフィルタを指定した上でアバターを生成し、対戦することができる。例えば、ユーザAが“運動フィルタ”に従って対戦パラメータを設定するのに対して、ユーザBが“買い物フィルタ”に従って対戦パラメータを設定してもよい。この場合、腕っ節が強いユーザのアバターが対戦に必ずしも勝つとは限らず、何らかの属性で突出した属性スコアを有するユーザが勝つ場合もある。
また、対戦パラメータは、アバターの見た目に反映されてもよいし、反映されなくてもよい。例えば、アバターの見た目を生成するために用いられる生成条件と、アバターに設定される対戦パラメータを生成するために用いられる生成条件とは、別個であってもよい。この場合、例えば、釣りが趣味のプロ野球選手のアバターが、見た目については“余暇の過ごし方”のフィルタが設定されているためにさほど強そうに見えないが、対戦パラメータについては“運動フィルタ”が設定されているためにとんでもなく強い、といったように、見た目と強さとのギャップによってゲーム性を増した対戦が実現される。
図24は、図23に示したような表示を実現するための処理の例を示すフローチャートである。図示された例において、端末A、端末Bは、それぞれユーザA、ユーザBによって使用される端末である。サーバは、上記の例のサーバ150のようにオブジェクトを生成する機能を有するサーバであってもよいし、対戦ゲームのために用意された別のサーバであってもよい。前者の場合、サーバは、例えば上記の第3の実施形態のメッセージ送信部476などと同様に、所定の機能を実行する機能部として、対戦ゲームを制御する構成要素を有する。後者の場合、サーバは、予めサーバ150から、オブジェクト生成部162によって生成されたオブジェクト情報を取得する。
まず、対戦の準備段階として、サーバで、各ユーザのオブジェクト情報に基づいて対戦パラメータを設定する(ステップS501)。次いで、端末A、端末Bで、それぞれ攻撃コマンドの送信(ステップS503)と守備コマンドの送信(ステップS505)とが実行される。サーバでは、送信された攻撃、守備コマンドに基づいて、対戦3Dグラフィック画像を生成する(ステップS507)。
続いて、端末A、端末Bのそれぞれから、端末のカメラの位置、3次元方向、ズーム率などを示す撮像画像が送信される(ステップS509,S511)。これを受信したサーバは、撮像画像を比較して、対応する特徴点のうち画面ほぼ中央の基準点を特定する(ステップS513)。次に、サーバは、基準点を中心とした平面上に、各カメラの位置関係を考慮した3Dグラフィック画像をそれぞれ生成し(ステップS515)、端末A、端末Bに、それぞれ異なる3Dグラフィック画像を配信する(ステップS517)。
次に、端末A、端末Bは、それぞれが配信された3Dグラフィック画像を表示する(ステップS519,S521)。それぞれの端末の視点が変化した場合、上記のステップS509〜S521の処理が繰り返される。その後、次のターンの動作として、攻守が交代し、端末Aが守備コマンドを送信し(ステップS523)、端末Bが攻撃コマンドを送信する(ステップS525)。以下、同様の処理が繰り返される。
なお、上記の処理は一例であり、本開示の実施形態としては、この他にもさまざまな対戦ゲームが可能である。例えば、必ずしも対戦ゲームの画像は3Dでなくてもよいし、攻撃コマンドと守備コマンドとによって進行するゲームでなくてもよい。また、ゲームは対戦ゲームには限られず、ユーザが単独でプレイするゲームであってもよい。この場合も、自らの属性スコアに基づいて生成されたプレーヤキャラクタを操作することで、上記の対戦ゲームの場合と同様の興趣が得られる。
また、本実施形態を通じて、アバターなどのオブジェクトがユーザの実際の画像に重畳される例について説明したが、他の実施形態では、アバターが任意のアプリケーションの画面に表示されてもよい。従って、対戦ゲーム(またはそれ以外のゲーム)も、必ずしも実際の空間にアバターを重畳させるものでなくてよく、通常の2Dや3Dのゲーム画面と同様の画面で、ユーザのアバターがプレーヤキャラクタになるものでありうる。
(5.ハードウェア構成)
次に、図25を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図25は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における各種サーバおよびクライアントを実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置(シースルー型やヘッドマウント型であってもよい)、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(6.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(クライアントまたは各種サーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された記録媒体を含みうる。
なお、上記で説明した実施形態における各種サーバおよびクライアントは、必ずしもネットワーク上でのサーバまたはクライアントとしての役割を与えられた装置によって実現されなくてもよい。本開示の実施形態は、例えば、いわゆるメッシュネットワークにおいて、それぞれの端末(情報処理装置)が各種サーバまたはクライアントとして動作することによっても実現可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、
属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成するオブジェクト生成部と
を備える情報処理装置。
(2)前記オブジェクトの生成条件を設定する条件設定部をさらに備える、前記(1)に記載の情報処理装置。
(3)前記条件設定部は、前記オブジェクトの生成において強調される前記属性スコアを選択する属性選択部を含む、前記(2)に記載の情報処理装置。
(4)前記条件設定部は、前記所定の期間のうち、前記オブジェクトの生成において強調される期間を選択する期間選択部を含む、前記(2)または(3)に記載の情報処理装置。
(5)前記条件設定部は、前記ユーザの操作に従って前記生成条件を設定する、前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記条件設定部は、前記オブジェクトが表示される状況に応じて前記生成条件を設定する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記属性スコア算出部は、前記属性群のうちの複数の属性について前記属性スコアを算出し、
前記オブジェクト生成部は、前記各属性の属性スコアの比較に基づいて前記オブジェクトの種類を選択する、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記属性群は、所定のイベントを達成したか否かを示す属性を含む、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)前記オブジェクト生成部は、前記ユーザの実際の画像に重畳表示するための前記オブジェクトを生成する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記オブジェクト生成部は、前記ユーザの実際の画像の背景を表示することによって前記ユーザを隠蔽する前記オブジェクトを生成する、前記(9)に記載の情報処理装置。
(11)前記オブジェクト生成部は、前記属性スコアに応じて段階的に変化する前記オブジェクトを生成する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記オブジェクト生成部は、前記属性スコアに応じて色が変化する前記オブジェクトを生成する、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記オブジェクト生成部は、地図上に表示するための前記オブジェクトを生成する、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)前記地図上に表示された前記オブジェクトの観察者による、該オブジェクトのうちの少なくとも一部を指定する操作に関する情報を取得する操作取得部と、
前記指定されたオブジェクトに対応する前記ユーザに対して所定の機能を実行する機能部と
をさらに備える、前記(13)に記載の情報処理装置。
(15)前記操作は、地図上の領域を指定する操作を含む、前記(14)に記載の情報処理装置。
(16)前記行動履歴取得部は、複数のユーザについて前記行動履歴情報を取得し、
前記属性スコア算出部は、前記複数のユーザについて前記属性スコアを算出し、
前記オブジェクト生成部は、前記複数のユーザが互いに視認可能な前記オブジェクトを生成する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)ユーザの行動をセンシングするセンシング部と、
前記センシングの結果をサーバに送信し、該センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を所定の期間蓄積したものに基づいて属性群のうちの1または複数の属性について算出される属性スコアに基づいて生成される前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
前記オブジェクトを表示部に表示させる表示制御部と
を備える情報処理装置。
(18)クライアントおよびサーバを含み、
前記クライアントは、
ユーザの行動をセンシングするセンシング部と、
前記センシングの結果をサーバに送信し、前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
前記オブジェクトを表示部に表示させる表示制御部と
を有し、
前記サーバは、
所定の期間に蓄積された、前記センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を取得する行動履歴取得部と、
属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
前記属性スコアに基づいて前記オブジェクトを生成するオブジェクト生成部と
を有するシステム。
(19)所定の期間に蓄積されたユーザの行動履歴情報を取得することと、
属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出することと、
前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成することと
を含む情報処理方法。
(20)所定の期間に蓄積されたユーザの行動履歴情報を取得する機能と、
属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する機能と、
前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成する機能と
をコンピュータに実現させるためのプログラム。
10,20,30,40,42 システム
100,300,400 装置
102 センシング部
104 入力部
106 表示制御部
108 表示部
110 通信部
240 行動認識サーバ
150,250 サーバ(オブジェクトサーバ)
152 行動認識部
156 行動履歴取得部
158 属性スコア算出部
162 オブジェクト生成部
168,268 通信部
170 期間選択部
172 属性選択部
474 操作取得部
476 メッセージ送信部
478 投稿受付部

Claims (17)

  1. 所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、
    属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
    前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成するオブジェクト生成部と
    前記所定の期間のうち前記オブジェクトの生成において強調される期間を選択する期間選択部を含み、前記オブジェクトの生成条件を設定する、条件設定部と
    を備える、情報処理装置。
  2. 前記条件設定部は、前記オブジェクトの生成において強調される前記属性スコアを選択する属性選択部をさらに含む、請求項に記載の情報処理装置。
  3. 前記条件設定部は、前記ユーザの操作に従って前記生成条件を設定する、請求項に記載の情報処理装置。
  4. 前記条件設定部は、前記オブジェクトが表示される状況に応じて前記生成条件を設定する、請求項に記載の情報処理装置。
  5. 前記属性スコア算出部は、前記属性群のうちの複数の属性について前記属性スコアを算出し、
    前記オブジェクト生成部は、前記各属性の属性スコアの比較に基づいて前記オブジェクトの種類を選択する、請求項1に記載の情報処理装置。
  6. 前記属性群は、所定のイベントを達成したか否かを示す属性を含む、請求項1に記載の情報処理装置。
  7. 前記オブジェクト生成部は、前記ユーザの実際の画像に重畳表示するための前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  8. 前記オブジェクト生成部は、前記ユーザの実際の画像の背景を表示することによって前記ユーザを隠蔽する前記オブジェクトを生成する、請求項に記載の情報処理装置。
  9. 前記オブジェクト生成部は、前記属性スコアに応じて段階的に変化する前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  10. 前記オブジェクト生成部は、前記属性スコアに応じて色が変化する前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  11. 前記オブジェクト生成部は、地図上に表示するための前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  12. 前記地図上に表示された前記オブジェクトの観察者による、該オブジェクトのうちの少なくとも一部を指定する操作に関する情報を取得する操作取得部と、
    前記指定されたオブジェクトに対応する前記ユーザに対して所定の機能を実行する機能部と
    をさらに備える、請求項11に記載の情報処理装置。
  13. 前記操作は、地図上の領域を指定する操作を含む、請求項12に記載の情報処理装置。
  14. 前記行動履歴取得部は、複数のユーザについて前記行動履歴情報を取得し、
    前記属性スコア算出部は、前記複数のユーザについて前記属性スコアを算出し、
    前記オブジェクト生成部は、前記複数のユーザが互いに視認可能な前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  15. クライアントおよびサーバを含み、
    前記クライアントは、
    ユーザの行動をセンシングするセンシング部と、
    前記センシングの結果をサーバに送信し、前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
    前記オブジェクトを表示部に表示させる表示制御部と
    を有し、
    前記サーバは、
    所定の期間に蓄積された、前記センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を取得する行動履歴取得部と、
    属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
    前記属性スコアに基づいて前記オブジェクトを生成するオブジェクト生成部と
    前記所定の期間のうち前記オブジェクトの生成において強調される期間を選択する期間選択部を含み、前記オブジェクトの生成条件を設定する、条件設定部と
    を有するシステム。
  16. 所定の期間に蓄積されたユーザの行動履歴情報を取得することと、
    属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出することと、
    前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成することと
    前記所定の期間のうち前記オブジェクトの生成において強調される期間を選択して、前記オブジェクトの生成条件を設定することと
    を含む情報処理方法。
  17. 所定の期間に蓄積されたユーザの行動履歴情報を取得する機能と、
    属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する機能と、
    前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成する機能と
    前記所定の期間のうち前記オブジェクトの生成において強調される期間を選択して、前記オブジェクトの生成条件を設定する機能と、
    をコンピュータに実現させるためのプログラム。
JP2014548484A 2012-11-22 2013-09-06 情報処理装置、システム、情報処理方法およびプログラム Active JP6102939B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012256132 2012-11-22
JP2012256132 2012-11-22
PCT/JP2013/074152 WO2014080678A1 (ja) 2012-11-22 2013-09-06 情報処理装置、システム、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2014080678A1 JPWO2014080678A1 (ja) 2017-01-05
JP6102939B2 true JP6102939B2 (ja) 2017-03-29

Family

ID=50775869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014548484A Active JP6102939B2 (ja) 2012-11-22 2013-09-06 情報処理装置、システム、情報処理方法およびプログラム

Country Status (5)

Country Link
US (2) US10037342B2 (ja)
EP (1) EP2924659A4 (ja)
JP (1) JP6102939B2 (ja)
CN (1) CN104737209A (ja)
WO (1) WO2014080678A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090125A1 (ja) 2021-11-19 2023-05-25 株式会社コナミデジタルエンタテインメント 制御システム、情報システム、制御システムの動作方法およびプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006611A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101658205B1 (ko) * 2015-01-07 2016-09-23 엔에이치엔엔터테인먼트 주식회사 모바일 어플리케이션의 정보를 노출하는 프로모션 플랫폼 제공 방법 및 시스템
US10775878B2 (en) * 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display
WO2016182504A1 (en) * 2015-05-08 2016-11-17 Chow Bryan Shwo-Kang A virtual reality headset
JP6864982B2 (ja) * 2015-09-17 2021-04-28 株式会社Nttドコモ 推定装置
CN105477860A (zh) * 2015-12-22 2016-04-13 北京奇虎科技有限公司 游戏活动推荐方法及装置
CN106779339A (zh) * 2016-11-29 2017-05-31 捷开通讯(深圳)有限公司 一种智能快递方法及系统
JP6738308B2 (ja) * 2017-08-01 2020-08-12 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
WO2019123744A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021105750A (ja) * 2018-04-02 2021-07-26 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021182172A (ja) * 2018-07-31 2021-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JP7160707B2 (ja) * 2019-01-31 2022-10-25 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP6919686B2 (ja) * 2019-08-21 2021-08-18 コニカミノルタ株式会社 情報処理装置、画像形成装置、情報処理システム、属性特定方法及びプログラム
JP7037527B2 (ja) * 2019-09-11 2022-03-16 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP2021140646A (ja) * 2020-03-09 2021-09-16 株式会社日立ハイテク ターゲットユーザ特徴抽出方法、ターゲットユーザ特徴抽出システム及びターゲットユーザ特徴抽出サーバ
JP7113570B1 (ja) 2022-01-28 2022-08-05 株式会社PocketRD 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム
JP7354341B1 (ja) 2022-04-20 2023-10-02 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4395687B2 (ja) 2000-12-20 2010-01-13 ソニー株式会社 情報処理装置
JP2004005422A (ja) 2002-02-09 2004-01-08 Lexer Research Inc サービス自動提供装置及びサービス自動提供方法
JP2003242095A (ja) 2002-02-15 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法及びその装置と、仮想空間表示プログラム及びそのプログラムを記録した記録媒体
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
JP2004274550A (ja) * 2003-03-11 2004-09-30 Sony Ericsson Mobilecommunications Japan Inc 移動体通信端末装置
JP4288317B2 (ja) 2004-06-10 2009-07-01 日本電信電話株式会社 状態表示方法および移動体通信端末およびシステム
JP4131717B2 (ja) 2004-06-10 2008-08-13 日本電信電話株式会社 状態表示方法および移動体通信システムおよびゲートウェイ
US8033996B2 (en) * 2005-07-26 2011-10-11 Adidas Ag Computer interfaces including physiologically guided avatars
US7991401B2 (en) * 2006-08-08 2011-08-02 Samsung Electronics Co., Ltd. Apparatus, a method, and a system for animating a virtual scene
JP5119636B2 (ja) 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
ITMI20071754A1 (it) * 2007-09-12 2009-03-13 Sin & Rgetica S R L Sistema elettronico e metodo per la raccolta telematica di dati relativi a prodotti o servizi
US20090193343A1 (en) * 2008-01-24 2009-07-30 International Business Machines Corporation Method for avoiding virtual world fatigue by maintaining avatar characteristics in an avatar wallet
JP5527940B2 (ja) * 2008-04-16 2014-06-25 任天堂株式会社 ゲームシステム、ゲームプログラム、ゲーム装置、サーバおよびゲーム方法
CN102046249B (zh) 2008-06-02 2015-12-16 耐克创新有限合伙公司 创建化身的系统和方法
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
US20100017237A1 (en) * 2008-07-15 2010-01-21 Where I've Been, Llc Travel-related methods, systems and devices
JP5551867B2 (ja) 2008-12-05 2014-07-16 ソニー株式会社 情報処理装置、及び情報処理方法
US8661073B2 (en) * 2009-03-06 2014-02-25 Trion Worlds, Inc. Synthetic environment character data sharing
JP5423379B2 (ja) * 2009-08-31 2014-02-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US9766089B2 (en) * 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
JP2012008771A (ja) 2010-06-24 2012-01-12 Sony Corp 情報処理装置、情報処理システム、情報処理方法およびプログラム
WO2012094235A2 (en) * 2011-01-03 2012-07-12 MONTOYA, David Geo-location systems and methods
US20120326873A1 (en) * 2011-06-10 2012-12-27 Aliphcom Activity attainment method and apparatus for a wellness application using data from a data-capable band
US10127564B2 (en) * 2011-09-15 2018-11-13 Stephan HEATH System and method for using impressions tracking and analysis, location information, 2D and 3D mapping, mobile mapping, social media, and user behavior and information for generating mobile and internet posted promotions or offers for, and/or sales of, products and/or services
US20140223326A1 (en) * 2013-02-06 2014-08-07 International Business Machines Corporation Apparatus and methods for co-located social integration and interactions

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090125A1 (ja) 2021-11-19 2023-05-25 株式会社コナミデジタルエンタテインメント 制御システム、情報システム、制御システムの動作方法およびプログラム

Also Published As

Publication number Publication date
WO2014080678A1 (ja) 2014-05-30
US11080310B2 (en) 2021-08-03
JPWO2014080678A1 (ja) 2017-01-05
EP2924659A1 (en) 2015-09-30
US20150254275A1 (en) 2015-09-10
US10037342B2 (en) 2018-07-31
US20180322145A1 (en) 2018-11-08
EP2924659A4 (en) 2016-07-13
CN104737209A (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
JP6102939B2 (ja) 情報処理装置、システム、情報処理方法およびプログラム
JP7002684B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
CN111462307B (zh) 虚拟对象的虚拟形象展示方法、装置、设备及存储介质
US10913000B2 (en) Information storage medium and server device
JP4985970B2 (ja) オブジェクトの表示を制御する技術
JPWO2014119098A1 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
JP5164061B2 (ja) ユーザのコミュニケーションを支援する技術
JP2018075260A (ja) ゲームシステム及びプログラム
JP2018057456A (ja) 処理システム及びプログラム
CN112870705A (zh) 对局结算界面的显示方法、装置、设备及介质
JP2018094247A (ja) ゲームシステム及びプログラム
JP2013162836A (ja) ゲームサーバ装置、プログラム及びゲーム装置
US20230162433A1 (en) Information processing system, information processing method, and information processing program
JP7187092B1 (ja) ハッシュタグシステム、ハッシュタグ付与方法、ハッシュタグ付与プログラム
JP7245890B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP2024011933A (ja) 情報処理システム、情報処理方法、及びプログラム
WO2023032264A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7445723B1 (ja) プログラムおよび情報処理システム
JP7265085B1 (ja) 情報処理システム、情報処理方法、及びプログラム
JP7227672B1 (ja) ハッシュタグシステム、ハッシュタグ付与方法、ハッシュタグ付与プログラム
JP2024001004A (ja) 情報処理システム、情報処理方法、及びプログラム
JP2024048105A (ja) プログラムおよび情報処理システム
JP2024048103A (ja) プログラムおよび情報処理システム
JP2023178627A (ja) 情報処理システム、情報処理方法、及びプログラム
JP2024048107A (ja) プログラムおよび情報処理システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R151 Written notification of patent or utility model registration

Ref document number: 6102939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250