JPWO2014136466A1 - 情報処理装置、システム、情報処理方法およびプログラム - Google Patents

情報処理装置、システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JPWO2014136466A1
JPWO2014136466A1 JP2015504190A JP2015504190A JPWO2014136466A1 JP WO2014136466 A1 JPWO2014136466 A1 JP WO2014136466A1 JP 2015504190 A JP2015504190 A JP 2015504190A JP 2015504190 A JP2015504190 A JP 2015504190A JP WO2014136466 A1 JPWO2014136466 A1 JP WO2014136466A1
Authority
JP
Japan
Prior art keywords
user
information
users
virtual space
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015504190A
Other languages
English (en)
Other versions
JP6254577B2 (ja
Inventor
倉田 雅友
雅友 倉田
小野 秀行
秀行 小野
荘太 松澤
荘太 松澤
彰一 竹内
彰一 竹内
隆克之 村松
隆克之 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Network Communications Inc
Original Assignee
Sony Corp
Sony Network Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Network Communications Inc filed Critical Sony Corp
Publication of JPWO2014136466A1 publication Critical patent/JPWO2014136466A1/ja
Application granted granted Critical
Publication of JP6254577B2 publication Critical patent/JP6254577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】仮想空間に表示されるユーザオブジェクトを介してユーザが互いの行動情報を共有するにあたり、より使いやすいユーザインターフェースを提供する。【解決手段】1または複数のユーザの行動を示す第1の情報を取得する第1の情報取得部、上記1または複数のユーザに関する上記第1の情報とは異なる第2の情報を取得する第2の情報取得部、および上記第1の情報に基づいて構成され上記1または複数のユーザをそれぞれ表すユーザオブジェクトと、上記第2の情報に基づいて構成され上記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる表示制御部を含む情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、システム、情報処理方法およびプログラムに関する。
ソーシャルメディアの普及に伴い、ユーザ同士がネットワークを介して互いの行動を共有することが一般的になりつつある。例えば、特許文献1には、画面上に表示される仮想空間において他のユーザを示すオブジェクトのポーズに、歩いている、走っている、座っている、立っている、電話している、といったような各ユーザの実際の行動を反映させるとともに、オブジェクトの表示位置によってユーザと各ユーザとの親密度や、各ユーザの実際の位置、行動の特徴や嗜好を表現する技術が記載されている。
特開2010−134802号公報
しかしながら、例えば特許文献1に記載されたような技術はまだ十分に開発されているとは言いきれず、ユーザインターフェースの使いやすさなどの面ではなおも改善の余地があるといえる。
そこで、本開示では、仮想空間に表示されるユーザオブジェクトを介してユーザが互いの行動情報を共有するにあたり、より使いやすいユーザインターフェースを提供することを可能にする、新規かつ改良された情報処理装置、システム、情報処理方法およびプログラムを提案する。
本開示によれば、1または複数のユーザの行動を示す第1の情報を取得する第1の情報取得部、上記1または複数のユーザに関する上記第1の情報とは異なる第2の情報を取得する第2の情報取得部、および上記第1の情報に基づいて構成され上記1または複数のユーザをそれぞれ表すユーザオブジェクトと、上記第2の情報に基づいて構成され上記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる表示制御部を含む情報処理装置が提供される。
また、本開示によれば、端末装置と、上記端末装置にサービスを提供する1または複数のサーバ装置とを含み、上記端末装置と上記1または複数のサーバ装置とが協働して、1または複数のユーザの行動を示す第1の情報を取得する機能、上記1または複数のユーザに関する上記第1の情報とは異なる第2の情報を取得する機能、および上記第1の情報に基づいて構成され上記1または複数のユーザをそれぞれ表すユーザオブジェクトと、上記第2の情報に基づいて構成され上記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる機能を提供するシステムが提供される。
また、本開示によれば、1または複数のユーザの行動を示す第1の情報を取得すること、上記1または複数のユーザに関する上記第1の情報とは異なる第2の情報を取得すること、および上記第1の情報に基づいて構成され上記1または複数のユーザをそれぞれ表すユーザオブジェクトと、上記第2の情報に基づいて構成され上記ユーザオブジェクトが配置される仮想空間とを表示部に表示させることを含む情報処理方法が提供される。
また、本開示によれば、1または複数のユーザの行動を示す第1の情報を取得する機能、上記1または複数のユーザに関する上記第1の情報とは異なる第2の情報を取得する機能、および上記第1の情報に基づいて構成され上記1または複数のユーザをそれぞれ表すユーザオブジェクトと、上記第2の情報に基づいて構成され上記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる機能をコンピュータに実現させるためのプログラムが提供される。
上記の構成では、ユーザオブジェクトにそれぞれのユーザの行動が反映され、かつ、ユーザオブジェクトが配置される仮想空間が各ユーザに関する何らかの情報に基づいて構成される。これによって、例えばユーザオブジェクトとして表示されるユーザの属性や行動の特徴といったものを、ユーザオブジェクトの背景となる仮想空間から把握することが可能になり、ユーザオブジェクトを介してユーザの行動情報を共有するユーザインターフェースの使いやすさが向上する。
以上説明したように本開示によれば、仮想空間に表示されるユーザオブジェクトを介してユーザが互いの行動情報を共有するにあたり、より使いやすいユーザインターフェースを提供することができる。
本開示の第1の実施形態を概略的に示すブロック図である。 本開示の第2の実施形態を概略的に示すブロック図である。 本開示の第3の実施形態を概略的に示すブロック図である。 本開示のいくつかの実施形態における行動情報の共有について説明するための図である。 図4に示す行動情報の共有のための表示例を示す図である。 本開示のいくつかの実施形態における行動ステータス表示について説明するための図である。 図6の例における一括選択の例を示す図である。 本開示のいくつかの実施形態における仮想空間の設定の第1の例について説明するための図である。 本開示のいくつかの実施形態における仮想空間の設定の第2の例について説明するための図である。 本開示のいくつかの実施形態における仮想空間の設定の第3の例について説明するための図である。 本開示のいくつかの実施形態における仮想空間の動作の例について説明するための図である。 本開示のいくつかの実施形態におけるオブジェクトに対する操作の第1の例について説明するための図である。 本開示のいくつかの実施形態におけるオブジェクトに対する操作の第2の例について説明するための図である。 本開示のいくつかの実施形態におけるオブジェクトに対する操作の第3の例について説明するための図である。 本開示のいくつかの実施形態におけるオブジェクトに対する操作の第3の例について説明するための図である。 本開示のいくつかの実施形態におけるユーザのグルーピング操作の概要を示す図である。 図14に示したユーザのグルーピング操作における推奨グループ表示の第1の例を示す図である。 図15に示した例の処理を示すフローチャートである。 図14に示したユーザのグルーピング操作における、推奨グループ表示の第2の例を示す図である。 図17に示した例の処理を示すフローチャートである。 情報処理装置のハードウェア構成を説明するためのブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態の例
1−1.第1の実施形態
1−2.第2の実施形態
1−3.第3の実施形態
2.行動情報の共有
3.行動ステータス表示
4.仮想空間の設定
5.オブジェクトに対する操作
6.ユーザのグルーピング
7.ハードウェア構成
8.補足
(1.実施形態の例)
まず、図1〜3を参照して、本開示の実施形態の例について説明する。
(1−1.第1の実施形態)
図1は、本開示の第1の実施形態を概略的に示すブロック図である。図1を参照すると、本実施形態に係るシステム10は、端末装置100と、サーバ200とを含む。端末装置100は、例えばスマートフォン、タブレット端末、携帯型ゲーム機、携帯型メディアプレーヤなど、ユーザによって携帯される端末装置であり、例えば後述する情報処理装置のハードウェア構成によって実現されうる。また、サーバ200は、有線または無線の各種ネットワークを介して1または複数の端末装置100と通信し、端末装置100に各種のサービスを提供する。サーバ200は、単一のサーバ装置またはネットワークで互いに接続されて協働する複数のサーバ装置によって実現される。サーバ装置は、例えば後述する情報処理装置のハードウェア構成によって実現されうる。
(端末装置)
端末装置100は、機能構成として、センサ110、行動認識部120、通信部130、制御部140およびUI(ユーザインターフェース)150を含む。
センサ110は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、気圧センサなど各種のセンサであり、端末装置100のユーザの加速度や姿勢、向き、周辺環境などを検出する。また、センサ110には、ユーザの位置情報を取得するためのGPSセンサやWi−Fi通信部などの測位手段が含まれてもよい。
行動認識部120は、例えばCPUなどのプロセッサがプログラムに従って動作することによってソフトウェア的に実現される。なお、行動認識部120を含め、本明細書においてソフトウェア的に実現されると説明される機能構成は、例えばASIC(Application Specific Integrated Circuit)のような処理回路によって実現されてもよい。行動認識部120は、センサ110の検出結果に基づいて端末装置100のユーザの行動を認識し、ユーザの行動を示す情報(行動情報)を取得する。例えば、行動認識部120は、加速度などの検出結果に基づいて、ユーザが止まっているか、歩いているか、走っているかを認識してもよい。また、行動認識部120は、加速度などの検出結果とユーザの位置情報とを組み合わせて、ユーザが仕事をしているか、自宅にいるか、買い物をしているか、といったようなより高度な行動を認識してもよい。行動認識部120は、認識されたユーザの行動を示す情報をサーバ200に送信する。また、行動認識部120は、ユーザの行動を示す情報を制御部140にも提供してもよい。
通信部130は、例えば有線または無線の各種通信装置によって実現される。通信部130は、サーバ200から、1または複数のユーザの行動情報を受信する。ここで行動情報が受信されるユーザは、端末装置100のユーザを含んでもよいし、端末装置100のユーザとは別の1または複数のユーザ(他のユーザ)を含んでもよい。他のユーザの行動情報は、例えば、別の端末装置100のセンサ110および行動認識部120によって取得され、サーバ200に送信されたものでありうる。さらに、通信部130は、後述するように、行動情報とは異なる情報、例えば各ユーザの属性を示す情報、または各ユーザの行動情報を統計処理して得られる情報をサーバ200から受信してもよい。通信部130は、受信した情報を制御部140に提供する。
制御部140は、例えばCPUなどのプロセッサがプログラムに従って動作することによってソフトウェア的に実現される。制御部140は、通信部130から取得した情報に基づいて、UI150に含まれる表示部に画像を表示させる。なお、本明細書において、画像には、静止画像と動画像とが含まれる。また、制御部140は、通信部130から取得した情報に基づいて、UI150に含まれるスピーカなどから音声を出力させてもよい。制御部140がUI150において表示させる画像には、ユーザオブジェクトと、ユーザオブジェクトが配置される仮想空間とが含まれる。さらに、制御部140は、UI150に含まれる操作部を介してユーザの操作を取得し、その操作に基づいて表示させる画像を変化させてもよい。さらに、制御部140は、ユーザの操作に基づいて、ユーザオブジェクトによって表示されるユーザに対する操作、例えばユーザのグルーピングなどを実行してもよい。また、制御部140は、各ユーザの行動情報に基づいて行動ステータスを特定し、ユーザオブジェクトに行動ステータスを反映させてもよい。
ここで、ユーザオブジェクトは、1または複数のユーザをそれぞれ表すオブジェクトであり、通信部130が受信した各ユーザの行動情報および/または行動認識部120から提供された行動情報に基づいて構成される。つまり、ユーザオブジェクトは、行動情報が提供されたユーザについて表示される。なお、ユーザオブジェクトは、必ずしも行動情報が提供されたユーザのすべてについて表示されなくてもよく、例えば特定のグループに分類されたユーザのように、端末装置100のユーザによって指定されたユーザだけを表示してもよい。
一方、仮想空間は、行動情報とは異なる情報に基づいて構成される。この情報は、例えば各ユーザの属性を示す情報であってもよく、各ユーザの行動情報を統計処理して得られる情報であってもよい。制御部140は、例えば、ユーザオブジェクトとして表示されるユーザのそれぞれについて上記のような情報を組み合わせて、各ユーザオブジェクトに共通の仮想空間として表示させる画像を構成する。仮想空間として表示される画像は、例えば予め設定された画像の中から選択されてもよいし、各ユーザについての情報から抽出される数値を所定の規則に従って変換することによって新たに生成されてもよい。
UI150は、例えば画像を表示するディスプレイなどの表示部(出力装置)と、表示された画像に対するユーザの操作を取得するタッチパネルまたはマウスなどの操作部(入力装置)によって実現される。UI150は、制御部140の制御に従って画像を表示するとともに、表示された画像に対するユーザの操作を示す情報を制御部140に提供する。UI150が有する出力装置には、さらに、スピーカなどの音声出力部が含まれてもよい。
(サーバ)
サーバ200は、機能構成として、アプリケーションサーバ210と、DB(データベース)220とを含む。
アプリケーションサーバ210は、例えばCPUなどのプロセッサがプログラムに従って動作することによってソフトウェア的に実現される。アプリケーションサーバ210は、DB220を参照しながら、端末装置100にアプリケーションサービスを提供するための各種演算を実行する。
例えば、アプリケーションサーバ210は、端末装置100から受信したユーザの行動を示す情報をDB220に蓄積し、蓄積された情報を必要に応じて端末装置100に送信する。このような処理によって、例えば複数のユーザがそれぞれ使用する端末装置100においてそれぞれ認識された各ユーザの行動を示す情報がDB220に集約される。ユーザの端末装置100からの要求に応じてアプリケーションサーバ210が他のユーザの行動を示す情報をDB220から読み出して端末装置100に送信することで、ユーザ間での行動情報の共有が可能になる。
また、アプリケーションサーバ210は、端末装置100の制御部140における仮想空間の構成に用いられる情報(行動情報とは異なる情報)を取得して端末装置100に送信する。例えば、アプリケーションサーバ210は、各ユーザが登録したプロファイル情報(ユーザの属性を示す情報)をDB220に集約し、必要に応じて端末装置100に送信してもよい。また、アプリケーションサーバ210は、DB220に蓄積されたユーザの行動情報の統計処理を実行し、処理によって得られるユーザの行動パターンなどの情報を端末装置100に送信してもよい。
DB220は、例えばストレージ装置によって実現され、アプリケーションサーバ210によって処理される各種の情報を格納する。例えば、DB220は、アプリケーションサーバ210が端末装置100から受信した各ユーザの行動情報を格納する。また、DB220は、アプリケーションサーバ210が取得した各ユーザの属性を示す情報や、アプリケーションサーバ210が各ユーザの行動情報を統計処理することによって生成した情報を格納してもよい。
上述した本開示の第1の実施形態では、例えば、通信部130が、ユーザの行動情報を取得する第1の情報取得部として機能する(端末装置100のユーザ自身の行動情報を内部的に取得する場合は行動認識部120も第1の情報取得部として機能する)。通信部130は、ユーザに関する行動情報とは異なる情報(例えば属性情報または行動情報を統計処理して得られる情報)を取得する第2の情報取得部としても機能する。また、制御部140が、行動情報に基づいて構成され各ユーザを表すユーザオブジェクトと、行動情報とは異なる情報に基づいて構成されユーザオブジェクトが配置される仮想空間とをUI150に含まれる表示部に表示させる表示制御部として機能する。従って、端末装置100は、これらの構成要素を含む情報処理装置であるともいえる。
以上、本開示の第1の実施形態について説明した。なお、上記の説明は概略的であり、端末装置100およびサーバ200は図示した以外の機能構成をさらに含みうる。例えば、端末装置100はデータベースをさらに含み、サーバ200のDB220に格納された情報のキャッシュを保持してもよい。これによって、例えば、端末装置100でのユーザオブジェクトを含む画像の表示に用いられる行動情報、例えば端末装置100のユーザの友人の行動情報が端末装置100の内部に保持され、ユーザオブジェクトを含む画像の表示の度にサーバ200から行動情報を受信しなくてもよくなる。この場合、端末装置100のデータベースに格納された行動情報は、サーバ200のアプリケーションサーバ210によって、DB220に格納された行動情報を参照して差分更新されうる。
また、上記の例では、ユーザの行動情報をサーバに提供する端末装置と、サーバで集約された行動情報などの情報に基づいてユーザオブジェクトを含む画像を表示する端末装置とが同一であるが、変形例としてこれらの端末装置が互いに独立した構成も可能である。例えば、上記の端末装置100の機能は、センサ110および行動認識部120を含み、センシングデータを取得してユーザの行動を認識し、行動情報をサーバ200に送信するセンサログ端末100aと、通信部130、制御部140およびUI150を含み、サーバ200から受信した情報に基づいてユーザオブジェクトを含む画像を表示する表示端末100bとに分散して実現されてもよい。この場合、表示端末100bは、必ずしもユーザによって携帯される端末装置でなくてよく、例えば据え置き型のPCやテレビ、ゲーム機などであってもよい。
本実施形態は、端末装置300で行動認識が実行されてユーザの行動情報が生成されるため、行動情報のプライバシーの保護という観点で有利である。例えば、行動認識の結果として得られた行動情報をサーバに送信するか否かを、ユーザが選択することが可能であってもよい。これによって、ユーザは、共有したくない行動情報については、端末装置100内に留めてサーバ200には送信しないといったことができる。
(1−2.第2の実施形態)
図2は、本開示の第2の実施形態を概略的に示すブロック図である。図2を参照すると、本実施形態に係るシステム30は、端末装置300と、サーバ400とを含む。端末装置300は、例えばスマートフォン、タブレット端末、携帯型ゲーム機、携帯型メディアプレーヤなど、ユーザによって携帯される端末装置であり、例えば後述する情報処理装置のハードウェア構成によって実現されうる。また、サーバ400は、有線または無線の各種ネットワークを介して1または複数の端末装置300と通信し、端末装置300に各種のサービスを提供する。サーバ400は、単一のサーバ装置またはネットワークで互いに接続されて協働する複数のサーバ装置によって実現される。サーバ装置は、例えば後述する情報処理装置のハードウェア構成によって実現されうる。
本実施形態では、図示されているように、端末装置300がセンサ110、通信部130、制御部140およびUI150を機能構成として含み、サーバ400が行動認識部120、アプリケーションサーバ210およびDB220を機能構成として含む。上記の第1の実施形態との相違として、本実施形態では、行動認識部120が端末装置300ではなくサーバ400に含まれる。従って、各端末装置300は、センサ110の検出結果をサーバ400に送信し、サーバ400は、各端末装置300から受信したセンサ110の検出結果に基づいて各ユーザの行動を認識する。
なお、各機能構成の詳細については、上記の第1の実施形態と同様であるため重複した説明は省略する。本実施形態についても、変形例として、ユーザのセンシングデータをサーバに提供する端末装置と、サーバで集約された行動情報などの情報に基づいてユーザオブジェクトを含む画像を表示する端末装置とが互いに独立した構成が可能である。例えば、上記の端末装置300の機能は、センサ110を含み、センシングデータを取得してサーバ400に提供するセンサログ端末300aと、通信部130、制御部140およびUI150を含み、サーバ400から受信した情報に基づいてユーザオブジェクトを含む画像を表示する表示端末300bとに分散して実現されてもよい。この場合、表示端末300bは、必ずしもユーザによって携帯される端末装置でなくてよく、例えば据え置き型のPCやテレビ、ゲーム機などであってもよい。
上述した本開示の第2の実施形態でも、例えば、通信部130が、ユーザの行動情報を取得する第1の情報取得部、およびユーザに関する行動情報とは異なる情報を取得する第2の情報取得部として機能する。また、制御部140が、行動情報に基づいて構成され各ユーザを表すユーザオブジェクトと、行動情報とは異なる情報に基づいて構成されユーザオブジェクトが配置される仮想空間とをUI150に含まれる表示部に表示させる表示制御部として機能する。従って、端末装置300は、これらの構成要素を含む情報処理装置であるともいえる。
本実施形態は、上記の第1の実施形態と比べて、端末装置300が行動認識のための演算を実行しなくてよいため、端末装置300の消費電力を節減できるという点で有利である。また、変形例のようにセンサログ端末300aが独立している場合、行動認識のためのプロセッサなどの処理回路が必要とされないことによって、センサログ端末300aを小型化/軽量化できるとともに、消費電力も節減できる。
(1−3.第3の実施形態)
図3は、本開示の第3の実施形態を概略的に示すブロック図である。図3を参照すると、本実施形態に係るシステム50は、端末装置500と、サーバ600とを含む。端末装置500は、例えばスマートフォン、タブレット端末、携帯型ゲーム機、携帯型メディアプレーヤなど、ユーザによって携帯される端末装置であり、例えば後述する情報処理装置のハードウェア構成によって実現されうる。また、サーバ600は、有線または無線の各種ネットワークを介して1または複数の端末装置500と通信し、端末装置500に各種のサービスを提供する。サーバ600は、単一のサーバ装置またはネットワークで互いに接続されて協働する複数のサーバ装置によって実現される。サーバ装置は、例えば後述する情報処理装置のハードウェア構成によって実現されうる。
本実施形態では、図示されているように、端末装置500がセンサ110、通信部530およびUI150を機能構成として含み、サーバ600が行動認識部120、制御部140、アプリケーションサーバ210およびDB220を機能構成として含む。上記の第1および第2の実施形態との相違として、本実施形態では、行動認識部120だけではなく制御部140までもが、サーバ600に含まれる。従って、各端末装置500は、センサ110の検出結果をサーバ600に送信し、サーバ600で生成されたユーザオブジェクトを含む画像のデータを受信してUI150に表示させる。
通信部530は、例えば有線または無線の各種通信装置によって実現される。通信部530は、サーバ600から、ユーザオブジェクトを含むユーザオブジェクトを含む画像のデータを受信する。ユーザオブジェクトを含む画像のデータは、サーバ600に含まれる制御部140において、行動情報およびその他の情報に基づいて生成される。また、通信部530は、ユーザオブジェクトを含む画像に対するユーザの操作を示す情報をUI150から取得し、制御部140がその操作に基づいてユーザオブジェクトを含む画像を変化させられるように、情報をサーバ600に送信してもよい。
なお、通信部530以外の各機能構成の詳細については、上記の第1の実施形態と同様であるため重複した説明は省略する。本実施形態についても、変形例として、ユーザのセンシングデータをサーバに提供する端末装置と、サーバからユーザオブジェクトを含む画像のデータを受信して表示させる端末装置とが互いに独立した構成が可能である。例えば、上記の端末装置500の機能は、センサ110を含み、センシングデータを取得してサーバ600に提供するセンサログ端末500aと、通信部530およびUI150を含み、サーバ600から受信したデータを用いてユーザオブジェクトを含む画像を表示する表示端末500bとに分散して実現されてもよい。この場合、表示端末500bは、必ずしもユーザによって携帯される端末装置でなくてよく、例えば据え置き型のPCやテレビ、ゲーム機などであってもよい。
上述した本開示の第3の実施形態では、例えば、行動認識部120およびアプリケーションサーバ210が、ユーザの行動情報を取得する第1の情報取得部として機能する。また、アプリケーションサーバ210は、別途提供された属性情報をDB220から読み出したり、行動情報を統計処理したりすることによって、ユーザに関する行動情報とは異なる情報を取得する第2の情報取得部としても機能する。さらに、制御部140が、行動情報に基づいて構成され各ユーザを表すユーザオブジェクトと、行動情報とは異なる情報に基づいて構成されユーザオブジェクトが配置される仮想空間とを、通信部530を介して端末装置500のUI150に含まれる表示部に表示させる表示制御部として機能する。従って、サーバ600は、これらの構成要素を含む情報処理装置であるともいえる。
本実施形態は、上記の第1および第2の実施形態に比べて、端末装置500がユーザオブジェクトを含む画像の生成のための演算をも実行しなくてよいため、端末装置500の消費電力という観点では最も有利である。その一方で、本実施形態では、ユーザオブジェクトを含む画像がサーバ600で生成されるために、ユーザの行動情報だけでなくUI150における操作状態もサーバ600で把握される。従って、プライバシーの観点では上記の2つの実施形態の方が有利でありうる。
以上説明したように、本開示の実施形態では、各機能構成をシステムのどの部分に配置するかについて、さまざまなバリエーションが可能である。そのようなバリエーションの例が、上述した3つの例とそれらの変形例に限られないことは勿論である。
(2.行動情報の共有)
次に、図4および図5を参照して、本開示のいくつかの実施形態における行動情報の共有について説明する。例えば上述した各実施形態では、制御部140が表示させるユーザオブジェクトを介して、各ユーザの行動情報が共有される。以下では、そうした行動情報の共有について、参照されるデータや表示される画面などの例を含めてさらに具体的に説明する。
なお、以下の説明において、「行動ステータス」は、所定の基準で分類されたユーザの行動を示す情報である。例えば、以下の説明では行動ステータスとして「休憩中」、「走っている」、「自動車で移動中」などを例示するが、他にもさまざまな行動ステータスの設定が可能である。また、行動ステータスの粒度は、場合によって、例えば仮想空間1013の種類によって変更されうる。例えば、「自動車で移動中」、「バスで移動中」、および「電車で移動中」の行動ステータスが、場合によって「移動中」という1つの行動ステータスに統合して表示されてもよい。また、以下の説明において、「行動ログ」は、ユーザの過去の行動の履歴を示す情報である。いくつかの例において、行動ログは行動ステータスの履歴でありうる。
図4は、本開示のいくつかの実施形態における行動情報の共有について説明するための図である。図4を参照すると、ユーザは、端末装置において提供されるクライアントアプリケーション1001を利用して、ソーシャルメディア1003にログインする。ソーシャルメディア1003は、ログインしたユーザについて、共有リスト1005を提供する。共有リスト1005は、ソーシャルメディア1003を提供するサーバから、例えば上記で説明した実施形態における制御部140に提供される。なお、図示された例では、共有リストがソーシャルメディアから提供されているが、本開示の他の例では、ソーシャルメディア以外によって共有リストが提供されてもよい。例えば、ユーザが友人である他のユーザと直接的にIDを交換することによって、友人同士による共有リストを作成することが可能であってもよい。
一方、クライアントアプリケーション1001は、端末装置またはサーバの行動認識部1007を制御して、ユーザの行動情報を行動情報DB1009に提供させる。複数のユーザがクライアントアプリケーション1001を利用してソーシャルメディア1003にログインすることによって、それぞれのユーザの行動情報が行動情報DB1009に集約される。
ユーザが他のユーザとの間で行動情報を共有する場合、例えば上記で説明した実施形態では、制御部140が、まず共有リスト1005に従って行動情報の共有が可能な他のユーザのリスト1011をUI150に表示させ、リスト1011から選択されたユーザについて、仮想空間1013で当該ユーザの行動ステータスを示すユーザオブジェクト1015を表示させてもよい。なお、仮想空間1013およびユーザオブジェクト1015の具体的な表示例については後述する。
ここで、ユーザオブジェクト1015を表示させるにあたり、制御部140は、ユーザの行動情報を行動情報DB1009から取得する。このとき、共有リスト1005を参照して、当該ユーザの行動情報の提供が可能であるか否かがを判定されてもよい。また、仮想空間1013は、各ユーザが分類されるグループごとに複数設定され、それぞれの仮想空間1013を切り替えて表示することが可能であってもよい。図示された例では、仮想空間1013a,1013b,1013cの3つが設定されている。仮想空間1013a,1013b,1013cの間では、例えば行動情報に基づいて設定される行動ステータスの粒度が異なっていてもよい。
さらに、UI150において、ユーザが仮想空間1013に表示されたユーザオブジェクト1015を選択することによって、他のユーザの行動ログ表示1017を参照することができる。行動ログ表示1017は、例えば、対象のユーザがその日にとった行動の割合を示すグラフや、当該ユーザの過去の行動パターンなどによって表現された、ユーザの行動ログの表示である。行動ログ表示1017は、行動情報DB1009から取得された、対象のユーザの行動ログ1019に基づいて生成されうる。
図5は、図4に示す行動情報の共有のための表示例を示す図である。図5に示されるように、リスト1011は、各ユーザの情報1021を要素とするリストである。各ユーザの情報1021には、例えば、サムネイル画像、ユーザ名、ソーシャルメディアにおけるID、行動ステータスなどがテキストとして表示されるのに加えて、行動ステータスを示すユーザオブジェクト1023が表示されてもよい。なお、このユーザオブジェクト1023は、仮想空間1013において表示されるユーザオブジェクト1015と共通であってもよい。ユーザがソーシャルメディア1003にログインしていない場合や、ログインしていても行動が認識されなかった場合には行動ステータスが特定されないため、各ユーザの情報1021において行動ステータスのテキストやユーザオブジェクト1023が表示されない場合がありうる。
一方、仮想空間1013は、各ユーザを表示するユーザオブジェクト1015が配置される空間である。ユーザオブジェクト1015は、そのポーズや表示位置などによって、各ユーザの行動ステータスを示す。従って、リスト1011におけるユーザオブジェクト1023と同様に、ユーザオブジェクト1015も、ユーザの行動ステータスが特定されない場合には表示されないことがありうる。また、後述するように、ユーザオブジェクト1015が配置される仮想空間1013は、例えば各ユーザの属性や行動パターンなどに応じて変化する。
さらに、リスト1011に表示された各ユーザの情報1021、または仮想空間1013に表示された各ユーザのユーザオブジェクト1015を選択することによって、当該ユーザを対象とする行動ログ表示1017を表示させることが可能である。図5では、行動ログ表示1017の2つの例として、行動統計表示1017aとコメントタイムライン表示1017bとが示されている。行動統計表示1017aは、対象ユーザの行動ログを統計的に解析した結果を示す表示であり、例えばユーザの1日の行動ステータスの割合を示すグラフや、特定の行動(歩いていた時間、歩数、電車に乗っていた時間、など)の量を他のユーザと比較したランキング表示などが含まれうる。コメントタイムライン表示1017bは、対象ユーザが投稿したコメントをタイムライン表示するとともに、それぞれのコメントの投稿時のユーザの行動ステータスを表示する。
ここで、上記の通り、リスト1011および仮想空間1013には、端末装置のユーザ自身が、情報1021またはユーザオブジェクト1015として表示される。これらを選択することによって、ユーザ自身についての行動ログ表示1017を表示させることも可能である。ユーザ自身の行動ログ表示1017では、基本的にすべての項目が表示されうる。一方、他のユーザについての行動ログ表示1017では、各ユーザが公開を許可した項目が限定的に表示されうる。つまり、例えば行動の種類や時間帯によって各ユーザが非公開に設定した行動ログについては、行動ログ表示1017に反映されない。
また、行動ログ表示1017として表示される行動ログの範囲や、行動ログ表示1017における行動ログの表示方法は、対象ユーザの現在の行動ステータスに応じて変化してもよい。例えば、現在ユーザが移動中であれば、徒歩、電車、バスなど、移動に関する行動ログだけが行動ログ表示1017に反映されてもよい。あるいは、現在ユーザがオフィスで仕事中であれば、オフィス内での行動ログだけが行動ログ表示1017に反映されてもよい。
(3.行動ステータス表示)
次に、図6および図7を参照して、本開示のいくつかの実施形態における行動ステータス表示について説明する。上述した行動情報の共有では、各ユーザの行動ステータスを示すユーザオブジェクト1015が仮想空間1013に表示されることによって、各ユーザの行動ステータスが共有される。以下では、かかる行動ステータスの表示について、さらに具体的に説明する。
図6は、本開示のいくつかの実施形態における行動ステータス表示について説明するための図である。図6に示された例では、仮想空間1013に、ユーザオブジェクト1015a〜1015gが表示されている。
(ユーザオブジェクトそのものによる表現)
図示された例のように、それぞれのユーザオブジェクト1015は、そのポーズ(形状)または動きによって、対応するユーザの行動ステータスを表現してもよい。例えば、ユーザオブジェクト1015aは、座っているポーズで表示され、ユーザの行動ステータスが「休憩中」であることを示す。ユーザオブジェクト1015c,1015eは、走っているポーズで表示され、さらに実際に走り回ることによってユーザの行動ステータスが「走っている」であることを示す。ユーザオブジェクト1015fは、本を持ったポーズで表示されることによってユーザの行動ステータスが「読書中」であることを示す。ユーザオブジェクト1015gは、立ち止まったポーズで表示されることによってユーザの行動ステータスが「静止している」であることを示す。
(他のオブジェクトとの関係による表現)
また、ユーザオブジェクト1015は、その入れ物として表示される他のオブジェクト(コンテナオブジェクト)によって、対応するユーザの行動ステータスを表現してもよい。例えば、ユーザオブジェクト1015bは、道路を走る自動車のコンテナオブジェクト1016a内に表示されることによってユーザの行動ステータス「自動車で移動中」であることを示す。ユーザオブジェクト1015dは、道路を走るバスのコンテナオブジェクト1016b内に表示されることによってユーザの行動ステータスが「バスで移動中」であることを示す。
ここで、仮想空間1013に配置されるコンテナオブジェクト1016は、例えば仮想空間1013にユーザオブジェクト1015として表示されるユーザの行動パターンに基づいて表示され、対応する行動ステータスに該当するユーザが存在しなくても表示されうる。例えば、図示された例では、ユーザが座っていることを示すためのベンチのコンテナオブジェクト1016cが表示されているが、ベンチに座っているユーザオブジェクトは表示されていない。
さらに、ユーザオブジェクト1015に関連付けて表示される他のオブジェクトは、関連付けられるユーザオブジェクト1015の数に応じて、その数やサイズが変化してもよい。例えば、図示された例において、自動車に乗っているユーザを示すユーザオブジェクト1015が増加した場合、別の自動車が追加で表示されてもよい。また、図示された例において、バスに乗っているユーザを示すユーザオブジェクト1015が増加した場合、バスのサイズが大きくなってもよい。また、コンテナオブジェクト1016は、それを選択することによって対応する種類の行動ステータスを有するユーザを一括して選択するための操作要素として用いられてもよい。例えば、図7に示すように、図6の例においてユーザがバスに乗っていることを示すために仮想空間1013に表示されたバスのコンテナオブジェクト1016bを選択すると、バスに乗っているユーザ全員が一括して選択される。一括して選択されたユーザは、例えば図示されたようにリスト1011として表示されたり、メッセージの送信先として設定されうる。同様の操作が、例えば仮想空間1013に表示された自動車やベンチのコンテナオブジェクト1016についても可能でありうる。
(行動ステータスに応じたユーザオブジェクトの配置)
また、仮想空間1013におけるユーザオブジェクト1015の配置は、それぞれのユーザオブジェクト1015によって表現される行動ステータスに応じて決定される。図示された例では、自動車やバスに乗って移動中のユーザに対応するユーザオブジェクト1015b,1015dが、仮想空間1013に描かれた道路上に配置される。また、休憩しているユーザに対応するユーザオブジェクト1015aは、仮想空間1013に描かれたカフェに配置される。図示された例において、各ユーザオブジェクトの配置は、例えばユーザの実際の位置情報とは関係なく決定されうる。従って、例えば相異なる場所でバスに乗っている複数のユーザが、同じバスに乗っている複数のユーザオブジェクト1015として表現されうる。
一方、走っているユーザに対応するユーザオブジェクト1015c,1015eのうち、ユーザオブジェクト1015cは手前の公園に、ユーザオブジェクト1015eは奥の横断歩道に配置されている。この配置は、ユーザオブジェクト1015cに対応するユーザが公園など道路以外の場所を走っており、ユーザオブジェクト1015eに対応するユーザが道路または歩道を走っていることを示すものでありうる。このように、ユーザオブジェクト1015の配置は、それぞれのユーザオブジェクト1015によって表現される行動ステータスだけではなく、ユーザの位置情報などを反映してもよい。なお、図示された例では、ユーザの位置の種類がユーザオブジェクト1015の配置に反映されている。従って、道路を走っているユーザはその道路がどこの道路であれユーザオブジェクト1015eと同じ横断歩道に配置され、道路以外の場所を走っているユーザはそれが公園であろうとなかろうとユーザオブジェクト1015cと同じ公園に配置されうる。また、他の例として、エレベータに乗っているユーザを示すユーザオブジェクト1015は、仮想空間1013に表示されるビルの中に配置されてもよい。
上記の例において、仮想空間1013に配置される道路やカフェ、公園、横断歩道、ビルなどの背景オブジェクトは、そこに配置されるユーザオブジェクト1015の数に応じて、その数やサイズが変化してもよい。例えば、図示された例において、自動車やバスに乗って移動中のユーザを示すユーザオブジェクト1015が所定の数以上になった場合、仮想空間1013に表示される道路の幅が広がってもよい。また、例えば、エレベータに乗っているユーザを示すユーザオブジェクト1015が所定の数以上になった場合、仮想空間1013の表示されるビルが1つ追加されてもよい。
(4.仮想空間の設定)
次に、図8〜図11を参照して、本開示のいくつかの実施形態における仮想空間の設定について説明する。上述した行動情報の共有では、各ユーザの行動ステータスが反映されたユーザオブジェクト1015が仮想空間1013に表示されることによって、各ユーザの行動ステータスが共有される。以下では、このときの仮想空間1013の設定について、さらに具体的に説明する。
図8は、本開示のいくつかの実施形態における仮想空間の設定の第1の例について説明するための図である。図示された例では、グループAに分類されたユーザを示すユーザオブジェクト1015が配置される仮想空間1013として、書店を模した仮想空間(“Bookstore”タウンビュー)1013pが設定されている。これは、各ユーザから別途提供されたプロファイル情報1025aにおいて、グループAに分類された各ユーザが、書籍の購入履歴などに基づいて設定される「Book Score」(0〜100で設定される)が高いという特徴を共有していることに基づくものである。
図9は、本開示のいくつかの実施形態における仮想空間の設定の第2の例について説明するための図である。図示された例では、グループBに分類されたユーザを示すユーザオブジェクト1015が配置される仮想空間1013として、通学路を模した仮想空間(“young & student”タウンビュー)1013qが設定されている。これは、各ユーザから別途提供されたプロファイル情報1025bにおいて、グループBに分類された各ユーザが、10代後半〜20代前半の年齢であり、かつ職業(occupation)がいずれも大学や高校の学生であることに基づくものである。
図10は、本開示のいくつかの実施形態における仮想空間の設定の第3の例について説明するための図である。図示された例では、グループCに分類されたユーザを示すユーザオブジェクト1015として表示される仮想空間1013として、上記の第1の例と同じく書店を模した仮想空間(“Bookstore”タウンビュー)1013pが設定されている。これは、行動ログに基づいて抽出された平均的な行動パターンにおいて、各ユーザが、行動「読書」の割合が比較的多いという特徴を共有していることに基づくものでありうる。
以上で説明した3つの例のように、本開示のいくつかの実施形態では、ユーザオブジェクトを含む画像におけるユーザオブジェクト1015の背景となる仮想空間1013が、ユーザオブジェクト1015の構成に用いられるユーザの行動情報(第1の情報)とは異なる情報(第2の情報)に基づいて構成される。仮想空間1013は、各ユーザに関する第2の情報を互いに組み合わせた結果(例えば平均や中間値などを含む各種のクラスタリングの結果)に基づいて構成されうる。この場合、各ユーザを表すユーザオブジェクト1015は、共通の仮想空間1013に配置されうる。なお、仮想空間1013として表示される画像は、例えば予め設定された画像の中から選択されてもよいし、各ユーザについての情報から抽出される数値を所定の規則に従って変換することによって新たに生成されてもよい。
例えば、上記の図8および図9の例では、仮想空間1013が、各ユーザのプロファイル情報1025に基づいて構成される。プロファイル情報1025は、ユーザの属性を示す情報の一例であって、例えばユーザの年齢、職業、または商品購入履歴などに基づいて生成される。もちろん、プロファイル情報は、年齢、職業、および商品購入履歴以外の情報に基づいて生成されてもよく、また仮想空間1013はプロファイル情報以外の情報に基づいて構成されてもよい。
また、例えば、上記の図10の例では、仮想空間1013が、各ユーザの行動パターンを示す情報に基づいて構成される。行動パターンを示す情報は、ユーザの行動情報を統計処理して得られる情報の一例である。ユーザの行動パターンは、例えば、第1〜第3の実施形態で説明したアプリケーションサーバ210が、DB220に蓄積されたユーザの行動情報を統計処理することによって抽出される。なお、行動パターンを抽出するための処理については、例えば特開2011−81431号公報などに記載されているような公知の技術を利用することが可能であるため、ここでは詳細な説明を省略する。
さらに、上記の図10の例において、グループCについて設定される仮想空間1013の一部または全部が、グループCに分類されるユーザに共通する行動パターンを反映して時間的に変更されてもよい。例えば、図示された例では、各ユーザの行動パターンにおいて、22:00頃に共通して読書の時間が存在する。これに基づいて、例えば、通常の仮想空間1013が、21:30〜23:00の間に限って書店を模した仮想空間1013pに変化してもよい。あるいは、仮想空間1013において、21:30〜23:00の間に限って各ユーザオブジェクト1015が本のオブジェクトを所持するような表示の変化が加えられてもよい。
図11は、本開示のいくつかの実施形態における仮想空間の動作の例について説明するための図である。図示された例では、仮想空間1013において、ユーザP,Qをそれぞれ示すユーザオブジェクト1015p,1015qが表示される。ユーザPは、毎日8:00にバスに乗るという行動パターンを有する。一方、ユーザQは、毎日9:00にバスに乗るという行動パターンを有する。これに対応して、仮想空間1013では、8:00と9:00に、それぞれバス1027aとバス1027bが表示される。バス1027は、上記の図6の例におけるコンテナオブジェクト1016として表示されうる。ユーザPの行動ステータスが、ユーザPがいつも通りバスに乗っていることを示していれば、バス1027aにはユーザPを表示するユーザオブジェクト1015pが乗っている。同様に、ユーザQの行動ステータスが、ユーザQがいつも通りにバスに乗っていることを示していれば、バス1027bにはユーザQを表示するユーザオブジェクト1015qが乗っている。
ここで、仮想空間1013に表示されるバス1027aおよびバス1027bは、それぞれ、ユーザP,Qがバスに乗っているか否かにかかわらず表示されてもよい。より具体的には、仮想空間1013では、毎日8:00になるとバス1027aが運行され、9:00になるとバス1027bが運行されてもよい。この場合、例えばユーザPが休暇などで8:00に乗らなかった場合、ユーザPを表示するユーザオブジェクト1015pがユーザPのそのときの行動ステータスに応じて別の場所で別のポーズで表示される一方で、バス1027aは普段通り8:00に運行される。ただし、ユーザPはバスに乗っていないため、バス1027aにはユーザオブジェクトが乗っていない。
このように、ユーザの行動情報を統計処理して得られる行動パターンなどの情報に基づいて仮想空間1013、または仮想空間1013に表示されるオブジェクトの表示を制御することによって、ユーザの一時的なイレギュラーな行動に影響されることなく、ユーザの行動の特徴を仮想空間1013の表示から認識することができる。
また、このような表示の応用として、あるユーザから他のユーザへの働きかけがされてもよい。例えば、ユーザXに「土曜日の夕方にジョギングする」という行動パターンがあり、ユーザYに「土曜日の夕方に自転車で走っている」という行動パターンがある場合のように、同じ時間帯の行動パターン(行動は同じでもよいし異なってもよい)を有する複数のユーザがいる場合である。この場合、複数のユーザのうちの一部のユーザがたまたま行動パターンに沿った行動をしていない場合、他のユーザがそのユーザにその行動をとるよう促してもよい。上記の例であれは、土曜日の夕方に、ユーザXはジョギングしているがユーザYが自転車に乗っていない場合、ユーザYの端末装置に表示される仮想空間1013でユーザXを表示するユーザオブジェクト1015が、ジョギングしながら、ユーザYに対して自転車に乗るよう促してもよい。
(5.オブジェクトに対する操作)
次に、図12および図13を参照して、本開示のいくつかの実施形態におけるオブジェクトに対する操作について説明する。上述した行動情報の共有では、仮想空間1013に表示されるユーザオブジェクト1015に対してユーザインターフェース上で操作を加えることによって、各ユーザの情報または現実の各ユーザに対する操作を実行することが可能である。以下では、このときのオブジェクトに対する操作について、さらに具体的に説明する。
図12Aは、本開示のいくつかの実施形態におけるオブジェクトに対する操作の第1の例について説明するための図である。図示された例では、静止している状態で表示されたユーザオブジェクト1015を、ドラッグ&ドロップなどの操作によって仮想空間1013に表示された車1027cまで移動させることによって、ユーザの行動ステータスが「静止」から「車に乗って移動」に修正される。なお、この例でも、図6に示した例と同様に、ユーザオブジェクト1015が車1027cの中に表示されることは、ユーザが車に乗って移動していることを示す。このように、ユーザの行動ステータスに対応したオブジェクト(ここでは車1027c)が仮想空間に表示されていることによって、行動ステータスの修正操作を、ユーザオブジェクト1015の配置の変更によって実行することができる。このような修正操作の結果は、例えば行動認識における学習に利用されてもよい。図6の例でいえば、同様に、ユーザをバスに乗せたり、カフェに座らせたり、ベンチに座らせたりする操作もできうる。
図12Bは、本開示のいくつかの実施形態におけるオブジェクトに対する操作の第2の例について説明するための図である。図示された例では、ユーザオブジェクト1015を長押しすることで、ドア1027dが出現する。ユーザオブジェクト1015を、ドラッグ&ドロップなどの操作によってドア1027dまで移動させることによって、ユーザオブジェクト1015によって表示されるユーザが、現在表示されている仮想空間1013に対応するユーザグループから削除される。このように、ユーザオブジェクト1015に対して所定の操作(ここでは長押し)が実行された場合に、それまで仮想空間1013には表示されていなかったオブジェクトを新たに登場させ、そのオブジェクトを用いてユーザオブジェクト1015またはユーザオブジェクト1015に対応するユーザに対する操作が実行可能であってもよい。
図13Aおよび図13Bは、本開示のいくつかの実施形態におけるオブジェクトに対する操作の第3の例について説明するための図である。図示された例では、ユーザオブジェクト1015を長押しした後に(ドラッグなどの操作に移行することなく)接触が解除されると、ダイアログボックス1029が出現する。ダイアログボックス1029は、その時点でのユーザオブジェクト1015に対応するユーザの行動ステータスに応じて、当該ユーザに対して実行可能な操作を表示する。
例えば、図13Aに示した、静止した状態のユーザオブジェクト1015の場合、「メッセージ」、「バイブレーション」および「音声」がダイアログボックス1029aに表示される。ダイアログボックス1029aに表示された各動作を選択することによって、対象ユーザに対するそれぞれの動作が実行される。例えば、「メッセージ」が選択された場合は、対象ユーザに対するメッセージの送信画面に遷移する。また、「バイブレーション」が選択された場合は、対象ユーザに対するバイブレーション通知が実行される。「音声」が選択された場合は、対象ユーザとの間で音声通話が準備される。
一方、図13Bに表示された、車1027cに乗っていることで車に乗って移動中であることが示されるユーザオブジェクト1015の場合、「バイブレーション」および「音声」がダイアログボックス1029bに表示される。この例では、車に乗って移動中にはテキストのメッセージを閲覧したりそれに返答したりすることが困難であるため、車1027cに乗っているユーザオブジェクト1015については、ダイアログボックス1029に「メッセージ」が表示されない。このように、本開示のいくつかの実施形態では、ユーザオブジェクト1015によって表現されるユーザの行動ステータスの種類に応じて、ユーザオブジェクト1015を介して実行できる動作をフィルタする。
また、本開示のいくつかの実施形態では、ユーザオブジェクト1015を選択する操作の種類によって、ユーザオブジェクト1015によって表示されるユーザに対する異なる種類の動作を実行することも可能である。例えば、ユーザオブジェクト1015にタッチした場合、ログ表示1017に遷移する。ユーザオブジェクト1015にダブルタッチした場合、メッセージ送信画面に遷移する。ユーザオブジェクト1015を右にフリックした場合、音声通話を準備する。ユーザオブジェクト1015をタップしながら端末装置を振った場合、対象のユーザにバイブレーション通知が実行される。
また、本開示のいくつかの実施形態では、ユーザオブジェクト1015を選択したときに、ユーザオブジェクト1015によって示されるユーザに対する動作の種類が自動的に選択されてもよい。例えば、ユーザオブジェクト1015に対して所定の操作(例えばダブルタップ)を実行した場合に、ユーザオブジェクト1015によって示されるユーザが操作をしているユーザ自身であれば、ソーシャルメディアへの投稿が選択される。また、ユーザオブジェクト1015によって示されるユーザが友人である場合にはそのユーザへのメッセージ送信が選択される。また、メッセージ送信をする場合、対象のユーザが座っていれば、そのユーザが時間をかけてメッセージを閲覧することが可能であると推定されることから画像付きのメッセージ送信が選択されてもよい。また、対象のユーザが自動車で移動中であれば、運転の妨げにならないようにバイブレーション通知が選択されてもよい。
さらに、例えば図6に示したような各ユーザの行動ステータスをユーザオブジェクト1015を用いて表示する画面において、コミュニケーションをとるのに適したユーザを示すユーザオブジェクトを強調表示したりしてもよい。この場合、例えば、行動情報によって端末を操作中であることが示されるユーザのユーザオブジェクト1015が点滅して表示されたり、過去5分以内にソーシャルメディアに投稿したユーザのユーザオブジェクトにマークが表示されたりしてもよい。
(6.ユーザのグルーピング)
次に、図14〜図18を参照して、本開示のいくつかの実施形態におけるユーザのグルーピングについて説明する。上述した行動情報の共有では、ユーザのグループごとに仮想空間1013を表示させ、各グループに分類されたユーザを表示するユーザオブジェクト1015をそれぞれの仮想空間1013に配置することが可能である。以下では、ユーザのグルーピングを、仮想空間1013を含むユーザインターフェース上で実行する例について、さらに具体的に説明する。
図14は、本開示のいくつかの実施形態におけるユーザのグルーピング操作の概要を示す図である。例えば図5を参照して説明したように、ユーザを表示するリスト1011には、各ユーザの行動ステータスを示すユーザオブジェクト1023が表示されうる。図14に示された例では、リスト1011にグルーピング可能なユーザが表示されており、それらのユーザのうちの任意のユーザのユーザオブジェクト1023を長押しし、さらに画面を右または左にフリックすることによって、長押しされたユーザオブジェクト1023が残ったまま画面が仮想空間1013に切り替わり、この仮想空間1013にユーザオブジェクトをドロップすることで、このユーザに対応するユーザオブジェクト1015が仮想空間1013に追加される。それとともに、ユーザが仮想空間1013に対応するグループに分類される。
このとき、画面の遷移中に表示されるユーザオブジェクト1031は、ユーザオブジェクト1023と同じであってもよいし、ユーザオブジェクト1015と同じであってもよいし、いずれとも異なっていてもよい。また、画面が仮想空間1013に切り替わった後、さらに画面を右または左にフリックすることによって、さらに別の仮想空間1013が表示され、選択中のユーザをさらに別のグループに分類することが可能であってもよい。
上述のように、UI150において表示される仮想空間1013は、ユーザが分類されたグループごとに変更されうる。また、仮想空間1013ごとに、ユーザの行動を分類して行動ステータスを設定するときの基準が変更されてもよい。例えば、あるグループに対応する仮想空間1013が書店を模した仮想空間(“Bookstore”タウンビュー)である場合、本に関する行動ステータスが他の仮想空間よりも細かく分類され、それ以外の行動ステータスは粗く(例えば、電車、バス、自動車での移動を「移動中」にまとめるなど)分類されてもよい。
図15は、図14に示したユーザのグルーピング操作における推奨グループ表示の第1の例を示す図である。図示された例では、あるユーザが、プロファイル情報1025に基づいて、書店を模した仮想空間(“Bookstore”タウンビュー)に対応するグループに分類されるのが適切であると判定されている。この場合、リスト1011に表示されるこのユーザの情報1021には、例えば推奨グループまたは仮想空間を示すテキスト1033(“Bookstore”)が表示されてもよい。また、このユーザに対応するユーザオブジェクト1023が、このグループまたは仮想空間に対応したオブジェクト1035に変更されてもよい。
さらに、図14を参照して説明したように、リスト1011に表示されたユーザオブジェクト1023を長押しして仮想空間1013まで移動させたときに、仮想空間1013の表示が変化しないことによって、推奨グループが表現されてもよい。上述の例にあるように、仮想空間1013は、グループに分類されたユーザのプロファイル情報1025、または行動パターンなどに基づいて構成されている。従って、この仮想空間1013に、既にグループに分類されているユーザとは異なるユーザを表現するユーザオブジェクト1015を加えようとした場合、プロファイル情報1025または行動パターンなどに現れる特徴が変化する場合がある。例えば、「Book Score」が比較的高いユーザが分類されているグループに対応する仮想空間1013に、「Book Score」が低いユーザを加えた場合、グループ内での「Book Score」の平均値が低下し、仮想空間(“Bookstore”タウンビュー)が維持されず、平均的な仮想空間1013になってしまう場合がある。図15に示した例では、このような、新たなユーザをグループに追加した場合に起こりうる仮想空間1013の変化が、プレビューとして表示されてもよい。ここで仮想空間1013の変化が起こらない(または少ない)ということは、新たにグルーピングしようとしているユーザがそのグループのユーザと共通する特徴を有しているということである。
図16は、図15に示した例の処理を示すフローチャートである。以下の処理は、例えば、図1〜図3に示した制御部140の処理でありうる。まず、グループメンバーの選択および登録が受け付けられる(ステップS101)。ここでの登録は、例えばグループメンバーの初期登録でありうる。この場合、各グループについて、グループメンバーの特性や表示される仮想空間1013はまだ設定されていない。
次に、登録されたメンバーのプロファイルが取得される(ステップS103)。ここで取得されるプロファイルは、例えば図8および図9の例に示したプロファイル情報1025のような情報であり、行動情報とは別に各ユーザによって登録されたものでありうる。次に、プロファイルの共通項目が抽出される(ステップS105)。ここでは、例えばスコアの数値が比較的高い、低い、または中程度である、といったような特徴が、ユーザ間での共通項目として抽出される。なお、スコアが高いか低いかは、例えば単純な平均値に基づいて判定されてもよいし、あるいは分散を考慮して判定されてもよい。
次に、ステップS103で抽出された共通項目に基づいて、グループのタウンビューが選択される(ステップS107)。ここでいうタウンビューは、上記の説明における仮想空間1013として表示され、例えば図8および図9の例に示した“Bookstore”タウンビューおよび“young & student”タウンビューのようなものである。ここまでの処理で、ステップS101で選択および登録されたメンバーが分類されるグループに対応する仮想空間1013の設定が完了する。
その後、例えばリスト1011に表示されるユーザの中にグループに登録されていないユーザがいれば、推奨グループが表示される(ステップS109)。推奨グループは、例えば上記の図15で示したような方法で表示されうる。表示は、例えばテキスト1033やオブジェクト1035のように自動的に表示されるものには限らず、例えばユーザオブジェクト1023を仮想空間1013まで移動させたときの表示の変化の有無のように、ユーザの所定の操作に対応して表示が変化するものであってもよい。
次に、グループメンバーの追加選択および追加登録が受け付けられる(ステップS111)。ここで受け付けられる追加選択および追加登録は、ステップS109における推奨グループの表示を参照したユーザによって実行されうる。しかし、ユーザは、必ずしも推奨グループの表示に従って追加選択および追加登録を実行するわけではなく、これを無視して追加選択および追加登録を実行してもよい。図示しないが、ステップS111の後にはステップS103〜S107と同様の処理が再度実行され、追加選択および追加登録後のグループについて適切なタウンビューが選択されうる。また、なおもグループに登録されていないユーザがいる場合には、ステップS109と同様の推奨グループ表示が再度実行されうる。
図17は、図14に示したユーザのグルーピング操作における、推奨グループ表示の第2の例を示す図である。図示された例では、あるユーザが、過去の行動ログから得られた行動パターンに基づいて、書店を模した仮想空間(“Bookstore”タウンビュー)に対応するグループに分類されるのが適切であると判定されている。この場合、リスト1011に表示されるこのユーザの情報1021には、例えば推奨グループまたは仮想空間を示すテキスト1033(“Bookstore”)が表示されてもよい。また、このユーザに対応するユーザオブジェクト1023が、このグループまたは仮想空間に対応したユーザの行動を示すオブジェクト1037に変更されてもよい。さらに、図15の例と同様に、リスト1011に表示されたユーザオブジェクト1023を長押しして仮想空間1013まで移動させたときに、仮想空間1013の表示が変化しないことによって、推奨グループが表現されてもよい。
図18は、図17に示した例の処理を示すフローチャートである。以下の処理は、例えば、図1〜図3に示した制御部140の処理でありうる。まず、図16に示したステップS101〜S107と同様の処理によって、ユーザが分類されるグループと、グループに対応するタウンビューとが設定される(ステップS201)。次に、グループメンバーの行動パターンが取得される(ステップS203)。行動パターンは、各メンバーの行動ログに基づいて予め生成されたものが取得されてもよいし、このときに各メンバー行動ログから新たに生成されてもよい。
さらに、ステップS203で取得された各メンバーの行動パターンに基づいて、グループメンバーの間で相関性が高い行動が抽出される(ステップS205)。ここでいう「相関性が高い行動」は、例えば「同じ時間帯における同じ行動」(例えば、図10の例のように、毎晩同じ時間帯に読書をしている、など)、「同じ日(平日/休日)における同じ行動」(例えば、平日に車で移動している時間が長いユーザは仕事で車を使っていると推定されるし、休日に車で移動している時間が長いユーザはレジャーで車を使っていると推定される)、「同程度の長さの同じ行動」(例えば、毎日走っているユーザでも、15分と1時間ではレベルが異なりうる)、などのような複合的な基準で抽出されてもよいし、単純に生活パターンの共通する行動が含まれることによって抽出されてもよい。
次に、ステップS205で抽出された行動に応じてタウンビューが更新される(ステップS207)。ここでのタウンビューの更新は、例えばタウンビューを全く新しいものに差し替えることであってもよいし、例えば図11の例に示したバス1027のように、仮想空間1013に配置されるオブジェクトを追加または変更することであってもよい。以降は、図16に示した例と同様にして、グループ未登録ユーザについて推奨グループが表示され(ステップS109)、グループメンバーの追加選択および追加登録が受け付けられる(ステップS111)。
(7.ハードウェア構成)
次に、図19を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図19は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における端末装置またはサーバを実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、気圧センサなど各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(8.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(端末装置またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)1または複数のユーザの行動を示す第1の情報を取得する第1の情報取得部、
前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得する第2の情報取得部、および
前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる表示制御部
を備える情報処理装置。
(2)前記表示制御部は、前記1または複数のユーザのそれぞれに関する前記第2の情報を互いに組み合わせて、前記1または複数のユーザをそれぞれ表す前記ユーザオブジェクトに共通する前記仮想空間を設定する、前記(1)に記載の情報処理装置。
(3)前記第2の情報取得部は、前記1または複数のユーザの行動を示す情報を統計処理して得られる前記第2の情報を取得する、前記(2)に記載の情報処理装置。
(4)前記第2の情報取得部は、前記1または複数のユーザの行動パターンを示す前記第2の情報を取得する、前記(3)に記載の情報処理装置。
(5)前記表示制御部は、前記行動パターンに基づいて前記仮想空間の一部または全部を時間的に変更する、前記(4)に記載の情報処理装置。
(6)前記第2の情報取得部は、前記1または複数のユーザの属性を示す前記第2の情報を取得する、前記(2)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記第2の情報取得部は、前記1または複数のユーザの年齢、職業、または商品購入履歴に基づいて生成される前記第2の情報を取得する、前記(6)に記載の情報処理装置。
(8)前記表示制御部は、前記1または複数のユーザが分類されるグループごとに前記仮想空間を構成し、前記ユーザオブジェクトを前記各ユーザが分類されたグループに対応する前記仮想空間に配置する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)前記表示制御部は、前記グループに分類されていないユーザについて、該ユーザを分類することが推奨されるグループを示すテキストまたは画像を前記表示部に表示させる、前記(8)に記載の情報処理装置。
(10)前記表示制御部は、前記グループに分類されていないユーザについて、該ユーザが前記仮想空間に配置された場合の前記仮想空間の変化をプレビューとして表示させることによって、前記仮想空間に対応するグループが前記グループに分類されていないユーザを分類することが推奨されるグループであるか否かを示す、前記(8)または(9)に記載の情報処理装置。
(11)前記表示制御部は、前記ユーザオブジェクトの表示によって、前記各ユーザの行動を所定の基準で分類した行動ステータスを示す、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記表示制御部は、前記ユーザオブジェクトの形状または動きによって前記各ユーザの行動ステータスを示す、前記(11)に記載の情報処理装置。
(13)前記表示制御部は、前記行動ステータスに対応するコンテナオブジェクトを前記仮想空間に配置し、前記ユーザオブジェクトを前記コンテナオブジェクト内に表示させることによって前記各ユーザの行動ステータスを示す、前記(11)または(12)に記載の情報処理装置。
(14)前記表示制御部は、前記1または複数のユーザの行動パターンに基づいて前記コンテナオブジェクトを表示させる、前記(13)に記載の情報処理装置。
(15)前記表示制御部は、前記1または複数のユーザが前記行動パターンに従った行動をしているか否かにかかわらず前記コンテナオブジェクトを表示させる、前記(14)に記載の情報処理装置。
(16)前記表示制御部は、前記コンテナオブジェクトの数またはサイズを、当該コンテナオブジェクトに対応する行動ステータスを有するユーザの数に応じて変更する、前記(13)〜(15)のいずれか1項に記載の情報処理装置。
(17)前記表示制御部は、前記仮想空間に応じて前記行動ステータスを分類するための基準を変更する、前記(11)〜(16)のいずれか1項に記載の情報処理装置。
(18)端末装置と、前記端末装置にサービスを提供する1または複数のサーバ装置とを含み、
前記端末装置と前記1または複数のサーバ装置とが協働して、
1または複数のユーザの行動を示す第1の情報を取得する機能、
前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得する機能、および
前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる機能
を提供するシステム。
(19)1または複数のユーザの行動を示す第1の情報を取得すること、
前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得すること、および
前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させること
を含む情報処理方法。
(20)1または複数のユーザの行動を示す第1の情報を取得する機能、
前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得する機能、および
前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる機能
をコンピュータに実現させるためのプログラム。
10,30,50 システム
100,300,500 端末装置
200,400,600 サーバ
110 センサ
120 行動認識部
130,530 通信部
140 制御部
150 UI

Claims (20)

  1. 1または複数のユーザの行動を示す第1の情報を取得する第1の情報取得部、
    前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得する第2の情報取得部、および
    前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる表示制御部
    を備える情報処理装置。
  2. 前記表示制御部は、前記1または複数のユーザのそれぞれに関する前記第2の情報を互いに組み合わせて、前記1または複数のユーザをそれぞれ表す前記ユーザオブジェクトに共通する前記仮想空間を設定する、請求項1に記載の情報処理装置。
  3. 前記第2の情報取得部は、前記1または複数のユーザの行動を示す情報を統計処理して得られる前記第2の情報を取得する、請求項2に記載の情報処理装置。
  4. 前記第2の情報取得部は、前記1または複数のユーザの行動パターンを示す前記第2の情報を取得する、請求項3に記載の情報処理装置。
  5. 前記表示制御部は、前記行動パターンに基づいて前記仮想空間の一部または全部を時間的に変更する、請求項4に記載の情報処理装置。
  6. 前記第2の情報取得部は、前記1または複数のユーザの属性を示す前記第2の情報を取得する、請求項2に記載の情報処理装置。
  7. 前記第2の情報取得部は、前記1または複数のユーザの年齢、職業、または商品購入履歴に基づいて生成される前記第2の情報を取得する、請求項6に記載の情報処理装置。
  8. 前記表示制御部は、前記1または複数のユーザが分類されるグループごとに前記仮想空間を構成し、前記ユーザオブジェクトを前記各ユーザが分類されたグループに対応する前記仮想空間に配置する、請求項1に記載の情報処理装置。
  9. 前記表示制御部は、前記グループに分類されていないユーザについて、該ユーザを分類することが推奨されるグループを示すテキストまたは画像を前記表示部に表示させる、請求項8に記載の情報処理装置。
  10. 前記表示制御部は、前記グループに分類されていないユーザについて、該ユーザが前記仮想空間に配置された場合の前記仮想空間の変化をプレビューとして表示させることによって、前記仮想空間に対応するグループが前記グループに分類されていないユーザを分類することが推奨されるグループであるか否かを示す、請求項8に記載の情報処理装置。
  11. 前記表示制御部は、前記ユーザオブジェクトの表示によって、前記各ユーザの行動を所定の基準で分類した行動ステータスを示す、請求項1に記載の情報処理装置。
  12. 前記表示制御部は、前記ユーザオブジェクトの形状または動きによって前記各ユーザの行動ステータスを示す、請求項11に記載の情報処理装置。
  13. 前記表示制御部は、前記行動ステータスに対応するコンテナオブジェクトを前記仮想空間に配置し、前記ユーザオブジェクトを前記コンテナオブジェクト内に表示させることによって前記各ユーザの行動ステータスを示す、請求項11に記載の情報処理装置。
  14. 前記表示制御部は、前記1または複数のユーザの行動パターンに基づいて前記コンテナオブジェクトを表示させる、請求項13に記載の情報処理装置。
  15. 前記表示制御部は、前記1または複数のユーザが前記行動パターンに従った行動をしているか否かにかかわらず前記コンテナオブジェクトを表示させる、請求項14に記載の情報処理装置。
  16. 前記表示制御部は、前記コンテナオブジェクトの数またはサイズを、当該コンテナオブジェクトに対応する行動ステータスを有するユーザの数に応じて変更する、請求項13に記載の情報処理装置。
  17. 前記表示制御部は、前記仮想空間に応じて前記各ユーザの行動を分類するための基準を変更する、請求項11に記載の情報処理装置。
  18. 端末装置と、前記端末装置にサービスを提供する1または複数のサーバ装置とを含み、
    前記端末装置と前記1または複数のサーバ装置とが協働して、
    1または複数のユーザの行動を示す第1の情報を取得する機能、
    前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得する機能、および
    前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる機能
    を提供するシステム。
  19. 1または複数のユーザの行動を示す第1の情報を取得すること、
    前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得すること、および
    前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させること
    を含む情報処理方法。
  20. 1または複数のユーザの行動を示す第1の情報を取得する機能、
    前記1または複数のユーザに関する前記第1の情報とは異なる第2の情報を取得する機能、および
    前記第1の情報に基づいて構成され前記1または複数のユーザをそれぞれ表すユーザオブジェクトと、前記第2の情報に基づいて構成され前記ユーザオブジェクトが配置される仮想空間とを表示部に表示させる機能
    をコンピュータに実現させるためのプログラム。
JP2015504190A 2013-03-08 2014-01-08 情報処理装置、システム、情報処理方法およびプログラム Active JP6254577B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013047040 2013-03-08
JP2013047040 2013-03-08
PCT/JP2014/050108 WO2014136466A1 (ja) 2013-03-08 2014-01-08 情報処理装置、システム、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2014136466A1 true JPWO2014136466A1 (ja) 2017-02-09
JP6254577B2 JP6254577B2 (ja) 2017-12-27

Family

ID=51490998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015504190A Active JP6254577B2 (ja) 2013-03-08 2014-01-08 情報処理装置、システム、情報処理方法およびプログラム

Country Status (5)

Country Link
US (2) US10969924B2 (ja)
EP (1) EP2966557A4 (ja)
JP (1) JP6254577B2 (ja)
CN (1) CN105190513B (ja)
WO (1) WO2014136466A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150091891A1 (en) * 2013-09-30 2015-04-02 Dumedia, Inc. System and method for non-holographic teleportation
JP6379424B2 (ja) * 2014-10-20 2018-08-29 シャープ株式会社 画像記録装置
WO2018216355A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11803764B2 (en) * 2017-09-29 2023-10-31 Sony Interactive Entertainment Inc. Mobile and autonomous personal companion based on an artificial intelligence (AI) model for a user
KR20190106950A (ko) * 2019-08-31 2019-09-18 엘지전자 주식회사 지능형 디바이스 및 그 제어 방법
JPWO2021186755A1 (ja) 2020-03-17 2021-09-23
US10987592B1 (en) 2020-06-05 2021-04-27 12traits, Inc. Systems and methods to correlate user behavior patterns within an online game with psychological attributes of users
US11206263B1 (en) 2021-01-25 2021-12-21 12traits, Inc. Systems and methods to determine content to present based on interaction information of a given user
US11616701B2 (en) * 2021-02-22 2023-03-28 Cisco Technology, Inc. Virtual proximity radius based web conferencing
WO2022208612A1 (ja) 2021-03-29 2022-10-06 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法
US11727424B2 (en) 2021-06-04 2023-08-15 Solsten, Inc. Systems and methods to correlate user behavior patterns within digital application environments with psychological attributes of users to determine adaptations to the digital application environments
JP7034459B1 (ja) * 2021-06-14 2022-03-14 株式会社Insight science 情報処理装置、情報処理システム、及びプログラム
US11654371B2 (en) * 2021-07-30 2023-05-23 Sony Interactive Entertainment LLC Classification of gaming styles
JP2023166210A (ja) * 2022-05-09 2023-11-21 ユニ・チャーム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US12114043B2 (en) 2022-06-06 2024-10-08 Solsten, Inc. Systems and methods to identify taxonomical classifications of target content for prospective audience
WO2024157810A1 (ja) * 2023-01-25 2024-08-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法及び情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345269A (ja) * 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
JP2011081431A (ja) * 2009-10-02 2011-04-21 Sony Corp 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
JP2013008232A (ja) * 2011-06-24 2013-01-10 Sony Corp 情報処理装置とサーバと情報処理システムおよび情報処理方法とプログラム
JP2013020587A (ja) * 2011-07-14 2013-01-31 Nec Corp 情報処理システム、ユーザの行動促進方法、情報処理装置及びその制御方法と制御プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090106672A1 (en) * 2007-10-18 2009-04-23 Sony Ericsson Mobile Communications Ab Virtual world avatar activity governed by person's real life activity
US8531447B2 (en) * 2008-04-03 2013-09-10 Cisco Technology, Inc. Reactive virtual environment
US8639636B2 (en) * 2008-08-15 2014-01-28 At&T Intellectual Property I, L.P. System and method for user behavior modeling
JP5551867B2 (ja) 2008-12-05 2014-07-16 ソニー株式会社 情報処理装置、及び情報処理方法
US9024977B2 (en) * 2010-08-02 2015-05-05 International Business Machines Corporation Resizing objects in regions of virtual universes
US20120253489A1 (en) 2011-03-28 2012-10-04 Dugan Brian M Systems and methods for fitness and video games

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006345269A (ja) * 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
JP2011081431A (ja) * 2009-10-02 2011-04-21 Sony Corp 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
JP2013008232A (ja) * 2011-06-24 2013-01-10 Sony Corp 情報処理装置とサーバと情報処理システムおよび情報処理方法とプログラム
JP2013020587A (ja) * 2011-07-14 2013-01-31 Nec Corp 情報処理システム、ユーザの行動促進方法、情報処理装置及びその制御方法と制御プログラム

Also Published As

Publication number Publication date
EP2966557A4 (en) 2016-10-19
US20210200423A1 (en) 2021-07-01
CN105190513B (zh) 2019-03-01
US10969924B2 (en) 2021-04-06
US20150365449A1 (en) 2015-12-17
WO2014136466A1 (ja) 2014-09-12
CN105190513A (zh) 2015-12-23
EP2966557A1 (en) 2016-01-13
JP6254577B2 (ja) 2017-12-27

Similar Documents

Publication Publication Date Title
JP6254577B2 (ja) 情報処理装置、システム、情報処理方法およびプログラム
US10990613B2 (en) Information processing apparatus and information processing method
US10972562B2 (en) Information processing apparatus, information processing method, and program
JP2013200793A (ja) 情報処理装置、情報処理方法およびプログラム
JP6443340B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2014222439A (ja) 情報処理装置、パーツ生成利用方法及びプログラム
CA2886948A1 (en) Method relating to presence granularity with augmented reality
CN104115180A (zh) 信息处理设备、信息处理方法和程序
JP6233412B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2015190141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6733662B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2015087848A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7336780B1 (ja) プログラム、方法、情報処理装置、システム
JP6096341B1 (ja) 表示制御方法、端末、プログラム、及び情報処理装置
JP2016170667A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171130

R150 Certificate of patent or registration of utility model

Ref document number: 6254577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250