JP2016170667A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2016170667A
JP2016170667A JP2015050623A JP2015050623A JP2016170667A JP 2016170667 A JP2016170667 A JP 2016170667A JP 2015050623 A JP2015050623 A JP 2015050623A JP 2015050623 A JP2015050623 A JP 2015050623A JP 2016170667 A JP2016170667 A JP 2016170667A
Authority
JP
Japan
Prior art keywords
user
information processing
processing apparatus
information
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015050623A
Other languages
English (en)
Inventor
望月 大介
Daisuke Mochizuki
大介 望月
佐藤 徳彦
Norihiko Sato
徳彦 佐藤
将佑 百谷
Shosuke Momotani
将佑 百谷
邦彦 三宅
Kunihiko Miyake
邦彦 三宅
雄哉 平野
Yuya Hirano
雄哉 平野
奏洋 代田
Kanahiro Shirota
奏洋 代田
太志 竹内
Futoshi Takeuchi
太志 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015050623A priority Critical patent/JP2016170667A/ja
Priority to PCT/JP2016/051327 priority patent/WO2016147693A1/ja
Priority to US15/554,515 priority patent/US10855639B2/en
Publication of JP2016170667A publication Critical patent/JP2016170667A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/214Monitoring or handling of messages using selective forwarding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/224Monitoring or handling of messages providing notification on incoming messages, e.g. pushed notifications of received messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services

Abstract

【課題】他のユーザとの間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能な技術を提供する。【解決手段】第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、情報通信技術の発達に伴って端末を用いて他のユーザとの間でコミュニケーションを図る技術が普及している。ここで、他のユーザとの間におけるコミュニケーション開始のタイミングを制御する技術が知られている。例えば、他のユーザの行動に基づいて他のユーザとの間におけるコミュニケーション開始のタイミングを制御する技術が開示されている(例えば、特許文献1参照)。
特開2014−123192号公報
しかし、他のユーザとの間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能な技術が提供されることが望まれる。
本開示によれば、第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える、情報処理装置が提供される。
本開示によれば、プロセッサにより、第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択することを備える、情報処理方法が提供される。
本開示によれば、コンピュータを、第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える情報処理装置として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、他のユーザとの間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係る情報処理装置の機能構成例を示すブロック図である。 同実施形態に係る端末の機能構成例を示すブロック図である。 人間関係DBおよび対応関係DBの生成例を示す図である。 第1の行動認識例に係る人間関係DBのデータ構成例を示す図である。 行動認識の対象ユーザを基準とした人間関係の例を示す図である。 第1の行動認識例を説明するための図である。 ユーザと通知情報との関連付けの例を示す図である。 第1の行動認識例に係る情報処理装置の動作の流れを示す図である。 受信側ユーザを基準とした人間関係の例を示す図である。 通知情報が通知される前に受信側ユーザの端末によって表示される画面例を示す図である。 通知情報が通知された場合に受信側ユーザの端末によって表示される画面例を示す図である。 第2の行動認識例に係る対応関係DBのデータ構成例を示す図である 第2の行動認識例を説明するための図である。 第2の行動認識例に係る情報処理装置の動作の流れを示す図である。 ペンダント型デバイスによって端末が実現される例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.本開示の実施形態
1.1.システム構成例
1.2.機能構成例
1.3.データベースの生成例
1.4.機能詳細(コミュニケーション内容の解析)
1.5.機能詳細(ユーザ状態の認識)
1.6.ハードウェア構成例
2.むすび
<1.本開示の実施形態>
[1.1.システム構成例]
まず、図面を参照しながら本開示の実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の実施形態に係る情報処理システム1の構成例を示す図である。図1に示したように、本開示の実施形態に係る情報処理システム1は、情報処理装置10と、認識装置21と、解析装置22と、位置情報DB(データベース)30と、人間関係DB40と、対応関係DB50と、端末70−1〜70−N(Nは2以上の自然数)とを備える。
端末70−1〜70−Nは、それぞれ対応するユーザU1〜UNによって利用される。本明細書においては、端末70−1〜70−Nがスマートフォンである場合を例として説明するが、端末70−1〜70−Nはスマートフォンに限定されない。例えば、端末70−1〜70−Nは、PC(Personal Computer)、携帯電話機、タブレットPC、PDA(Personal Digital Assistant)、ウェアラブルデバイスなどであってよい。ウェアラブルデバイスの具体例については後に説明する。
位置情報DB30は、ユーザU1〜UNそれぞれの位置情報を記憶するデータベースである。例えば、位置情報DB30は、端末70−1〜70−Nによって測定されたユーザU1〜UNそれぞれの位置情報(経度、緯度、高度)を記憶する。なお、ユーザU1〜UNの測位を行う手法は特に限定されない。例えば、端末70−1〜70−Nは、GPS(Global Positioning System)受信機によって受信されたGPS信号に基づいて、端末70−1〜70−Nの位置情報を測定してもよい。
人間関係DB40は、ユーザU1〜UNから任意に選択される一人目のユーザと二人目のユーザとの関連度を記憶するデータベースである。ここで、一人目のユーザと二人目のユーザとの関連度の表現手法は特に限定されない。例えば、関連度は、値が大きくなるほど強い関連性を示してもよい。人間関係DB40の詳細な構成例については後に説明する。また、人間関係DB40の生成例についても後に説明する。
対応関係DB50は、ユーザU1〜UNから任意に選択される1のユーザとユーザU1〜UN以外の対象(例えば、物、場所など)との関連度を記憶するデータベースである。ここで、関連度の表現手法は特に限定されない。例えば、1のユーザとユーザU1〜UN以外の対象との関連度は、値が大きくなるほど強い関連性を示してもよい。対応関係DB50の詳細な構成例については後に説明する。また、対応関係DB50の生成例についても後に説明する。
認識装置21は、ユーザU1〜UNそれぞれの行動を認識する動作の例としてユーザ状態認識動作を行う。より具体的には、認識装置21は、端末70−1〜70−Nによって検出されたセンサデータに基づいてユーザU1〜UNそれぞれのユーザ状態を認識する。行動認識のアルゴリズムは特に限定されない。また、行動認識によって得られる結果も特に限定されない。例えば、行動認識によって得られる結果は、ユーザが存在する場所であってよい。ユーザが存在する場所は、校舎、図書館、駅、店舗、施設、ビル、職場などの名称であってもよいし、住所によって特定されるエリアであってもよい。また、行動認識によって得られる結果は、ユーザの動作であってもよい。ユーザの動作は、歩いている、走っている、階段を昇降している、自動車を運転している、買い物をしている、仕事をしているなどといった動作であってよい。
解析装置22は、ユーザU1〜UNそれぞれの行動を認識する動作の例として会話内容解析動作を行う。より具体的には、解析装置22は、ユーザU1〜UNそれぞれのコミュニケーション内容を解析することによってユーザU1〜UNそれぞれのコミュニケーションに登場した情報(例えば、名詞、会話中のトピックなど)を抽出情報として抽出する。会話中のトピックは、「〜が〇で…した」といったような文の形態であってもよい。なお、コミュニケーション内容を解析する手法も限定されない。例えば、コミュニケーション内容が文字情報である場合には、コミュニケーション内容から形態素解析などの言語解析によって抽出ワードが抽出され得る。
情報処理装置10は、各種の情報処理を行う装置である。ここで、他のユーザとの間でコミュニケーションを開始する場合を想定する。かかる場合、他のユーザの状況を把握できていない場合などには、他のユーザとの間でコミュニケーションを図ることに対して心理的な障壁を感じてしまうことがある。そこで、本明細書においては、他のユーザとの間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能な技術を主に提案する。
以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
[1.2.機能構成例]
続いて、本開示の実施形態に係る情報処理装置10の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理装置10の機能構成例を示すブロック図である。図2に示したように、本開示の実施形態に係る情報処理装置10は、制御部130と、記憶部140と、通信部150とを備える。
制御部130は、例えば、CPU(Central Processing Unit;中央演算処理装置)などのプロセッサに相当する。制御部130は、記憶部140または他の記憶媒体に記憶されるプログラムを実行することにより、制御部130が有する様々な機能を発揮する。制御部130は、選択部131および通知部132などの各機能ブロックを有する。これら各機能ブロックが有する機能については後に説明する。なお、制御部130がCPUなどといったプロセッサによって構成される場合、かかるプロセッサは、電子回路によって構成され得る。
記憶部140は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部130を動作させるためのプログラムを記憶する。また、例えば、記憶部140は、プログラムによって使用される各種のデータを記憶することもできる。なお、図2に示した例では、記憶部140は情報処理装置10と一体化されているが、記憶部140は情報処理装置10と別体に構成されていてもよい。
通信部150は、他の装置と通信を行うことが可能である。通信部150は、例えば、他の装置との間で通信を行う場合には、ネットワーク60を介して通信を行うことが可能である。通信部150による通信の形式は特に限定されず、通信部150による通信は、無線による通信であってもよいし、有線による通信であってもよい。なお、図2に示した例では、通信部150は情報処理装置10と一体化されているが、通信部150は、情報処理装置10と別体に構成されていてもよい。
以上、本開示の実施形態に係る情報処理装置10の機能構成例について説明した。
続いて、本開示の実施形態に係る端末70の機能構成例について説明する。図3は、本開示の実施形態に係る端末70の機能構成例を示すブロック図である。図3に示したように、本開示の実施形態に係る端末70は、検出部710と、入力部720と、制御部730と、記憶部740と、通信部750と、出力部760とを備える。
検出部710は、センシングによって検出したデータ(以下、「センシングデータ」とも言う。)を制御部730に出力する。例えば、検出部710は、加速度をセンシングデータとして検出する加速度センサと、角速度をセンシングデータとして検出するジャイロセンサと、照度をセンシングデータとして検出する照度センサとを含み得る。また、検出部710は、音声情報をセンシングデータとして検出するマイクロフォンを含み得る。また、検出部710は、撮像画像をセンシングデータとして検出する撮像装置を含み得る。なお、図3に示した例では、検出部710は端末70と一体化されているが、検出部710は、端末70と別体に構成されていてもよい。
入力部720は、ユーザによる操作を検出して制御部730に出力する。例えば、入力部720がタッチパネルにより構成される場合には、ユーザによる操作はタッチパネルに対する操作(例えば、タップ操作、ドラッグ操作など)に相当し得る。しかし、入力部720はタッチパネル以外のハードウェア(例えば、ボタンなど)により構成されていてもよい。例えば、ユーザが端末70を「握っている」、「見ている」などといった認識結果が操作として検出されてもよい。このような認識結果は、端末70の側面にある図示しない接触センサ(例えば、タッチセンサ、圧力センサなど)の情報から得られるユーザの手の端末70への接触状態に基づいて検出されてもよい。また、このような認識結果は、図示しないモーションセンサ(例えば、加速度センサ、ジャイロセンサ)の出力情報から所定の動きパターンが抽出されたことによって検出されてもよい。また、このような認識結果は、端末70に備えられる図示しないカメラによる撮像画像から顔が認識されたことによって検出されてもよい。なお、図3に示した例では、入力部720は端末70と一体化されているが、入力部720は、端末70と別体に構成されていてもよい。
制御部730は、例えば、CPUなどのプロセッサに相当する。制御部730は、記憶部740または他の記憶媒体に記憶されるプログラムを実行することにより、制御部730が有する様々な機能を発揮する。なお、制御部130がCPUなどといったプロセッサによって構成される場合、かかるプロセッサは、電子回路によって構成され得る。
記憶部740は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部730を動作させるためのプログラムを記憶する。また、例えば、記憶部740は、プログラムによって使用される各種のデータを記憶することもできる。なお、図3に示した例では、記憶部740は端末70と一体化されているが、記憶部740は端末70と別体に構成されていてもよい。
通信部750は、他の装置と通信を行うことが可能である。通信部750は、例えば、他の装置との間で通信を行う場合には、ネットワーク60を介して通信を行うことが可能である。通信部750による通信の形式は特に限定されず、通信部750による通信は、無線による通信であってもよいし、有線による通信であってもよい。なお、図3に示した例では、通信部750は端末70と一体化されているが、通信部750は、端末70と別体に構成されていてもよい。
出力部760は、制御部730による制御に従って、各種情報の出力を行う。出力部760は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ装置などとったディスプレイ装置を含み得る。また、出力部760は、振動デバイスを含み得る。また、例えば、出力部760は、ディスプレイ装置とは別に、発光を行うLED(Light Emitting Diode)を含んでもよい。
また、例えば、出力部760は、音声の出力を行うスピーカを含んでもよい。なお、図3に示した例では、出力部760は端末70と一体化されているが、出力部760は端末70と別体に構成されていてもよい。例えば、出力部760が音声の出力を行うスピーカを含む場合、スピーカは、イヤホンであってもよいし、ヘッドホンであってもよい。このとき、端末70と有線または無線で接続される出力装置が出力部760として扱われてもよい。
以上、本開示の実施形態に係る端末70の機能構成例について説明した。
[1.3.データベースの生成例]
続いて、人間関係DBおよび対応関係DBの生成例について説明する。図4は、人間関係DBおよび対応関係DBの生成例を示す図である。ただし、図4に示した例は、人間関係DBおよび対応関係DBの生成の一例を示したに過ぎないため、人間関係DBおよび対応関係DBの生成は、図4に示した例に限定されない。また、人間関係DBおよび対応関係DBは、情報処理装置10によって生成されてよい。
図4に示すように、外部サーバ80から取得された人間関係が人間関係DB40に登録され、外部サーバ80から取得された対応関係が対応関係DB50に登録されてよい。外部サーバ80は、SNS(Social Networking Service)などのサーバであってよい。また、図4に示すように、SNSに登録されているプロフィールD60から取得された人間関係が人間関係DB40に登録され、プロフィールD60から取得された対応関係が対応関係DB50に登録されてよい。
あるいは、図4に示すように、外部サーバ80によって保存されているコミュニケーション内容の解析(S21)によって得られた人間関係D40が、人間関係DB40に登録されてもよい。また、外部サーバ80によって保存されているコミュニケーション内容の解析(S21)によって得られた対応関係D50が、対応関係DB50に登録されてもよい。なお、人間関係DB40において、関連度が変化したユーザ同士の関係が存在した場合、その変化に連動して他のユーザ同士の関連度が変化されてもよい。
以上、人間関係DBおよび対応関係DBの生成例について説明した。
[1.4.機能詳細(コミュニケーション内容の解析)]
続いて、本開示の実施形態に係る情報処理システム1の機能詳細について説明する。本開示の実施形態では、情報処理装置10において、選択部131が第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する。かかる構成によれば、情報処理装置10から通知された通知情報を第2のユーザが知覚することにより、第2のユーザが第1のユーザとの間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能となる。通知制御部134は、選択部131により選択された第2のユーザに対して通知される通知情報を決定する。第2のユーザの数は単数であってもよいし、複数であってもよい。通知部135は、通知制御部134による制御に従って、通知情報を第2のユーザに通知する。
まず、第1のユーザに対する行動認識の第1の例として、第1のユーザのコミュニケーション内容の解析を用いる例を説明する。なお、以下の説明においては、情報処理装置10において、選択部131がユーザU3に対する行動認識の結果に基づいてユーザUNを選択し、通知部132がユーザUNの端末70−Nに対して所定の通知情報を通知する。しかし、行動認識の対象ユーザは、ユーザU3に限定されない。また、通知情報の受信側ユーザは、ユーザUNに限定されない。
図5は、第1の行動認識例に係る人間関係DB40のデータ構成例を示す図である。図5に示すように、人間関係DB40には、一人目ユーザと二人目ユーザと両ユーザの関連度(一人目ユーザから二人目ユーザへの関心度合い)との組み合わせが登録されている。図5に示した例では、(一人目ユーザ、二人目ユーザ、関連度)の組み合わせとして、(ユーザU1、ユーザU3、+0.2)、(ユーザU1、ユーザUN、+0.8)が登録されている。また、図5に示した例では、(一人目ユーザ、二人目ユーザ、関連度)の組み合わせとして、(ユーザU1、ユーザU2、+0.5)、(ユーザU2、ユーザU1、−0.1)が登録されている。この例のように、関連度は一人目ユーザと二人目ユーザとの間で非対称であってもよい。
図6は、ユーザU3(行動認識の対象ユーザ)を基準とした人間関係の例を示す図である。図6を参照すると、ユーザU3の端末70−3はユーザUNの端末70−Nとオンライン接続されており、ユーザUNは、ターゲットユーザとして指定されている。そのため、ユーザU3の端末70−3においては、ターゲットユーザ(ユーザUN)の端末70−Nの検出部710によって検出された音声情報およびターゲットユーザ(ユーザUN)に対応する画像などが、出力部760によって出力される。
ユーザU3の端末70−3はユーザU1の端末70−1とオンライン接続されているが、ターゲットユーザとしては指定されていない。なお、ターゲットユーザを選択するための選択操作は特に限定されない。例えば、検出部710がタッチパネルを含む場合には、タッチパネルに対するフリック操作(例えば、左右方向や上下方向へのフリック操作)によって、ユーザU1とユーザUNとの間でターゲットユーザを切り替えることが可能である。このとき、ターゲットユーザからユーザU1への関心度合い(例えば、人間関係DB40において、一人目のユーザ=ターゲットユーザ、二人目のユーザ=ユーザU1の組み合わせに対応する関連度)に応じた動作(端末70−3のLEDの点滅、発光色の変化など)を伴って各画面が出力されてもよい。
図7は、第1の行動認識例を説明するための図である。図7に示すように、ユーザU3が端末70−3を用いてユーザU1との間でコミュニケーションを取っている場合を想定する。端末70−3の出力部760は、「ユーザU1さん、お元気ですか。」「はい。ユーザU3さんは、お元気ですか。」「元気です。」などといったコミュニケーション内容を表示している。これらのコミュニケーション内容は、外部サーバ80に蓄積されている。
続いて、解析装置22は、外部サーバ80からユーザU3のコミュニケーション内容を取得し、コミュニケーション内容を解析する。コミュニケーション内容の解析の結果、ユーザU3の現在のコミュニケーション相手としてユーザU1が特定されると、情報処理装置10において、選択部131は、ユーザU1に基づいてユーザUNを選択する。より具体的には、選択部131は、ユーザU3の現在のコミュニケーション相手であるユーザU1との関連度が最も高いユーザUNを選択すればよい(図5参照)。
そして、通知部132は、ユーザUNの端末70−Nに対して所定の通知情報を通知する。ここで、通知情報は、端末70−Nに対して所定の動作を実行させるための指示であってよい。所定の動作は、端末70−Nを振動させる動作であってもよいし、端末70−NのLEDを点滅させる動作であってもよい。このとき、端末70−Nに対して実行させる動作は、常に同じであってもよいし、状況に応じて変化させてもよい。したがって、通知情報は、端末70−Nに対して実行させる動作の指定を含んでもよい。
例えば、通知部132は、ユーザUN(またはユーザUNの種類)に基づいてユーザUNの端末70−Nに対して通知する通知情報を決定してもよい。そうすれば、ユーザU3は、ユーザUN(またはユーザUNの種類)に応じて通知情報を変化させることが可能となる。なお、ユーザUNの種類は限定されないが、例えば、ユーザUNが属するグループ(例えば、会社、学校など)であってよい。また、通知情報がユーザUNの端末70−Nに通知された旨は、ユーザU3に知らせるため、ユーザU3の端末70−3によって表示されてもよい。
図8は、ユーザU1およびユーザUNと通知情報との関連付けの例を示す図である。例えば、関連制御部132は、ユーザU3による所定の操作に基づいて、ユーザUN(またはユーザUNの種類)と通知情報との関連付けを制御し、関連付け部133は、その制御に従って関連付けを行うことが可能であってよい。このとき、例えば、図8に示したように、スライダのサムを移動させる操作によって、ユーザUN(またはユーザUNの種類)に関連付ける通知情報を変化させることが可能であってよい。同様に、通知部132は、図8に示すように、関連付け操作に基づいて、ユーザU1(またはユーザU1の種類)と通知情報との関連付けを行うことが可能であってよい。
なお、ユーザ(またはユーザの種類)と通知情報と関連付けと同様に、関連付け操作によって各種情報と通知情報とを関連付けることが可能である。また、図8に示した例では、通知情報として、端末70を振動させる場合における振動強度が「小」「中」「大」によって表されている。しかし、通知情報はかかる例に限定されない。例えば、通知情報として、端末70のLEDを点滅させる場合における点滅速度が「遅」「中」「速」によって表されてもよい。また、振動強度や点滅速度のレベルは、三段階でなくてもよく、二段階であってもよいし、四段階以上であってもよい。
続いて、コミュニケーション内容の解析から通知情報の通知までの動作の流れについて説明する。図9は、第1の行動認識例に係る情報処理装置10の動作の流れを示す図である。なお、図9のフローチャートは、第1の行動認識例に係る情報処理装置10の動作の流れの例に過ぎないため、第1の行動認識例に係る情報処理装置10の動作の流れは、図9のフローチャートに示された例に限定されない。
図9に示すように、解析装置22は、ユーザU3のコミュニケーション内容を取得し、コミュニケーション内容を解析する。コミュニケーション内容の解析の結果、抽出情報D21の例としてユーザU3の現在のコミュニケーション相手(ユーザU1)が特定されると、情報処理装置10において、選択部131は、ユーザU3の現在のコミュニケーション相手であるユーザU1に関連付けられた関連度D30を人間関係DB40から取得する(S30)。
続いて、選択部131は、関連度D30に基づいて、ユーザUNを選択する。より具体的には、選択部131は、ユーザU3の現在のコミュニケーション相手であるユーザU1との関連度が最も高いユーザUNを選択すればよい。続いて、通知部132は、選択部131によって選択されたユーザUNの端末70−Nに対して通知情報を通知する(S50)。端末70−Nの出力部760は、通知情報を出力する。
続いて、ユーザUN(通知情報の受信側ユーザ)について説明する。図10は、ユーザUN(通知情報の受信側ユーザ)を基準とした人間関係の例を示す図である。図10を参照すると、ユーザUNの端末70−NはユーザU1の端末70−1とオンライン接続されており、ユーザU1は、ターゲットユーザとして指定されている。そのため、ユーザUNの端末70−Nにおいては、ターゲットユーザ(ユーザU1)の端末70−1の検出部710によって検出された音声情報およびターゲットユーザ(ユーザU1)に対応する画像などが、出力部760によって出力される。
ユーザU2の端末70−2はユーザUNの端末70−Nとオンライン接続されているが、ターゲットユーザとしては指定されていない。同様に、ユーザU3の端末70−3はユーザUNの端末70−Nとオンライン接続されているが、ユーザU3はターゲットユーザとしては指定されていない。また、ユーザU4とユーザU5とユーザU6とを含むグループの端末70はユーザUNの端末70−Nとオンライン接続されているが、このグループはターゲットユーザとしては指定されていない。ユーザU7の端末70−7はユーザUNの端末70−Nとオンライン接続されていない(ユーザUNの端末70−Nとはオフラインである)。
図11は、通知情報が通知される前にユーザUN(受信側ユーザ)の端末70−Nによって表示される画面例を示す図である。図11に示すように、ユーザU1がターゲットユーザとして指定されている。そのため、ユーザUNの端末70−Nにおいては、ターゲットユーザ(ユーザU1)の端末70−1の検出部710によって検出された音声情報が出力部760によって出力され、ターゲットユーザ(ユーザU1)に対応する画像(例えば、アバターなど)が画面G1として出力部760によって出力される。
ターゲットユーザは選択操作によって選択され得る。例えば、検出部710がタッチパネルを含む場合には、タッチパネルに対するフリック操作(例えば、左右方向や上下方向へのフリック操作)によって、ターゲットユーザを切り替えることが可能である。図11には、ターゲットユーザが、ユーザU1、グループ、ユーザU2、ユーザU3およびユーザU7の順に切り替わった場合に、端末70−Nの出力部760によって出力される画面が、画面G1、画面G5、画面G2、画面G3および画面G7の順に切り替わる例が示されている。このとき、ターゲットユーザからユーザUNへの関心度合い(例えば、人間関係DB40において、一人目のユーザ=ターゲットユーザ、二人目のユーザ=ユーザUNの組み合わせに対応する関連度)に応じた動作(端末70−NのLEDの点滅、発光色の変化など)を伴って各画面が出力されてもよい。
図12は、通知情報が通知された場合にユーザUN(受信側ユーザ)の端末70−Nによって表示される画面例を示す図である。図12に示すように、ターゲットユーザとしてユーザU1が選択されている場合、ユーザUNの端末70−Nにおいては、出力部760が画面G1を表示する。ここで、端末70−Nは、通知情報が通知されると所定の動作を実行する。図12には、端末70−NのLEDを点滅させる例が所定の動作として示されているが、上記したように所定の動作はかかる例に限定されない。例えば、所定の動作は、端末70−NのLEDによる発光色を変化させる動作であってもよい。
なお、ターゲットユーザから通知情報が通知された場合とターゲットユーザ以外のユーザから通知情報が通知された場合との間で、端末70−Nの振動パターンまたは振動部位(あるいは、LEDの点滅パターンまたは点滅部位)は異なっているのがよい。そうすれば、ユーザUNは、ターゲットユーザからの通知情報が通知されたのか、ターゲットユーザ以外のユーザからの通知情報が通知されたのかを、容易に把握することが可能となる。
図12に示した例では、端末70−Nの出力部760が、ユーザU3をターゲットユーザとして選択するための選択オブジェクトBuを表示している。したがって、端末70−Nの出力部760は、ユーザUNによる選択オブジェクトBuの選択操作に従ってターゲットユーザをユーザU1からユーザU3に切り替えることが可能となる。入力部720がタッチパネルにより構成される場合には、選択オブジェクトBuの選択操作は、タッチパネルに対するタップ操作に相当し得る。
なお、図11には、左から右に、画面G1、画面G5、画面G2、画面G3、画面G7が並んでおり、この並び順が不変である例が示されている。しかし、各画面の並び順は特に限定されない。例えば、端末70−Nに通知情報を通知してきたタイミングが遅いユーザに対応する画面から順に、所定の方向(例えば、右から左または上から下に)に並べられてもよい。あるいは、ユーザUNの行動認識の結果に基づいて通知情報が通知されたタイミングが遅いユーザに対応する画面から順に、所定の方向(例えば、右から左または上から下に)に並べられてもよい。あるいは、ユーザUNがターゲットユーザとして指定したタイミングが遅いユーザに対応する画面から順に、所定の方向(例えば、右から左または上から下に)に並べられてもよい。
以上に説明したように、通知情報の受信側のユーザであるユーザUNは、ユーザU3に対する行動認識の結果に基づいてユーザUNが選択されたことを把握することが可能となる。したがって、通知情報の受信側のユーザであるユーザUNは、行動認識の対象ユーザであるユーザU3との間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能となる。
なお、通知情報は、ユーザU3に対する行動認識の結果を示す情報を含んでもよい。そして、端末70−Nの出力部760は、行動認識の結果を出力してもよい。行動認識の結果はどのような形式で出力されてもよく、音声情報によって出力されてもよいし、文字列によって出力されてもよい。このようにして出力された行動認識の結果を知覚すれば、ユーザUNは通知情報が通知された理由を把握することが可能となるため、行動認識の対象ユーザであるユーザU3との間でコミュニケーションを図ることに対する心理的な障壁をより低くすることが可能となる。
また、選択部131によるユーザ選択、通知部132による通知情報の通知は、上記した例に限定されない。例えば、選択部131は、所定のサービス(例えば、外部アプリケーション、外部コミュニケーションサービスなど)においてユーザU3によって知覚された情報に基づいて、ユーザを選択してもよい。より具体的には、選択部131は、端末70−3の出力部760によって表示されたページがユーザUNに関連するページ(例えば、ユーザUNのブログのページなど)である場合、ユーザUNを選択すればよい。
また、選択部131は、ユーザU3とのコミュニケーション時間またはコミュニケーション頻度に基づいて、ユーザを選択してもよい。より具体的には、選択部131は、所定のサービス(例えば、外部アプリケーション、外部コミュニケーションサービスなど)において、ユーザU3とのコミュニケーション時間またはコミュニケーション頻度が最大となるのが(あるいは閾値を超えるのが)ユーザUNである場合、ユーザUNを選択すればよい。コミュニケーション頻度は、所定時間内のコミュニケーション回数であってもよいし、現在までのコミュニケーション回数累積値であってもよい。
また、ユーザU3とは異なる他のユーザに対する行動認識結果に基づいて、情報の通知対象となるユーザを選択してもよい。例えば、ユーザU3に対する行動認識の結果に基づいて選択されたユーザが複数である場合も想定される。かかる場合、選択部131は、選択された複数のユーザそれぞれに対する行動認識の結果に基づいて1のユーザを選択してもよい。例えば、選択部131は、選択された複数のユーザの中に、行動認識の結果に基づいてユーザU3を選択するユーザが存在する場合、そのユーザを選択すればよい。これによって、行動認識の結果に基づいて互いに選択し合うユーザ同士は、結びつきが強いと扱われる。
また、上記では、ユーザUN(またはユーザUNの種類)に応じた通知情報をユーザUNの端末70−Nに対して通知する例を説明したが、通知情報は、行動認識が行われた時刻に基づいて決定されてもよい。行動認識が行われた時刻によって通知情報を変更したい場合もあり得るからである。例えば、通知部132は、行動認識が行われた時刻が所定の第1の時間帯に属する場合と所定の第2の時間帯に属する場合とにおいて、異なる通知情報をユーザUNの端末70−Nに対して通知してもよい。
また、通知情報は、ユーザU3とユーザUNとの関連度に基づいて決定されてもよい。例えば、通知情報は、人間関係DB40におけるユーザU3とユーザUNとの関連度が大きいほど、大きい振動強度によって振動させるための動作指定を含んでよい。あるいは、通知情報は、人間関係DB40におけるユーザU3とユーザUNとの関連度が大きいほど、速い点滅パターンによってLEDを点滅させるための動作指定を含んでもよい。
また、通知情報は、ユーザU3に対する行動認識の結果とユーザUNに対する行動認識の結果との関係に基づいて決定されてもよい。例えば、通知情報は、ユーザU3に対する行動認識の結果とユーザUNに対する行動認識の結果との類似度が高いほど、大きい振動強度によって振動させるための動作指定を含んでよい。あるいは、通知情報は、ユーザU3に対する行動認識の結果とユーザUNに対する行動認識の結果との類似度が高いほど、速い点滅パターンによってLEDを点滅させるための動作指定を含んでよい。
また、通知情報は、行動認識の種類が所定の種類である場合には、ユーザUNの端末70−Nに対して通知されることが制限されてもよい。例えば、通知部132は、集音データからワードを抽出する行動認識がなされる場合、通知情報をユーザUNの端末70−Nに対して通知することを制限してもよい。あるいは、通知部132は、撮像画像から物体を認識する行動認識がなされる場合、通知情報をユーザUNの端末70−Nに対して通知することを制限してもよい。通知情報の通知を制限する行動認識は、ユーザU3によって設定可能であってよい。
また、通知情報の通知制限は、端末70−3の検出部710によって検出されたセンシングデータに基づいてなされてもよい。例えば、通知部132は、端末70−3がユーザU3によって握られた場合には、通知情報をあらゆる全ユーザに対して通知することを制限してもよい。端末70−3がユーザU3によって握られたか否かは、例えば、照度センサによって検出された照度が閾値を下回ったか否かによって判断されてよい。
また、例えば、通知部132は、端末70−3がユーザU3によって振られた場合には、全ユーザに対する通知制限を解除してもよい。端末70−3がユーザU3によって振られたか否かは、例えば、加速度センサによって検出された加速度が所定の条件を満たしたか否かにより、または、ジャイロセンサによって検出された角速度が所定の条件を満たしたか否かにより、判断されてよい。なお、通知情報の通知の制限は、通知情報の禁止であってもよい。
[1.5.機能詳細(ユーザ状態の認識)]
続いて、第1のユーザに対する行動認識の第2の例として、第1のユーザの状態認識を用いる例を説明する。以下の説明においても、情報処理装置10において、選択部131がユーザU3に対する行動認識の結果に基づいてユーザUNを選択し、通知部132がユーザUNの端末70−Nに対して所定の通知情報を通知する。しかし、行動認識の対象ユーザは、ユーザU3に限定されない。また、通知情報の受信側ユーザは、ユーザUNに限定されない。
図13は、第2の行動認識例に係る対応関係DB50のデータ構成例を示す図である。図13に示すように、対応関係DB50には、ユーザU1〜UN以外の対象とユーザと対象およびユーザの関連度との組み合わせが登録されている。図13に示した例では、(対象、ユーザ、関連度)の組み合わせとして、(職場、ユーザU1、−0.2)、(職場、ユーザUN、+0.7)、(サッカー場、ユーザU1、+0.0)、(サッカー場、ユーザUN、+0.6)が登録されている。
ユーザU3(行動認識の対象ユーザ)を基準とした人間関係の例は、図6に示した通りである。図14は、第2の行動認識例を示す図である。ここで、ユーザU3が端末70−3を身に付けた状態において所定の場所に存在する場合を想定する。図14に示した例では、ユーザU3がサッカー場でサッカーの試合を観戦している例が示されている。なお、図14に示した例では、所定の場所がサッカー場である場合が想定されているが、所定の場所は特に限定されない。
続いて、認識装置21は、ユーザU3の状態を認識する。ユーザU3の状態が認識されると、情報処理装置10において、選択部131は、ユーザU3の状態に基づいてユーザUNを選択する。例えば、端末70−3がセンシングデータとしてユーザU3の位置情報を取得した場合、選択部131は、ユーザU3の位置情報に基づいて、ユーザUNを選択する。より具体的には、選択部131は、ユーザU3の位置情報に対応する対象(例えば、サッカー場)を位置情報DB30から取得し、対応関係DB50において、その対象に対する関連度が最も高いユーザUNを選択すればよい。
そして、通知部132は、ユーザUNの端末70−Nに対して所定の通知情報を通知する。ここで、第2の行動認識例において使用される通知情報は、第1の行動認識例において説明した通知情報と同様に扱われてよい。したがって、第2の行動認識例において使用される通知情報の詳細説明は割愛する。
続いて、ユーザ状態の認識から通知情報の通知までの動作の流れについて説明する。図15は、第2の行動認識例に係る情報処理装置10の動作の流れを示す図である。なお、図15のフローチャートは、第2の行動認識例に係る情報処理装置10の動作の流れの例に過ぎないため、第2の行動認識例に係る情報処理装置10の動作の流れは、図15のフローチャートに示された例に限定されない。
図15に示すように、認識装置21は、端末70−3によるセンシング(S10)の結果として得られたセンシングデータD10(例えば、ユーザU3の位置情報)を取得する。そして、認識装置21は、センシングデータD10に基づいて、ユーザU3の状態を得る(S21)。例えば、認識装置21は、位置情報DB30において、ユーザU3の位置情報に関連付けられている対象(例えば、サッカー場)をユーザU3の状態として取得する。
情報処理装置10において、選択部131は、ユーザU3の状態に関連付けられた関連度D30を対応関係DB50から取得する(S30)。続いて、選択部131は、関連度D30に基づいて、ユーザUNを選択する。より具体的には、選択部131は、ユーザU3の状態(例えば、サッカー場)との関連度が最も高いユーザUNを選択すればよい。続いて、通知部132は、選択部131によって選択されたユーザUNの端末70−Nに対して通知情報を通知する(S50)。
端末70−Nの出力部760は、通知情報を出力する。第2の行動認識例における端末70−Nによる通知情報の出力は、第1の行動認識例において説明した通知情報の出力と同様に行われてよい。したがって、第2の行動認識例における端末70−Nによる通知情報の出力の詳細説明は割愛する。
また、選択部131によるユーザ選択、通知部132による通知情報の通知は、上記した例に限定されない。例えば、選択部131は、ユーザU3が参加しているイベントに基づいて、ユーザを選択してもよい。より具体的には、選択部131は、ユーザU3がイベントに参加している場合には、そのイベントに参加している他のユーザを選択すればよい。なお、ユーザがイベントに参加しているか否かは、ユーザの位置情報に対応する場所を位置情報DB30から取得し、取得した場所がイベント会場になっているか否かを場所ごとに開催されるイベントの情報から判断すればよい。
また、通知情報は、ユーザU3の周囲状況または位置情報に基づいて決定されてもよい。例えば、通知部132は、ユーザU3の周囲状況を取得し、対応関係DB50において、その周囲状況に他のユーザが関連付けられている場合、当該他のユーザを選択すればよい。例えば、周囲状況は、校舎、図書館、駅、店舗、施設、ビル、職場などといった風景の種類であってもよい。また、例えば、周囲状況は、撮像画像に基づく風景認識によって得られてよい。
また、例えば、通知部132は、ユーザU3の位置情報を取得し、ユーザU3の位置情報に対応する場所を位置情報DB30から取得し、対応関係DB50において、その場所に他のユーザが関連付けられている場合、当該他のユーザを選択すればよい。
また、選択部131は、ユーザU3が閲覧しているコンテンツに基づいて、ユーザを選択してもよい。より具体的には、選択部131は、端末70−3の出力部760によって表示されているコンテンツと同一のコンテンツを端末70−Nの出力部760が表示している場合、ユーザUNを選択すればよい。コンテンツの種類は特に限定されない。例えば、コンテンツは、静止画であってもよいし、動画であってもよいし、Webページであってもよい。
また、選択部131は、端末70−3によって撮像された撮像画像から認識された物体に基づいて、ユーザを選択してもよい。より具体的には、選択部131は、対応関係DB50において、端末70−3の検出部710によって検出された撮像画像から認識された物体にユーザUNが関連付けられている場合、ユーザUNを選択すればよい。物体認識の手法は特に限定されない。また、物体認識は、情報処理装置10によって行われてもよいし、端末70−3によって行われてもよい。
また、選択部131は、ユーザU3の端末70−3による集音データから抽出されたワード(例えば、名詞など)に基づいて、ユーザを選択してもよい。より具体的には、選択部131は、人間関係DBまたは対応関係DB50において、端末70−3の検出部710によって検出された集音データから抽出されたワードにユーザUNが関連付けられている場合、ユーザUNを選択すればよい。なお、集音データは、ユーザU3が対面または遠隔の相手と会話をしているときに集音されたデータであってよい。
以上においては、端末70がスマートフォンによって実現される例を主に説明したが、上記したように、端末70はウェアラブルデバイスによって実現されてもよい。例えば、端末70はユーザの首から下げるように装着されるペンダント型デバイスによって実現されてもよい。図16は、ペンダント型デバイスによって端末70が実現される例を示す図である。図16に示した例では、ユーザU3が端末70−3を首から下げるように装着している。なお、ウェアラブルデバイスは、ユーザの腕に装着されるリストバンド型デバイスであってもよいし、HMD(Head Mount Display)であってもよいし、ユーザの持ち物に装着されるキーホルダであってもよいし、
以上、本開示の実施形態に係る情報処理システム1の機能詳細について説明した。
[1.6.ハードウェア構成例]
次に、図17を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図17は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図17に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク60に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク60は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置10のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
<2.むすび>
以上説明したように、本開示の実施形態によれば、第1のユーザに対する行動認識の結果に基づいて第2のユーザを選択する選択部131と、第2のユーザの端末に対して所定の通知情報を通知する通知部132と、を備える、情報処理装置10が提供される。かかる構成によれば、情報処理装置10から通知された通知情報を第2のユーザが知覚することにより、第2のユーザが第1のユーザとの間でコミュニケーションを図ることに対する心理的な障壁を低くすることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理装置10が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
なお、上述した情報処理システム1の動作が実現されれば、各構成要素の位置は特に限定されない。例えば、上記した例では、情報処理装置10がサーバとして機能する場合を説明したが、情報処理装置10が有する機能の一部または全部は、端末70−1〜70−Nがそれぞれ有していてもよい。例えば、選択部131および通知部132は、端末70−1〜70−Nがそれぞれ有していてもよい。また、情報処理装置10、認識装置21および解析装置22の全部または一部は、同一の装置に収まっていてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える、情報処理装置。
(2)
前記情報処理装置は、前記選択部により選択された第2のユーザに対して通知される通知情報を決定する通知制御部を備える、
(1)に記載の情報処理装置。
(3)
前記通知制御部は、前記第2のユーザまたは前記第2のユーザの種類に基づいて前記通知情報を決定する、
前記(2)に記載の情報処理装置。
(4)
前記情報処理装置は、前記第1のユーザによる所定の操作に基づいて、前記第2のユーザまたは前記第2のユーザの種類と、前記通知情報と、の関連付けを行う関連制御部を備える、
前記(2)または(3)に記載の情報処理装置。
(5)
前記通知情報は、前記行動認識の結果を示す情報を含む、
前記(2)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記通知情報は、前記第1のユーザの周囲状況または位置情報に基づき決定される、
前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記通知情報は、前記行動認識が行われた時刻に基づき決定される、
前記(2)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記通知情報は、前記第1のユーザと前記第2のユーザとの関連度に基づき決定される、
前記(2)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記通知情報は、前記第1のユーザに対する前記行動認識の結果と前記第2のユーザに対する前記行動認識の結果との関係に基づき決定される、
前記(2)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記通知情報は、前記行動認識の種類が所定の種類である場合には、前記第2のユーザの前記端末に対して通知されることが制限される、
前記(2)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記選択部は、前記第1のユーザの位置情報に基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(12)
前記選択部は、前記第1のユーザが閲覧しているコンテンツに基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(13)
前記選択部は、前記第1のユーザが参加しているイベントに基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(14)
前記選択部は、前記第1のユーザとのコミュニケーション時間またはコミュニケーション頻度に基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(15)
前記選択部は、前記第1のユーザの現在のコミュニケーション相手に基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(16)
前記選択部は、前記第1のユーザの端末によって撮像された撮像画像から認識された物体に基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(17)
前記選択部は、前記第1のユーザの端末による集音データから抽出されたワードに基づいて、前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(18)
前記選択部は、前記第1のユーザとは異なる他のユーザに対する行動認識結果に基づいて、情報の通知対象となる前記第2のユーザを選択する、
前記(1)に記載の情報処理装置。
(19)
プロセッサにより、第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択することを備える、情報処理方法。
(20)
コンピュータを、
第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える情報処理装置として機能させるためのプログラム。
(21)
前記選択部は、所定のサービスにおいて前記第1のユーザによって知覚された情報に基づいて、前記第2のユーザを選択する、
前記(2)〜(10)のいずれか一項に記載の情報処理装置。
1 情報処理システム
10 情報処理装置
130 制御部
131 選択部
132 通知部
140 記憶部
150 通信部
21 認識装置
22 解析装置
30 位置情報DB
40 人間関係DB
50 対応関係DB
60 ネットワーク
70 端末
710 検出部
720 入力部
730 制御部
740 記憶部
750 通信部
760 出力部
80 外部サーバ


Claims (20)

  1. 第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える、情報処理装置。
  2. 前記情報処理装置は、前記選択部により選択された第2のユーザに対して通知される通知情報を決定する通知制御部を備える、
    請求項1に記載の情報処理装置。
  3. 前記通知制御部は、前記第2のユーザまたは前記第2のユーザの種類に基づいて前記通知情報を決定する、
    請求項2に記載の情報処理装置。
  4. 前記情報処理装置は、前記第1のユーザによる所定の操作に基づいて、前記第2のユーザまたは前記第2のユーザの種類と、前記通知情報と、の関連付けを行う関連制御部を備える、
    請求項2に記載の情報処理装置。
  5. 前記通知情報は、前記行動認識の結果を示す情報を含む、
    請求項2に記載の情報処理装置。
  6. 前記通知情報は、前記第1のユーザの周囲状況または位置情報に基づき決定される、
    請求項2に記載の情報処理装置。
  7. 前記通知情報は、前記行動認識が行われた時刻に基づき決定される、
    請求項2に記載の情報処理装置。
  8. 前記通知情報は、前記第1のユーザと前記第2のユーザとの関連度に基づき決定される、
    請求項2に記載の情報処理装置。
  9. 前記通知情報は、前記第1のユーザに対する前記行動認識の結果と前記第2のユーザに対する前記行動認識の結果との関係に基づき決定される、
    請求項2に記載の情報処理装置。
  10. 前記通知情報は、前記行動認識の種類が所定の種類である場合には、前記第2のユーザに対して通知されることが制限される、
    請求項2に記載の情報処理装置。
  11. 前記選択部は、前記第1のユーザの位置情報に基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  12. 前記選択部は、前記第1のユーザが閲覧しているコンテンツに基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  13. 前記選択部は、前記第1のユーザが参加しているイベントに基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  14. 前記選択部は、前記第1のユーザとのコミュニケーション時間またはコミュニケーション頻度に基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  15. 前記選択部は、前記第1のユーザの現在のコミュニケーション相手に基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  16. 前記選択部は、前記第1のユーザの端末によって撮像された撮像画像から認識された物体に基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  17. 前記選択部は、前記第1のユーザの端末による集音データから抽出されたワードに基づいて、前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  18. 前記選択部は、前記第1のユーザとは異なる他のユーザに対する行動認識結果に基づいて、情報の通知対象となる前記第2のユーザを選択する、
    請求項1に記載の情報処理装置。
  19. プロセッサにより、第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択することを備える、情報処理方法。
  20. コンピュータを、
    第1のユーザに対する行動認識の結果に基づいて、情報の通知対象となる第2のユーザを選択する選択部を備える情報処理装置として機能させるためのプログラム。
JP2015050623A 2015-03-13 2015-03-13 情報処理装置、情報処理方法およびプログラム Pending JP2016170667A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015050623A JP2016170667A (ja) 2015-03-13 2015-03-13 情報処理装置、情報処理方法およびプログラム
PCT/JP2016/051327 WO2016147693A1 (ja) 2015-03-13 2016-01-18 情報処理装置、情報処理方法およびプログラム
US15/554,515 US10855639B2 (en) 2015-03-13 2016-01-18 Information processing apparatus and information processing method for selection of a target user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050623A JP2016170667A (ja) 2015-03-13 2015-03-13 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016170667A true JP2016170667A (ja) 2016-09-23

Family

ID=56919834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050623A Pending JP2016170667A (ja) 2015-03-13 2015-03-13 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US10855639B2 (ja)
JP (1) JP2016170667A (ja)
WO (1) WO2016147693A1 (ja)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8117281B2 (en) * 2006-11-02 2012-02-14 Addnclick, Inc. Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
JP2002218025A (ja) * 2001-01-18 2002-08-02 Kyocera Corp 移動通信機、及び着信報知方法
JP4250938B2 (ja) 2001-10-15 2009-04-08 パナソニック株式会社 コミュニケーション支援方法およびコミュニケーションサーバ
EP1973315A1 (en) * 2007-03-21 2008-09-24 Lucent Technologies Inc. Image recognition for placing a call
US8156064B2 (en) * 2007-07-05 2012-04-10 Brown Stephen J Observation-based user profiling and profile matching
US20090106040A1 (en) * 2007-10-23 2009-04-23 New Jersey Institute Of Technology System And Method For Synchronous Recommendations of Social Interaction Spaces to Individuals
US8838152B2 (en) * 2007-11-30 2014-09-16 Microsoft Corporation Modifying mobile device operation using proximity relationships
US10680840B2 (en) * 2008-08-28 2020-06-09 Lawrence A. Jonas System for integrating multiple IM networks and social networking websites
GB2467578A (en) * 2009-02-06 2010-08-11 Sony Corp Determining, based on the status of a handheld device, users of other network devices who the user of the handheld device may be interested in contacting.
US20120278262A1 (en) * 2011-04-28 2012-11-01 Jared Morgenstern Suggesting Users for Interacting in Online Applications in a Social Networking Environment
JP5757213B2 (ja) * 2011-09-30 2015-07-29 大日本印刷株式会社 サーバ装置、プログラム及び通信システム
US20130117292A1 (en) * 2011-11-09 2013-05-09 Microsoft Corporation Connection of users by geolocation
US8938220B2 (en) * 2012-07-03 2015-01-20 International Business Machines Corporation Automated selection and presentation of pertinent contacts
US9179250B2 (en) * 2012-07-25 2015-11-03 Aro, Inc. Recommendation agent using a routine model determined from mobile device data
CN103581270B (zh) * 2012-08-08 2015-12-16 腾讯科技(深圳)有限公司 用户推荐方法和系统
KR20140027011A (ko) 2012-08-24 2014-03-06 삼성전자주식회사 친구 추천 방법 및 이를 위한 서버 및 단말
WO2014030962A1 (en) * 2012-08-24 2014-02-27 Samsung Electronics Co., Ltd. Method of recommending friends, and server and terminal therefor
US9602606B2 (en) * 2012-11-30 2017-03-21 Rovi Guides, Inc. Systems and methods for a social facilitator service
JP6061079B2 (ja) 2012-12-20 2017-01-18 日本電気株式会社 情報通知システム
WO2015094162A1 (en) * 2013-12-16 2015-06-25 Intel Corporation Initiation of action upon recognition of a partial voice command
JP2014063526A (ja) * 2013-12-24 2014-04-10 Dna:Kk サーバ装置、方法、および、プログラム

Also Published As

Publication number Publication date
US20180048608A1 (en) 2018-02-15
WO2016147693A1 (ja) 2016-09-22
US10855639B2 (en) 2020-12-01

Similar Documents

Publication Publication Date Title
US10990613B2 (en) Information processing apparatus and information processing method
US10832448B2 (en) Display control device, display control method, and program
US11170580B2 (en) Information processing device, information processing method, and recording medium
JP6254577B2 (ja) 情報処理装置、システム、情報処理方法およびプログラム
JP2013200793A (ja) 情報処理装置、情報処理方法およびプログラム
US10564712B2 (en) Information processing device, information processing method, and program
JP6402718B2 (ja) 情報処理装置、制御方法およびプログラム
JPWO2016158267A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2017061149A1 (ja) 情報処理装置、情報処理方法およびプログラム
US10803058B2 (en) Information processing device, method of processing information, and method of providing information
WO2018105266A1 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム
JP6504058B2 (ja) 情報処理システム、情報処理方法およびプログラム
JP6627775B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6733662B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
WO2018139036A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20180063283A1 (en) Information processing apparatus, information processing method, and program
JPWO2015198729A1 (ja) 表示制御装置、表示制御方法およびプログラム
JP2016109726A (ja) 情報処理装置、情報処理方法およびプログラム
WO2016147693A1 (ja) 情報処理装置、情報処理方法およびプログラム
US11372473B2 (en) Information processing apparatus and information processing method
JP2015111371A (ja) 情報処理装置、情報処理方法およびプログラム
WO2015194215A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2021099538A (ja) 情報処理装置、情報処理方法およびプログラム
JP2018120390A (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2018179972A1 (ja) 情報処理装置、情報処理方法およびプログラム