JP6561996B2 - 情報処理装置、制御方法、および記憶媒体 - Google Patents

情報処理装置、制御方法、および記憶媒体 Download PDF

Info

Publication number
JP6561996B2
JP6561996B2 JP2016557469A JP2016557469A JP6561996B2 JP 6561996 B2 JP6561996 B2 JP 6561996B2 JP 2016557469 A JP2016557469 A JP 2016557469A JP 2016557469 A JP2016557469 A JP 2016557469A JP 6561996 B2 JP6561996 B2 JP 6561996B2
Authority
JP
Japan
Prior art keywords
interaction
information
sensitivity value
sensitivity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016557469A
Other languages
English (en)
Other versions
JPWO2016072117A1 (ja
Inventor
末吉 隆彦
隆彦 末吉
敦 塩野崎
敦 塩野崎
宏 岩波
宏 岩波
井原 圭吾
圭吾 井原
宮島 靖
靖 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016072117A1 publication Critical patent/JPWO2016072117A1/ja
Application granted granted Critical
Publication of JP6561996B2 publication Critical patent/JP6561996B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/04Payment circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24575Query processing with adaptation to user needs using context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6263Protecting personal data, e.g. for financial or medical purposes during internet communication, e.g. revealing personal data from cookies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0609Buyer or seller confidence or verification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/08Auctions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values

Description

本開示は、情報処理装置、制御方法、および記憶媒体に関する。
近年、ある時点における人の感情を生体情報等から推定し、コンテンツデータの検索や、情報のレコメンデーション等に用いることが行われている。
例えば、下記特許文献1では、心拍、血圧等の生体情報に基づいて感情の度合いを示す感情パラメータを求め、1次元の感情貨幣に変換する技術が開示されている。
特開2005−124909号公報
しかしながら、上記特許文献1や従来技術では、主に生体情報に基づく人の感情(快/不快)の推定が行われ、モノの仮想的な心理状態については言及されていなかった。
例えば、同じ商品であっても、思い入れを持って大切に使われた場合と、乱雑に扱われた場合とでは、モノに宿る利用者の思い入れや愛着は異なるはずであるが、それを計測したり、第三者に客観的に知らせたりする術がなかった。
このように、物の価値は、その物の機能やデザインだけではなく、同じ商品であっても個別の価値が生じ得る。
そこで、本開示では、オブジェクト間のインタラクションに基づいてオブジェクトの感性価値を数値化することが可能な情報処理装置、制御方法、および記憶媒体を提案する。
本開示によれば、第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出する検出部と、前記インタラクションに関連する情報に基づき、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能な生成部と、を備える、情報処理システムを提案する。
本開示によれば、第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出することと、前記インタラクションに関連する情報に基づき、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能なことと、を含む、制御方法を提案する。
本開示によれば、コンピュータを、第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出する検出部と、前記インタラクションに関連する情報に基づき、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能な生成部と、として機能させるための、プログラムが記憶された、記憶媒体を提案する。
以上説明したように本開示によれば、オブジェクト間のインタラクションに基づいてオブジェクトの感性価値を数値化することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要を説明する図である。 本実施形態によるセンシングデバイスの構成の一例を示すブロック図である。 本実施形態による感性サーバの構成の一例を示すブロック図である。 本実施形態による情報処理システムの動作処理を示すシーケンス図である。 第1の応用例による個人信用情報提供システムの全体構成を説明する図である。 第1の応用例による個人信用情報提供サーバの構成の一例を示すブロック図である。 第1の応用例による感性サーバのオブジェクトDBのデータ例を示す図である。 第1の応用例による感性サーバの感性情報DBのデータ例を示す図である。 第1の応用例による信用ランキングの表示処理を示すフローチャートである。 第1の応用例による信用力ランキング画面の一例を示す図である。 第1の応用例によるオブジェクト属性毎の信用力情報の表示処理を示すフローチャートである。 第1の応用例による対象者の家に対する相対的感性値の算出について説明する図である。 第1の応用例によるオブジェクト属性毎の信用力情報表示画面の一例を示す図である。 第1の応用例による信用力の年代表示処理を示すフローチャートである。 第1の応用例による信用力の年代表示画面の一例を示す図である。 第2の応用例によるオークションシステムの全体構成を説明する図である。 第2の応用例によるオークションサーバの構成の一例を示すブロック図である。 第2の応用例によるオークションサーバの商品・ユーザ情報DBに記憶されている出品商品のデータ例を示す図である。 第2の応用例による感性サーバの感性情報DBのデータ例を示す図である。 第2の応用例による出品商品の感性値に応じたリスト表示処理を示すフローチャートである。 第2の応用例による出品商品の感性値に応じたリスト表示画面の一例を示す図である。 第2の応用例による出品商品の感性値に関する詳細情報の表示処理を示すフローチャートである。 第2の応用例による出品商品の相対的/絶対的感性値の算出について説明する図である。 第2の応用例による出品商品の感性値に関する詳細情報表示画面の一例を示す図である。 第2の応用例による出品者の感性値に関する詳細情報の表示処理を示すフローチャートである。 第2の応用例による出品者の感性値に関する詳細情報表示画面の一例を示す図である。 第3の応用例による環境調整システムの全体構成を説明する図である。 第3の応用例の移動体による環境調整の一例について説明する図である。 第3の応用例による移動体の構成の一例を示すブロック図である。 第3の応用例による環境調整サーバの構成の一例を示すブロック図である。 第3の応用例による環境調整処理を示すフローチャートである。 第3の応用例によるカバー範囲変更処理を示すフローチャートである。 第3の応用例によるインタラクション評価のデータ例を示す図である。 第3の応用例によるインタラクション評価の他のデータ例を示す図である。 第4の応用例によるテレプレゼンスシステムの全体構成を説明する図である。 第4の応用例による障子画像の表示例について説明する図である。 第4の応用例による通信制御装置の構成の一例を示すブロック図である。 第4の応用例によるテレプレゼンス制御処理を示すフローチャートである。 第4の応用例による開度設定の動作処理を示すフローチャートである。 第4の応用例によるインタラクション評価のデータ例を示す図である。 図40示すインタラクション評価値のデータ例から感性値算出に用いるデータを抜き出したデータ例を示す図である。 第5の応用例による臨場感再現システムの全体構成を説明する図である。 第5の応用例による再現情報生成装置の構成の一例を示すブロック図である。 第5の応用例による再現情報生成処理を示すフローチャートである。 第5の応用例による被写体認識について説明する図である。 第5の応用例によるインタラクション評価のデータ例を示す図である。 図46に示すインタラクション評価のデータ例から感性値算出に用いるデータを抜き出したデータ例を示す図である。 第5の応用例による再生制御装置の構成の一例を示すブロック図である。 第5の応用例による感性値を利用した再生処理を示すフローチャートである。 第5の応用例による感性値に応じて各被写体に対応するよう配置される画像エフェクトの一例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.基本構成および動作処理
2−1.センシングデバイス
2−2.感性サーバ
2−3.動作処理
3.応用例
3−1.個人信用情報提供システム
3−2.オークションシステム
3−3.環境調整システム
3−4.テレプレゼンスシステム
3−5.臨場感再現システム
4.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
まず、本開示の一実施形態による情報処理システム100の概要を図1に示して説明する。図1に示すように、本実施形態による情報処理システム100では、人や物全てをオブジェクトと定義し、各オブジェクト(Obj.A〜Obj.D)には、オブジェクト間のインタラクション(相互作用)を検出するためのセンシングデバイス1(A〜D)が設けられている。例えば人Obj.Aには、時計型デバイス等のウェアラブルデバイスにより実現されたセンシングデバイス1Aが装着されている。また、家Obj.Bには、扉の開閉や、人の出入り、家の修繕等を検出可能なセンシングデバイス1Bが設けられている。また、車Obj.Cには、走行距離や、使用回数、運転の丁寧さ、洗車等を検出可能なセンシングデバイス1Cが設けられている。また、カメラObj.Dには、使用時間、保管状態、被写体の種別、水濡れ、衝撃、メンテナンス回数等を検出可能なセンシングデバイス1Dが設けられている。
センシングデバイス1が検出したインタラクションは、ネットワーク3を介して感性サーバ2に送信される。例えば、人Obj.Aが、家Obj.B、車Obj.C、およびカメラObj.Dに対して行ったそれぞれのインタラクション(扉の開閉、修繕、運転、保管等)が、センシングデバイス1A〜10Dによってそれぞれ検出され、感性サーバ2に送信される。具体的には、人が家に対して何らかのインタラクションを行った場合、人側のセンシングデバイス1Aと家側のセンシングデバイス1Bでそれぞれのインタラクション(他のオブジェクトへ行ったインタラクション、他のオブジェクトから行われたインタラクション)が検出される。また、検出されるインタラクションは、人と物の間のインタラクションに限定されず、物と物の間のインタラクションも検出され得る。
感性サーバ2は、センシングデバイス1から受信したインタラクションを蓄積し、これを分析することで、各オブジェクトの感性値を算出する。感性サーバ2で算出された感性値は様々なサービスで利用される。なお、サービスの性質に応じて必要な感性値は異なる場合もあるため、感性サーバ2は各インタラクションの評価を数値化した評価値を各サービスに送信し、サービス側において所定の算出方法でインタラクション評価値に基づいて感性値が算出されてもよい。
このように、本実施形態による情報処理システム100では、人・モノの全てをオブジェクトと定義した上で、オブジェクト間のインタラクションに基づいてそれぞれのオブジェクトの価値を数値化した新しい指標である感性値を提供することができる。このような感性値の有用性について、以下本開示の背景として説明する。
(背景)
近年、新自由主義市場原理に基づくグローバル経済が行きすぎ、成熟社会では新しい価値経済の指標が求められている。具体的には、新しいモノづくりにおけるモノの「感性価値」について議論されている。一般的には、作り手によりモノに込められたこだわりや思想、背景、技術などを感性価値と称し、これを活かした地域の取り組みが行われている。また、ユーザが愛着を持ってモノを扱ったことは、目には見えないモノの特別な価値となり、貨幣価値以上の価値が生まれることもある。しかしながら、従来、このような「感性価値」を情報科学の領域で用いることは行われていなかった。
ここで、昨今のデバイス小型化、バッテリー技術やネットワーク技術の進歩により、モノ同士を繋げるIoT(Internet of Things)の時代に突入してきた。この時代の先には、モノと人が区別なくつながる(チューリングテストを合格したモノが人とインタラクションする)時代が到来すると仮定できる。その場合、人・モノの「感性価値」は、人・モノ(サービスを含む)の区別なく、あらゆるインタラクションの履歴に相関すると定義できる。
本実施形態は、上記のような観点から、人・モノの疑似的な「感性価値」を数値化した感性値について提案する。感性価値は多次元のベクトルで表現されるため、そのベクトルを扱いやすいように次元を落としたり単純なスカラー値にしたりして利用することが考えられ、各々のサービスや商品に合わせて最適化して利用する。感性値は新しい価値経済の指標となり、将来、貨幣と対になる経済概念になることが予想される。従って、感性値には、保存(蓄積)、交換媒体(モノAとモノBの交換を媒介する機能)、および人・モノの価値の尺度(商品やサービス全てに感性値が付与され、モノの価値は、貨幣と感性値で判断される)といった機能が期待される。
以上、本実施形態による情報処理システム100の概要について説明した。続いて、情報処理システム100に含まれるセンシングデバイス1および感性サーバ2の構成と、情報処理システム100の動作処理について順次説明する。
<<2.基本構成>>
<2−1.センシングデバイス>
図2は、本実施形態によるセンシングデバイス1の構成の一例を示すブロック図である。図2に示すように、センシングデバイス1は、センサ11、インタラクション抽出部12、および通信部13を有する。
(センサ)
センサ11は、オブジェクト間のインタラクションを検知する機能を有する。センサ11は、例えば湿度センサ、温度センサ、振動センサ、赤外線センサ、カメラ、触覚センサ、ジャイロセンサ、照度センサ、人感センサ、大気センサ(例えば埃センサ、汚染物質センサ)、速度センサ、回数計測センサ等により実現される。
(インタラクション抽出部)
インタラクション抽出部12は、センサ11から出力されたセンシングデータに基づいて、第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出する検出部として機能する。例えば、インタラクション抽出部12は、扉の開閉を検知するセンサのセンシングデータに基づいて、扉の開閉回数や、開閉時の衝撃/強さ、人の出入りといったインタラクションを抽出することができる。
また、インタラクション抽出部12は、対象オブジェクトが分解されたり、リセット処理が行われたり、故障症状が改善されたこと(エラーなし)、部品交換が行われたこと等を検知するセンサのセンシングデータに基づいて、対象オブジェクトの修繕・メンテナンスといったインタラクションを抽出することができる。
また、インタラクション抽出部12は、対象オブジェクトが車、自転車、自動二輪車等の場合、距離測定値、エンジン回数測定値、タイヤ交換頻度、ブレーキタイミング、汚れ、位置情報、燃料追加頻度等を検知するセンサのセンシングデータに基づいて、対象オブジェクトの走行距離、使用回数、運転の丁寧さ、洗車等といったインタラクションを抽出することができる。
また、インタラクション抽出部12は、起動時間、起動タイミング、置載状態、周囲の大気、湿度、温度、水濡れ、衝撃等を検知するセンサのセンシングデータに基づいて、対象オブジェクトの愛用度、愛着具合、保管状態といったインタラクションを抽出することができる。
(通信部)
通信部13は、インタラクション抽出部12により抽出されたインタラクションに関連する情報を、ネットワーク3を介して感性サーバ2に送信する。
以上説明したセンシングデバイス1には、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータが搭載され、センシングデバイス1の各構成を制御する。
<2−2.感性サーバ>
図3は、本実施形態による感性サーバ2の構成の一例を示すブロック図である。図3に示すように、感性サーバ2は、通信部21、制御部20、オブジェクトDB22、および感性情報DB24を有する。
(通信部)
通信部21は、ネットワークを介して各オブジェクト(人、物)に装着/搭載されたセンシングデバイス1から、インタラクションに関連する情報(以下、インタラクション情報とも称する)を受信する。また、通信部21は、外部装置からの要求に応じて、感性情報DB24に格納されているインタラクション評価、または感性値算出部20eにより算出した感性値を送信する。
(制御部)
制御部20は、感性サーバ2の各構成を制御する。また、制御部20は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。さらに、本実施形態による制御部20は、インタラクション記憶制御部20a、評価部20b、オブジェクト管理部20c、関連オブジェクト検索部20d、および感性値算出部20eとして機能する。
インタラクション記憶制御部20aは、オブジェクトに装着/搭載されたセンシングデバイス1から受信したインタラクション情報を感性情報DB24に記憶するよう制御する。
評価部20bは、感性情報DB24に記憶したインタラクションの評価を行う。インタラクションの評価方法については特に限定しないが、例えば評価部20bは、インタラクションを行った/受けたオブジェクトにとって何らかの評価指標で定めた基準から算出評価し、具体的には−1.0〜1.0の点数を付ける。評価結果は、インタラクションに対応付けて感性情報DB24に記憶される。
オブジェクト管理部20cは、オブジェクトDB22に記憶されているオブジェクトに関する情報の登録、変更、削除等の管理を行う。
関連オブジェクト検索部20dは、外部装置から要求されたオブジェクトIDとの間にインタラクションが発生した他のオブジェクトを関連オブジェクトとしてオブジェクトDB22や感性情報DB24から検索する。
感性値算出部20eは、感性情報DB24に蓄積されているインタラクション情報の評価値に基づいて、オブジェクトの感性値を算出する。感性値の具体的な算出方法については後述する。
(オブジェクトDB)
オブジェクトDB(データベース)22は、各オブジェクトのオブジェクトIDを格納する記憶部である。また、オブジェクトDB22には、オブジェクトIDの他、商品名、商品種類、メーカー名(またはメーカーID)、型番、製造日時等の、オブジェクトに関する多々の情報が格納されている。
(感性情報DB)
感性情報DB24は、オブジェクト間のインタラクションや、インタラクションの評価を格納する記憶部である。
<2−3.動作処理>
次に、本実施形態による情報処理システム100の動作処理について図4を参照して説明する。図4は、本実施形態による情報処理システム100の動作処理を示すシーケンス図である。
図4に示すように、まず、センシングデバイス1Aが設けられたオブジェクトAから、センシングデバイス1Bが設けられたオブジェクトBに対して何らかのインタラクションが行われると、ステップS103において、センシングデバイス1Aのインタラクション抽出部12は、インタラクションを取得し、続くステップS106において、取得したインタラクションを通信部13により感性サーバ2に送信する。
また、インタラクションが行われたオブジェクトBに設けられたセンシングデバイス1Bでも同様の処理が行われる。すなわち、ステップS109において、センシングデバイス1Bのインタラクション抽出部12は、インタラクションを取得し、続くステップS112において、取得したインタラクションを通信部13により感性サーバ2に送信する。
これにより、オブジェクト間でインタラクションが行われると、双方のオブジェクトでそれぞれインタラクションが取得され、感性サーバ2に送信される。
次に、ステップS115において、感性サーバ2のインタラクション記憶制御部20aは、各センシングデバイス1から送信されたインタラクションを感性情報DB24に記憶し、続くステップS118において、評価部20bによりインタラクション評価を行う。なお評価部20bによるインタラクション評価も、インタラクションに対応付けて感性情報DB24に記憶される。
そして、ステップS121において、感性サーバ2の感性値算出部20eは、必要に応じて、インタラクション評価に基づいてオブジェクトの感性値の算出を行う。
以上、本実施形態による動作処理について説明した。本実施形態の感性サーバ2により収集されたインタラクション履歴に基づいて算出されたオブジェクトの感性値は、オブジェクトの価値を示す新たな指標として様々なサービスで利用することが考えられる。以下、本実施形態による感性値を利用した各種サービスシステムについて、複数の応用例を挙げて説明する。
<<3.応用例>>
<3−1.個人信用情報提供システム>
まず、第1の応用例として、感性値を信用力(信頼度)とみなして個人信用情報提供システム101で利用する場合について、図5〜図15を参照して説明する。
従来、個人の信用度を提供する信用情報提供サービスとしては、資産、負債、クレジットカードの契約年数等から算出した信用力が提供されていた。これに対し、本実施形態では、個人の持つ感性値を信用力情報として用いる。また、個人がこれまで関わったオブジェクトとのインタラクションの履歴から、特定の条件(時間やオブジェクトの属性)でフィルタすることで、さまざまな尺度で個人の信用力を可視化することも可能となる。例えば、昔はモノに当たり散らす素行の悪い人間だったが、今はモノを大事に扱う善人であるといったことや、パソコンは大事に扱うが車に乗ると扱いが荒くなるなどの、個人の人間性も感性値に表れる。
図5は、第1の応用例による個人信用情報提供システム101の全体構成を説明する図である。図5に示すように、個人信用情報提供システム101は、個人信用情報提供サーバ4と、感性サーバ2とを含む。
感性サーバ2は、個人信用情報提供システム101の会員であるユーザObj.A、ユーザObj.Aが常日頃インタラクションを行っている家Obj.B、車Obj.C、カメラObj.Dからインタラクション情報を取得する。
また、図5に示すユーザObj.Aと利用者は、個人信用情報提供システム101に会員登録する際、それぞれ固有のIDと対応付けて登録される。
ここで、利用者がユーザObj.Aの信用情報を取得する場合を想定する。利用者は、図5に示すように、個人信用情報提供サーバ4に、ユーザObj.AのID(すなわちオブジェクトID)と、必要に応じて、期間(例えば開始時間、終了時間)や、関連オブジェクトの属性(例えば商品カテゴリやメーカー名)などの検索条件を指定して、ユーザObj.Aの信用情報の表示を依頼する。
個人信用情報提供サーバ4は、利用者からの要求に応じて、ユーザObj.AのIDと検索条件(期間、関連オブジェクトの属性等)を元に、感性値を感性サーバ2から取得する。この際、ユーザObj.Aとの間にインタラクションが発生した関連オブジェクト(家Obj.B、車Obj.C、カメラObj.D)の感性値も取得され得る。
そして、個人信用情報提供サーバ4は、取得した感性値に基づいて、ユーザObj.Aの信用力情報を利用者に提供する。期間や関連オブジェクト属性等の検索条件が指定されない場合、ユーザObj.Aの総合的な信用力情報が表示される。また、期間を指定した場合、指定した期間におけるユーザObj.Aの信用力情報が表示される。また、関連オブジェクト属性を指定した場合、ユーザObj.Aに関連するオブジェクトのうち、指定されたオブジェクト属性にマッチしたオブジェクトとのインタラクションに応じた信用力情報が表示される。
また、信用力情報の表示方法は、感性値の値をそのまま信用力の値として表示してもよいし、グラフ化したり、線表化して可視化してもよい。
以上、第1の応用例による個人信用情報提供システム101の概要について説明した。なお、利用者は、ユーザObj.Aと同じ個人信用情報提供システム101に加入していなくてもよく、例えば信販会社を利用してユーザObj.Aの信用情報を取得してもよい。この場合、信販会社の管理サーバ(不図示)が、個人信用情報提供システム101の個人信用情報提供サーバ4にアクセスし、ユーザObj.Aの信用情報を取得する。
(3−1−1.構成)
次に、個人信用情報提供システム101に含まれる個人信用情報提供サーバ4の構成について図6を参照して説明する。
図6は、本実施形態による個人信用情報提供サーバ4の構成の一例を示すブロック図である。図6に示すように、個人信用情報提供サーバ4は、制御部40、通信部41、および商品・ユーザ情報DB(データベース)42を有する。
(通信部)
通信部41は、ネットワークを介して利用者の端末(不図示)と接続し、利用者からの要求を受信したり、要求に応じて信用情報を利用者に送信したりする。また、通信部41は、ネットワークを介して感性サーバ2と接続し、対象オブジェクトの感性値や、関連オブジェクトの感性値を取得する。
(制御部)
制御部40は、個人信用情報提供サーバ4の各構成を制御する。また、制御部40は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。さらに、本実施形態による制御部40は、関連商品検索部40a、感性値要求部40b、結果生成部40c、表示制御部40d、およびオブジェクト管理部40eとして機能する。
関連商品検索部40aは、利用者により指定された調査対象者に関連する商品を商品・ユーザ情報DB42から検索する。調査対象者に関連する商品とは、例えば調査対象者が所有する商品として予め調査対象者に紐付けられた商品である。
感性値要求部40bは、利用者により指定された調査対象者の感性値を感性サーバ2に要求する。具体的には、感性値要求部40bは、調査対象者のオブジェクトIDと、検索条件がある場合は当該検索条件(期間、関連オブジェクトの属性、関連オブジェクトのオブジェクトID等)を、通信部41を介して感性サーバ2に送信する。
結果生成部40cは、感性値要求部40bにより感性サーバ2から取得した調査対象者の感性値に基づいて、調査対象者の信用力調査の結果を生成する。具体的には、例えば結果生成部40cは、調査対象者の信用力情報を示す結果画面を生成する。
表示制御部40dは、結果生成部40cにより生成された結果画面を要求元の利用者端末に表示するよう制御する。例えば、表示制御部40dは、結果画面を表示するための情報を、通信部41を介して利用者端末に送信するよう制御する。
オブジェクト管理部40eは、商品・ユーザ情報DB42に記憶されている商品・ユーザ(オブジェクトの一例)に関する情報の登録、変更、削除等の管理を行う。
(商品・ユーザ情報DB)
商品・ユーザ情報DB42は、商品・ユーザに関する情報を記憶する記憶部である。ユーザとは、例えば個人信用情報提供システム101に会員登録されたユーザである。また、商品・ユーザ情報には、各商品・ユーザのそれぞれのオブジェクトIDが含まれる。
以上、本応用例による個人信用情報提供サーバ4の構成について説明した。なお個人信用情報提供システム101に含まれる感性サーバ2の構成は、図3を参照して説明したため、ここでの説明は省略する。
[データ構成例]
次に、個人信用情報提供システム101で利用する感性値を算出するために用いられる感性サーバ2のオブジェクトDB22のデータ例、および感性情報DB24のデータ例について、図7、図8を参照して説明する。
図7は、第1の応用例による感性サーバ2のオブジェクトDB22のデータ例を示す図である。感性サーバ2のオブジェクトDB22には、図7に示すように、各オブジェクトを識別するオブジェクトID、オブジェクトの種類、メーカーID、型番、シリアル番号、製造日時(オブジェクト生成日時)が対応付けて記憶されている。
図8は、第1の応用例による感性サーバ2の感性情報DB24のデータ例を示す図である。感性情報DB24には、オブジェクト間で発生したインタラクションに関する情報が格納されている。上述したように、オブジェクト間でインタラクションが発生した場合、双方のオブジェクトにおいてインタラクションが検出される。図8に示すデータ例では、オブジェクト毎に、そのオブジェクトに生じたインタラクション情報のデータ列が生成されている。ここで、当該データ列において、インタラクションが生じた際の相手オブジェクトは、関連オブジェクトと称する。
感性サーバ2の感性情報DB24には、図8に示すように、インタラクションが生じたオブジェクトのオブジェクトID、インタラクションの日時・期間、関連オブジェクトID、インタラクション種類、インタラクションの詳細、インタラクション評価値が対応付けて記憶されている。
例えば、図8に示すデータ例の1行目では、オブジェクトID:18000555の人物が、2000年6月21日に、オブジェクトID:5505の自動車に対して「運転」というインタラクションを行い、当該インタラクションの詳細が「アクセ/ブレーキ操作:丁寧、ハンドル操作:ゆっくり」であって、インタラクション評価値1が付与されている。また、2行目では、オブジェクトID:5505の自動車が、2000年6月21日に、オブジェクトID:18000555の人物から「運転」というインタラクションを受け、当該インタラクションの詳細が「燃費:良い、ブレーキ消耗:少」であって、インタラクション評価値1が付与されている。このように、一方のオブジェクトから他方のオブジェクトに対して行われたインタラクションは、一方のオブジェクト側と、他方のオブジェクト側の両方で検知され得る。
検知されるインタラクション種類は、上記運転の他、図8に示すように、オーナー変更、購入、交換、手入れ、清掃等が挙げられる。
運転のインタラクションは、例えば車に設けられたセンサ11により運転席に座っている人物を認識し、当該人物が運転席に居る間に車の移動が検知される場合、運転席に座った人物により車が運転されていたことが検知される。
また、手入れのインタラクションは、例えば家に設けられたセンサ11で検知した振動や音声の記録、家の各所に設けられたカメラ(センサ11の一例)の映像、およびユーザが身に着けているセンサ11からの動作解析に基づいて、さらには登録しているリフォーム会社サーバへ記録参照等に基づいて、家主が家の手入れを行ったことを検出し得る。
(3−1−2.表示処理)
続いて、個人信用情報提供システム101の表示処理について図9〜図15を参照して説明する。
[信用ランキング表示]
図9は、第1の応用例による信用ランキングの表示処理を示すフローチャートである。図9に示すように、まず、ステップS203において、利用者により調査対象者の範囲が指定される。具体的には、利用者端末から、対象者の信用力調査依頼が個人信用情報提供サーバ4に対して行われる。
次に、ステップS206において、個人信用情報提供サーバ4の感性値要求部40bは、対象者のオブジェクトIDに基づいて、感性サーバ2に対して対象者の感性値を要求する。対象者のオブジェクトIDは、利用者により指定されてもよいし、商品・ユーザ情報DB42から取得されてもよい。若しくは、感性サーバ2側で、個人信用情報提供サーバ4により指定された対象者の氏名等に応じて、当該対象者のオブジェクトIDをオブジェクトDB22から取得してもよい。
次いで、ステップS209において、感性サーバ2の感性値算出部20eは、指定された対象者のオブジェクトIDに対応付けられたインタラクション評価値に基づいて、感性値を算出する。例えば感性値算出部20eは、対象者と他のオブジェクト間のインタラクション評価値の総和により、対象者のトータル感性値を算出する。若しくは、感性値算出部20eは、対象者と他のオブジェクト間のインタラクション評価値の平均値により対象者のトータル感性値を算出してもよいし、年代に応じた重み付けを行った上で、総和または平均値によりトータル感性値を算出してもよい。
複数の対象者の感性値が要求されている場合は全員の対象者の感性値の算出が終わるまで、上記S206、S209が繰り返される(S212)。
続いて、全員の感性値算出が終了すると(S212において「Yes」)、ステップS215において、個人信用情報提供サーバ4の結果生成部40cは、感性値を信用力とみなして、対象者をソートし、信用力のランキング画面を生成する。この際、結果生成部40cは、対象者のトータル信用力に基づいたランキング画面を生成する。
ここで、図10に、信用力のランキング画面の一例を示す。図10に示すように、ランキング画面45では、調査対象者が個人のトータル信用力に基づいた順で表示される。具体的には、ランキング画面45は、例えば対象者情報欄46a、46b、46cを含み、対象者情報欄46a、46b、46cが信用力の高い順に並べられている。対象者情報欄46a、46b、46cは、それぞれ、対象者の氏名と、信用力に応じたランク付けを示す星表示が含まれる。
また、対象者情報欄46a、46b、46cには、ランキングの根拠となる信用力の数値(すなわち感性値)が表示されていてもよい。また、例えば対象者情報欄46cに含まれる矢印461を選択すると、対象者△△△△のオブジェクト属性毎の信用力情報が表示される。オブジェクト属性毎の信用力情報の表示については、図11〜図13を参照して後述する。また、例えば対象者情報欄46cに含まれる対象者の氏名462を選択すると、対象者△△△△の年代毎の信用力情報が表示される。年代毎の信用力情報の表示については、図14〜図15を参照して後述する。
そして、図9に戻り、ステップS218において、表示制御部40dは、結果生成部40cにより生成された結果(ランキング画面)を、要求元の利用者端末に表示するよう制御する。
[オブジェクト属性毎の信用力情報表示]
図11は、第1の応用例によるオブジェクト属性毎の信用力情報の表示処理を示すフローチャートである。図11に示すように、まず、ステップS223において、個人信用情報提供サーバ4は、対象者のオブジェクトIDに基づいて、感性サーバ2に対して感性値を要求する。
次に、ステップS226において、感性サーバ2の関連オブジェクト検索部20dは、対象者のオブジェクトIDに紐付けられた関連商品のオブジェクトID(関連オブジェクトID)を取得する。ここで、対象者のオブジェクトIDに紐付けられた関連商品とは、対象者との間にインタラクションが生じた他のオブジェクト(関連オブジェクトとも称す)を示す。また、関連オブジェクト検索部20dは、利用者に指定された検索条件に含まれるオブジェクト属性に基づいて、対象者との間にインタラクションが生じた他のオブジェクトのうち、指定されたオブジェクト属性(すなわちオブジェクト種類)に合致するものを検索してもよい。
次いで、ステップS229において、感性サーバ2の感性値算出部20eは、関連オブジェクトIDに対応付けられたインタラクション評価値を感性情報DB24から取得する。
次に、ステップS231において、感性値算出部20eは、関連商品のインタラクション評価値に基づいて、関連商品の感性値を算出する。ここで算出される感性値は、対象者と関連商品との間の相対的感性値である。以下、図12を参照して関連商品の感性値の算出の一例について説明する。
図12は、第1の応用例による対象者の家に対する相対的感性値の算出について説明する図である。図12に示すように、まず、感性情報DB24から、対象者(オブジェクトID:18000555)が家(オブジェクトID:11401)に対して行ったインタラクション情報だけが抽出される。そして、感性値算出部20eは、図12に示すように、抽出したインタラクション情報に基づいて、初期評価値を径年で割ったものに所定の重み係数を掛けたものと、各メンテナンス(手入れ)の評価値を各メンテナンス間隔で割ってそれぞれ所定の重み係数を掛けたものの合計との総和により、対象者と家の相対的感性値を算出する。
次いで、図11に戻り、関連商品が複数ある場合は全ての関連商品の感性値の算出が終わるまで、上記S229、S231が繰り返される(S234)。
続いて、全ての関連商品の感性値算出が終了すると(S234において「Yes」)、ステップS237において、個人信用情報提供サーバ4の結果生成部40cは、感性値要求部40bにより感性サーバ2から取得した関連商品の相対的感性値を信用力とみなして、オブジェクト属性毎の信用力情報の表示画面を生成する。そして、表示制御部40dは、生成されたオブジェクト属性毎の信用力情報の表示画面を要求元の利用者端末で表示するよう制御する。
ここで、図13に、オブジェクト属性毎の信用力情報の表示画面の一例を示す。図13に示すオブジェクト属性毎の信用力情報表示画面47は、図10に示すランキング画面45の対象者情報欄46cに含まれる矢印461を選択した際に遷移する画面であって、対象者△△△△と他のオブジェクトとのインタラクション評価値に基づく相対的感性値が信用力として表示される。
図13に示すように、例えば家属性に対する信用力情報表示画面47aの他、自動車属性に対する信用力情報表示画面47bや、カメラ属性に対する信用力情報表示画面47cが表示され得る。また、信用力は、グラフ化等されていてもよく、信用力に応じたアドバイスも表示される。これにより、例えばホームステイ先やルームシェア、カーシェアリングを行う相手を探す場合等に、相手のトータル信用力の他、個別に、どのような属性のモノに対する信用力(モノの扱い方)がどの程度であるかを知ることができる。
[信用力年代表示]
図14は、信用力の年代表示処理を示すフローチャートである。図14に示すように、まず、ステップS243において、個人信用情報提供サーバ4は、対象者のオブジェクトIDに基づいて、感性サーバ2に対して感性値を要求する。
次に、ステップS246において、感性サーバ2の関連オブジェクト検索部20dは、対象者のオブジェクトIDに紐付けられた関連商品のオブジェクトID(関連オブジェクトID)を取得する。ここで、対象者のオブジェクトIDに紐付けられた関連商品とは、対象者との間にインタラクションが生じた他のオブジェクト(関連オブジェクトとも称す)を示す。
次いで、ステップS249において、感性値算出部20eは、一つの関連オブジェクトIDについて、対象者からのインタラクションを年代別に分け、対象者の年代毎の評価値を取得する。
次に、ステップS251において、感性値算出部20eは、評価値に基づいて対象者と関連オブジェクト間の年代別の感性値の算出を行う。この際、感性値算出部20eは、年代別のインタラクション評価値の総和、平均値、重み付けを行った上での総和/平均値等により、年代毎の評価値を取得してもよい。
続いて、ステップS254において、感性値算出部20eは、対象者の各年代の感性値を加算し、トータル感性値を取得する。
次に、関連商品が複数ある場合は全ての関連商品の感性値の算出が終わるまで、上記S249、S251が繰り返される(S257)。
そして、全ての関連商品の感性値算出が終了すると(S257において「Yes」)、ステップS260において、個人信用情報提供サーバ4の結果生成部40cは、感性値要求部40bにより感性サーバ2から取得した感性値を信用力とみなして、対象者の年代別の信用力情報の表示画面を生成する。そして、表示制御部40dは、生成された対象者の年代別の信用力情報の表示画面を要求元の利用者端末で表示するよう制御する。
ここで、図15に、対象者の年代別の信用力情報の表示画面の一例を示す。図15左に示す信用力情報表示画面48は、図10に示すランキング画面45の対象者情報欄46cに含まれる対象者の氏名462を選択した際に遷移する画面であって、対象者△△△△の現在の信用力が表示される。また、信用力情報表示画面48の年表表示ボタン481が選択されると、画面は、図15右に示す年代別信用力情報表示画面49に遷移する。年代別信用力情報表示画面49では、対象者の年代毎の全てのモノに対する信用力(年代別トータル信用力)が表示される。なお、年代別信用力情報表示画面49では、図15に示すような、年代毎の全てのモノに対する信用力に限定されず、オブジェクト属性毎の年代別の信用力を表示してもよい。
以上、第1の応用例による個人信用情報提供システム101について説明した。なお、図10では、人の信用力ランキングが表示されているが、本応用例はこれに限定されず、例えば人とモノが混在した信用力ランキングが表示されてもよい。例えば、ヘルパー先を探す場合に、調査対象を「ヘルパー」に指定すると、人とモノ(ロボット)が一緒にランキング表示され得る。
<3−2.オークションシステム>
次に、第2の応用例として、感性値を、出品者の信頼度や、出品商品に込められた思い、扱われた方の丁寧さ等を示すものとみなしてオークションシステム102で利用する場合について、図16〜図26を参照して説明する。
一般的に、オークションではあるユーザが使っていた物を出品するため、そのユーザと物の関係性から算出されたモノに宿る感性価値に基づいて価格が決まることが利用者にとって好ましい。また、本実施形態による感性価値は、出品したユーザ(出品者)の信頼度の基準として用いることも可能である。本実施形態では、上述したように、感性価値を「感性値」という値に変換して利用することが可能である。また、出品者の信頼度や扱いの丁寧さは、出品したモノ以外のモノとの間のインタラクション評価値に基づく感性値を参照することで、日常的にモノを大事にする人なのか、それともいつも乱雑に扱う人なのかが判断できる。
図16は、第2の応用例によるオークションシステム102の全体構成を説明する図である。図16に示すように、オークションシステム102は、オークションサーバ5と、感性サーバ2とを含む。
感性サーバ2は、オークションシステム102の会員であるユーザObj.A、ユーザObj.Aが常日頃インタラクションを行っている家Obj.B、車Obj.C、カメラObj.Dからインタラクション情報を取得する。
また、図16に示すユーザObj.Aと利用者は、オークションシステム102に会員登録する際、それぞれ固有のIDと対応付けて登録される。また、ユーザObj.Aは、オークションシステム102に商品を出品するとき、当該商品固有のオブジェクトIDをオークションサーバ5に送信する。オークションサーバ5は、出品されたオブジェクトのオブジェクトIDを元に、当該オブジェクトの感性値を感性サーバ2に要求する。この際、オークションサーバ5は、当該オブジェクトの出品者であるユーザObj.Aの感性値も併せて感性サーバ2に要求する。また、当該オブジェクトが特定の型番や商品名をもつ商品の場合、同じ型番や商品名を有する他の出品商品の情報をオークションサーバ5の商品・ユーザ情報DB2(図17参照)から取得し、取得した商品のオブジェクトIDを元に、感性サーバ2に感性値を要求してもよい。
このようなオークションサーバ5による感性サーバ2への感性値の取得は、新たな商品が出品された場合に行ってもよいし、オークションサービスの利用者が、購入する商品を検討する際に、オークションサーバ5に対して商品を指定した場合に行われてもよい。
そして、オークションサーバ5は、取得した感性値に基づいて、感性値をその商品の信用力(丁寧さ、大事に扱われていたか、思い入れ等)とみなし、感性値順にソートすすることで、より丁寧に扱われてきた商品や利用者の思い入れが入った商品を上位に表示することができる。
以上、第2の応用例によるオークションシステム102の概要について説明した。
(3−2−1.構成)
次に、オークションシステム102に含まれるオークションサーバ5の構成について図17を参照して説明する。
図17は、本実施形態によるオークションサーバ5の構成の一例を示すブロック図である。図17に示すように、オークションサーバ5は、制御部50、通信部51、および商品・ユーザ情報DB52を有する。
(通信部)
通信部51は、ネットワークを介して利用者の端末(不図示)と接続し、利用者からの要求を受信したり、要求に応じて出品商品や出品者の感性値を利用者に送信したりする。また、通信部1は、ネットワークを介して感性サーバ2と接続し、対象オブジェクトの感性値や、関連オブジェクトの感性値を取得する。
(制御部)
制御部50は、オークションサーバ5の各構成を制御する。また、制御部50は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。さらに、本実施形態による制御部50は、関連商品検索部50a、感性値要求部50b、結果生成部50c、表示制御部50d、およびオブジェクト管理部50eとして機能する。
関連商品検索部50aは、調査対象商品に関連する商品を商品・ユーザ情報DB2から検索する。調査対象商品に関連する商品とは、例えば調査対象商品と同じ型番、名称の商品である。
感性値要求部50bは、調査対象商品の感性値を感性サーバ2に要求する。具体的には、感性値要求部50bは、調査対象商品のオブジェクトIDと、関連商品がある場合は関連商品のオブジェクトIDと、調査対象商品の出品者のオブジェクトIDを、通信部51を介して感性サーバ2に送信する。
結果生成部50cは、感性値要求部50bにより感性サーバ2から取得した調査対象商品等の感性値に基づいて、調査対象商品等の感性値調査の結果を生成する。具体的には、例えば結果生成部50cは、調査対象商品の感性値を示す結果画面を生成する。
表示制御部50dは、結果生成部50cにより生成された結果画面を利用者端末に表示するよう制御する。例えば、表示制御部50dは、結果画面を表示するための情報を、通信部1を介して利用者端末に送信するよう制御する。
オブジェクト管理部50eは、商品・ユーザ情報DB42に記憶されている商品・ユーザ(オブジェクトの一例)に関する情報の登録、変更、削除等の管理を行う。
(商品・ユーザ情報DB)
商品・ユーザ情報DB52は、商品・ユーザに関する情報を記憶する記憶部である。ユーザとは、例えばオークションシステム102に会員登録されたユーザである。また、商品・ユーザ情報には、各商品・ユーザのそれぞれのオブジェクトIDが含まれる。
ここで、商品・ユーザ情報DB52に記憶されている出品商品情報のデータ例を図18に示す。図18に示すように、商品・ユーザ情報DB52には、各出品商品を識別する出品ID、種別ID、商品のオブジェクトID、出品者のオブジェクトID、出品日時、オークション終了日時、現在価格、入札リスト、および商品説明が対応付けて記憶されている。
以上、本応用例によるオークションサーバ5の構成について説明した。なおオークションシステム102に含まれる感性サーバ2の構成は、図3を参照して説明したため、ここでの説明は省略する。
[データ構成例]
次に、オークションシステム102で利用する感性値を算出するために用いられる感性サーバ2の感性情報DB24のデータ例について、図19を参照して説明する。なお、本応用例において用いられるオブジェクトDB22のデータ例は、図7に示す例と同様のため、ここでの説明は省略する。
図19は、第2の応用例による感性サーバ2の感性情報DB24のデータ例を示す図である。感性情報DB24には、オブジェクト間で発生したインタラクションに関する情報が格納されている。図19に示すデータ例では、インタラクションが生じたオブジェクトのオブジェクトID、インタラクションの日時・期間、関連オブジェクトID、インタラクション種類、インタラクションの詳細、インタラクション評価値が対応付けて記憶されている。
オブジェクト間でインタラクションが生じた際、双方のオブジェクトでそれぞれインタラクションが抽出され、評価部20bによりそれぞれ評価される。図19に示す例では、このような双方のオブジェクトでそれぞれ抽出されたインタラクション評価値が同じ値になっているが、本応用例はこれに限定されず、異なる評価値であってもよい。例えばデジタルカメラ(オブジェクトID:384)に対して、ユーザ(オブジェクトID:1930213)が行った「操作」というインタラクションが抽出された場合に、操作を行ったユーザはカメラを大事にしていて丁寧に操作したプラスの評価が行われ、一方カメラ側では操作が強引であったり、置くときに乱暴に置かれているなどマイナスの評価が行われ、インタラクションの方向によって異なる評価が生じ得る。
また、各インタラクションの抽出と評価の一例は次の通りである。
例えば、運転のインタラクションは、アクセルペダル、ブレーキペダル、ハンドルに搭載されたセンサによって検知されたセンシングデータに基づいて、運転の丁寧さ、荒さといったインタラクションの詳細が分析される。また、運転インタラクションの評価値は、アクセル、ブレーキ、ハンドル操作それぞれの入力値を評価関数に入れて-1.0〜1.0の範囲になるように求められる。
また、カメラ等の操作のインタラクションは、カメラのシャッターボタンを押しこむ力、ダイヤル類を回す速さ/行き過ぎて戻る回数、カメラを置くときの衝撃、鞄などに入っている場合に本体が受ける衝撃をセンサで検知する。評価部20bは、当該センサで検知されたセンシングデータに基づいて各値に重み付けを行い、評価値を算出する。また、評価部20bは、算出した値を-1.0〜1.0の範囲に正規化する。
また、カメラ等の保管のインタラクションは、保管する場所の温度、湿度、埃っぽさ(ダストセンサーで検知可能)をセンシングすることで抽出され、評価部20bは、保管期間中のこれらの値の変化量に基づいて、カメラ等にとっての保管状態の良し悪しを数値化する。また、各パラメータに重み付けを行って評価値を算出してもよい。評価部20bは、算出した値を-1.0〜1.0の範囲に正規化する。
(3−2−2.表示処理)
続いて、オークションシステム102の表示処理について図20〜図26を参照して説明する。
[リスト表示]
図20は、第2の応用例による出品商品の感性値に応じたリスト表示処理を示すフローチャートである。図20に示すように、まず、ステップS303において、利用者により調査対象の出品商品が指定される。
次に、ステップS306において、オークションサーバ5の感性値要求部50bは、商品・ユーザ情報DB52から、利用者に指定された商品を検索する。また、この際、関連商品検索部50aにより、検索された当該商品の情報に関連する商品(同じ型番や名称の他の出品商品)も併せて検索してもよい。
次いで、ステップS309において、感性値要求部50bは、各商品のオブジェクトIDに基づいて、感性サーバ2に対して対象商品の感性値を要求する。
次に、ステップS312において、感性サーバ2の感性値算出部20eは、指定された商品のオブジェクトIDに対応付けられたインタラクション評価値に基づいて、感性値を算出する。
複数の商品の感性値が要求された場合は全ての商品の感性値の算出が終わるまで、上記S309、S312が繰り返される(S315)。
続いて、全ての感性値算出が終了すると(S315において「Yes」)、ステップS318において、オークションサーバ5の結果生成部50cは、感性値順に商品をソートし、感性値に応じた出品商品のランキング画面を生成する。この際、結果生成部0cは、対象商品のトータル感性値(絶対的感性値)に基づいたランキング画面を生成する。
ここで、図21に、出品商品の感性値に応じたリスト表示画面の一例を示す。図21に示すように、リスト表示画面55では、調査対象商品が各商品のトータル感性値(絶対的感性値)に基づいた順で表示される。調査対象商品には、利用者が指定した出品商品の他、当該出品商品と同じ型番、名称の出品商品(関連商品)も含まれる。これにより、利用者は、指定した出品商品の他にも同じ種類の出品商品の感性値を併せて知ることができる。
リスト表示画面55は、例えば対象商品情報欄56a、56b、56cを含み、対象商品情報欄56a、56b、56cが感性値の高い順に並べられている。対象商品情報欄56a、56b、56cは、それぞれ、対象商品の出品者名と、感性値に応じたランク付けを示す星表示が含まれる。また、対象商品情報欄56a、56b、56cには、ランキングの根拠となる感性値が表示されていてもよい。
また、例えば対象商品情報欄56aに含まれる矢印561を選択すると、出品者○○○○により出品されている商品の感性値に関する詳細情報が表示される。商品の感性値に関する詳細情報の表示については、図22〜図24を参照して後述する。また、例えば対象商品情報欄46cに含まれる出品者の氏名562を選択すると、出品者△△△△の感性値に関する詳細情報が表示される。出品者の感性値に関する詳細情報の表示については、図25〜図26を参照して後述する。
そして、図20に戻り、ステップS321において、表示制御部50dは、結果生成部50cにより生成された結果(リスト表示画面)を、要求元の利用者端末に表示するよう制御する。
[出品商品の感性値に関する詳細情報表示]
図22は、第2の応用例による出品商品の感性値に関する詳細情報の表示処理を示すフローチャートである。図22に示すように、まず、ステップS333において、個人信用情報提供サーバ4は、出品IDから出品商品のオブジェクトIDを取得し、感性サーバ2に対して出品商品の感性値を要求する。
次に、ステップS336において、感性サーバ2の感性値算出部20eは、オブジェクトDB22から、商品のオブジェクトIDに対応するオブジェクトの詳細内容(商品種類、メーカー、製造日時等)を取得する。
次いで、ステップS339において、感性値算出部20eは、感性情報DB24から、商品のオブジェクトIDでフィルタをかけて、対象商品の全てのインタラクション評価値を取得する(図23参照)。
次に、ステップS341において、感性値算出部20eは、取得した対象商品の全てのインタラクション評価値を、関連オブジェクトID毎に分類する。ここで、関連オブジェクトIDとは、対象商品に対してインタラクションを行ったオブジェクトであって、通常は対象商品の所有者が該当する。
次いで、ステップS344において、感性値算出部20eは、一の関連オブジェクトIDを選択する。
次に、ステップS347において、選択した関連オブジェクトIDと、対象商品との相対的感性値を算出する。すなわち、感性値算出部20eは、上記S341で関連オブジェクトID毎に分類した評価値のうち、上記S344で選択した関連オブジェクトIDとのインタラクション評価値を算出する。
次いで、対象商品に対応する(インタラクション関係のある)全ての関連オブジェクトIDの相対的感性値の算出が終わるまで、上記S344、S347が繰り返される(S351)。
次いで、ステップS352において、感性値算出部20eは、上記S339で取得した、対象商品の全てのインタラクション評価値に基づいて、対象商品の絶対的感性値を算出する。以下、図23を参照して出品商品の相対的/絶対的感性値の算出の一例について説明する。
図23は、第2の応用例による出品商品の相対的/絶対的感性値の算出について説明する図である。図23に示すように、まず、感性情報DB24から、出品商品(オブジェクトID:384)でフィルタをかけて、出品商品に関する全てのインタラクション情報を取得する。
そして、感性値算出部20eは、取得したインタラクション情報に基づいて、商品の絶対的感性値と関連オブジェクトID(オブジェクトID:1930213、4649、5963084)毎の感性値(相対的感性値)を算出する。関連オブジェクトIDは、商品の歴代の所有者(オーナー)のオブジェクトIDである。
商品の絶対的感性値は、その商品の今までのインタラクション履歴に基づく感性値の総数である。具体的には、図23に示すように、例えばインタラクション種類毎の平均値にインタラクション種類(操作、保管)に応じた重みaを掛けたものの総和により、商品の絶対的感性値が算出される。
また、商品の相対的感性値は、その商品の歴代の所有者毎のインタラクション履歴に基づく感性値である。図23には、一例として、オブジェクトID:5963084(一の所有者)とデジタルカメラ(オブジェクトID:384)との相対的感性値の算出式を示す。図23に示すように、関連オブジェクトID:5963084とのインタラクション履歴(図23に示すデータ例のうち3行目および4行目)を用いて、インタラクション種類毎の平均値にインタラクション種類(操作、保管)に応じた重みaを掛けたものの総和により、商品と関連オブジェクトIDの相対的感性値が算出される。
次いで、図22に戻り、ステップS354において、オークションサーバ5の結果生成部50cは、感性値要求部50bにより感性サーバ2から取得した商品の感性値に関する詳細情報として、関連オブジェクトIDが関係していた年代毎の相対的感性値と主なインタラクション内容、および商品の絶対的感性値(トータル感性値)を表示する画面を生成する。そして、表示制御部50dは、生成された詳細情報表示画面を要求元の利用者端末で表示するよう制御する。
ここで、図24に、出品商品の感性値に関する詳細情報表示画面の一例を示す。図24に示す出品商品の詳細情報表示画面57は、図21に示すリスト表示画面55の対象商品情報欄6aに含まれる矢印561を選択した際に遷移する画面であって、出品者○○○○により出品された商品の感性値に関する詳細情報が表示される。
図24に示す詳細情報表示画面57では、出品者○○○○により出品された商品の歴代オーナー毎の相対的感性値(0.92、−0.56、0.80)が時系列で示され、また、併せて当該商品のトータル感性値(絶対的感性値)が表示される。これにより、利用者は、これまで商品がどのように扱われていたか、どのような思いが込められているかを把握することができる。このように、商品の新たな価値として、今までの扱われ方等に基づく感性価値を客観的に示す感性値が明示される。
[出品者の感性値に関する詳細情報表示]
図25は、出品者の感性値に関する詳細情報の表示処理を示すフローチャートである。図25に示すように、まず、ステップS363において、個人信用情報提供サーバ4は、出品IDから出品者のオブジェクトIDを取得し、感性サーバ2に対して出品者の感性値を要求する。
次に、ステップS366において、感性サーバ2の感性値算出部20eは、オブジェクトDB22から、出品者のオブジェクトIDに対応するオブジェクトの詳細内容(氏名、性別、年齢等)を取得する。
次いで、ステップS369において、感性値算出部20eは、感性情報DB24から、出品者のオブジェクトIDでフィルタをかけて、出品者の全てのインタラクション評価値(今までのインタラクション情報履歴)を取得する。
次に、ステップS371において、感性値算出部20eは、取得した出品者の全てのインタラクション評価値を、関連オブジェクトID毎に分類する。ここで、関連オブジェクトIDとは、対象者との間にインタラクション関係があるオブジェクトであって、通常は出品者の所有物品や、出品者が出品している他の出品商品が該当する。
続いて、ステップS374において、感性値算出部20eは、関連オブジェクト毎に感性値(相対的感性値)を算出し、また、その合計値(絶対的感性値)を算出し、オークションサーバ5に送信する。オークションサーバ5の結果生成部50cは、感性値要求部50bにより感性サーバ2から取得した出品者の感性値に関する詳細情報として、関連オブジェクトID毎の相対的感性値と主なインタラクション内容、および出品者の絶対的感性値(トータル感性値)を表示する画面を生成する。そして、表示制御部50dは、生成された詳細情報表示画面を要求元の利用者端末で表示するよう制御する。なお、出品者のトータル感性値(絶対的感性値)は、関連オブジェクト毎の感性値(相対的感性値)の総和であってもよいし、平均値であってもよいし、また、インタラクション種類毎に重み付けを行った上で評価値を合算、平均して算出されてもよい。
ここで、図26に、出品者の感性値に関する詳細情報表示画面の一例を示す。図26に示す出品者の詳細情報表示画面58は、図21に示すリスト表示画面55の対象商品情報欄46cに含まれる出品者の氏名562を選択した際に遷移する画面であって、出品者△△△△の感性値に関する詳細情報が表示される。
図26に示す詳細情報表示画面58では、出品者△△△△の各商品に対する相対的感性値(-0.32、0.12、−0.3)が示され、また、併せて出品者のトータル感性値(絶対的感性値)が表示される。これにより、利用者は、出品者の信頼度や扱いの丁寧さについて、出品商品以外のモノとの感性値を見ることで、日常的にモノを大事にする人なのか、若しくは普段から乱雑な扱いをする人なのかを判断することができる。出品商品の落札前に、出品者の感性値を見て人間性を知ることができる。
なお、詳細情報表示画面58には、出品者の情報として、出品者により公開可能に設定されている他の情報(年齢、性別等)が表示されてもよい。
以上、第2の応用例によるオークションシステム102について説明した。
<3−3.環境調整システム>
次に、第3の応用例として、感性値を、移動するユーザの周囲環境を局所的に調整する環境調整システム103で利用する場合について、図27〜図34を参照して説明する。
図27は、第3の応用例による環境調整システム103の全体構成を説明する図である。図27に示すように、環境調整システム103は、ユーザに追従してユーザの周辺環境を変化させる移動体6と、移動体6を制御する環境調整サーバ7とを含む。環境調整サーバ7は、アクセスポイント等を介して移動体6と通信し、移動体6の移動制御等を行う。移動体6は、図27に示すように、複数の移動体6a〜6cであってもよく、それぞれ屋外等に設置された各ベースステーションを基点として移動することができる。
環境調整サーバ7は、ネットワーク3を介して、感性サーバ2やヒートマップサーバ75と接続し、移動体6の移動制御を行う際に必要な情報を取得する。例えば環境調整サーバ7は、ユーザの感性値を感性サーバ2から取得し、感性値に応じて環境調整制御を行うことができる。
また、環境調整サーバ7は、移動体6をユーザに追従させ、ユーザの感情に応じて周囲の環境を局所的に変化させることで、ユーザにより快適な環境を提供することができる。
移動体6は、図27に示すような小型の飛行型ドローンにより実現され、移動するユーザに追従して飛行することができる。図28は、本応用例の移動体6による環境調整の一例を説明する図である。図28に示すように、例えば移動体6は、移動するユーザの上方に位置しながら追従飛行して、雨傘や日傘として機能し、雨や直射日光がユーザに当たらないようにすることで、局所的に周辺環境を変化させることができる。また、移動体6は、必要に応じてカバー範囲を広げることもできる。例えば、図28に示すように、移動体6の中心から円状に板状部材651を広げることで、カバー範囲を広げることができる。
なお移動体6は、図27に示す飛行物体に限定されず、例えば地上を移動してユーザを追従するロボット型の移動体や、水上移動体であってもよい。
以上、本開示による環境調整システム103の概要について説明した。
(3−3−1.構成)
次に、本応用例による環境調整システム103に含まれる移動体6および環境調整サーバ7の構成について順次説明する。なお、感性サーバ2の構成は、図3を参照して既に説明したので、ここでの説明は省略する。
[移動体6の構成]
図29は、本応用例による移動体6の構成の一例を示す図である。図29に示すように、移動体6は、通信部61、対象物センサ62、移動体制御部63、環境センサ64、および変形制御部65を有する。
通信部61は、環境調整サーバ7とデータの送受信を行う。例えば通信部61は、対象物センサ62や環境センサ64で取得したセンサ情報を環境調整サーバ7へ送信し、また、移動制御や変形制御の指示を含む制御情報を環境調整サーバ7から受信する。
対象物センサ62は、追従対象物に関する情報を取得する検知部である。ここで、追従対象物とは、例えば屋外を移動するユーザが該当する。また、対象物センサ62は、例えばカメラ62a、赤外線カメラ62b、無線信号受信部62c、またはマイクアレイ62dを含み、ユーザに関する情報を取得する。
移動体制御部63は、移動体6の移動を制御する機能を有する。具体的には、移動体制御部63は、動力駆動部63aおよび姿勢制御部63bにより構成される。動力駆動部63aは、例えばプロペラ、車輪、歩行脚により実現され、移動体制御部63の制御に従って対象ユーザを追従するよう駆動する。また、姿勢制御部63bは、ジャイロセンサ等により移動体6の姿勢を検知し、動力駆動部63aを制御して移動体6の傾きや高度を調整する。本開示による移動体制御部63は、例えば移動体6がユーザの雨避けや日除けになるよう移動体6の飛行経路や高度を制御することで、ユーザの周囲環境を局所的に変化させることができる。
環境センサ64は、周囲の環境に関する情報を取得する検知部である。環境センサ64は、具体的には、例えば緯度経度測位部64a、または高度センサ64bにより環境情報を取得する。なお環境センサ64の具体例はこれに限定されず、さらに必要に応じて温度センサや湿度センサ等を有していてもよい。
変形制御部65は、雨避けや日除けのカバー範囲を拡大するよう移動体6の形状を変形させる制御を行う。
以上説明した移動体6には、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、および不揮発性メモリを備えたマイクロコンピュータが搭載され、移動体6の各構成を制御する。
[環境調整サーバ7の構成]
図30は、環境調整サーバ7の構成の一例を示すブロック図である。図30に示すように、環境調整サーバ7は、通信部71、制御部70、およびユーザDB72を有する。
通信部71は、外部装置とデータの送受信を行う。具体的には、例えば通信部71は、移動体6から対象物情報や環境情報を受信し、また、移動体6の移動を制御するための制御情報を移動体6に送信する。また、通信部71は、ネットワーク3を介して、感性サーバ2やヒートマップサーバ75から所定のデータを取得する。
制御部70は、環境調整サーバ7の各構成を制御する。具体的には、制御部70は、移動体6を対象ユーザに追従させ、ユーザの感情に応じて対象ユーザの周辺環境を変化させるよう制御する。また、制御部70は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。
ここで、制御部70は、ユーザ設定管理部70a、対象物検出部70b、感情推定部70c、環境情報取得部70d、ヒートマップ生成/取得部70e、感性値算出部70f、および移動体制御部70gとして機能する。
ユーザ設定管理部70aは、本システムの利用ユーザの情報の登録、変更、削除といった管理を行う。利用ユーザの情報とは、例えばユーザ名、識別番号、顔画像、年齢、性別、趣味・嗜好、自宅住所、勤務地、行動パターン等である。
対象物検出部70bは、移動体6から送信された対象物センサ情報に基づいて、移動体6の周囲に居る人物や人物が所持している物等の検出を行う。具体的には、例えば対象物検出部70bは、移動体6から送信された撮像画像を解析し、ユーザDB72に登録済みの利用ユーザの顔画像と照合することで、対象ユーザを検出することができる。または、対象物検出部70bは、移動体6が、ユーザに装着されたスマートバンド等の無線通信装置から受信したユーザの識別情報に基づいて、対象ユーザを検出することもできる。
感情推定部70cは、対象物検出部70bにより検出された対象ユーザの感情を推定する。具体的には、例えば感情推定部70cは、対象ユーザの生体情報(脈拍、体温、発汗量、脳波、等)に基づいて、対象ユーザの感情を推定する。生体情報は、ユーザが装着するスマートバンドにより取得され、移動体6へ送信され、さらに移動体6から環境調整サーバ7に送信される。
また、感情推定部70cは、対象ユーザの属性(性別、年齢、身長、体重、性格、職業等)や趣味・嗜好、周辺環境に基づいて、対象ユーザの感情を推定することもできる。
環境情報取得部70dは、通信部71を介して、移動体6から周辺環境に関する情報を取得する。具体的には、環境情報取得部70dは、移動体6の環境センサ64により検知されたデータ(緯度経度、高度等)を環境情報として取得する。また、環境情報取得部70dは、移動体6の位置(緯度経度情報)に応じて、周囲の地形情報や建物情報等を所定のサーバから環境情報として取得してもよい。
ヒートマップ生成/取得部70eは、感情推定部70cの推定結果と、環境情報取得部70dから出力された環境情報に基づいて、感情を地理的にマップした感情ヒートマップを生成する。より具体的には、ヒートマップ生成/取得部70eは、複数のユーザの感情推定結果に基づいて、どの場所でどのような感情になった人が多いかを示す感情ヒートマップを生成する。
また、ヒートマップ生成/取得部70eは、環境情報取得部70dから出力された環境情報(緯度経度、高度、地形情報、建物情報等)に基づいて、対象ユーザの現在地周辺の環境ヒートマップを生成する。
このように生成されたヒートマップは、ネットワーク上のヒートマップサーバ75に格納されてもよいし、環境調整サーバ7の記憶部(不図示)に格納されてもよい。また、ヒートマップは定期的に更新され得る。
さらに、ヒートマップ生成/取得部70eは、感情ヒートマップと環境ヒートマップを統合した統合ヒートマップを生成することもできる。
感性値算出部70fは、対象物検出部70bにより検出された対象ユーザの、所持品や一緒に居る人物(関連オブジェクト)に対する感性値(すなわち相対的感性値)を算出する。具体的には、感性値算出部70fは、対象ユーザのオブジェクトIDに対応付けられたインタラクション評価値を感性サーバ2から取得し、当該インタラクション評価値に基づいて対象ユーザの関連オブジェクト毎の相対的感性値を算出する。
例えば、対象ユーザが所持している時計に対して、頻繁に手入れを行ったといったインタラクションの評価や、専用ケースに保管したといったインタラクションの評価が感性サーバ2に格納されており、感性値算出部70fは、このような対象ユーザのインタラクション評価を取得して感性値を算出する。感性値の算出式は特に限定しないが、例えば対象ユーザの特定オブジェクト(関連オブジェクト)に対する各インタラクションをインタラクション種類毎に分類し、インタラクション種類に応じた重み付け関数を用いて、特定オブジェクトに対する全てのインタラクションの評価を平均化してもよい。なお対象ユーザのオブジェクトIDは、ユーザDB72から取得し得る。
移動体制御部70は、ヒートマップ生成/取得部70eから出力された統合ヒートマップに基づいて、対象ユーザが移動する経路において、環境を変化させるべきエリアを判断し、移動体6によりユーザの周辺環境を変化させるよう制御する。環境を変化させるべきエリアの判断は、例えば統合ヒートマップの値が所定の閾値より高いか否かに基づいて行う。このように、感情ヒートマップと環境ヒートマップを統合した統合ヒートマップを利用することで、対象ユーザが移動する経路において、例えば雨に濡れやすい場所を通る時は移動体6を対象ユーザに追従させて雨避けを実現することで対象ユーザの周辺環境を局所的に変化させ、対象ユーザを快適な状態にさせることができる。
また、移動体制御部70は、移動体6により対象ユーザの周辺環境を変化させる際、感性値算出部70fにより取得された、対象ユーザの所持品や一緒にいる人物に対する感性値(大事に思っている度合い)に応じて、移動体6によるカバー範囲を拡大したり、対象ユーザよりも優先してカバーしたりといった制御を行うことも可能である。
以上、本応用例に含まれる各装置の構成について具体的に説明した。なお、本応用例では、環境調整サーバ7の感性値算出部70fにより感性値を算出する旨を説明したが、感性値の算出は、感性サーバ2側で行われもよい。
(3−3−2.動作処理)
次に、本応用例による動作処理について、図31、図32を参照して説明する。
[環境調整処理]
図31は、環境調整処理を示すフローチャートである。図31に示すように、まず、ステップS403において、環境調整サーバ7は、対象ユーザの現在地および目的地の環境情報と、目的地到着時刻情報を取得する。
次に、ステップS406において、環境調整サーバ7の感情推定部70cは、ユーザの属性、趣味・嗜好、または生体情報等を取得する。
次いで、ステップS409において、感情推定部70cは、ユーザの感情を推定する。すなわち、感情推定部70cは、ユーザの属性、趣味・嗜好、または生体情報等に基づいて、現在地から目的地までの経路上で、現状の環境下においてユーザがどのような感情になるかを推定することができる。例えば、ユーザが30代の女性で、普段から日傘を持ち歩いていることが過去の行動履歴や会話、書き込みなどから抽出され、また、購買履歴から日焼け止めや日傘を購入していることが抽出されると、当該女性は紫外線や直射日光、日焼けに対して恐れの感情(不快な感情)を抱いていることが推定される。
続いて、ステップS412において、環境調整サーバ7の制御部70は、推定結果に基づいて、環境変化が必要か否かを判断する。具体的には、例えば制御部70は、ユーザが紫外線や直射日光、日焼けに対して恐れの感情(不快な感情)を抱いている場合に、現在地や目的地の天候が快晴であって、直射日光が当たる環境である場合、環境変化が必要と判断する。
次に、環境変化が必要な場合(S412において「Yes」)、ステップS415において、移動体制御部70gは、対象ユーザの周辺環境を変化させるよう移動体6の制御を行う。具体的には、移動体制御部70gは、移動体6を対象ユーザに追従させ、対象ユーザ周辺の環境を変化させるよう、雨避け、日除けとなる位置で飛行させる。
次に、ステップS418において、環境調整サーバ7は、ユーザが目的地に着いたか否かを判断する。目的地に着いた場合、環境調整動作が終了するので、例えば移動体制御部70gは、移動体6を所定のベースステーションに戻すよう制御する。
そして、ユーザが目的地に着いていない場合(S418において「No」)、ステップS421において、環境調整サーバ7は、対象物検出部70bおよび環境情報取得部70dにより、ユーザの現在位置情報、および現在地の環境情報を取得し、上記S415を繰り返す。
[カバー範囲変更処理]
次に、移動体6のカバー範囲の変更処理について図32を参照して説明する。本応用例では、対象ユーザの感性値に基づいて、カバー範囲を変更することが可能である。これにより、日頃から対象ユーザが大切にしている物を優先してカバーしたり、対象ユーザにとって大事な人もカバーしたり等、対象ユーザの気持ちに応じた環境調整を行うことが可能となる。
図32は、範囲変更処理を示すフローチャートである。図32に示すように、まず、ステップS433において、環境調整サーバ7の感性値算出部70fは、対象ユーザのオブジェクトIDを決定する。
次に、ステップS436において、移動体6の周囲情報を、対象物センサ62、環境センサ64によりセンシングし、対象ユーザの情報と周辺環境の情報を取得する。
次いで、ステップS439において、決定した対象ユーザが検出できるまで上記S436を繰り返す。
続いて、対象ユーザが検出できた場合(S439において「Yes」)、ステップS442において、対象物検出部70bは、対象ユーザと共に移動している他の物体(ベビーカーや、荷物等)または対象ユーザと共に移動している人物を検出する。
次いで、ステップS445において、感性値算出部70fは、検出された他の物体や人物のオブジェクトIDを取得する。これらのオブジェクトID(関連オブジェクトIDとも称す)は、予めユーザDB72に登録されていてもよいし、移動体6のカメラ62aで取得した撮像画像の解析結果に基づいて感性サーバ2に問い合わせを行い、関連オブジェクト検索部20dによりオブジェクトDB22から検索されたものであってもよい。
続いて、ステップS448において、感性値算出部70fは、対象ユーザのオブジェクトIDと、対象ユーザと共に移動している他の物体や人物のオブジェクトIDを指定し、対象ユーザと他の物体や人物間のインタラクション評価値を、感性サーバ2から取得する。インタラクション評価値は、例えば対象ユーザから他の人物に対する会話、メール、若しくは対象ユーザから物体に対する保管、メンテナンス、着用、鑑賞等の行為の評価値が、−1.0〜1.0で正規化されたものである。ここで、感性値算出に用いられる具体的なインタラクション評価のデータ例について、図33、図34を参照して説明する。
図33は、本応用例によるインタラクション評価のデータ例を示す図である。図33は、移動体6が例えば雨傘として機能する際に用いられるインタラクション評価の一例である。状況としては、対象ユーザ(オブジェクトID: 70007)が、職場の同僚(オブジェクトID: 70008)と外で昼食を終えた後、職場に戻ろうとすると雨が降っている場合を想定する。この際、移動体6で、対象ユーザに加えて、職場の同僚も雨から逃れるようにカバーして飛行するかどうか(カバーする場合はどの程度カバーするか、二人を平等にまたはどちらかを優先してカバーするか等)を決定するため、移動体制御部70gは、感性サーバ2から、図33に示すようなインタラクション評価値を取得する。
図33に示すインタラクション評価例では、例えば会話、メール、職場外接触といったインタラクションが発生した際の当該インタラクションの評価値が含まれる。会話インタラクションの評価は、例えば音声認識による会話中のユーザの発話トーンに基づく好感度合い、音声認識と構文解析で分かる会話内容(この場合仕事以外のパーソナルな内容についても会話されたかどうか)に基づく親しみ度合い、画像解析に基づくユーザの笑顔度合い、画像認識に基づく両者が目を合わせた回数等により評価される。また、メールインタラクションの評価は、構文解析に基づくメール文面の親しさ度合い、かしこまり度合い、メールの回数等を用いて評価される。また、職場外接触インタラクションの評価は、職場内と職場外のインタラクションであるかどうかを位置情報またはその他のセンサで検出し、職場以外で共に過ごした時間、近くにいた時間、会話が行われた場合は会話インタラクション評価に基づいて、評価される。
図33に示す例では、対象ユーザ(オブジェクトID: 70007)からみた職場の同僚(オブジェクトID: 70008)の評価は徐々に高くなっているので、好感度が高いことが推測できる。また職場の同僚(オブジェクトID: 70008)からみた対象ユーザ(オブジェクトID: 70007)も、徐々に高くはなってはいるが、対象ユーザ(オブジェクトID: 70007)からみた職場の同僚(オブジェクトID: 70008)への評価よりは低く、互いの評価が異なることが分かる。
対象ユーザ(オブジェクトID: 70007)が移動体6を呼び出した場合、感性値算出時のインタラクション種類に応じた評価の重み付けにもよるが、対象ユーザ(オブジェクトID: 70007)が職場の同僚(オブジェクトID: 70008)に対して好感を持っていることは、算出される感性値の高さから分かるため、移動体制御部70gは、移動体6により対象ユーザと一緒にいる職場同僚もカバーするよう制御する。
図34は、本応用例によるインタラクション評価の他のデータ例を示す図である。図34は、移動体6が例えば日傘として機能する際に用いられるインタラクション評価の一例である。状況としては、対象ユーザ(オブジェクトID:8165)が、自分にとっては宝物である骨董品であって、かつ父親から譲り受けた形見の腕時計(オブジェクトID:80075)を身につけている場合に日差しが強い場合を想定する。対象ユーザにとって、この腕時計は重要なものであって、自分の身体よりも優先してカバーしてほしい(直射日光に当てたくない)という思いがある。
図34に示すインタラクション評価例では、例えば保存、メンテナンス、着用、手入れ、鑑賞といったインタラクションが発生した際の当該インタラクションの評価値が含まれる。保存のインタラクションに関しては、保存場所の光度(暗さ度合い)、湿度、温度、これらの値の平均値と一定に保たれている度合いによって評価が決まる。この例では、専用ケースを利用しているということで、その評価は極めて高い。また、ユーザは猛暑であった夏季期間中は腕時計を専用保管ケースに入れ保管したので、その評価はさらに重み付けされ、他の保管期間も更により高い(通常は0.3であるが、1、2行目は0.5)。また、晩餐会の後は手入れをし忘れて保管した場合、保管時の評価は下がるので、保管時の手順などもその評価に影響する。また、ものによっては保管期間が長く続くことによって、愛着がないということで、その評価が下がることもあるが、この腕時計に関しては、ユーザにとって大事にされているものなので、保管時の時間的要素は影響ないとする。
また、メンテナンスの評価は、そのメンテナンス内容の予め規定された指数、かつメンテナンスを行ったプロの評価、またはその他の客観的なランキングの指数などによって評価される。例えば完全オーバーホールという内容や、今までも利用していたショップでのメンテナンスの場合、評価は高くなる。
着用の評価は、ユーザが時計を着用して出掛けるイベント(外出先等)の重要度、特別度に応じて評価される。例えば普段は行かない特別なイベントの場合、時計を着用することの評価は高くなる。一方、年に何回も行われるプレスイベントに参加した場合に時計を着用していたことの評価は低くなる。その他、着用時の光度、温度、湿度、他人との接近度合いなども評価値に影響する。
また、手入れのインタラクションは、手入れ工程に沿って、各パーツを分解して手入れされたかを映像で解析等して評価される。
鑑賞の評価は、その時計を鑑賞していた時間、そのときのユーザの顔の表情に基づいて鑑賞インタラクションが検出され、その幸福度合い、脳波によるリラックス度合いなどに応じて評価される。また、鑑賞している際のユーザのアクション、例えば友達に形見であることを明示的に伝えていることを会話の音声認識、構文解析等により検出されると、高い評価がされる。
感性値算出部70fは、このようなユーザが身に着けているものとのインタラクション評価に基づいて、ユーザのモノに対する思いや、当該モノに込められた思いを感性値として算出する。そして、移動体制御部70gは、ユーザが身に着けている腕時計の重要性を、感性値に基づいて判断し、移動体6により対象ユーザよりも優先して腕時計を直射日光からカバーするよう制御する。
次に、図32に戻り、ステップS451において、感性値算出部70fは、他の物体/人物に対する対象ユーザの感性値を算出する。感性値の算出式は特に限定しないが、例えば対象ユーザの特定オブジェクト(関連オブジェクト)に対する各インタラクションをインタラクション種類毎に分類し、インタラクション種類に応じた重み付け関数を用いて、特定オブジェクトに対する全てのインタラクションの評価を平均化してもよい(下記式1参照)。
Figure 0006561996
また、上記式1は、人間同士のインタラクション評価値に基づいて感性値を算出する場合であって、評価値に対する時間経過の重み付け関数TW(t)を用いている。t はインタラクション時刻(または評価時刻)を指定し、インタラクションが行われた時間からどの程度経過しているかによって重み付けを行う。人間同士の関係の場合、過去のインタラクションよりも最近のインタラクションを重視するためである。
続いて、ステップS454において、移動体制御部70gは、感性値算出部70fにより算出された感性値に基づいて、カバー範囲の変更が必要か否かを判断する。具体的には、移動体制御部70gは、対象ユーザの他の物体/人物に対する相対的感性値が閾値より高い場合、他の物体/人物も対象ユーザと共に、または対象ユーザよりも優先してカバーするよう判断する。
そして、カバー範囲の変更が必要な場合(S454において「Yes」)、ステップS457において、移動体制御部70gは、カバー範囲を変更するよう移動体6に指示を行う。
以上により、本応用例では、例えば対象ユーザが大事にしている骨董品を持ち歩く際に、少しでも太陽や雨が当たらないよう移動体6によりカバーしたり、子供や親友と一緒の場合はカバー範囲を共有したりすることができる。
<3−4.テレプレゼンスシステム>
次に、第4の応用例として、感性値を、遠隔地の通信を制御するテレプレゼンスシステム104におけるプライバシーレベルの設定を行う際に利用する場合について、図35〜図41を参照して説明する。
図35は、第4の応用例によるテレプレゼンスシステム104の全体構成を説明する図である。図35に示すように、本応用例によるテレプレゼンスシステム104は、複数の空間(例えば部屋R1、R2)を結び、一方の空間の映像を他方に提供することで、遠隔地の空間にいるユーザ同士のコミュニケーションを図ることができる。具体的には、テレプレゼンスシステム1は、部屋R1に存在するユーザAの様子を、部屋R1に設けられた高解像度カメラおよびマイクアレイで取得し、部屋R2に設けられた表示部82a−2およびスピーカから出力させる。また、テレプレゼンスシステム104は、同様に部屋R2に存在するユーザBの様子を部屋R2に設けられた高解像度カメラおよびマイクアレイで取得し、部屋R1に設けられた表示部82a−1およびスピーカから出力させる。
このように、互いの様子が高解像度カメラで撮像され、相手側に提供されることで、遠隔地に居るユーザ同士であっても、よりリアリティのある密なコミュニケーションを取ることができる。しかしながら一方で、ユーザのプライバシーをコントロールする手段も必要となる。
本応用例によるテレプレゼンスシステム104では、テレプレゼンスにおけるプライバシーレベルを相手に応じて自動的に設定することで、プライバシーを適度に保つことができる。具体的には、設定されたプライバシーレベルに応じて相手側に提供する映像をマスクすることで、部屋の映像の一部を見せたくないといったユーザの要望に対して、通信をOFFして一方的に切断することなく対応することができる。
本応用例では、かかるプライバシーレベルの設定に、相手の人間性や信頼度を示す所定の指標である感性値を用いる。
例えば、ユーザBの感性値が高い場合、ユーザBは信頼度の高い人物であると言えるため、テレプレゼンスシステム104はユーザAのユーザBに対するプライバシーレベルを低く設定し、ユーザBに公開する映像の領域を大きくする。一方、ユーザBの感性値が低い場合、ユーザBは信頼度の低い人物であると言えるため、テレプレゼンスシステム104はユーザAのユーザBに対するプライバシーレベルを高く設定し、ユーザBに公開する映像の領域を小さく、若しくは通信をOFFするよう制御する。
ここで、設定されたプライバシーレベルに応じて行う相手への公開映像(ユーザAの撮像画像)の領域の制御は、映像を所定手段でマスクすることにより実現する。映像のマスク手段としては、例えば公開映像(ユーザAの撮像画像)に画像を重畳表示し、公開映像の少なくとも一部を隠すことで、ユーザAのプライバシーを適度に保つことができる。本応用例では、重畳する画像に、一例として障子画像を用いる。障子は左右の移動により開閉するため、操作した人の意図が残せるデバイスでもある。すなわち、障子の場合は、蝶番部分を軸として回転する方式の扉や窓と異なり、少し開いた状態で停止させていても不安定ではなく、操作した人の意図(どの程度開けていたいか)が残る。ユーザBは、障子画像によりどの程度隠されているか(仮想的な障子の開き具合、すなわち開度)により、ユーザAがどの程度なら公開してもよいと思っているかを直感的に把握することができる。
プライバシーレベルは、このような障子画像の仮想的な障子開度として設定される。つまり、プライバシーレベルを低くする場合は開度を大きく、プライバシーレベルを高くする場合は開度を小さくする。また、障子画像の開度(プライバシーレベル)は、通信元と通信先とで共有されるようにしてもよい。これにより、ユーザAは、自らのプライバシーレベルがどの程度に設定されているかを、表示部82a−1に表示された障子画像の開度を見て直感的に把握することができる。
図36は、本応用例による障子画像の表示例について説明する図である。図36に示すように、ユーザAが存在する部屋R1には、表示部82a、カメラ82b、およびマイクアレイ82cが壁面に設けられている。表示部82aは、表示部82aに部屋R2の撮像画像821と障子画像822が表示された際、実際に部屋R1の壁に障子が存在し、遠隔地の部屋R2があたかも隣に存在するかのような臨場感や一体感を実現するよう、部屋R2の壁面かつ表示部82aの下端が床に近接するよう配置される。また、カメラ82bおよびマイクアレイ82cは、一例として、表示部82aの上方に設置されている。
表示部82aには、部屋R2から送信された撮像画像821と、当該撮像画像821をマスクする障子画像822が表示される。障子画像822は、撮像画像821に重畳表示され、プライバシーレベルに応じて開度が調整される。
以上、本応用例によるテレプレゼンスシステム104の概要について説明した。なお、図36に示す例では、プライバシーコントロール手段の一例として障子画像822を用いたが、本応用例はこれに限定されず、例えばカーテン、ロールカーテン、御簾、ブラインド、曇りガラス、液晶シャッター等の画像を同様に用いてもよい。プライバシーコントロール手段がカーテン画像、ロールカーテン画像、御簾画像、またはブラインド画像の場合、プライバシーレベルはその開度として設定され、曇りガラス画像または液晶シャッターの場合、プライバシーレベルはその透過度として設定される。
また、上述したテレプレゼンスシステム104では、部屋R1のデータ送受信が第1の通信制御装置(不図示)により制御され、部屋R2のデータ送受信が第2の通信制御装置(不図示)により制御される。第1、第2の通信制御装置は、ネットワークを介して接続し、互いにデータの送受信を行う。
(3−4−1.構成)
続いて、テレプレゼンスシステム104に含まれる通信制御装置の構成について図37を参照して説明する。図37は、第4の応用例による通信制御装置8の構成の一例を示すブロック図である。通信制御装置8は、テレプレゼンスシステム104で結ばれる空間におけるデータの送受信を制御する。
図37に示すように、本実施形態による通信制御装置8は、制御部80、通信部81、テレプレゼンス部82、各種センサ83、カレンダー・時計部85、および記憶部87を有する。
[制御部80]
制御部80は、通信制御装置8の各構成を制御する。制御部80は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。具体的には、制御部80は、相手ユーザ情報取得部80a、感性値算出部80b、開度設定部80c、テレプレゼンス制御部80d、ジェスチャー検出部80e、および感情情報取得部80fとして機能する。
相手ユーザ情報取得部80aは、通信先の相手ユーザに関する情報を取得する。
感性値算出部80bは、相手ユーザのオブジェクトIDに基づいて、相手ユーザに対応付けられたインタラクション評価値を感性サーバ2から取得し、相手ユーザの感性値を算出する。相手ユーザのオブジェクトIDは、相手ユーザ情報取得部80aにより取得してもよいし、特定サーバに問い合わせて取得してもよいし、記憶部87に予め登録されていてもよい。感性値算出部80bは、算出した相手ユーザの感性値を開度設定部80cに出力する。
開度設定部80cは、相手ユーザに応じたプライバシーレベルを開度として設定する。具体的には、開度設定部80cは、感性値算出部80bにより算出された感性値に応じて、相手ユーザが信頼できる人物である程プライバシーレベルを低く、すなわち仮想的な障子の開度を大きく設定する。
テレプレゼンス制御部80dは、テレプレゼンス部82を制御し、対象空間と通信先空間とのテレプレゼンスを実現する。具体的には、テレプレゼンス制御部80dは、テレプレゼンス部82のカメラ82bで撮像した撮像画像、およびマイクアレイ82cで収音した音声を通信部81から通信先の通信制御装置に送信するよう制御する。この際、テレプレゼンス制御部80dは、開度設定部80cで設定された開度に応じて撮像画像をマスクするよう制御する。具体的には、例えばテレプレゼンス制御部80dは、設定された開度に応じて障子画像を撮像画像に重畳させる加工を行い、加工した画像を通信先に送信してもよいし、設定された開度を撮像画像と共に通信先に送信してもよい。
また、テレプレゼンス制御部80dは、通信先の通信制御装置から受信した撮像画像821を表示部82aに表示させ、同様に受信した音声をスピーカ82dで再生させるよう制御する。なお、プライバシーレベルが通信先と共有されている場合、テレプレゼンス制御部80dは、開度設定部80cにより設定された開度に従って撮像画像821に重畳表示する障子画像822の位置を調整する。
ジェスチャー検出部80eは、各種センサ83に含まれる深度センサ83aにより取得された深度情報に基づいて、ユーザのジェスチャーを検出する。例えば障子を開ける/閉めるジェスチャーが検出される。これにより、ユーザは、障子画像822の開度を任意に変更することができる。
感情情報取得部80fは、後述する生体センサ83dにより検出される生体情報や、可視光カメラにより取得した撮像画像から検出される顔の表情、マイクロホンにより取得した音声から検出される会話内容に基づいてユーザの感情を推定し、感情情報を取得する。
[通信部81]
通信部81は、外部装置とデータの送受信を行う。例えば通信部81は、通信先の通信制御装置に対して、テレプレゼンス制御部80dの制御に従い、テレプレゼンス部82のカメラ82bで撮像した撮像画像や、マイクアレイ82cで収音した音声、開度設定部80cで設定された開度等を送信する。また、通信部81は、通信先の通信制御装置から、通信先の空間で取得された撮像画像および音声を受信する。
また、通信部81は、感性サーバ2に接続し、対象ユーザのオブジェクトIDに紐付けられたインタラクション評価値を取得する。
[各種センサ83]
各種センサ83は、対象空間の環境情報、対象空間に存在するユーザの行動情報、および感情情報等を取得する複数のセンサを含む。具体的には、本実施形態による各種センサ83は、深度センサ83a、人物センサ83b、行動センサ83c、生体センサ83d、位置情報取得部83e、高度センサ83f、大気汚染センサ83g、および気温・湿度センサ83h、騒音センサ83i等を含む。
[テレプレゼンス部82]
テレプレゼンス部82は、表示部82a、カメラ82b、マイクアレイ82c、およびスピーカ82dを有する。表示部82aは、図36に示すように、通信先の空間の撮像画像821と、開度設定部80cにより設定された開度に応じて重畳される障子画像822とを表示する。また、スピーカ82dは、通信先の空間の音声を出力する。この際、スピーカ82dは、開度設定部80cにより設定された開度に応じた音量で出力してもよい。カメラ82bは、対象空間(通信元の空間)を撮像し、撮像画像は通信先の通信制御装置に送信される。マイクアレイ82cは、対象空間の音声を収音し、音声データは通信先の通信制御装置に送信される。
[カレンダー・時計部85]
カレンダー・時計部85は、現在の日時を取得し、取得した日時情報を制御部80に出力する。
[記憶部]
記憶部87は、制御部80により実行される各種処理のプログラムや、各種処理で利用されるデータ、例えばユーザの属性情報やオブジェクトID等を記憶する。
以上、本応用例による通信制御装置8の構成について説明した。なお通信制御装置8は、上述した各構成に限定されない。例えば、通信制御装置8は、物理障子部を備え、プライバシーレベルに応じて映像をマスクする手段の一例として、表示部82aを覆うよう設置された物理的障子を用いてもよい。
また、感性値の算出は、通信制御装置8の感性値算出部80bではなく、感性サーバ2側で行われてもよい。
また、本応用例では、テレプレゼンスで繋がる各空間を制御するそれぞれの通信制御装置8がネットワークを介して接続されるものとして説明したが、本開示によるテレプレゼンスシステムはこれに限定されず、例えば各空間の通信を1のサーバにより制御してもよい。この場合、当該サーバは、図37に示す通信制御装置8の制御部80に含まれる各機能構成を有する。また、テレプレゼンス部82や各種センサ83は、各空間にそれぞれ設けられる。
(3−4−2.動作処理)
次に、本応用例によるテレプレゼンスシステム104の動作処理について具体的に説明する。
[テレプレゼンス制御]
図38は、本応用例によるテレプレゼンス制御処理を示すフローチャートである。図38に示すように、まず、ステップS503において、通信元の通信制御装置8のテレプレゼンス制御部80dは、通信先の通信制御装置との接続処理を行う。
次に、ステップS506において、通信制御装置8の開度設定部80cは、障子の開度を設定する。開度の設定制御の詳細については、図39を参照して後述する。
次いで、ステップS509において、テレプレゼンス制御部80dは、通信先に送信するユーザの撮像画像(映像)および音声をカメラ82bおよびマイクアレイ82cにより取得し、取得した撮像画像および音声を、設定した開度に応じてマスクするよう制御する。具体的には、例えばテレプレゼンス制御部80dは、設定された開度に応じて障子画像を撮像画像に重畳させる加工を行い、加工した画像を通信先に送信してもよいし、設定された開度を撮像画像と共に通信先に送信してもよい。
次に、ステップS512において、テレプレゼンス制御部80dは、通信先の通信制御装置から受信した画像および音声を、設定した開度に応じてマスクした状態で、表示部82aおよびスピーカ82dから出力するよう制御する。
そして、通信終了が指示されると(S515において「Yes」)、テレプレゼンス制御部80dは通信先との通信を終了する。
[開度の設定制御]
続いて、図38のステップS506に示す障子の開度設定について具体的に説明する。図39は、本応用例による開度設定の動作処理を示すフローチャートである。図39に示すように、まず、ステップS523において、通信制御装置8の開度設定部80cは、障子開度を予め登録した初期状態に設定する。
次に、ステップS526において、感性値算出部80bは、相手ユーザのオブジェクトIDを取得する。相手ユーザのオブジェクトIDは、相手ユーザ情報取得部80aにより通信先の通信制御装置から取得することが可能である。
次いで、相手ユーザのオブジェクトIDを取得できた場合(S529において「Yes」)、ステップS532において、感性値算出部80bは、相手ユーザのオブジェクトIDに対応付けられたインタラクション評価値を感性サーバ2から取得する。
続いて、ステップS535において、感性値算出部80bは、取得したインタラクション評価値に基づいて感性値を算出する。ここで、感性サーバ2から取得するインタラクション評価値および感性値の算出について図40〜図41を参照して具体的に説明する。
図40は、本応用例によるインタラクション評価のデータ例を示す図である。図40に示すデータ例は、感性値算出部80bが感性サーバ2から取得した、指定した相手ユーザ(ここではユーザBとする)のオブジェクトIDに対応付けられたインタラクション評価である。
次いで、感性値算出部80bは、図40に示す過去のインタラクション評価の蓄積データから、他のオブジェクト(関連オブジェクト)に対する、相手ユーザ(ここではユーザBであって、オブジェクトID5505)からのインタラクション評価だけを抜き出し、感性値算出を行う。図41には、このように図40示すインタラクション評価値のデータ例から感性値算出に用いるデータを抜き出したデータ例を示す。
図40、図41に示す「見られる/見る、モノを投げる/投げられる、電話をかける」といったインタラクションは、オブジェクトやオブジェクトの周囲に装着/搭載されたセンシングデバイスにより検知される。例えば、テレビや部屋に装着されたカメラセンサの撮像画像の解析結果からユーザBがテレビの方向を継続的に見ていることが検出された場合、また、テレビの動作履歴からユーザBが部屋に居る時間帯にテレビが動作して映像が出力されている場合には、ユーザBがテレビを見ている/テレビがユーザBに見られているといったインタラクションが検知される。また、テレビや部屋に装着されたカメラセンサの撮像画像の解析結果からユーザBによるモノを投げるモーションや物体がユーザBの手から離れ移動することが検出された場合、また、テレビに搭載された振動センサによりモノがテレビの筐体に当たったことが検知され場合、テレビに対してモノを投げた/投げられたといったインタラクションが検知される。
また、電話機や部屋に装着されたカメラセンサの撮像画像の解析結果からユーザBが電話機の受話器を手に取っている様子が検出された場合、また、電話機の動作履歴からユーザBが電話を掛けたことが検出された場合には、電話をかけるといったインタラクションが検知される。さらに、電話機に装着された振動センサにより電話機に対して衝撃が加えられたことが検出された場合、また、電話機に装着されたマイクロホンによりコードが引っ張られる音が検出された場合には、コードが引っ張られながら電話をかけていたといったインタラクションが検知される。
続いて、感性値算出部80bによるユーザBの感性値Q1の算出の一例について説明する。感性値Q1は、例えば下記式2により算出する。
Figure 0006561996
上記式2では、各インタラクションの種類ごとに合計された評価値の和に、インタラクションの種類に応じた係数を掛け、全てのインタラクションの種類の総和をインタラクション総数で割ることにより、感性値Q1が算出されることを示す。ここで、上記式1に図41に示すインタラクション評価を当てはめたものを下記式3に示す。
Figure 0006561996
このように、感性値算出部80bは、ユーザBの感性値Q1を上記式3に示すように求めることができる。
算出した相手ユーザの感性値は、相手ユーザの信頼度を表す。テレプレゼンスシステム104において、通信する相手が信頼できる人である場合はプライバシーを低くしても安心だが、信頼できない人である場合はプライバシーを高くしておくことでユーザのプライバシーを適度に保つことができる。したがって、相手ユーザの信頼度を表す感性値の利用が有効となる。
続いて、図39に戻り、ステップS538において、開度設定部80cは、感性値算出部80bにより算出された感性値に基づいて、プライバシーレベルである障子の開度を算出、設定し、設定した開度をテレプレゼンス制御部80dに出力する。
以上、本応用例によるテレプレゼンスシステム104における感性値の利用について説明した。
<3−5.臨場感再現システム>
次に、第5の応用例として、既存の動画を再生する場合に感性値を利用して、撮影者や被写体の関係性に基づく新たな演出を加える臨場感再現システム105について、図42〜図50を参照して説明する。
図42は、本応用例による臨場感再現システム105の全体構成を説明する図である。図42に示すように、臨場感再現システム105は、取得したコンテンツデータから臨場感再現情報を生成する再現情報生成装置9と、臨場感再現情報に基づいてコンテンツデータを再生する際に鑑賞者(ユーザ)にコンテンツデータ生成時の臨場感を再現する再生制御装置95とを有する。再現情報生成装置9と再生制御装置95はネットワークを介して接続され得る。
再現情報生成装置9は、コンテンツデータ生成者(例えば撮影者)の被写体に対する気持ちや関係性を示す所定の指標である感性値を用いて、被写体への気持ちを表す新たな演出を加えるための抽象化された臨場感再現情報を生成する。
再生制御装置95は、コンテンツデータに紐付けられた臨場感再現情報に基づいて、コンテンツデータを再生する際に、コンテンツデータ生成時の臨場感(コンテキスト)を再現するよう、デバイス制御や画像エフェクト、音声エフェクトの生成を行う。臨場感再現情報は抽象化されたものであるため、再生制御装置95は、利用可能なデバイスや生成可能なエフェクトの特性に応じた再現処理を行うことができる。
(3−5−1.再現情報生成側の構成および動作処理)
次に、再現情報生成装置9の構成および動作処理について、図43〜図47を参照して説明する。
[再現情報生成装置9の構成]
図43は、本応用例による再現情報生成装置9の構成の一例を示すブロック図である。図43に示すように、再現情報生成装置9は、制御部90、通信部91、コンテンツ記憶部92、および臨場感再現情報記憶部93を有する。
制御部90は、再現情報生成装置9の各構成を制御する。制御部90は、CPU、ROM、RAM、および不揮発性メモリを備えたマイクロコンピュータにより実現される。具体的には、制御部90は、コンテンツ解析部90a、コンテンツ付加情報抽出部90b、天候・場所詳細情報検索部90c、被写体認識部90d、感性値取得部90e、臨場感再現情報生成部90f、および記憶制御部90gとしても機能する。
コンテンツ解析部90aは、動画等のコンテンツデータに対して画像解析や音声解析を行う。コンテンツデータは、コンテンツ記憶部92に記憶されていてもよいし、通信部91を介して受信してもよい。コンテンツ解析部90aは、画像特徴量抽出部901と、振動特徴量抽出部902と、音声特徴量抽出部903を有する。
画像特徴量抽出部901は、画像解析に基づいて画像特徴量を抽出する機能を有する。振動特徴量抽出部902は、画像解析に基づいて振動特徴量を抽出する機能を有する。また、音声特徴量抽出部903は、音声解析に基づいて音声特徴量を抽出する機能を有する。これらの特徴量は、動画のフレーム毎に抽出してもよいし、所定フレーム数毎に抽出してもよい。
コンテンツ付加情報抽出部90bは、コンテンツデータから付加情報を抽出する。付加情報とは、当該コンテンツデータの生成時(動画の場合は撮影時)に記憶された情報であって、例えばコンテンツデータの日付情報(動画の場合は撮影日)、時刻情報、位置情報(緯度経度、高度)、その他コンテンツデータ生成時に取得されたセンサ情報等が挙げられる。
天候・場所詳細情報検索部90cは、コンテンツ付加情報抽出部90bにより抽出されたコンテンツデータの日時、場所に基づいて、コンテンツ生成場所の天候詳細情報や場所詳細情報を検索する。天候詳細情報としては、天候、温度、湿度、風向き、風力、雨量、等が挙げられる。場所詳細情報としては、駅名、施設名、地名、建物種類等が挙げられる。天候・場所詳細情報検索部90cは、このような天候・場所の詳細情報を、ネットワーク上の検索サーバ(逆ジオコーディングシステムや、イベントカレンダーサーバ等)にアクセスして検索する。
被写体認識部90dは、コンテンツ解析部90aの画像特徴量抽出部901により抽出された画像特徴量、または音声特徴量抽出部903により抽出された音声特徴量に基づいて、コンテンツデータの被写体を認識する。
感性値取得部90eは、コンテンツデータ生成者(動画の場合は撮影者)と被写体との感性値を取得する。具体的には、感性値取得部90eは、生成者のオブジェクトIDと、被写体のオブジェクトIDとに基づいて感性サーバ2に対して感性値の取得を要求する。感性サーバ2から生成者と被写体との間のインタラクションの評価が送信された場合、感性値取得部90eは、当該インタラクション評価に基づいて、被写体に対する生成者の相対的感性値(被写体に対して生成者がどのような気持ちを抱いているかを示す指標)を算出する。なお感性値の算出は感性サーバ2で行われてもよく、この場合、感性値取得部90eは、感性サーバ2から通信部91を介して、算出された感性値を取得する。
生成者のオブジェクトIDは、コンテンツデータにメタデータとして埋め込まれ、コンテンツ付加情報抽出部90bにより抽出されてもよい。被写体のオブジェクトIDは、コンテンツデータにメタデータとして埋め込まれ、コンテンツ付加情報抽出部90bにより抽出されてもよい。若しくは、被写体のオブジェクトIDは、被写体認識部90dにより認識された被写体の特徴量に基づいて取得されてもよい。被写体特徴量とオブジェクトIDとの対応付けは、再現情報生成装置9の記憶部(不図示)に記憶されていてもよいし、感性サーバ2のオブジェクトDB22に記憶されていてもよい。感性値取得部90eは、被写体特徴量を感性サーバ2に送信して被写体のオブジェクトIDを取得することが可能である。
臨場感再現情報生成部90fは、コンテンツデータを再生する際に、コンテンツデータの臨場感(コンテキスト)を鑑賞者(ユーザ)に与えるための情報を生成する。
記憶制御部90gは、臨場感再現情報生成部90fにより生成された臨場感再現情報を、コンテンツ記憶部92に記憶されているコンテンツデータに埋め込んでもよいし、コンテンツデータに紐付けて別ファイルとして臨場感再現情報記憶部93に保存してもよい。
通信部91は、外部装置とデータの送受信を行う。例えば通信部91は、感性サーバ2と接続し、オブジェクトIDに対応するインタラクション評価値を受信する。また、通信部91は、再生制御装置95と接続し、臨場感再現情報が埋め込まれたコンテンツデータ、またはコンテンツデータと当該コンテンツデータに紐付けられた臨場感再現情報を送信する。
コンテンツ記憶部92は、コンテンツデータを格納する。格納するコンテンツデータは、通信部91により受信したものであってもよい。
臨場感再現情報記憶部93は、コンテンツデータに紐付けて別ファイルとして生成された臨場感再現情報を格納する。
[再現情報生成装置9の動作処理]
次に、再現情報生成装置9による再現情報生成処理について、図44を参照して説明する。図44は、本応用例による再現情報生成処理を示すフローチャートである。
図44に示すように、まず、ステップS603において、感性値取得部90eは、動画の先頭フレームを取得する。
次に、ステップS606において、感性値取得部90eは、被写体認識部90dから対象フレームの被写体認識結果を取得する。被写体認識部90dは、対象フレームの画像解析により抽出された画像特徴量に基づいて、フレーム内の被写体認識を行う。例えば、図45に示すように、撮影者Pが撮影を行って生成した動画のフレーム97を画像解析し、被写体S1、S2、S3を認識する。
次いで、ステップS609において、感性値取得部90eは、被写体認識部90dにより認識された対象フレームの被写体に対応するオブジェクトIDを取得する。
被写体のオブジェクトIDが取得できなかった場合(S609において/No)、ステップS612において、感性値取得部0eは、撮影者のオブジェクトIDおよび被写体の属性を感性サーバ2に送信する。
次いで、ステップS615において、感性値取得部90eは、感性サーバ2から被写体のオブジェクトIDの候補を受信する。感性サーバ2では、関連オブジェクト検索部20dにより、例えば撮影者がインタラクションを起こした履歴のあるオブジェクトから、被写体の属性と同じまたは似ている関連オブジェクトを検索し、そのオブジェクトIDを候補として再現情報生成装置9に返信する。
次に、感性サーバ2から返信されたオブジェクトID候補が複数ある場合(S618において「Yes」)、ステップS621において、感性値取得部90eは、複数の候補から被写体に対応するオブジェクトIDを1つ選択する。
続いて、ステップS624において、感性値取得部90eは、被写体のオブジェクトIDを感性サーバ2に送信する。
次に、ステップS627において、感性値取得部90eは、撮影者と被写体間の相対的感性値を取得し、取得した相対的感性値をフレーム内の被写体の位置に紐付けて記憶する。影者と被写体間の相対的感性値は、感性サーバ2において算出されてもよいし、感性値取得部90eが、感性サーバ2から受信した撮影者と被写体間のインタラクション評価に基づいて算出してもよい。
次いで、対象フレーム内に他の被写体がある場合(S630において「Yes」)、上記ステップS609からの処理が繰り返される。これにより、例えば図14に示す被写体S1(妻、オブジェクトID:105384093)、被写体S2(子供、オブジェクトID:15122014)、および被写体S3(玩具、オブジェクトID:101960)の各々に対する撮影者P(父親、オブジェクトID:312039)の感情や気持ちを示す相対的感性値が取得される。
ここで、感性値取得部90eによる相対的感性値の算出について、図46、図47を参照して具体的に説明する。図46は、本実施形態によるインタラクション評価のデータ例を示す図である。図46に示すインタラクション評価は、感性値取得部90eにより指定された撮影者のオブジェクトIDと各被写体のオブジェクトIDに基づいて、感性サーバ2から返信されたインタラクション評価である。
例えば、図46に示すデータ例の1行目では、撮影者P(オブジェクトID:312039)が、2013年12月24日に、被写体S1の妻(オブジェクトID:105384093)に対して行った「アクセサリーを贈与した」というインタラクションに対して評価0.7が付与されている。また、2行目では、被写体S1の妻(オブジェクトID:105384093)が、2013年12月24日に、撮影者P(オブジェクトID:312039)から行われた「アクセサリーを贈与された」というインタラクションに対して評価1.00が付与されている。このように、一方のオブジェクトから他方のオブジェクトに対して行われたインタラクションは、一方のオブジェクト側と、他方のオブジェクト側の両方で検知され得る。
検知されるインタラクション種類は、上記贈与の他、図46に示すように、保管、スキンシップ、会話、遊ぶ等が挙げられる。
贈与のインタラクションは、例えばクレジットカードの使用履歴やネットショッピングの購入履歴、メールやソーシャルメディアの書き込み内容、部屋やオブジェクトに備えられたカメラによる撮像画像の認識、部屋やオブジェクトに備えられたマイクロホンによる音声の認識等から検知される。贈与のインタラクション評価は、感性サーバ2の評価部20bにより行われる。例えば、評価部20bは、贈与した人の普段の購入履歴や収入に対するプレゼント金額の割合に応じた奮発度、店員との会話認識に基づくプレゼントに対するポジティブ度、ネット購入時におけるWebページの閲覧時間やページの遷移から品物を選ぶまで時間に基づく真剣度等を抽出し、これらの値に各々所定の重み付けを行い、-1.0〜1.0に正規化して評価値とする。
また、保管のインタラクションは、例えばオブジェクトの位置や、移動履歴、部屋やオブジェクトに備えられたカメラによる撮像画像の認識等から検知される。評価部20bは、保管場所、保管場所の湿度、大気中の埃の分量等に重み付けを行い、-1.0〜1.0に正規化して評価値とする。
また、スキンシップのインタラクションは、例えば互いのウェアラブルデバイスを経由した人体通信による接触判定、カメラによる画像認識、両者の加速度センサの動きパターン等に基づいて検知される。評価部20bは、笑顔認識による笑顔度、音声認識による笑い声や会話の内容から取得した各種指標に重み付けを行い、-1.0〜1.0に正規化して評価値とする。
また、会話のインタラクションは、例えば音声認識、声のトーン、メールやソーシャルメディアへの書き込み内容の解析(構文解析、意味解析)等に基づいて検知される。評価部20bは、会話に含まれる単語、文脈、声のトーン等を利用して会話内容のポジティブ/ネガティブ度を判定し、単語の数や会話内容によって評価の総和が変わるため、最終的に-1.0〜1.0に正規化して評価値とする。
また、遊びのインタラクションは、例えば玩具に設けられた近接無線通信チップと子供に装着された近接無線通信チップとの接続確認や、両者の加速度センサの動き等に基づいて検知される。接続確認と動きからは「遊ぶ」の認識ができない場合、他方のオブジェクトが玩具であれば、玩具は遊ぶためのものであるため、「遊ぶ」というインタラクションと認識される。評価部20bは、両者のインタラクション時間の計測結果と撮像画像や音声による笑顏検出や笑い声検出に基づいて、子供の玩具に対する評価値を求める。また、玩具側から見た場合の評価値は、加速度センサのデータを元にどれくらい乱暴に扱われたか、本来の玩具としての使い方を逸脱していたかを計測して求められてもよい。なお、乳幼児が玩具を乱暴に扱っている場合も、玩具から見た場合の評価値は低くなるが、最終的な感性値を求める段階で、相手が乳幼児である場合、玩具から見た評価値の重み付け係数を小さくしたり、補正したりすることで、評価値を調整することが可能である。
次いで、感性値取得部90eにより各被写体に対する撮影者の感情や気持ちを示す相対的感性値を算出する場合、感性値取得部90eは、図46に示すインタラクション評価のデータから、撮影者と被写体間のインタラクション評価だけを抜き出す。図47は、図46に示すインタラクション評価のデータ例から感性値算出に用いるデータを抜き出したデータ例を示す図である。図47に示すように、撮影者(オブジェクトID:312039)と、各被写体S1〜S3(オブジェクトID:105384093、15122014、101960)間のインタラクション評価が抜き出される。
感性値取得部90eは、撮影者と被写体との相対的感性値を、例えば対象被写体の評価の総和、または対象被写体のインタラクション種類毎に重み係数を乗じてから対象被写体の評価を加算した総和、若しくは総和をインタラクション数で割った平均値により求められる。
次に、図44に戻り、ステップS633において、感性値取得部90eは、フレーム全体の感性値を算出する。具体的には、例えばフレーム内の各被写体の相対的感性値の総和、または総和を被写体数で割った平均により求められる。
次いで、ステップS636において、感性値取得部90eは、対象フレームの感性値(各被写体の相対的感性値、およびフレーム全体の感性値)を記憶する。
そして、ステップS639において、処理対象のフレームを一つ進め、まだ新しいフレームがある場合は(S642において「Yes」)、上記ステップS606からの処理が繰り返される。
以上、本応用例による臨場感再現情報としての感性値の算出について説明した。なお、以上説明した実施形態では、各被写体と撮影者間の相対的感性値を算出したが、本開示はこれに限定されず、必要に応じて各被写体の絶対的感性値を算出してもよいし、被写体同士の相対的感性値を算出してもよい。各被写体の絶対的感性値は、被写体の全てのインタラクション評価を加算した総和、またはインタラクション種類毎に重み係数を乗じてから対象被写体の全ての評価を加算した総和、若しくは総和をインタラクション数で割った平均値により求められる。また、被写体同士の相対的感性値は、被写体間のインタラクション評価の総和、またはインタラクション種類毎に重み係数を乗じてから被写体間のインタラクション評価を加算した総和、若しくは総和をインタラクション数で割った平均値により求められる。
(3−5−2.再生側の構成および動作処理)
続いて、再生制御装置95の構成および動作処理について、図48〜図50を参照して説明する。再生側では、再現情報生成装置9により生成された抽象化された臨場感再現情報に基づいて、再生側が備えるデバイスの特性に応じて自由に再現方法を決めることができる。
[再生制御装置95の構成]
図48は、本応用例による再生制御装置95の構成の一例を示すブロック図である。図48に示すように、再生制御装置95は、コンテンツ取得部951、臨場感再現情報取得部952、臨場感再現効果特定部953、画像エフェクト生成部954、音声エフェクト生成部955、デバイス制御部956、デコード部957、およびコンテンツ出力制御部958を有する。
コンテンツ取得部951は、再生するコンテンツデータを取得する。例えば、コンテンツ取得部951は、クラウド上(例えば再現情報生成装置9のコンテンツ記憶部92)からコンテンツデータを取得する。
臨場感再現情報取得部952は、再生するコンテンツデータに対応する臨場感再現情報を取得する。例えば、臨場感再現情報は、コンテンツデータに埋め込まれている場合と、コンテンツデータとは別ファイルとしてクラウド上に保存されている場合とが想定される。
臨場感再現効果特定部953は、臨場感再現情報取得部952により取得された臨場感再現情報と、再生側が備えるデバイスの特性とに応じて、どのデバイスで臨場感(臨場感再現情報で表されているコンテキスト)の再現を行うかを特定する。再生側が備えるデバイスとしては、例えば画像および音声を出力するテレビジョン装置、エアーコンディショナー装置、香り噴霧装置、振動装置、照明装置、および送風装置等が挙げられる。
画像エフェクト生成部954は、臨場感再現効果特定部953の指示に従って、臨場感を再現するための画像エフェクトを生成する。
音声エフェクト生成部955は、臨場感再現効果特定部953の指示に従って、臨場感を再現するための音声エフェクトを生成する。
デバイス制御部956は、臨場感再現効果特定部953の指示に従って各種デバイスを制御し、ユーザ(鑑賞者)に臨場感を与える。
デコード部957は、コンテンツ取得部951により取得されたコンテンツデータをデコードし、コンテンツ出力制御部958に出力する。
コンテンツ出力制御部958は、デコード部957でデコードされたコンテンツデータを出力する。具体的には、例えばコンテンツ出力制御部958は、コンテンツデータが動画の場合、テレビジョン装置から再生するよう制御する。また、コンテンツ出力制御部958は、画像エフェクト生成部954により生成された画像エフェクトと共に動画を再生したり、音声エフェクト生成部955により生成された音声エフェクトを出力したりする。
[再生制御装置95の動作処理]
次に、再生制御装置95による再生処理について、図49を参照して説明する。臨場感再現情報には、上述したように、被写体に対する撮影者の感情や気持ちを示す相対的感性値が含まれている。再生側において当該相対的感性値に応じた演出を行うことで、撮影者が被写体に対してどのような思いを持っているのか、撮影者の気持ちになって鑑賞するといった新たな鑑賞体験を提供することができる。
図49は、本応用例による感性値を利用した再生処理を示すフローチャートである。図49に示すように、まず、ステップS653において、臨場感再現効果特定部953は、現在の再生フレーム全体の感性値Tを取得する。再生フレーム全体の感性値Tは、臨場感再現情報取得部952により取得された臨場感再現情報から取得し得る。再生フレーム全体の感性値Tは、図44のステップS633で説明した対象フレーム全体の感性値に相当する。
次に、ステップS656において、臨場感再現効果特定部953は、前のフレーム全体の感性値T’と、現在のフレーム全体の感性値Tとの差が所定値以上であるか否かを判断する。
次いで、感性値の差が所定値以上である場合(S656において「Yes」)、ステップS659において、臨場感再現効果特定部953は、デバイス制御の最低適用時間を越えているか否かを判断する。デバイス制御が短い時間で切り替えられてしまうことも回避するためである。
次に、デバイス制御の最低適用時間を越えている場合(S659において「Yes」)、ステップS662において、臨場感再現効果特定部953は、感性値Tの値に応じたデバイス制御を行うようデバイス制御部956に指示する。例えば、振動の発生、スモークの噴出、照明の変更等の、感性値に応じた物理的な演出を行う。
次いで、ステップS665において、臨場感再現効果特定部953は、画像エフェクトの最低適用時間を越えているか否かを判断する。画像エフェクトが短い時間で切り替えられてしまうことも回避するためである。
次に、画像エフェクトの最低適用時間を越えている場合(S665において「Yes」)、ステップS668において、臨場感再現効果特定部953は、感性値Tの値に応じた画像全体のエフェクトを適用するよう、画像エフェクト生成部954に指示する。画像全体のエフェクトとは、例えば画像のトーン全体を明るくしたり、画像の色合いを少し赤くしたりする演出である。
次いで、ステップS671において、臨場感再現効果特定部953は、BGM(Background Music)の最低適用時間を越えているか否かを判断する。BGMが短い時間で切り替えられてしまうことも回避するためである。
次に、BGMの最低適用時間を越えている場合(S671において「Yes」)、ステップS674において、臨場感再現効果特定部953は、感性値Tの値に応じたBGMを再生するよう、音声エフェクト生成部955に指示する。例えば、感性値Tが高い場合は楽しく明るいBGMを再生し、感性値Tが低い場合は暗いBGMを再生する。
続いて、ステップS677において、臨場感再現効果特定部953は、現在の再生フレームから認識される被写体毎の感性値と、各被写体の画面上の位置(すなわちフレーム内での位置)を取得する。被写体毎の感性値は、臨場感再現情報に含まれる、各被写体に対する撮影者の相対的感性値である。
次に、ステップS680において、臨場感再現効果特定部953は、被写体の種類と感性値に応じた画像エフェクトや重畳画像を選択するよう画像エフェクト生成部954に指示し、さらに、選択された画像エフェクトを被写体に対応する位置に表示するようコンテンツ出力制御部958に指示する制御する。ここで、感性値に応じて各被写体に対応するよう配置される画像エフェクトの一例について図50を参照して説明する。
臨場感再現効果特定部953は、図50左に示すフレーム98から認識される被写体S1、S2、S3の相対的感性値に応じて、図50右に示すフレーム99のように、画像エフェクトE1〜E3を、各被写体S1〜S3に対応して配置する。例えば被写体S1が母親、被写体S2が子供、被写体S3が玩具である場合、家族用や子供用の画像エフェクトが選択される。また、相対的感性値が高い場合、楽しく明るい画像エフェクトが選択される。また、被写体に対応した配置とは、例えば被写体の周囲に、被写体と重ならないよう配置することが挙げられる。これにより、撮影者がどのような気持ちで撮影を行っていたのか、撮影時はどのような雰囲気であったかなどが、新たに追加された演出で表され、撮影時の臨場感が再現される。
なお、上記S662、S668、S674、S680では、感性値の値に応じた演出(デバイス制御、画像エフェクト、BGM)を行う旨を説明したが、本実施形態はこれに限定されず、臨場感再現情報に、被写体の相対的感性値から推定された抽象的な撮影者の主観表現が記述されていた場合、当該主観表現に応じた演出を行うことも可能である。
そして、動画終了位置まで再生されていない場合(ステップS683において「No」)、上記S653〜S680の処理が繰り返される。
以上、本応用例による臨場感再現システム105における感性値の利用について説明した。
<<4.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、オブジェクト間のインタラクションに基づいてオブジェクトの感性価値を数値化することを可能とする。具体的には、モノとユーザの間のインタラクションを計測して具体的な多次元のベクトル値としてモノやユーザに紐付けてサーバに履歴を保管することで、モノに紐づく感性値、利用者に紐づく感性値、また両者間の相対的な感性値を算出することができるようになる。
このような感性値は、例えば個人信用情報提供システム101、オークションシステム102、環境調整システム103、テレプレゼンスシステム104、臨場感再現システム105に利用することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、インタラクション情報を蓄積していき、その評価や感性値を蓄積時に都度算出してもよいし、必要な時に蓄積していたインタラクション情報の評価や感性値の算出を行ってもよい。
また、上述した各装置に内蔵されるCPU、ROM、およびRAM等のハードウェアに、各装置の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出する検出部と、
前記インタラクションに関連する情報に基づき、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能な生成部と、
を備える、情報処理システム。
(2)
前記生成部は、一のオブジェクトと、他の複数のオブジェクトとの間のインタラクションに関連する情報に基づく絶対的感性数値と、前記一のオブジェクトと、特定のオブジェクトとの間のインタラクションに関連する情報に基づく相対的価値とを生成可能である、前記(1)に記載の情報処理システム。
(3)
前記情報処理システムは、
前記インタラクションに関連する情報を、前記第1のオブジェクトと前記第2のオブジェクトにそれぞれ関連付けて記憶部に記憶する記憶制御部をさらに備え、
前記生成部は、前記記憶部に記憶された特定のオブジェクトに関連付けられた前記インタラクションに関連する情報の履歴に基づき、当該特定のオブジェクトの感性値を生成する、前記(1)または(2)に記載の情報処理システム。
(4)
前記生成部は、前記第1のオブジェクトが人であって、前記第2のオブジェクトが物である場合も、前記インタラクションに関連する情報に基づいて、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能である、前記(1)〜(3)のいずれか1項に記載の情報処理システム。
(5)
前記検出部は、前記第1のオブジェクトと前記第2のオブジェクト間でインタラクションが発生した際、双方向のインタラクションに関連する情報をそれぞれ検出する、前記(1)〜(4)のいずれか1項に記載の情報処理システム。
(6)
前記情報処理システムは、
前記感性値を個人の信用力とみなして個人信用情報を提供する信用情報提供サーバを備える、前記(1)〜(5)のいずれか1項に記載の情報処理システム。
(7)
前記情報処理システムは、
前記感性値を出品者の信頼度、または出品商品の価値とみなして、出品者または出品商品の感性値を提供する商取引サーバを備える、前記(1)〜(6)のいずれか1項に記載の情報処理システム。
(8)
前記情報処理システムは、
対象ユーザに追従して移動する移動体により前記対象ユーザの周囲環境を調整する際に、前記対象ユーザまたは前記対象ユーザに付随するオブジェクトの感性値に応じて、環境調整制御を行う環境調整サーバを備える、前記(1)〜(7)のいずれか1項に記載の情報処理システム。
(9)
前記情報処理システムは、
通信先装置のユーザの感性値に応じてプライバシーレベルを自動設定し、前記通信先装置に通信元装置のユーザの映像を送信する際に、前記自動設定されたプライバシーレベルに応じて前記通信元装置のユーザの映像をマスクするよう制御する通信制御装置を備える、前記(1)〜(8)のいずれか1項に記載の情報処理システム。
(10)
前記情報処理システムは、
コンテンツデータから抽出された被写体の感性値に基づいて、抽象化された臨場感再現情報を生成し、生成された臨場感再現情報を前記コンテンツデータに関連付けて記憶するよう制御する再現情報生成装置を備える、前記(1)〜(9)のいずれか1項に記載の情報処理システム。
(11)
第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出することと、
前記インタラクションに関連する情報に基づき、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能なことと、
を含む、制御方法。
(12)
コンピュータを、
第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報を検出する検出部と、
前記インタラクションに関連する情報に基づき、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ生成可能な生成部と、
として機能させるための、プログラムが記憶された、記憶媒体。
100 情報処理システム
101 個人信用情報提供システム
102 オークションシステム
103 環境調整システム
104 テレプレゼンスシステム
105 臨場感再現システム
1 センシングデバイス
11 センサ
12 インタラクション抽出部
13 通信部
2 感性サーバ
20 制御部
20a インタラクション記憶制御部
20b 評価部
20c オブジェクト管理部
20d 関連オブジェクト検索部
20e 感性値算出部
21 通信部
22 オブジェクトDB
24 感性情報DB
3 ネットワーク
4 個人信用情報提供サーバ
5 オークションサーバ
6 移動体
7 環境調整サーバ
8 通信制御装置
9 再現情報生成装置
95 再生制御装置

Claims (12)

  1. 第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報をセンシングデータから検出する検出部と、
    前記第1のオブジェクトおよび前記第2のオブジェクトの間において一方から他方へ行われたインタラクションに関連する情報に基づいて、前記インタラクションを行ったことによる前記インタラクションを行った側のオブジェクトの価値を感性値として算出し、さらに、前記インタラクションが行われたことによる前記インタラクションが行われた側のオブジェクトの価値を感性値として算出する算出部と、
    を備える、情報処理システム。
  2. 前記算出部は、一のオブジェクトと、他の複数のオブジェクトとの間のインタラクションに関連する情報に基づく絶対的感性と、前記一のオブジェクトと、特定のオブジェクトとの間のインタラクションに関連する情報に基づく相対的価値とを算出可能である、請求項1に記載の情報処理システム。
  3. 前記情報処理システムは、
    前記インタラクションに関連する情報を、前記第1のオブジェクトと前記第2のオブジェクトにそれぞれ関連付けて記憶部に記憶する記憶制御部をさらに備え、
    前記算出部は、前記記憶部に記憶された特定のオブジェクトに関連付けられた前記インタラクションに関連する情報の履歴に基づき、当該特定のオブジェクトの感性値を算出する、請求項1または2に記載の情報処理システム。
  4. 前記算出部は、前記第1のオブジェクトが人であって、前記第2のオブジェクトが物である場合も、前記インタラクションに関連する情報に基づいて、前記第1のオブジェクトの感性値および前記第2のオブジェクトの感性値をそれぞれ算出可能である、請求項1〜3のいずれか1項に記載の情報処理システム。
  5. 前記情報処理システムは、
    前記感性値を個人の信用力とみなして個人信用情報を提供する信用情報提供サーバを備える、請求項1〜4のいずれか1項に記載の情報処理システム。
  6. 前記情報処理システムは、
    前記感性値を出品者の信頼度、または出品商品の価値とみなして、出品者または出品商品の感性値を提供する商取引サーバを備える、請求項1〜4のいずれか1項に記載の情報処理システム。
  7. 前記商取引サーバは、
    前記出品商品の感性値として、前記出品商品の歴代の所有者との相対的な感性値と、これらを総合した前記出品商品の絶対的な感性値を表示する画面を出力する、請求項6に記載の情報処理システム。
  8. 前記情報処理システムは、
    対象ユーザに追従して移動する移動体により前記対象ユーザの周囲環境を調整する際に、記対象ユーザが所持するオブジェクトまたは前記対象ユーザと行動を共にするオブジェクトの前記対象ユーザとの相対的な感性値に応じて、環境調整制御を行う環境調整サーバを備える、請求項1〜4のいずれか1項に記載の情報処理システム。
  9. 前記情報処理システムは、
    通信先装置の相手ユーザの感性値に応じてプライバシーレベルを自動設定し、前記通信先装置に通信元装置のユーザの映像を表示させる際に、前記自動設定されたプライバシーレベルに応じて前記通信元装置のユーザの映像を遮蔽物映像により遮蔽するよう制御する通信制御装置を備える、請求項1〜4のいずれか1項に記載の情報処理システム。
  10. 前記情報処理システムは、
    コンテンツデータから抽出された被写体に対する撮影者の相対的な感性値に基づいて、抽象化された臨場感再現情報を生成し、生成された臨場感再現情報を前記コンテンツデータに関連付けて記憶するよう制御する再現情報生成装置を備える、請求項1〜4のいずれか1項に記載の情報処理システム。
  11. 第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報をセンシングデータから検出することと、
    前記第1のオブジェクトおよび前記第2のオブジェクトの間において一方から他方へ行われたインタラクションに関連する情報に基づいて、前記インタラクションを行ったことによる前記インタラクションを行った側のオブジェクトの価値を感性値として算出し、さらに、前記インタラクションが行われたことによる前記インタラクションが行われた側のオブジェクトの価値を感性値として算出することと、
    を含む、制御方法。
  12. コンピュータを、
    第1のオブジェクトと、第2のオブジェクトとの間のインタラクションに関連する情報をセンシングデータから検出する検出部と、
    前記第1のオブジェクトおよび前記第2のオブジェクトの間において一方から他方へ行われたインタラクションに関連する情報に基づいて、前記インタラクションを行ったことによる前記インタラクションを行った側のオブジェクトの価値を感性値として算出し、さらに、前記インタラクションが行われたことによる前記インタラクションが行われた側のオブジェクトの価値を感性値として算出する算出部と、
    として機能させるための、プログラムが記憶された、記憶媒体。
JP2016557469A 2014-11-07 2015-08-04 情報処理装置、制御方法、および記憶媒体 Active JP6561996B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014227004 2014-11-07
JP2014227004 2014-11-07
PCT/JP2015/072053 WO2016072117A1 (ja) 2014-11-07 2015-08-04 情報処理装置、制御方法、および記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019130648A Division JP6822527B2 (ja) 2014-11-07 2019-07-12 情報処理システム、制御方法、記憶媒体、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016072117A1 JPWO2016072117A1 (ja) 2017-08-17
JP6561996B2 true JP6561996B2 (ja) 2019-08-21

Family

ID=55908849

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016557469A Active JP6561996B2 (ja) 2014-11-07 2015-08-04 情報処理装置、制御方法、および記憶媒体
JP2019130648A Active JP6822527B2 (ja) 2014-11-07 2019-07-12 情報処理システム、制御方法、記憶媒体、およびプログラム
JP2021001196A Active JP7001181B2 (ja) 2014-11-07 2021-01-07 情報処理システム、制御方法、およびプログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2019130648A Active JP6822527B2 (ja) 2014-11-07 2019-07-12 情報処理システム、制御方法、記憶媒体、およびプログラム
JP2021001196A Active JP7001181B2 (ja) 2014-11-07 2021-01-07 情報処理システム、制御方法、およびプログラム

Country Status (5)

Country Link
US (3) US11010726B2 (ja)
EP (1) EP3217349A4 (ja)
JP (3) JP6561996B2 (ja)
CN (2) CN114461062A (ja)
WO (1) WO2016072117A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016072116A1 (ja) * 2014-11-07 2016-05-12 ソニー株式会社 制御システム、制御方法、および記憶媒体
US20160219931A1 (en) * 2015-01-30 2016-08-04 Suraaj Doshi System and Apparatus to Effect Behavioral Change
KR20160109242A (ko) * 2015-03-10 2016-09-21 한국전자통신연구원 객체 중심의 서비스 제공 장치 및 방법
WO2017022306A1 (ja) * 2015-08-05 2017-02-09 ソニー株式会社 情報処理システム、及び情報処理方法
JP6780001B2 (ja) 2015-12-21 2020-11-04 グーグル エルエルシー メッセージング・アプリケーションのための自動提案および他のコンテンツ
CN108781175B (zh) 2015-12-21 2021-09-21 谷歌有限责任公司 用于消息交换题绪的自动建议的方法、介质及系统
CN109952572B (zh) 2016-09-20 2023-11-24 谷歌有限责任公司 基于消息贴纸的建议响应
JP6659910B2 (ja) 2016-09-20 2020-03-04 グーグル エルエルシー データへのアクセス許可を要求するボット
US10416846B2 (en) * 2016-11-12 2019-09-17 Google Llc Determining graphical element(s) for inclusion in an electronic communication
JP6947189B2 (ja) * 2016-12-20 2021-10-13 ソニーグループ株式会社 情報処理装置および情報処理方法
JP2018169930A (ja) * 2017-03-30 2018-11-01 株式会社ゼンリンデータコム 情報提供システム及び情報提供方法
JP6909961B2 (ja) 2017-04-21 2021-07-28 パナソニックIpマネジメント株式会社 表示方法、プログラム、及び、表示システム
US10860854B2 (en) 2017-05-16 2020-12-08 Google Llc Suggested actions for images
US10404636B2 (en) 2017-06-15 2019-09-03 Google Llc Embedded programs and interfaces for chat conversations
KR102387400B1 (ko) * 2017-08-08 2022-04-15 라인 가부시키가이샤 통화 중 감정을 인식하여 인식된 감정을 활용하는 방법 및 시스템
JP6865153B2 (ja) * 2017-12-15 2021-04-28 ヤフー株式会社 推定装置、推定方法、及び推定プログラム
JP6885858B2 (ja) * 2017-12-15 2021-06-16 ヤフー株式会社 推定装置、推定方法、及び推定プログラム
US11868405B2 (en) * 2018-01-23 2024-01-09 Sony Corporation Information processor, information processing method, and recording medium
US11057332B2 (en) * 2018-03-15 2021-07-06 International Business Machines Corporation Augmented expression sticker control and management
JP7080079B2 (ja) * 2018-03-19 2022-06-03 本田技研工業株式会社 情報提供装置およびその制御方法
KR20190131163A (ko) * 2018-05-16 2019-11-26 현대자동차주식회사 감정 지도 작성 방법, 감정 지도 장치 및 감정 지도 작성 장치를 포함한 차량
US20200068169A1 (en) * 2018-08-21 2020-02-27 Richard Dean Nehrboss Methods and Subsystems for Utilizing Home Safety Sensors within a Telepresence Platform
US20220027513A1 (en) * 2018-12-05 2022-01-27 Sony Corporation Information processing device, information processing method, and information processing program
CN111290001A (zh) * 2018-12-06 2020-06-16 杭州海康威视数字技术股份有限公司 一种基于gps坐标的目标统筹方法、装置及设备
JP7175810B2 (ja) * 2019-03-20 2022-11-21 ヤフー株式会社 選択装置、選択方法及び選択プログラム
CN110647046B (zh) * 2019-09-29 2022-08-02 青岛海尔科技有限公司 基于智能家居操作系统的路线更新方法及装置
JP2021117840A (ja) * 2020-01-28 2021-08-10 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7127096B2 (ja) * 2020-10-14 2022-08-29 ヤフー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP7176019B2 (ja) * 2021-01-29 2022-11-21 株式会社 みずほ銀行 認証システム、認証方法及び認証プログラム
SE545609C2 (en) * 2022-02-04 2023-11-14 Assa Abloy Ab Alerting a difference in user sentiment of a user using a door
WO2023233490A1 (ja) * 2022-05-30 2023-12-07 日本電信電話株式会社 情報処理装置、算出方法及び算出プログラム
CN115095205B (zh) * 2022-06-24 2023-12-26 普智城市科技(深圳)有限公司 一种基于云服务的智能型立体停车设备
WO2024075344A1 (ja) * 2022-10-05 2024-04-11 パナソニックIpマネジメント株式会社 映像出力方法、映像出力システム及びプログラム

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7728715B2 (en) * 1996-01-23 2010-06-01 En-Gauge, Inc. Remote monitoring
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JPH11259129A (ja) * 1998-03-09 1999-09-24 Yamaha Motor Co Ltd 自律移動体の制御方法
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US6604091B2 (en) * 1999-09-10 2003-08-05 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence
US20020023034A1 (en) * 2000-03-31 2002-02-21 Brown Roger G. Method and system for a digital automated exchange
KR20020008848A (ko) * 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
US7106887B2 (en) 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
JP4291963B2 (ja) 2000-04-13 2009-07-08 富士フイルム株式会社 画像処理方法
US20040133596A1 (en) * 2000-04-27 2004-07-08 Hiroyoshi Fujita Environment information simulation system, device , and method, and recorded medium
JP2002049385A (ja) 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
US6774811B2 (en) * 2001-02-02 2004-08-10 International Business Machines Corporation Designation and opportunistic tracking of valuables
US7685059B2 (en) * 2001-03-30 2010-03-23 Roger G. Brown Method and system for a digital automated exchange
US7452268B2 (en) * 2002-08-07 2008-11-18 Sony Computer Entertainment America Inc. System and method for modifying actions of a group of characters via group interactions
JP2005124909A (ja) 2003-10-24 2005-05-19 Sony Corp 感情情報提示方法、感情情報表示装置及び情報コンテンツの検索方法
JP4475579B2 (ja) * 2004-11-11 2010-06-09 日本電信電話株式会社 映像コミュニケーション装置および映像コミュニケーション装置の制御方法
US20080040110A1 (en) * 2005-08-08 2008-02-14 Nice Systems Ltd. Apparatus and Methods for the Detection of Emotions in Audio Interactions
KR100825719B1 (ko) * 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
TWI311067B (en) * 2005-12-27 2009-06-21 Ind Tech Res Inst Method and apparatus of interactive gaming with emotion perception ability
JP2007213324A (ja) * 2006-02-09 2007-08-23 Nissan Motor Co Ltd 運転評価サポートシステムおよび運転評価データ算出方法
CN101454771A (zh) * 2006-03-31 2009-06-10 依玛奇灵控股有限公司 基于使用多媒体调查特征匹配以划分和标记个体的系统和方法
JP2008015585A (ja) 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology 生活タスク支援システム
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
JP4963640B2 (ja) * 2006-10-10 2012-06-27 キヤノン株式会社 物体情報取得装置及び方法
EP1956528B1 (en) * 2007-02-08 2018-10-03 Samsung Electronics Co., Ltd. Apparatus and method for expressing behavior of software robot
US20090006242A1 (en) * 2007-06-29 2009-01-01 Conopco Inc, D/B/A Unilever Automated auctioning method for market evaluation
US8442832B2 (en) * 2008-12-08 2013-05-14 Electronics And Telecommunications Research Institute Apparatus for context awareness and method using the same
JP4985722B2 (ja) * 2009-07-23 2012-07-25 三菱電機株式会社 空気調和機
US8818882B2 (en) * 2009-08-24 2014-08-26 Visa International Service Association Alias identity and reputation validation engine
US20110161218A1 (en) * 2009-09-22 2011-06-30 Cortera, Inc. Credit reporting interface
US20130246097A1 (en) * 2010-03-17 2013-09-19 Howard M. Kenney Medical Information Systems and Medical Data Processing Methods
FR2959208B1 (fr) 2010-04-22 2012-05-25 Eurl Jmdtheque Engin gyropendulaire a propulsion compensatoire et collimation de gradient fluidique multi-milieux multimodal a decollage et atterrissage vertical
US20120083675A1 (en) * 2010-09-30 2012-04-05 El Kaliouby Rana Measuring affective data for web-enabled applications
US20120011007A1 (en) * 2010-07-07 2012-01-12 At&T Intellectual Property I, L.P. Mobile Payment Using DTMF Signaling
US8380607B2 (en) * 2010-12-17 2013-02-19 Indiana University Research And Technology Corporation Predicting economic trends via network communication mood tracking
JP5658597B2 (ja) * 2011-03-03 2015-01-28 大阪瓦斯株式会社 省エネ行動評価システム
US9317860B2 (en) * 2011-03-08 2016-04-19 Bank Of America Corporation Collective network of augmented reality users
US8768812B2 (en) * 2011-05-02 2014-07-01 The Boeing Company System, method and computer-readable storage medium for valuing a performance option
US20120284154A1 (en) * 2011-05-04 2012-11-08 Jeffrey Creighton Articles Of Manufacture, Education Billing Management Methods, Education Billing Management Systems, Education Enrollment Systems, And Education Enrollment Methods
US20120290470A1 (en) * 2011-05-11 2012-11-15 Samsung Electro-Mechanics Company, Ltd. Payment systems and methods for providing wireless power transfer
US20120311032A1 (en) 2011-06-02 2012-12-06 Microsoft Corporation Emotion-based user identification for online experiences
WO2013006559A2 (en) * 2011-07-01 2013-01-10 Stoneware, Inc. Method and apparatus for application costing for service provisioning
US8719277B2 (en) * 2011-08-08 2014-05-06 Google Inc. Sentimental information associated with an object within a media
US20130046555A1 (en) * 2011-08-16 2013-02-21 Roderick A. Hyde Devices and methods for recording information on a subject's body
US9772270B2 (en) * 2011-08-16 2017-09-26 Elwha Llc Devices and methods for recording information on a subject's body
US20130060624A1 (en) * 2011-09-07 2013-03-07 Elwha LLC, a limited liability company of the State of Delaware Computational systems and methods for regulating information flow during interactions
US20130085954A1 (en) * 2011-09-29 2013-04-04 The Boeing Company System and method for identifying a qualified candidate
WO2013111144A2 (en) * 2011-11-04 2013-08-01 Vserv Digital Services Pvt.Ltd. System for inserting services in a software application
DE102011056940A1 (de) * 2011-12-22 2013-06-27 Bauhaus Universität Weimar Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
KR20140114349A (ko) * 2011-12-29 2014-09-26 인텔 코포레이션 실시간 구매 지원을 구비한 모바일 상거래를 위한 방법 및 시스템
KR20130084543A (ko) * 2012-01-17 2013-07-25 삼성전자주식회사 사용자 인터페이스 제공 장치 및 방법
US20130238471A1 (en) * 2012-03-06 2013-09-12 Nintendo Of America Inc. Systems and/or methods involving linked manufacturer serial numbers and unique identifiers applied to products
US20130246192A1 (en) * 2012-03-13 2013-09-19 Nokia Corporation System for enabling and incentivizing advertisements in crowdsourced video services
US20130275320A1 (en) * 2012-04-16 2013-10-17 Google Inc. Identifying Prospective Employee Candidates via Employee Connections
US9424721B2 (en) * 2012-04-18 2016-08-23 Square, Inc. Point-of-sale system
US20130325706A1 (en) * 2012-06-01 2013-12-05 Dadesystems, Llp System, method, apparatus, and computer program product for improved payment processing
US20130332201A1 (en) * 2012-06-12 2013-12-12 Peter L. Hagelstein Data acquisition apparatus configured to acquire data for insurance purposes, and related systems and methods
WO2014052938A1 (en) * 2012-09-28 2014-04-03 The Regents Of The University Of California Systems and methods for sensory and cognitive profiling
US9721263B2 (en) * 2012-10-26 2017-08-01 Nbcuniversal Media, Llc Continuously evolving symmetrical object profiles for online advertisement targeting
US20140172677A1 (en) * 2012-12-13 2014-06-19 Creditera, LLC Providing combined access to business and personal credit information
US8606599B1 (en) * 2013-01-03 2013-12-10 Medidata Solutions, Inc. Apparatus and method for executing tasks
US20140222526A1 (en) * 2013-02-07 2014-08-07 Augmedix, Inc. System and method for augmenting healthcare-provider performance
BR112015025869A2 (pt) * 2013-04-16 2017-07-25 Sony Corp aparelhos de processamento de informação e de exibição, métodos para processamento de informação e para exibição, e, sistema de processamento de informação
JP5617971B2 (ja) 2013-08-01 2014-11-05 株式会社日立製作所 組織コミュニケーション可視化システム
US9993386B2 (en) * 2013-11-29 2018-06-12 Louis G. RACETTE Instrumentation absolute value differential amplifier circuit and applications
US9799159B2 (en) * 2014-02-14 2017-10-24 Igt Canada Solutions Ulc Object detection and interaction for gaming systems
US10150043B2 (en) * 2014-03-11 2018-12-11 Microsoft Technology Licensing, Llc Interactive smart beads
US20150348200A1 (en) * 2014-06-03 2015-12-03 Christopher T. Fair Systems and methods for facilitating communication and investment
CN104071342B (zh) 2014-07-03 2016-01-27 国家电网公司 带电清除异物无人机防护罩
KR20160015972A (ko) * 2014-08-01 2016-02-15 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법

Also Published As

Publication number Publication date
JP2021061053A (ja) 2021-04-15
EP3217349A1 (en) 2017-09-13
EP3217349A4 (en) 2018-03-28
US20230230053A1 (en) 2023-07-20
CN107111359A (zh) 2017-08-29
JP6822527B2 (ja) 2021-01-27
US11640589B2 (en) 2023-05-02
JP7001181B2 (ja) 2022-01-19
JP2019204529A (ja) 2019-11-28
US20170330160A1 (en) 2017-11-16
WO2016072117A1 (ja) 2016-05-12
JPWO2016072117A1 (ja) 2017-08-17
US20210233042A1 (en) 2021-07-29
CN107111359B (zh) 2022-02-11
CN114461062A (zh) 2022-05-10
US11010726B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
JP7001181B2 (ja) 情報処理システム、制御方法、およびプログラム
JP7126709B2 (ja) 折りたたみ式仮想現実装置
US20210097281A9 (en) Systems and methods for using persistent, passive, electronic information capturing devices
US10554870B2 (en) Wearable apparatus and methods for processing image data
JP6111932B2 (ja) 行動支援装置、行動支援方法、プログラム、および記憶媒体
CN101795831B (zh) 机器人控制系统、机器人
JP6773190B2 (ja) 情報処理システム、制御方法、および記憶媒体
US20200004291A1 (en) Wearable apparatus and methods for processing audio signals
JP2005315802A (ja) ユーザ支援装置
CN106294489A (zh) 内容推荐方法、装置及系统
WO2016189908A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009176130A (ja) 情報提示システム、プログラム及び情報記憶媒体
JPWO2019207896A1 (ja) 情報処理システム、情報処理方法、および記録媒体
KR20200066280A (ko) 접이식 가상현실 장비
US20230336694A1 (en) Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features
CN105845144A (zh) 一种实现动物声音与形态翻译功能的智能健康管理系统
WO2019116658A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11289084B2 (en) Sensor based semantic object generation
DE112018005160T5 (de) Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
JP7219546B2 (ja) 物件検索システム
CN117541321B (zh) 一种基于虚拟数字人的广告制作发布方法及系统
EP3792914A2 (en) Wearable apparatus and methods for processing audio signals
JP2020086716A (ja) 画像表示装置、学習装置、撮像システム、画像表示方法、および学習方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190708

R151 Written notification of patent or utility model registration

Ref document number: 6561996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151