JPWO2019116658A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JPWO2019116658A1
JPWO2019116658A1 JP2019558911A JP2019558911A JPWO2019116658A1 JP WO2019116658 A1 JPWO2019116658 A1 JP WO2019116658A1 JP 2019558911 A JP2019558911 A JP 2019558911A JP 2019558911 A JP2019558911 A JP 2019558911A JP WO2019116658 A1 JPWO2019116658 A1 JP WO2019116658A1
Authority
JP
Japan
Prior art keywords
evaluation
information
information processing
evaluator
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019558911A
Other languages
English (en)
Inventor
由幸 小林
由幸 小林
菅谷 茂
茂 菅谷
昌一 浮田
昌一 浮田
佐藤 直之
直之 佐藤
脇田 能宏
能宏 脇田
崇紘 辻井
崇紘 辻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019116658A1 publication Critical patent/JPWO2019116658A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】評価者の信頼度を推定して評価値の正確性を向上させることが可能な情報処理装置、情報処理方法、およびプログラムを提供する。【解決手段】評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部を備える、情報処理装置。【選択図】図5

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
従来から、他人から見た自分自身の評価は自分自身を客観的に把握する重要な材料となるものであった。また、各人物に対する他人からの客観的な評価は、職場での人事評価や仕事のアサイン、SNS(Social Networking Service)で繋がる人物やインターネット上で商取引を行う際の相手を判断する際にも重要な材料となっていた。
人物や店舗等の実体の評価に関し、例えば下記特許文献1には、算出された評判又は影響度のスコアを用いてエンティティのランキングを生成する技術が開示されている。
特開2015−57718号公報
しかしながら、評価者による評価能力には個人差があり、全ての評価をそのまま利用すると正確な評価値が得られない場合がある。
そこで、本開示では、評価者の信頼度を推定して評価値の正確性を向上させることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得することと、前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定することとを含む、情報処理方法を提案する。
本開示によれば、コンピータを、評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、評価者の信頼度を推定して評価値の正確性を向上させることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の全体的な構成の例を示すブロック図である。 本開示の一実施形態の全体的な構成の別の例を示すブロック図である。 本開示の一実施形態の全体的な構成の別の例を示すブロック図である。 本開示の一実施形態の全体的な構成の別の例を示すブロック図である。 本開示の一実施形態に係る処理部の機能構成例を示すブロック図である。 本開示の一実施形態に係る評価入力画面の一例を示す図である。 本開示の一実施形態に係る評価者のセンシングデータからの評価情報の取得の一例について説明する図である。 本開示の一実施形態に係る評価の伝搬に基づく評価値の算出の一例について説明する図である。 本開示の一実施形態に係る分析結果の表示画面の一例を示す図である。 本開示の一実施形態に係る情報処理システムの全体の処理の流れを示すフローチャートである。 本開示の一実施形態において、評価者のセンシングデータからの評価情報の取得処理の一例を示すフローチャートである。 本開示の一実施形態において、評価対象者のセンシングデータからの評価情報の取得処理の一例を示すフローチャートである。 本開示の一実施形態において、ユーザ間の評価の伝搬に基づいて評価値を算出する第1の分析処理の一例を示すフローチャートである。 本開示の一実施形態において、評価者の信頼度を参照して評価値を算出すると共に信頼度の更新を行う第2の分析処理の一例を示すフローチャートである。 本開示の一実施形態において、評価対象者のセンシングデータに基づいて評価者の信頼度を推定する処理の一例を示すフローチャートである。 本開示の一実施形態において、相対評価に基づいて評価値を算出する第3の分析処理の一例を示すフローチャートである。 本開示の一実施形態において、分析した評価値の統合処理の一例を示すフローチャートである。 本実施形態の応用例に係る評価学習および自動評価を行う処理部の機能構成例を示すブロック図である。 本実施形態の応用例に係る自動評価の具体例について説明する図である。 本実施形態の応用例に係る因果分析を行う処理部の機能構成例を示すブロック図である。 本実施形態の応用例で用いる因果分析技術について説明する図である。 本実施形態の応用例において、因果分析の処理の流れを示すフローチャートである。 本実施形態の応用例に係る因果分析に用いるデータに関し、連続値変数の離散化処理の流れを示すフローチャートである。 本実施形態の応用例に係るセンシングデータと評価情報の因果分析例を示す図である。 本実施形態の応用例において、因果分析結果の提示処理の流れを示すフローチャートである。 本実施形態の応用例に係る分析結果の表示画面の一例を示す図である。 本実施形態の応用例において、評価の時系列因果分析を行う処理部の機能構成例を示すブロック図である。 本実施形態の応用例に係る評価時系列分析の結果を示す表示画面の一例を示す図である。 本実施形態の応用例に係る信頼度自動推定を行う処理部の機能構成例を示すブロック図である。 本開示の実施形態に係るシステム構成の第1の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第2の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第3の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第4の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第5の例を示すブロック図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、クライアント−サーバシステムを示す図である。 本開示の実施形態に係るシステム構成の他の具体的な例の一つとして、分散型システムを示す図である。 本開示の実施形態に係るシステム構成の第6の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第7の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第8の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第9の例を示すブロック図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、中間サーバを含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、ホストとして機能する端末装置を含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、エッジサーバを含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成のより具体的な例の一つとして、フォグコンピューティングを含むシステムの例を示す図である。 本開示の実施形態に係るシステム構成の第10の例を示すブロック図である。 本開示の実施形態に係るシステム構成の第11の例を示すブロック図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.全体的な構成
1−1.入力部
1−2.処理部
1−3.出力部
2.処理部の機能構成
2−1.全体的な機能構成
3.処理フロー
3−1.全体の処理の流れ
3−2.評価情報の取得
3−3.評価情報の分析
(3−3−1.第1の分析処理)
(3−3−2.第2の分析処理)
(3−3−3.第3の分析処理)
(3−3−4.評価値(分析結果)の統合処理)
4.応用例
4−1.自動評価
4−2.因果分析
4−3.時系列分析
4−4.信頼度自動推定
5.システム構成
6.ハードウェア構成
7.補足
(1.全体的な構成)
図1は、本開示の一実施形態の全体的な構成の例を示すブロック図である。図1を参照すると、システム10は、入力部100と、処理部200と、出力部300とを含む。入力部100、処理部200、および出力部300は、後述するシステム10の構成例に示されるように、1または複数の情報処理装置によって実現される。
(1−1.入力部)
入力部100は、例えば、操作入力装置、センサ、または外部サービスから情報を取得するソフトウェアなどを含み、ユーザ、周辺環境、または他のサービスから、さまざまな情報の入力を受け付ける。
操作入力装置は、例えば、ハードウェアボタン、キーボード、マウス、タッチパネル、タッチセンサ、近接センサ、加速度センサ、角速度センサ、温度センサなどを含み、ユーザによる操作入力を受け付ける。また、操作入力装置は、ユーザのジェスチャまたは音声によって表現される操作入力を受け付ける、カメラ(撮像素子)またはマイクロフォンなどを含んでもよい。
なお、入力部100には、操作入力装置によって取得される信号またはデータを操作コマンドに変換するプロセッサまたは処理回路が含まれてもよい。あるいは、入力部100は、操作入力装置が取得した信号またはデータを、操作コマンドに変換することなくインターフェース150に出力してもよい。その場合、操作入力装置が取得した信号またはデータは、例えば処理部200で操作コマンドに変換される。
センサは、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどを含み、装置にかかる加速度や角速度、方位、照度、温度、気圧などを検出する。上記の各種センサは、例えばセンサを含む装置がユーザによって携帯または装着されている場合に、各種情報をユーザに関する情報、例えばユーザの運動や向きなどを示す情報として検出することができる。また、センサは、他にも、脈拍、発汗、脳波、触覚、嗅覚、味覚など、ユーザの生体情報を検出するセンサを含んでもよい。入力部100には、これらのセンサによって検出された情報、および/または後述するカメラやマイクによって検出された画像または音声のデータを解析することによってユーザの感情を示す情報を取得する処理回路が含まれてもよい。あるいは、上記の情報および/またはデータは解析を経ずにインターフェース150に出力され、例えば処理部200において解析が実行されてもよい。
さらに、センサは、カメラ、マイク、上述した各種センサなどにより、ユーザまたは装置の近傍の画像または音声をデータとして取得してもよい。また、センサは、屋内または屋外の位置を検出する位置検出手段を含んでもよい。位置検出手段は、具体的には、GNSS(Global Navigation Satellite System)受信機、例えばGPS(Global Positioning System)受信機、GLONASS(Global Navigation Satellite
System)受信機、BDS(BeiDou Navigation Satellite System)受信機および/または通信装置などを含みうる。通信装置は、例えばWi−fi(登録商標)、MIMO(Multi-Input Multi-Output)、セルラー通信(例えば携帯基地局を使った位置検出、フェムトセル)、または近距離無線通信(例えばBLE(Bluetooth Low Energy)、Bluetooth(登録商標))、LPWA(Low Power Wide Area)などの技術を利用して位置を検出する。
上記のようなセンサがユーザの位置や状況(生体情報を含む)を検出する場合、センサを含む装置は、例えばユーザによって携帯または装着されている。あるいは、センサを含む装置がユーザの生活環境に設置されているような場合にも、ユーザの位置や状況(生体情報を含む)を検出することが可能でありうる。例えば、室内などに固定して設置されたカメラによって取得されたユーザの顔を含む画像を解析することによって、ユーザの脈拍を検出することができる。
なお、入力部100には、センサによって取得される信号またはデータを所定の形式に変換する(例えば、アナログ信号をデジタル信号に変換したり、画像または音声のデータをエンコードしたりする)プロセッサまたは処理回路が含まれてもよい。あるいは、入力部100は、取得された信号またはデータを、所定の形式に変換することなくインターフェース150に出力してもよい。その場合、センサが取得した信号またはデータは、処理部200で操作コマンドに変換される。
外部サービスから情報を取得するソフトウェアは、例えば、外部サービスのAPI(Application Program Interface)を利用して、外部サービスによって提供される各種の情報を取得する。ソフトウェアは、例えば外部サービスのサーバから情報を取得してもよいし、クライアント装置で実行されているサービスのアプリケーションソフトウェアから情報を取得してもよい。ソフトウェアによって、例えば、ユーザまたは他のユーザがソーシャルメディアなどの外部サービスに投稿したテキストや画像などの情報が取得されうる。取得される情報は、必ずしもユーザまたは他のユーザによって意図的に投稿されたものでなくてもよく、例えばユーザまたは他のユーザが実行した操作のログなどであってもよい。また、取得される情報は、ユーザまたは他のユーザの個人的な情報には限らず、例えばニュース、天気予報、交通情報、POI(Point Of Interest)、または広告などのように、不特定多数のユーザに向けて配信される情報であってもよい。
また、外部サービスから取得される情報には、上述した各種センサによって取得された情報、例えば加速度、角速度、方位、高度、照度、温度、気圧、脈拍、発汗、脳波、触覚、嗅覚、味覚、その他の生体情報、感情、位置情報などが、外部サービスと連携する他のシステムに含まれるセンサによって検出され、外部サービスに投稿されることによって生成された情報が含まれてもよい。
インターフェース150は、入力部100と処理部200との間のインターフェースである。例えば、入力部100と処理部200とが別個の装置で実現される場合、インターフェース150は、有線または無線の通信インターフェースを含みうる。また、インターネットが入力部100と処理部200の間に介在することもありうる。より具体的には、有線または無線の通信インターフェースは、3G/LTE/5Gなどのセルラー通信、Wi−Fi(登録商標)などの無線LAN(Local Area Network)通信、Bluetooth(登録商標)などの無線PAN(Personal Area Network)通信、NFC(Near Field Communication)、イーサネット(登録商標)、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)などを含みうる。また、入力部100と処理部200の少なくとも一部とが同一の装置で実現される場合、インターフェース150は、装置内のバスや、プログラムモジュール内でのデータ参照などを含みうる(以下、これらを装置内のインターフェースともいう)。また、入力部100が複数の装置に分散して実現される場合、インターフェース150は、それぞれの装置のための異なる種類のインターフェースを含みうる。例えば、インターフェース150は、通信インターフェースと装置内のインターフェースとの両方を含んでもよい。
(1−2.処理部)
処理部200は、入力部100によって取得された情報に基づいてさまざまな処理を実行する。より具体的には、例えば、処理部200は、CPU(Central Processing Unit)、GPU(Graphics processing unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのプロセッサまたは処理回路を含む。また、処理部200は、プロセッサまたは処理回路において実行されるプログラム、および処理において読み書きされるデータを一時的または永続的に格納するメモリまたはストレージ装置を含んでもよい。
なお、処理部200は、単一の装置内の単一のプロセッサまたは処理回路によって実現されてもよいし、複数の装置、または同一の装置内の複数のプロセッサもしくは処理回路に分散して実現されてもよい。処理部200が分散して実現される場合、図2および図3に示す例のように、処理部200の分割された部分の間にはインターフェース250が介在する。インターフェース250は、上記のインターフェース150と同様に、通信インターフェース、または装置内のインターフェースを含みうる。なお、後述する処理部200の詳細な説明では、処理部200を構成する個々の機能ブロックを例示するが、インターフェース250は、任意の機能ブロックの間に介在しうる。つまり、処理部200が複数の装置、または複数のプロセッサもしくは処理回路に分散して実現される場合、機能ブロックをどのように各装置、各プロセッサまたは各処理回路に振り分けるかは、別途の記載がない限り任意である。
このような処理部200により行われる処理の一例として、例えば機械学習が挙げられる。図4に、処理部200の機能ブロック図の一例を示す。図4に示すように、処理部200は、学習部210および識別部220を備える。学習部210は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部220は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
学習部210における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。また、ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。
また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
また、機械学習の問題設定には、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、転移学習等がある。例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
以上説明したような機械学習によって、処理部200は、仮想的なセンシングデータを生成することも可能である。例えば、処理部200は、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。また、処理部200は、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、処理部200は、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
(1−3.出力部)
出力部300は、処理部200から提供された情報を、ユーザ(入力部100のユーザと同じユーザであってもよいし、異なるユーザであってもよい)、外部装置、または他のサービスに出力する。例えば、出力部300は、出力装置、制御装置、または外部サービスに情報を提供するソフトウェアなどを含みうる。
出力装置は、処理部200から提供された情報を、ユーザ(入力部100のユーザと同じユーザであってもよいし、異なるユーザであってもよい)の視覚や聴覚、触覚、嗅覚、味覚などの感覚によって知覚される形式で出力する。例えば、出力装置はディスプレイであり、情報を画像によって出力する。なお、ディスプレイは、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイなどの反射型または自発光型のディスプレイには限らず、ウェアラブル装置などで用いられるような、ユーザの眼に画像表示光を導光する導光部材と光源との組み合わせをも含む。また、出力装置はスピーカを含み、情報を音声によって出力してもよい。その他にも、出力装置は、プロジェクタやバイブレータなどを含んでもよい。
制御装置は、処理部200から提供された情報に基づいて装置を制御する。制御される装置は、出力部300を実現する装置に含まれてもよいし、外部装置であってもよい。より具体的には、例えば、制御装置は制御コマンドを生成するプロセッサまたは処理回路を含む。外部装置が制御される場合、出力部300は、さらに、制御コマンドを外部装置に送信する通信装置を含みうる。制御装置は、例えば、処理部200から提供された情報を印刷物として出力するプリンタを制御する。制御装置は、処理部200から提供された情報の、ストレージ装置またはリムーバブル記録媒体への書き込みを制御するドライバを含んでもよい。あるいは、制御装置は、処理部200から提供された情報を出力または記録する装置以外の装置を制御してもよい。例えば、制御装置は、照明装置を制御して照明を点灯させたり、テレビを制御して画像を消したり、オーディオ装置を制御して音量を調節したり、ロボットを制御してその動き等を制御したりしてもよい。
また、制御装置は、入力部100に含まれる入力装置を制御してもよい。すなわち、制御装置は、入力装置により所定の情報を取得するよう制御することができる。また、制御装置が入力装置と同一の装置で実現されてもよい。これにより、入力装置が、他の入力装置を制御することも可能となる。例えば、複数台のカメラ装置がある場合に、通常は省電力目的で一つだけ起動しているが、人物を認識した際には、起動している一つのカメラ装置が、接続する他のカメラ装置を起動するよう制御する。
外部サービスに情報を提供するソフトウェアは、例えば、外部サービスのAPIを利用して、処理部200から提供された情報を外部サービスに提供する。ソフトウェアは、例えば外部サービスのサーバに情報を提供してもよいし、クライアント装置で実行されているサービスのアプリケーションソフトウェアに情報を提供してもよい。提供される情報は、必ずしもすぐに外部サービスに反映されるものでなくてよく、例えばユーザが外部サービスに投稿または送信するための候補として提供されてもよい。より具体的には、例えば、ソフトウェアは、クライアント装置で実行されているブラウザソフトウェアにおいて、ユーザが入力する検索キーワードやURL(Uniform Resource Locator)の候補として用いられるテキストを提供してもよい。また、例えば、ソフトウェアは、ユーザに代わって、ソーシャルメディアなどの外部サービスに、テキスト、画像、動画、音声などを投稿してもよい。
インターフェース350は、処理部200と出力部300との間のインターフェースである。例えば、処理部200と出力部300とが別個の装置で実現される場合、インターフェース350は、有線または無線の通信インターフェースを含みうる。また、処理部200の少なくとも一部と出力部300とが同一の装置で実現される場合、インターフェース350は、上述した装置内のインターフェースを含みうる。また、出力部300が複数の装置に分散して実現される場合、インターフェース350は、それぞれの装置のための異なる種類のインターフェースを含みうる。例えば、インターフェース350は、通信インターフェースと装置内のインターフェースとの両方を含んでもよい。
(2.処理部の機能構成)
(2−1.全体的な機能構成)
図5は、本開示の一実施形態に係る処理部の機能構成例を示すブロック図である。図5を参照すると、処理部200(制御部)は、評価部201と、評価分析部205と、分析結果出力部211とを含む。以下、それぞれの機能構成についてさらに説明する。
評価部201は、入力部100からインターフェース150を介して、評価対象者の評価を示す各種の情報を取得する。より具体的には、例えば、評価部201は、入力部100に含まれる操作入力装置から情報を取得する。操作入力装置から取得される情報は、例えば評価者が評価入力画面でマニュアル入力した評価情報である。マニュアル入力された評価情報は、評価対象者の所定のスキルについて所定の数値により評価を行う絶対評価と、他の評価対象者と比較して評価を行う相対評価とが含まれる。スキル(評価項目)は特に限定しないが、例えば、スポーツ(サッカー、野球、テニス等)、ゲーム、ファッション、料理、歌の上手さ、足の速さ、親切さ、優しさ等が想定される。また、入力される数値は、評価者が選択した、評価を示す星の数や言葉(「すごい/とてもすごい/超すごい」など)が変換されたものであってもよい。このような評価情報の入力を行い得る評価入力画面の一例を、図6に示す。図6に示すように、例えば評価入力画面30では、評価対象者単位で、各スキルの評価の入力が星の数の選択により行われる。また、評価入力画面31では、スキル単位で、各評価対象者の評価の入力が星の数の選択または言葉の選択により行われる。また、評価入力画面32では、スキル単位で複数の評価対象者をそれぞれ比較して優れている方を選択する相対的な評価が行われる。
また、例えば、評価部201は、入力部100に含まれるセンサから情報を取得する。センサから取得される情報は、例えば、評価者のセンシングデータである。近年のIoT(Internet of Things)の技術により、様々なデバイスがインターネットに接続され、日常的に大量のセンシングデータを取得することが可能となっている。これにより、マニュアル入力以外から評価者による評価を取得することができる。例えば、ユーザの電話の会話から、「○○さんはバスケが得意だよね」、「○○さんはとても優しいよね」、「○○さんは□□さんより料理が上手い」等、評価に関する情報を抽出し、評価情報として取得することができる。評価部201は、センシングデータとして、例えば音声、SNS等への書き込み、メール内容等を取得して解析し、評価対象者(誰に対する評価か)および評価内容(スキル、強度)を特定し、評価情報を取得する。このようなセンシングデータからの評価情報の取得について図7に一例を示す。図7左に示すように、センシングデータとして、評価者が誰かと話している際の音声情報や、評価者がSNS等へ書き込んだ内容等を各種センサから取得すると、図7中央に示すように、音声認識やテキスト解析により、評価対象者および評価内容に相当する文字列を特定する。評価対象者および評価内容に相当する文字列の特定は、例えば機械学習により得た認識機を用いて行ってもよい。次いで、図7右に示すように、特定した文字列(評価対象者および評価内容)から、評価情報を取得する。例えば「太郎君って超面白いよね」といった文字列からは、評価対象者:太郎、スキル:話術、強度:とてもすごい、確実性:中が評価情報として取得される。「強度」とは、そのスキルの能力の高さを示す評価に相当する。評価部201は、例えば予め登録された辞書データを用いて、文字列の中から「強度」を示す言葉を抽出し、「すごい/とてもすごい/超すごい」のいずれの評価に該当するかを判断してもよい。例えば一例として、「超面白い」は、『とてもすごい』の評価に相当すると判断される。また、「確実性」とは、取得した評価の確からしさである。評価部201は、例えば断定した表現により評価されている場合(「絶対にすごく面白いよ!」等)は確実性が高く、断定しない表現により評価されている場合(「面白いような気がする、、、」等)は確実性が低いと判断する。
評価部201は、取得した評価情報を評価情報DB(データベース)203に蓄積する。
評価分析部205は、評価情報DB203に蓄積された評価情報を分析し、評価値の算出や、信頼度の推定を行い得る。
例えば、評価分析部205は、評価者および評価対象者を含む全ユーザ間で評価を伝搬させることで、より正確な評価値を算出する。すなわち、あるスキルの評価が高い人物による、そのスキルの評価は、そのスキルの評価が低い人物による評価よりも正確である(信頼できる)と言える。従って、あるスキルについて評価の高い評価者が他者に対して行った評価は、評価者自身の評価を上乗せして算出するようにしてもよい。ここで、図8を参照して、評価の伝搬に基づく評価値の算出の一例について説明する。
図8に示す例では、あるユーザが他のユーザに対して評価(星の数で表現)を行った際、評価した者自身の評価を加算して評価値とする。このような評価の加算を繰り返す(伝搬)することで、より評価の高い者が行った例えば星1個の評価が、評価の低い者が行った星1個の評価よりも高く算出され得る。具体的には、図8に示すユーザA(評価:星0個)が、ユーザBに対して「すごい(評価:星1個)」の評価を行った場合、ユーザBには、評価:星1個が付与される。次いで、ユーザB(評価:星1個)が、ユーザCに対して「超すごい(評価:星3個)」の評価を行った場合、ユーザCには、ユーザBが行った評価にユーザB自身の評価を加算して、評価:星4個が付与される。また、ユーザC(評価:星4個)が、ユーザDに対して「すごい(評価:星1個)」の評価を行った場合、ユーザDには、ユーザCが行った評価にユーザC自身の評価を加算して、評価:星5個が付与される。なおユーザDに対しては、ユーザE(評価:星5個)からも「すごい(評価:星1個)」の評価が行われており、ユーザEに基づく評価(評価:星6個)も付与される。これにより、ユーザDの評価は、星11個となる。このように、同じ「すごい(評価:星1個)」の評価を行った場合でも、評価を行ったユーザ自身の評価を加算することで、より正確な評価値を算出することが可能となる。
また、評価分析部205は、信頼度DB207に蓄積されている各評価者の信頼度を参照して重み付けを行った上で、各評価対象者の評価値を算出することも可能である。これにより、信頼度の高いユーザの評価ほど大きく評価値(分析結果)に反映させ、評価値の正確性を向上させることができる。
また、評価分析部205は、信頼度DB207に蓄積されている各評価者の信頼度を更新することも可能である。例えば、評価分析部205は、算出された評価対象者の評価値(多数の評価者による評価情報を分析して算出された評価値)と、評価者の評価情報とを比較し、一致度の高さに応じて当該評価者の信頼度を更新する。
また、評価分析部205は、信頼度の更新と、信頼度を参照した評価値の算出とを繰り返し交互に行うことで、より正確な評価値を算出することが可能である。
また、評価分析部205は、評価対象者のセンシングデータに基づいて、評価者の評価の信頼度を推定することも可能である。センサ情報DB208には、入力部100から取得された各ユーザ(評価対象者および評価者を含む。同じ人物が評価者となることもあれば、評価対象者となることもある)の各種センシングデータが蓄積されている。ユーザの各種センシングデータは、例えば、ユーザの撮像画像、音声、位置情報、生体情報(発汗や脈拍等)、環境情報(気温や湿度等)、および動き等である。これらのセンシングデータは、例えばユーザが身に着けるウェアラブル端末(例えばHMD(Head Mounted Display)、スマートアイグラス、スマートウォッチ、スマートバンド、スマートイヤホン等)、評価対象者が所有するモバイル端末(スマートフォン、携帯電話端末、音楽プレーヤー、ゲーム機等)、PC(Personal Computer)、ユーザ周辺の環境センサ(カメラ、マイクロホン、加速度センサ等)、ユーザ周辺の様々な電子機器(テレビ、車載デバイス、デジタルカメラ、CE(Consumer Electronics)デバイス等)により取得され、入力部100からセンサ情報DB208に蓄積される。近年のIoT(Internet of Things)の技術により、日常生活で利用する様々な物にセンサが設けられ、また、インターネットに接続され、大量の様々なセンシングデータを日常的に取得することが可能となっている。センサ情報DB208には、このように取得されたユーザのセンシングデータが蓄積されている。本実施形態では、このようなIoTセンシング結果を利用することで、得られる評価値を精緻化することが出来る。また、センシングデータには、テストの点数や学校の成績、スポーツ大会の実績、また、個人の販売実績、売り上げ、目標達成率といった事項も含まれ得る。
このように日常的に蓄積される大量の様々なセンシングデータを用いて、評価分析部205は、評価者による評価の信頼度を推定する。具体的には、評価分析部205は、評価者による評価対象者に対する評価情報と、センサ情報DB208に蓄積された当該評価対象者のセンシングデータを比較し、評価者による評価の信頼度を推定する。評価の信頼度は、評価項目毎(評価項目とは、本明細書において、「スキル」、「分野」とも称す)に推定され、信頼度DB207に保存される。推定アルゴリズムについては特に限定しないが、例えば、評価分析部205は、評価者による評価対象者に対する評価情報と、対応するセンシングデータが一致するか否か、両者の一致度の高さ等に基づいて、信頼度を推定してもよい。具体例としては、例えばユーザAが「Bさんは足が速い」と評価した場合に、ユーザBの50m走や100m走の実際のタイム(センシングデータの一例)と比較し、ユーザBの足が本当に速いのか否かを判断する。「足が速い」の判断は、年齢や性別に応じた全国平均が校内の順位等により判断してもよく、このような判断基準は予め設定される。また、信頼度の推定に用いるセンシングデータは、評価者による評価のタイミングと時期的に近いもの(例えば評価のタイミングの前後3カ月等)を優先的に用いるようにしてもよいし、評価項目に応じてどのようなセンシングデータを用いるか適宜判断してもよい。また、センシングデータをそのまま用いるのではなく、1以上のセンシングデータに対して何らかの処理を行って得た処理結果を用いるようにしてもよい。このように、実際のデータと評価とを比較して評価の信頼度を推定することで、不正な評価を把握することが可能となる。また、信頼度の低い(所定値より低い)評価者の評価情報は評価の分析に用いないようにすることで、不正な評価を排除し、より正確性な評価値を出力することが可能となる。
また、評価分析部205は、上述した各手法により算出した評価値を統合して総合的な評価値を算出してもよい。具体的には、評価分析部205は、総合的な評価値として、各評価対象者のスキル毎の偏差値を算出してもよい。
以上、評価分析部205による評価分析の一例について説明した。なお、評価値の算出に用いる評価情報は、図7を参照して説明したその評価の確実性をさらに掛けたものであってもよい。また、評価分析部205は、星の数や言葉等、様々な表現により行われた評価情報をそれぞれ正規化して評価値を算出する。この際、評価分析部205は、相対評価に関しては、全ての相対評価が出来るだけ整合するよう評価対象者をソートすることで、相対評価を絶対評価に換算することが可能である。評価分析部205は、このように算出(分析)した評価値を、分析結果として分析結果DB209に蓄積する。
分析結果出力部211は、分析結果DB209に蓄積された各評価対象者の分析結果(評価値)を出力する制御を行う。分析結果は、インターフェース350を介して出力部300に提供され、出力部300によって出力される。また、分析結果出力部211は、評価者の信頼度を示す情報を、評価入力画面等に表示してもよい。例えば、所定値を上回る信頼度の場合に評価者に「あなたはこの評価項目について見る目があります」といったコメントと共に提示することで、評価者の評価入力のモチベーションを高めることができる。
本実施形態では、各ユーザが個別に付けた評価そのままではなく、多数の評価者の総意としての分析結果のみを評価対象者に表示することで、評価を提示された側の納得感を高めると共に、評価者個人への攻撃を防止することが可能となる。また、各ユーザが個別に付けた評価がそのまま提示されることがないので、評価者側の心理的障壁を下げ、人の評価をエンターテイメント化することができる。また、他人から見た自分の評価が可視化されることで、自分を客観視することができる。また、様々な能力についての分析結果の評価値が、成績表や偏差値で生涯において可視化されるようにすることで、個人の成長を促進することが可能となる。また、各ユーザの評価の可視化により、仕事のアサインなどにおけるミスマッチを防止することができる。
分析結果出力部211は、分析結果を示す画面を生成し、生成した画面情報を出力してもよい。ここで、図9に、分析結果の表示画面の一例を示す。図9に示すように、例えば分析結果画面40では、評価対象者単位で各スキルの評価値が例えば偏差値により提示されている。また、分析結果画面41では、スキル単位で、各評価対象者の評価値が偏差値により提示されている。また、分析結果画面42では、評価対象者のスキルの評価値の時系列が偏差値の時系列により提示されている。
より具体的には、例えば、分析結果出力部211によって生成された情報は、出力部300に含まれるディスプレイ、またはスピーカなどの出力装置から、画像、または音声などによって出力されてもよい。また、分析結果出力部211によって生成された情報は、出力部300に含まれる制御装置によって制御されたプリンタから印刷物として出力されたり、ストレージ装置またはリムーバブル記録媒体に電子データとして記録されたりしてもよい。あるいは、分析結果出力部211によって生成された情報は、出力部300に含まれる制御装置よる装置の制御に利用されてもよい。また、分析結果出力部211によって生成された情報は、出力部300に含まれる、外部サービスに情報を提供するソフトウェアを介して、外部サービスに提供されてもよい。
(3.処理フロー)
(3−1.全体の処理の流れ)
図10は、本開示の一実施形態に係る情報処理システム(評価可視化システム)の全体の処理の流れを示すフローチャートである。図10を参照すると、まず、評価部201が、評価情報を取得する(ステップS100)。上記のように、評価部201は、入力部100に含まれるセンサ、入力装置、またはソフトウェアなどの入力手段から評価情報を取得する。取得した評価情報は評価情報DB203に蓄積される。
次に、評価分析部205が、評価情報を分析する(ステップS300)。上記のように、評価分析部205は、評価情報DB203に蓄積された多数の評価情報に基づいて、評価対象者のスキル毎の評価を分析し、評価値を出力する。この際、評価分析部205は、評価者の信頼度を推定、更新することも可能である。また、評価分析部205は、評価者の信頼度を参照してより正確な評価値を算出し得る。
次いで、分析結果出力部211が、分析結果を出力する(ステップS500)。上記のように、分析結果出力部211は、各ユーザによる評価そのままではなく、全ユーザの評価情報を分析して得た評価値をユーザに提示する。
(3−2.評価情報の取得)
図11は、評価者のセンシングデータからの評価情報の取得処理の一例を示すフローチャートである。図11に示すように、まず、評価部201は、評価者のセンシングデータ(音声情報、画像情報、テキスト情報等)を取得すると(ステップS103)、センシングデータから、他のユーザの評価に関連する箇所の抽出、および評価対象者の特定を行う(ステップS106)。
次に、評価部201は、評価に関連する箇所を解析し、スキル(評価項目)、強度(評価)、および確実性を取得する(ステップS109)。
そして、評価部201は、取得した評価情報を、評価情報DB203に保存する(ステップS112)。
図12は、評価対象者のセンシングデータからの評価情報の取得処理の一例を示すフローチャートである。図12に示すように、まず、評価部201は、評価対象者のセンシングデータを取得すると(ステップS115)、センシングデータに基づいて、評価対象者のスキルを評価する(ステップS118)。例えば、評価部201は、センシングデータとしてスポーツテストの結果やスポーツ大会の成績が取得された場合、評価対象者の同性代の平均値や分散値と比較して、足が速い、持久力がある、サッカーが上手い等の評価情報を取得することが可能である。評価部201は、評価対象者の客観的な実測値であるセンシングデータが所定の条件を満たすか否か等に基づいて、スキル(能力)を判断することが可能となる。
そして、評価部201は、取得した評価情報を、評価情報DB203に保存する(ステップS121)。
(3−3.評価情報の分析)
続いて、図13〜図17を参照して本実施形態による評価情報の分析処理について具体的に説明する。
(3−3−1.第1の分析処理)
図13は、ユーザ間の評価の伝搬に基づいて評価値を算出する第1の分析処理の一例を示すフローチャートである。
図13に示すように、まず、評価分析部205は、評価軸kを1つ選択する(ステップS303)。評価軸kとは、上記「スキル」に相当する。
次に、評価分析部205は、選択した評価軸kに関する全ユーザ(全ての評価対象者)の評価情報を評価情報DB203から取得する(ステップS306)。
次いで、評価分析部205は、ユーザ間で評価を伝播させた場合の評価値を算出する(ステップS309)。例えば、評価分析部205は、上記図8を参照したように、評価を行った評価者自身の当該評価軸kの評価値を加算して評価対象者の評価値を算出する。かかるユーザ間の伝搬に基づく評価値算出の具体的なアルゴリズムは特に限定しないが、例えばページランクアルゴリズムを用いて算出することも可能である。
次に、評価分析部205は、算出した評価値を分析結果DB209に保存する(ステップS209)。
以上説明したステップS303〜S312を、全ての評価軸に対して行う(ステップS315)。これにより、あるユーザ(評価者対象者)の各スキルの評価値を算出し得る。
(3−3−2.第2の分析処理)
図14は、評価者の信頼度を参照して評価値を算出すると共に信頼度の更新を行う第2の分析処理の一例を示すフローチャートである。
図14に示すように、まず、評価分析部205は、評価軸kを1つ選択する(ステップS323)。
次に、評価分析部205は、信頼度DB207から各評価者(ユーザi)の信頼度Riを読み込んで初期化する(ステップS326)。各評価者(ユーザi)の信頼度Riは評価軸k毎に設けられてもよく、評価分析部205は、選択した評価軸kの各評価者(ユーザi)の信頼度Riを読み込んで初期化する。
次いで、評価分析部205は、評価対象者(ユーザj)の評価軸kについて、評価値の分布(平均μi,kと分散σi,k)を求める(ステップS329)。評価分析部205は、上記第1の分析処理の結果に基づいて評価値の分布を求めてもよい。この際、評価分析部205は、評価者(ユーザi)の信頼度Riに応じて評価者(ユーザi)の評価を重み付けた上で、評価値の分布を求める。
次に、評価分析部205は、各評価者(ユーザi)が行った評価対象者(ユーザj)の各評価軸kについての平均尤度Liを求める(ステップS332)。
次いで、評価分析部205は、平均尤度Liから評価者(ユーザi)の信頼度Riを決定する(ステップS335)。すなわち、評価分析部205は、全評価者による評価と合った評価を行った評価者の信頼度を上げて、全評価者による評価から外れた評価を行った評価者の信頼度を下げる処理を行う(信頼度の更新)。信頼度は、例えば「‐1〜1」の相関係数であってもよい。
続いて、評価分析部205は、評価値の分布が収束するまで上記ステップS329〜ステップS335の処理を繰り返す(ステップS338)。すなわち、繰り返しの上記ステップS329では、上記ステップS335で更新した信頼度に応じた評価の重み付けを再度行った上で評価値の分布を求め(分析処理)、かかる分布が収束するまで、信頼度の更新と評価値の分析処理を交互に繰り返す。
次に、評価値の分布が収束した場合(ステップS338/Yes)、評価分析部205は、評価対象者(ユーザj)の評価軸kの平均評価値μi,kを分析結果DB209に出力する(ステップS341)。
次いで、評価分析部205は、評価者(ユーザi)の信頼度Riを信頼度DB209に出力する(ステップS344)。
そして、評価分析部205は、全ての評価軸について上記ステップS323〜S344の処理を繰り返す(ステップS347)。
(信頼度の推定処理)
本開示の一実施形態における信頼度の推定処理は図14を参照して説明した例に限定されず、例えば、評価対象者のセンシングデータと比較して推定することも可能である。以下、図15を参照して説明する。
図15は、評価対象者のセンシングデータに基づいて評価者の信頼度を推定する処理の一例を示すフローチャートである。
図15に示すように、まず、評価分析部205は、評価者の評価情報を取得する(ステップS353)。
次に、評価分析部205は、評価対象者のセンシング情報を取得する(ステップS356)。
次いで、評価分析部205は、評価軸kに対する評価者の評価情報と、評価対象者のセンシング情報とを比較し、信頼度を推定する(ステップS359)。具体的には、評価分析部205は、評価者の評価情報と評価対象者のセンシングデータの処理結果が一致するか否か、または一致度の高さ等に応じて、当該評価者の評価軸kにおける信頼度を推定する。すなわち、評価分析部205は、評価者の評価情報がセンシングデータの処理結果と一致する場合、一致度が高い場合、若しくは、評価情報に対応する所定の条件をセンシングデータが満たす場合、信頼度を高く推定する。
次に、評価分析部205は、算出結果を信頼度DB207に保存する(ステップS362)。
(3−3−3.第3の分析処理)
続いて、相対評価に基づいて評価値を算出する場合について図16を参照して説明する。図16は、相対評価に基づいて評価値を算出する第3の分析処理の一例を示すフローチャートである。
図16に示すように、まず、評価分析部205は、評価軸kを1つ選択する(ステップS373)。
次に、評価分析部205は、評価軸kに対する評価値(相対評価)に基づいて各評価対象者を昇順ソートする(ステップS376)。
次いで、評価分析部205は、ソート後の各評価対象者の順位を正規化し、評価値(絶対評価値)とする(ステップS379)。
次に、評価分析部205は、算出した評価値(絶対評価値)を分析結果DB209に保存する(ステップS382)。
そして、評価分析部205は、全ての評価軸について上記ステップS373〜S382の処理を繰り返す(ステップS385)。
このように、相対評価を絶対評価に変換して分析結果として出力することが可能である。また、評価分析部205は、相対評価から得た分析結果と、絶対評価から得た分析結果を単純に平均する等して1つの絶対評価にまとめることも可能である。
(3−3−4.評価値(分析結果)の統合処理)
以上、本実施形態による評価情報の分析による評価値の出力について複数の手法により行われ得ることを説明した。なお本実施形態では、これら複数の手法により算出された評価値を統合して総合的な評価値として出力するようにしてもよい。以下、図17を参照して説明する。
図17は、分析した評価値の統合処理の一例を示すフローチャートである。
図17に示すように、評価分析部205は、ユーザ間の評価伝播に基づく評価値の算出を行う(ステップS403)。
次に、評価分析部205は、評価者の信頼度を参照した評価値の算出を行う(ステップS406)。
次いで、評価分析部205は、相対評価に基づく評価値の算出を行う(ステップS409)。
次に、評価分析部205は、各ユーザjについて、上記ステップS403〜S409で算出した3種類の評価値を分析結果DB209から抽出し、加算する(ステップS412)。
次いで、評価分析部205は、各ユーザについて、評価軸の偏差値を算出する(ステップS415)。
そして、評価分析部205は、偏差値を最終的な評価値として分析結果DB209に保存する(ステップS418)。
(4.応用例)
続いて、本実施形態の応用例について説明する。
(4−1.自動評価)
本実施形態による評価可視化システムでは、評価情報とセンシングデータから認識機を学習することで、自動評価を行うことを実現する。これにより、例えば他者から一度も評価されていない項目についても評価値を算出することができる。
図18は、評価学習および自動評価を行う処理部200Aの機能構成例を示すブロック図である。図18に示すように、処理部200Aは、評価部201Aと、評価分析部205と、分析結果出力部211と、自動評価学習部213と、自動評価部217とを含む。以下、それぞれの機能構成についてさらに説明する。なお、図5を参照して説明した機能構成と同符号の機能構成については、ここでの詳細な説明は省略する。
評価部201Aは、図12を参照して上述した評価部201と同様に、入力された評価対象者のセンシングデータから評価情報を取得し、評価情報DB203Aに保存することが可能である。特にセンシングデータがテストの結果やスポーツ大会の成績等の客観的事実である場合、評価情報をより確実に取得し得る。
一方で、センシングデータが生体情報や位置情報等であって、センシングデータからの評価情報の取得が難しい場合であっても、機械学習により取得した自動評価機を用いることで、自動評価を行うことを可能とする。具体的には、次に説明する自動評価学習部213および自動評価部217により行われ得る。
自動評価学習部213は、センサ情報DB208に保存された評価対象者のセンシングデータと、当該評価対象者に対して行われた評価者による評価情報に基づいて、自動評価機の学習を行う。具体的には、自動評価学習部213は、評価情報DB203Aから、ある項目に関する評価情報Yを、センサ情報DB208から同項目について評価のある評価対象者に関するセンシングデータXを取得する。次いで、自動評価学習部213は、センシングデータXから評価情報Yを推定する機械学習を行い、自動評価機Y=F(X)を生成する。自動評価学習部213は、生成した自動評価機を、自動評価機DB215に保存する。
自動評価部217は、センサ情報DB208から評価対象者に関するセンシングデータXを、自動評価機DB215から評価機F(X)をそれぞれ取得し、評価対象者の自動評価を行う。すなわち、自動評価部217は、Y=F(X)を評価し、評価対象者の評価情報Yを求める。自動評価部217は、求めた評価情報Yを、評価情報DB203Aに保存する。なお、自動評価機DB215には、予め設計された自動評価機が保存されていてもよい。
ここで図19に、自動評価の具体例について説明する図を示す。図19に示すように、例えば自動評価部217は、ある評価対象者がサッカーを行っている際のセンシングデータX(位置情報や心拍等)と、当該評価対象者に対するサッカーの評価情報Yに基づいて、自動評価機Y=F(X)を学習する。次いで、自動評価部217は、サッカーについての評価が入力されていない評価対象者のサッカー中のセンシングデータXを取得した場合、自動評価機Y=F(X)を用いて評価を行い、当該評価対象者についてのサッカーの自動評価を取得する。
このように、本実施形態の評価可視化システムは、学習機を用いることで他者から一度も評価されていない項目についても評価情報を取得することができる。
また、本実施形態の評価可視化システムは、学習機を用いることで、「優しい」、「親切」、「格好良い」等の主観的な評価も、評価対象者のセンシングデータから取得することが可能となる。
(4−2.因果分析)
また、本実施形態による評価可視化システムでは、評価結果の出力において、評価が時系列的に変化した場合にその要因も提示することが可能である。これにより、評価対象者は、なぜ自分の評価が変化したかを知ることができるため、より好ましい変化を強化したり、好ましくない変化を抑制したりするための行動をとることができる。
評価が時系列的に変化した場合の要因の取得には、例えば評価対象者のセンシングデータと評価情報の間の因果分析を用いる。かかる因果分析を行う評価可視化システムの構成および処理フローについて、図面を用いて説明する。
(構成)
図20は、因果分析を行う処理部200Bの機能構成例を示すブロック図である。図20に示すように、処理部200Bは、評価部201と、評価分析部205と、分析結果出力部211と、因果分析部219とを含む。なお、図5を参照して説明した機能構成と同符号の機能構成については、ここでの詳細な説明は省略する。
因果分析部219は、センサ情報DB208から取得した評価対象者のセンシングデータと、評価情報DB203から取得した評価対象者の評価情報との間の因果分析を行い、分析結果を分析結果DB209Bに保存する。
因果分析は、複数の変数の観測結果が与えられたときに、変数間の因果関係を有向グラフの形で出力する分析技術である。例えば、図20に示すように、因果分析用データセットを用意し、因果分析結果を出力する。因果分析で用いるデータはユーザ毎に、評価されたタイミング毎で作成され得る。例えば、図20に示す因果分析用データセットのデータ1はユーザAが1回目に評価された時のデータであって、データ2はユーザAが2回目に評価された時のデータであって、データ3はユーザBが1回目に評価された時のデータである。また、変数はセンシング結果と評価結果を含む。例えば、図10に示す変数Aはサッカーの練習量、変数Bは睡眠時間、変数Cはサッカーに対する評価情報である。
(処理フロー)
図22は、因果分析部219は、因果分析の処理の流れを示すフローチャートである。図22に示すように、まず、因果分析対象のデータセットを入力する(ステップS513)。
次に、因果分析部219は、連続値変数の離散化処理を行う(ステップS516)。因果分析部219による因果分析処理において、例えばMax-min hill climbing法を用いる場合、扱えるのは離散化された変数のみであり、連続値は扱えないため、離散化処理を行う。本実施例では、例えば図23に示すように、最小値から最大値の間を予め決めた数に均等に離散化する。図23に示す例では、例えば連続値を8段階(0,1,2,…,7)に離散化する場合であって、最小値から最大値の間を8つに区切ることで、連続値を離散値に変換する。
次いで、因果分析部219は、Max-min hill climbingによるDAG(有向グラフ)の推定を行う(ステップS519)。具体的には、因果分析部219は、データセットの持つ各変数について、他のどの変数が原因になっているのかについての推定結果が得る。ここで、図24に、センシングデータと評価情報の因果分析例を示す。図24に示すように、因果分析により、例えばサッカーの練習時間、活動量全体、および睡眠時間といったセンシングデータと、サッカーの評価という評価情報の変数間における因果が推定される。図中の矢印は変数間に因果があることを示すものである。因果分析部219は、因果分析により得た推定結果を分析結果DB209Bに保存する。
図25は、因果分析結果の提示処理の流れを示すフローチャートである。図25に示すように、まず、分析結果出力部211は、評価対象者の各評価項目を、最近の評価の変化が大きかった順にソートする(ステップS523)。
次に、分析結果出力部211は、各評価項目における評価の変化の要因として因果分析結果を提示する(ステップS526)。具体的には、分析結果出力部211は、推定結果に基づいて、最近の評価との因果が推定されるセンシングデータを示す。ここで、図26に、分析結果の表示画面の一例を示す。図26に示すように、例えば最近の評価の変化が大きかった評価項目の順に、評価値の時系列を表示し、さらに各評価項目における最近の評価の要因として、「練習量の増加」、「活動量の増加」等の因果分析結果を表示する。これにより、評価対象者は、自分の評価が変化した理由を知ることができる。
(4−3.時系列分析)
また、本実施形態による評価可視化システムでは、評価者の評価と、全評価者の評価の分析結果とを時系列分析し、評価者の評価に全体の評価が追い付いた場合、評価者に先見の明があることを評価者にフィードバックすることも可能である。
上述した評価者の信頼度の推定の一例では、多数の評価者の(例えば全ての評価者の)評価情報を分析して算出した評価値(分析結果)と、ある評価者の評価情報とを比較し、一致度の高さに応じて当該評価者の信頼度を推定しているが、この場合、マイノリティが排除される。しかし、人の能力を見出すことに長けた評価ユーザAがいた場合に、そのユーザAの評価が他の一般的な評価ユーザの評価と異なると、評価ユーザAの信頼度が低くなってしまうことがある。そこで、本応用例では、評価者による評価の時系列関係を分析し、先見の明がある評価者を抽出する。抽出結果を元に、先見の明があると判定された評価者ほど信頼度を高くし、優先的に評価値に反映するようにすることで、評価値(分析結果)の精度を高めることができる。また、見る目(先見の明)があることを評価者にフィードバックすることで、評価者は、自分がどの分野で先見の明があるかを知ることができ、ユーザ体験が高まる。
このような時系列分析を行う評価可視化システムの構成および処理フローについて、図面を用いて説明する。
(構成)
図27は、評価の時系列因果分析を行う処理部200Cの機能構成例を示すブロック図である。図27に示すように、処理部200Cは、評価部201と、評価分析部205と、分析結果出力部211と、評価時系列分析部221とを含む。なお、図5を参照して説明した機能構成と同符号の機能構成については、ここでの詳細な説明は省略する。
評価時系列分析部221は、評価情報DB203から評価者による評価情報を取得し、ある評価者の行った評価情報と、全評価者の評価情報との時系列因果分析を行う。具体的には、評価時系列分析部221は、全評価者の評価情報を分析して得た評価値の時系列と、ある評価者の行った評価情報とを比較し、全体の評価値が当該評価者の評価に近付いている場合、当該評価者は先見の明があると判断し、信頼度を高くする処理(信頼度DB207Cに保存されている当該評価者の信頼度を更新する処理)を行う。また、評価時系列分析部221は、先見の明があると判断した評価者の評価情報を優先的に反映させて(例えば重み付けを行い)全体の評価値を分析し、分析結果を分析結果DB209Cに保存する。
このように、評価時系列分析部221は、評価値の時系列因果分析を行い、信頼度の更新および全体の評価値の再分析を行うことで、より正確な評価値を出力することが可能となる。
分析結果出力部211Cは、評価時系列因果分析の結果に基づいて、高い信頼度を持つ評価者に対してフィードバックを行う表示画面を生成し、出力する。これにより、評価者は、自分がどの分野で先見の明があるかを知ることができ、ユーザ体験が高まる。「高い信頼度」とは、例えば所定値を超える信頼度である。閾値は評価項目毎、または評価項目毎の時系列因果分析結果(例えば、評価時系列の変化の大きさや経過時間等)に応じて適宜流動的に設定されてもよい。
(表示画面例)
図28は、評価時系列因果分析の結果をフィードバックする表示画面の一例を示す図である。例えば図28の表示画面45に示すように、評価者のプロフィール画面において、高い信頼度が期待できる評価項目を評価対象者に提示してもよい。高い信頼度が期待できる評価項目とは、例えばその評価者の信頼度が所定値を上回る評価項目である。また、図28の表示画面47に示すように、評価入力画面において、高い信頼度が期待できる評価項目471を上位に表示するようにしてもよい。また、高い信頼度が期待できる評価項目471に色を付ける等して強調表示してもよい。なお、図28に示す表示画面例は、評価時系列因果分析の結果をフィードバックする表示画面の一例として用いたが、本実施形態はこれに限定されず、上述したように、評価分析部205により推定された信頼度が所定値を上回る場合に、評価者にフィードバックする際に用いてもよい。
(4−4.信頼度自動推定)
また、本実施形態による評価可視化システムでは、信頼度とセンシングデータから推定機を学習することで、信頼度を自動推定することを実現する。これにより、例えば一度も他者を評価したことがないユーザについても信頼度を推定することができる。
図29は、信頼度自動推定を行う処理部200Dの機能構成例を示すブロック図である。図29に示すように、処理部200Dは、評価部201と、評価分析部205と、分析結果出力部211と、信頼度自動推定学習部224と、信頼度自動推定部228とを含む。以下、それぞれの機能構成についてさらに説明する。なお、図5を参照して説明した機能構成と同符号の機能構成については、ここでの詳細な説明は省略する。
信頼度自動推定機学習部224は、信頼度DB207Dから評価者の信頼度Yを、センサ情報DB208から評価者のセンシングデータXを取得し、センシングデータXから信頼度Yを推定する機械学習を行い、信頼度自動推定機Y=F(X)を生成する。信頼度自動推定学習部224は、生成した信頼度自動推定機を信頼度自動推定機DB226に保存する。
信頼度自動推定部228は、センサ情報DB208から評価者に関するセンシングデータXを、信頼度自動推定機DB226から信頼度自動推定機を取得し、評価者の信頼度の自動推定を行う。具体的には、信頼度自動推定部228は、Y=F(X)を評価し、評価者の信頼度Yを求める。そして、信頼度自動推定部228は、求めた信頼度Yを信頼度DB207Dに保存する。なお、信頼度自動推定機DB226には、予め設計された自動推定機が保存されていてもよい。
(5.システム構成)
以上、本開示の一実施形態について説明した。上述したように、本実施形態に係るシステム10は、入力部100と、処理部200と、出力部300とを含み、これらの構成要素は、1または複数の情報処理装置によって実現される。以下では、システム10を実現する情報処理装置の組み合わせの例について、より具体的な例とともに説明する。
(第1の例)
図30は、本開示の実施形態に係るシステム構成の第1の例を示すブロック図である。図30を参照すると、システム10は、情報処理装置11を含む。入力部100、処理部200、および出力部300は、いずれも情報処理装置11において実現される。情報処理装置11は、以下で説明するように端末装置またはサーバでありうる。この第1の例において、情報処理装置11は、本開示の実施形態に係る機能の実現のためにネットワークを介して外部装置と通信しない、スタンドアロンの装置であってもよい。なお、情報処理装置11は、他の機能のために外部装置と通信してもよく、従って必ずしもスタンドアロンの装置でなくてもよい。入力部100と処理部200との間のインターフェース150a、および処理部200と出力部300との間のインターフェース350aは、いずれも装置内のインターフェースでありうる。
第1の例において、情報処理装置11は、例えば端末装置でありうる。この場合、入力部100は、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含みうる。外部サービスから情報を取得するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアからデータを取得する。処理部200は、端末装置が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部300は、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含みうる。外部サービスに情報を提供するソフトウェアは、例えば、端末装置で実行されているサービスのアプリケーションソフトウェアに情報を提供しうる。
あるいは、第1の例において、情報処理装置11は、サーバであってもよい。この場合、入力部100は、外部サービスから情報を取得するソフトウェアを含みうる。外部サービスから情報を取得するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置11自身であってもよい)からデータを取得する。処理部200は、端末装置が備えるプロセッサがメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。出力部300は、外部サービスに情報を提供するソフトウェアなどを含みうる。外部サービスに情報を提供するソフトウェアは、例えば、外部サービスのサーバ(情報処理装置11自身であってもよい)に情報を提供する。
(第2の例)
図31は、本開示の実施形態に係るシステム構成の第2の例を示すブロック図である。図31を参照すると、システム10は、情報処理装置11,13を含む。入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置13において実現される。情報処理装置11と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介して通信する。入力部100と処理部200との間のインターフェース150bおよび処理部200と出力部300との間のインターフェース350bは、いずれも装置間の通信インターフェースでありうる。
第2の例において、情報処理装置11は、例えば端末装置でありうる。この場合、入力部100は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含みうる。出力部300も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含みうる。あるいは、情報処理装置11は、外部サービスとの間で情報をやりとりするためのサーバであってもよい。この場合、入力部100は、外部サービスから情報を取得するソフトウェアを含みうる。また、出力部300は、外部サービスに情報を提供するソフトウェアを含みうる。
また、第2の例において、情報処理装置13は、サーバまたは端末装置でありうる。処理部200は、情報処理装置13が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。情報処理装置13は、例えばサーバとして専用される装置であってもよい。この場合、情報処理装置13は、データセンタなどに設置されてもよいし、家庭内に設置されてもよい。あるいは、情報処理装置13は、他の機能については端末装置として利用可能であるが、本開示の実施形態に係る機能に関しては入力部100および出力部300を実現しない装置であってもよい。以下の例において、情報処理装置13は、上記のような意味において、サーバであってもよいし、端末装置であってもよい。
一例として、情報処理装置11がウェアラブルデバイスであり、情報処理装置13がウェアラブルデバイスにBluetooth(登録商標)などで接続されたモバイルデバイスであるような場合を考える。ウェアラブルデバイスがユーザによる操作入力を受け付け(入力部100)、当該操作入力に基づいて送信されたリクエストに基づいてモバイルデバイスが処理を実行し(処理部200)、処理の結果をウェアラブルデバイスから出力する(出力部300)ような場合、ウェアラブルデバイスは上記の第2の例における情報処理装置11として、モバイルデバイスは情報処理装置13として、それぞれ機能しているといえる。
(第3の例)
図32は、本開示の実施形態に係るシステム構成の第3の例を示すブロック図である。図32を参照すると、システム10は、情報処理装置11a,11b,13を含む。入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。また、処理部200は、情報処理装置13において実現される。情報処理装置11a,11bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。入力部100と処理部200との間のインターフェース150bおよび処理部200と出力部300との間のインターフェース350bは、いずれも装置間の通信インターフェースでありうる。ただし、第3の例では、情報処理装置11aと情報処理装置11bとが別個の装置であるために、インターフェース150b,350bは、それぞれ異なる種類のインターフェースを含みうる。
第3の例において、情報処理装置11a,11bは、例えば端末装置でありうる。この場合、入力部100は、上記の第1の例と同様に、入力装置、センサ、外部サービスから情報を取得するソフトウェアなどを含みうる。出力部300も、上記の第1の例と同様に、出力装置、制御装置、外部サービスに情報を提供するソフトウェアなどを含みうる。あるいは、情報処理装置11a,11bのうちの一方または両方は、外部サービスからの情報の取得、および外部サービスへの情報の提供のためのサーバであってもよい。この場合、入力部100は、外部サービスから情報を取得するソフトウェアを含みうる。また、出力部300は、外部サービスに情報を提供するソフトウェアを含みうる。
また、第3の例において、情報処理装置13は、上記の第2の例と同様に、サーバまたは端末装置でありうる。処理部200は、情報処理装置13が備えるプロセッサまたは処理回路がメモリまたはストレージ装置に格納されたプログラムに従って動作することによって実現される。
上記の第2の例では、入力部100を実現する情報処理装置11aと、出力部300を実現する情報処理装置11bとが別個の装置である。従って、例えば、第1のユーザが所持または使用する端末装置である情報処理装置11aによって取得された入力に基づく処理の結果を、第1のユーザとは異なる第2のユーザが所持または使用する端末装置である情報処理装置11bから出力するといったような機能が実現できる。また、第1のユーザが所持または使用する端末装置である情報処理装置11aによって取得された入力に基づく処理の結果を、その時点では第1のユーザの手元にない(例えば留守中の自宅に設置されている)端末装置である情報処理装置11bから出力するといったような機能も実現できる。あるいは、情報処理装置11aと情報処理装置11bは、いずれも同じユーザによって所持または使用される端末装置であってもよい。例えば、情報処理装置11a,11bが、ユーザの異なる部位に装着されるウェアラブルデバイスである場合や、ウェアラブルデバイスとモバイルデバイスとの組み合わせであるような場合、これらのデバイスを連携させた機能をユーザに提供することができる。
(第4の例)
図33は、本開示の実施形態に係るシステム構成の第4の例を示すブロック図である。図33を参照すると、システム10は、情報処理装置11,13を含む。第4の例において、入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置11および情報処理装置13に分散して実現される。情報処理装置11と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介して通信する。
上記のように、この第4の例では、処理部200が、情報処理装置11と情報処理装置13との間で分散して実現される。より具体的には、処理部200は、情報処理装置11で実現される処理部200a,200cと、情報処理装置13で実現される処理部200bとを含む。処理部200aは、入力部100からインターフェース150aを介して提供される情報に基づいて処理を実行し、処理の結果を処理部200bに提供する。この意味において、処理部200aは、前処理を実行するともいえる。一方、処理部200cは、処理部200bから提供される情報に基づいて処理を実行し、処理の結果をインターフェース350aを介して出力部300に提供する。この意味において、処理部200cは、後処理を実行するともいえる。
なお、図示された例では、前処理を実行する処理部200aと後処理を実行する処理部200cとが両方示されているが、実際にはこのうちのいずれか一方だけが存在してもよい。つまり、情報処理装置11は、前処理を実行する処理部200aを実現するが、後処理を実行する処理部200cを実現せず、処理部200bから提供される情報は、そのまま出力部300に提供されてもよい。同様に、情報処理装置11は、後処理を実行する処理部200cを実現するが、前処理を実行する処理部200aを実現しなくてもよい。
処理部200aと処理部200bとの間、および処理部200bと処理部200cとの間には、それぞれインターフェース250bが介在する。インターフェース250bは、装置間の通信インターフェースである。一方、情報処理装置11が処理部200aを実現する場合、インターフェース150aは、装置内のインターフェースである。同様に、情報処理装置11が処理部200cを実現する場合、インターフェース350aは、装置内のインターフェースである。
なお、上述した第4の例は、処理部200aまたは処理部200cのうちの一方または両方が情報処理装置11が備えるプロセッサまたは処理回路によって実現される点を除いては、上記の第2の例と同様である。つまり、情報処理装置11は、端末装置、または外部サービスとの間で情報をやり取りするためのサーバでありうる。また、情報処理装置13は、サーバまたは端末装置でありうる。
(第5の例)
図34は、本開示の実施形態に係るシステム構成の第5の例を示すブロック図である。図34を参照すると、システム10は、情報処理装置11a,11b,13を含む。入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。また、処理部200は、情報処理装置11a,11bおよび情報処理装置13に分散して実現される。情報処理装置11a,11bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
図示されているように、この第5の例では、処理部200が、情報処理装置11a,11bと情報処理装置13との間で分散して実現される。より具体的には、処理部200は、情報処理装置11aで実現される処理部200aと、情報処理装置13で実現される処理部200bと、情報処理装置11bで実現される処理部200cとを含む。このような処理部200の分散については、上記の第4の例と同様である。ただし、この第5の例では、情報処理装置11aと情報処理装置11bとが別個の装置であるために、インターフェース250b1,250b2は、それぞれ異なる種類のインターフェースを含みうる。
なお、第5の例は、処理部200aまたは処理部200cのうちの一方または両方が情報処理装置11aまたは情報処理装置11bが備えるプロセッサまたは処理回路によって実現される点を除いては、上記の第3の例と同様である。つまり、情報処理装置11a,11bは、端末装置、または外部サービスとの間で情報をやり取りするためのサーバでありうる。また、情報処理装置13は、サーバまたは端末装置でありうる。また、以降の例では、入力部と出力部を有する端末またはサーバにおける処理部は省略して記載するが、いずれの例においても、いずれかまたは全ての装置が処理部を有していてもよい。
(クライアント−サーバシステムの例)
図35は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、クライアント−サーバシステムを示す図である。図示された例では、情報処理装置11(または情報処理装置11a,11b)が端末装置であり、情報処理装置13がサーバである。
図示されているように、端末装置には、例えば、スマートフォン、タブレット、もしくはノートPC(Personal Computer)のようなモバイルデバイス11−1、アイウェアまたはコンタクトレンズ型端末、腕時計型端末、腕輪型端末、指輪型端末、ヘッドセット、衣服取付型または衣服一体型端末、靴取付型または靴一体型端末、もしくはネックレス型端末のようなウェアラブルデバイス11−2、カーナビゲーションシステムやリアシートエンターテインメントシステムのような車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、レコーダ、ゲーム機、エアコンディショナー、冷蔵庫、洗濯機、もしくはデスクトップPCのようなCE(Consumer Electronics)デバイス11−6、ロボット装置、設備に付帯して設置されるセンサなどを含むデバイス、または街頭に設置されるデジタルサインボード(デジタルサイネージ)11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置13(サーバ)と通信する。端末装置とサーバとの間のネットワークは、上記の例におけるインターフェース150b、インターフェース250b、またはインターフェース350bにあたる。さらに、これらの装置は、装置相互間で個別に連係動作してもよいし、すべての装置が連係動作可能なシステムが構築されていてもよい。
なお、図35に示した例は、システム10がクライアント−サーバシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなクライアント−サーバシステムに限定されないのは、上記のそれぞれの例で説明された通りである。つまり、例えば、情報処理装置11,13の両方が端末装置であってもよいし、情報処理装置11,13の両方がサーバであってもよい。情報処理装置11が情報処理装置11a,11bを含む場合、情報処理装置11a,11bのうちの一方が端末装置であり、他方がサーバであってもよい。また、情報処理装置11が端末装置である場合も、端末装置の例は、上記の端末装置11−1〜11−7には限られず、他の種類の端末装置が含まれてもよい。
(分散型システムの例)
システム10の他の構成例について、図36を参照して説明する。図36は、本開示の実施形態に係るシステム構成の他の具体的な例の一つとして、分散型システムを示す図である。図示された例では、情報処理装置11(または、情報処理装置11a、11b)がノードであって、これらの情報処理装置11は、ネットワークを介して互いに接続している。
図36に示す分散型システムでは、装置相互間で個別に連携動作したり、データを分散管理したり、処理を分散したりすることが可能である。これにより、処理負担の軽減、リアルタイム性の向上(応答時間や処理速度の向上)、セキュリティの担保を実現することが可能となる。
また、分散型システムは、分散協調的に機械学習を行うことも可能であって、大量のデータを処理することができる。
また、図36に示す分散型システムでは、集中型システムにおけるサーバを必要とせず、互いにデータの監視を行ってその信憑性を確保することも可能である。具体的には、例えば、取引情報(台帳)を参加者全員(各情報処理装置11)で共有して正当性を厳密に維持することができる(所謂ブロックチェーン)。ブロックチェーンにおいては、参加者全員の台帳を全て改ざんすることは実質的に不可能なため、より確実に信憑性を確保可能となる。また、ブロックチェーンにおいて、過去のブロックに含まれるデータを改ざんする場合、そのブロック以降のブロックに含まれるハッシュ値を全て再計算する必要があるため、処理負荷が高く実質的に不可能であるため、より確実に信憑性を確保可能となる。
また、ブロックチェーンでは、参加者全員が取引情報を共有し(分散データベース)、かかる分散データベースへの書き込みを特定の合意形成により行うため、特定の参加者による不正を防ぎ、公平性が保たれる。
(第6の例)
図37は、本開示の実施形態に係るシステム構成の第6の例を示すブロック図である。図37を参照すると、システム10は、情報処理装置11,12,13を含む。入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置12および情報処理装置13に分散して実現される。情報処理装置11と情報処理装置12、および情報処理装置12と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
上記のように、この第6の例では、処理部200が、情報処理装置12と情報処理装置13との間で分散して実現される。より具体的には、情報処理装置12で実現される処理部200a,200cと、情報処理装置13で実現される処理部200bとを含む。処理部200aは、入力部100からインターフェース150bを介して提供される情報に基づいて処理を実行し、処理の結果をインターフェース250bを介して処理部200bに提供する。一方、処理部200cは、処理部200bからインターフェース250bを介して提供される情報に基づいて処理を実行し、処理の結果をインターフェース350bを介して出力部300に提供する。なお、図示された例では、前処理を実行する処理部200aと後処理を実行する処理部200cとが両方示されているが、実際にはこのうちのいずれか一方だけが存在してもよい。
第6の例において、情報処理装置12は、情報処理装置11と情報処理装置13との間に介在する。より具体的には、例えば、情報処理装置12は、端末装置である情報処理装置11と、サーバである情報処理装置13との間に介在する端末装置またはサーバでありうる。情報処理装置12が端末装置である例としては、情報処理装置11がウェアラブルデバイスであり、情報処理装置12がウェアラブルデバイスとBluetooth(登録商標)などで接続されたモバイルデバイスであり、情報処理装置13がモバイルデバイスとインターネットで接続されたサーバであるような場合がある。また、情報処理装置12がサーバである例としては、情報処理装置11が各種の端末装置であり、情報処理装置12が端末装置とネットワークで接続された中間サーバであり、情報処理装置13が中間サーバとネットワークで接続されたサーバであるような場合がある。
(第7の例)
図38は、本開示の実施形態に係るシステム構成の第7の例を示すブロック図である。図38を参照すると、システム10は、情報処理装置11a,11b,12,13を含む。図示された例において、入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。一方、処理部200は、情報処理装置12および情報処理装置13に分散して実現される。情報処理装置11a,11bと情報処理装置12、および情報処理装置12と情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第7の例は、上記の第3の例と第6の例とを組み合わせた例である。つまり、第7の例では、入力部100を実現する情報処理装置11aと、出力部300を実現する情報処理装置11bとが別個の装置である。より具体的には、この第7の例には、情報処理装置11a,11bが、ユーザの異なる部位に装着されるウェアラブルデバイスであり、情報処理装置12がこれらのウェアラブルデバイスとBluetooth(登録商標)などで接続されたモバイルデバイスであり、情報処理装置13がモバイルデバイスとインターネットで接続されたサーバであるような場合が含まれる。また、この第7の例には、情報処理装置11a,11bが複数の端末装置(同じユーザによって所持または使用されてもよいし、異なるユーザによって所持または使用されてもよい)であり、情報処理装置12がそれぞれの端末装置とネットワークで接続された中間サーバであり、情報処理装置13が中間サーバとネットワークで接続されたサーバであるような場合も含まれる。
(第8の例)
図39は、本開示の実施形態に係るシステム構成の第8の例を示すブロック図である。図39を参照すると、システム10は、情報処理装置11,12a,12b,13を含む。入力部100および出力部300は、情報処理装置11において実現される。一方、処理部200は、情報処理装置12a,12bおよび情報処理装置13に分散して実現される。情報処理装置11と情報処理装置12a,12b、および情報処理装置12a,12bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第8の例は、上記の第6の例において、前処理を実行する処理部200aと、後処理を実行する処理部200cとが、別個の情報処理装置12a,12bによってそれぞれ実現されるようにした例である。従って、情報処理装置11および情報処理装置13については、上記の第6の例と同様である。また、情報処理装置12a,12bは、それぞれ、サーバであってもよいし、端末装置であってもよい。例えば、情報処理装置12a,12bがいずれもサーバである場合、システム10では、処理部200が、3つのサーバ(情報処理装置12a,12b,13)に分散して実現されているともいえる。なお、処理部200を分散的に実現するサーバの数は、3つには限らず、2つであってもよいし、4つ以上であってもよい。これらの例については、例えばこの第8の例、または次に説明する第9の例から理解することが可能であるため、図示は省略する。
(第9の例)
図40は、本開示の実施形態に係るシステム構成の第9の例を示すブロック図である。図40を参照すると、システム10は、情報処理装置11a,11b,12a,12b,13を含む。この第9の例において、入力部100は、情報処理装置11aにおいて実現される。出力部300は、情報処理装置11bにおいて実現される。一方、処理部200は、情報処理装置12a,12bおよび情報処理装置13に分散して実現される。情報処理装置11aと情報処理装置12a、情報処理装置11bと情報処理装置12b、および情報処理装置12a,12bと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第9の例は、上記の第7の例と第8の例とを組み合わせた例である。つまり、第9の例では、入力部100を実現する情報処理装置11aと、出力部300を実現する情報処理装置11bとが別個の装置である。情報処理装置11a,11bは、それぞれ別個の中間ノード(情報処理装置12a,12b)と通信する。従って、この第9の例では、上記の第8の例と同様に処理部200が3つのサーバ(情報処理装置12a,12b,13)に分散して実現されるとともに、同じユーザによって所持または使用される、または異なるユーザによって所持または使用される端末装置でありうる情報処理装置11a,11bを利用して、本開示の実施形態に係る機能を実現することができる。
(中間サーバを含むシステムの例)
図41は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、中間サーバを含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a,11b)が端末装置であり、情報処理装置12が中間サーバであり、情報処理装置13がサーバである。
上記で図35を参照して説明した例と同様に、端末装置には、モバイルデバイス11−1、ウェアラブルデバイス11−2、車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、CEデバイス11−6、ロボットデバイス、またはサインボード11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置12(中間サーバ)と通信する。端末装置と中間サーバとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。また、情報処理装置12(中間サーバ)は、ネットワークを介して情報処理装置13(サーバ)と通信する。中間サーバとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
なお、図41に示した例は、システム10が中間サーバを含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
(ホストとして機能する端末装置を含むシステムの例)
図42は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、ホストとして機能する端末装置を含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a,11b)が端末装置であり、情報処理装置12がホストとして機能する端末装置であり、情報処理装置13がサーバである。
図示された例において、端末装置には、例えば、ウェアラブルデバイス11−2、車載デバイス11−3、デジタルカメラ11−5、ロボットデバイス、設備に付帯して設置されるセンサなどを含むデバイス、およびCEデバイス11−6が含まれうる。これらの情報処理装置11(端末装置)は、例えばBluetooth(登録商標)やWi−Fiのようなネットワークを介して情報処理装置12と通信する。図では、ホストとして機能する端末装置として、モバイルデバイス12−1を例示している。端末装置とモバイルデバイスとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。情報処理装置12(モバイルデバイス)は、例えばインターネットなどのネットワークを介して情報処理装置13(サーバ)と通信する。モバイルデバイスとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
なお、図42に示した例は、システム10がホストとして機能する端末装置を含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。また、ホストとして機能する端末装置は、図示された例におけるモバイルデバイス12−1には限られず、適切な通信機能および処理機能を有する各種の端末装置が、ホストとして機能しうる。また、端末装置の例として図示したウェアラブルデバイス11−2、車載デバイス11−3、デジタルカメラ11−5、およびCEデバイス11−6は、これらの装置以外の端末装置をこの例から除外するものではなく、情報処理装置12がモバイルデバイス12−1である場合の情報処理装置11としてありうる典型的な端末装置の例を示しているにすぎない。
(エッジサーバを含むシステムの例)
図43は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、エッジサーバを含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a、11b)が端末装置であり、情報処理装置12がエッジサーバであり、情報処理装置13がサーバである。
上記で図35を参照して説明した例と同様に、端末装置には、モバイルデバイス11−1、ウェアラブルデバイス11−2、車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、CEデバイス11−6、ロボットデバイス、またはサインボード11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置12(エッジサーバ12−2)と通信する。端末装置とエッジサーバとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。情報処理装置12(エッジサーバ)は、例えばインターネットなどのネットワークを介して情報処理装置13(サーバ)と通信する。エッジサーバとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
図43に示す例では、サーバ13よりも端末装置(情報処理装置11)の近くにエッジサーバ12−2(例えば、エッジサーバ12−2a〜12−2d)を分散させることで、通信遅延の短縮、処理の高速化、およびリアルタイム性の向上を実現し得る。
なお、図43に示した例は、システム10がエッジサーバを含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
(フォグコンピューティングを含むシステムの例)
図44は、本開示の実施形態に係るシステム構成のより具体的な例の一つとして、フォグコンピューティングを含むシステムの例を示す図である。図示された例では、情報処理装置11(または情報処理装置11a、11b)が端末装置であり、情報処理装置12がフォグコンピューティングであり、情報処理装置13がサーバである。
上記で図35を参照して説明した例と同様に、端末装置には、モバイルデバイス11−1、ウェアラブルデバイス11−2、車載デバイス11−3、テレビ11−4、デジタルカメラ11−5、CEデバイス11−6、ロボットデバイス、またはサインボード11−7などが含まれうる。これらの情報処理装置11(端末装置)は、ネットワークを介して情報処理装置12(フォグコンピューティング12−3)と通信する。端末装置とフォグコンピューティングとの間のネットワークは、上記の例におけるインターフェース150b,350bにあたる。情報処理装置12(フォグコンピューティング)は、例えばインターネットなどのネットワークを介して情報処理装置13(サーバ)と通信する。フォグコンピューティングとサーバとの間のネットワークは、上記の例におけるインターフェース250bにあたる。
フォグコンピューティング12−3は、クラウドとデバイスの間にある分散処理環境で、クラウド(サーバ13)よりデバイス(情報処理装置11)に近い位置に広く分散している。具体的には、フォグコンピューティング12−3は、処理のためのコンピューティングリソースを分野別や地域別に分散化して最適に配置する仕組みによりエッジコンピューティングを包含したシステム構成となる。
図44に示す例では、一例として、フォグコンピューティング12−3として、モバイル端末11−1のデータ管理および処理を行うモビリティフォグ12−3a、ウェアラブルデバイス11−2のデータ管理および処理を行うウェアラブルフォグ12−3b、車載デバイス11−3のデータ管理および処理を行う車載デバイスフォグ12−3c、テレビ11−4のデータ管理および処理を行うテレビ端末フォグ12−3d、デジタルカメラ11−5のデータ管理および処理を行うカメラ端末フォグ12−3e、CEデバイス11−6のデータ管理および処理を行うCEフォグ12−3f、サインボード11−7のデータ管理および処理を行うサインボードフォグ12−3gが想定される。各フォグ同士でのデータ流通も行われ得る。
フォグコンピューティングでは、コンピューティングリソースをデバイスに近い位置で分散し、データ管理や蓄積、変換等の各種処理を行うことができ、通信遅延の短縮、処理の高速化、およびリアルタイム性の向上を実現し得る。
なお、図44に示した例は、システム10がフォグコンピューティングを含むシステムにおいて実現される例を理解しやすくするために示されたものであり、システム10がこのようなシステムに限定されないのは、上記のそれぞれの例で説明された通りである。
(第10の例)
図45は、本開示の実施形態に係るシステム構成の第10の例を示すブロック図である。図45を参照すると、システム10は、情報処理装置11a,12a,13を含む。この第10の例において、入力部100は、情報処理装置11aにおいて実現される。また、処理部200は、情報処理装置12aおよび情報処理装置13に分散して実現される。出力部300は、情報処理装置13において実現される。情報処理装置11aと情報処理装置12a、および情報処理装置12aと情報処理装置13とは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第10の例は、上記の第9の例において、情報処理装置11b,12bが情報処理装置13に取り込まれた例である。つまり、第10の例では、入力部100を実現する情報処理装置11a、および処理部200aを実現する情報処理装置12aはそれぞれが独立した装置であるが、処理部200bと出力部300とは、同じ情報処理装置13によって実現される。
第10の例によって、例えば、端末装置である情報処理装置11aにおいて入力部100によって取得された情報が、中間的な端末装置またはサーバである情報処理装置12aでの処理部200aによる処理を経て、サーバまたは端末である情報処理装置13に提供され、処理部200bによる処理を経て出力部300から出力される、といったような構成が実現される。なお、情報処理装置12aによる中間的な処理は、省略されてもよい。このような構成は、例えば、端末装置11aから提供される情報に基づいて、サーバまたは端末13にて所定の処理を実行した上で、処理結果をサーバまたは端末13において蓄積または出力するようなサービスにおいて採用されうる。蓄積された処理結果は、例えば別のサービスによって利用されうる。
(第11の例)
図46は、本開示の実施形態に係るシステム構成の第11の例を示すブロック図である。図46を参照すると、システム10は、情報処理装置11b,12b,13を含む。この第11の例において、入力部100は、情報処理装置13において実現される。また、処理部200は、情報処理装置13および情報処理装置12bに分散して実現される。出力部300は、情報処理装置11bにおいて実現される。情報処理装置13と情報処理装置12b、および情報処理装置12bと情報処理装置11bとは、本開示の実施形態に係る機能を実現するために、ネットワークを介してそれぞれ通信する。
この第11の例は、上記の第9の例において、情報処理装置11a,12aが情報処理装置13に取り込まれた例である。つまり、第11の例では、出力部300を実現する情報処理装置11b、および処理部200cを実現する情報処理装置12bはそれぞれが独立した装置であるが、入力部100と処理部200bとは、同じ情報処理装置13によって実現される。
第11の例によって、例えば、サーバまたは端末装置である情報処理装置13において入力部100によって取得された情報が、処理部200bによる処理を経て、中間的な端末装置またはサーバである情報処理装置12bに提供され、処理部200cによる処理を経て、端末装置である情報処理装置11bにおいて出力部300から出力される、といったような構成が実現される。なお、情報処理装置12bによる中間的な処理は、省略されてもよい。このような構成は、例えば、サーバまたは端末13において取得された情報に基づいて、サーバまたは端末13にて所定の処理を実行した上で、処理結果を端末装置11bに提供するようなサービスにおいて採用されうる。取得される情報は、例えば別のサービスによって提供されうる。
(6.ハードウェア構成)
次に、図47を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図47は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカまたはヘッドフォンなどの音声出力装置、もしくはバイブレータなどでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置919は、例えばCPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi−Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
撮像装置933は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、または音センサ(マイクロフォン)などの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(7.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
また、本実施形態による情報処理システムは、主にユーザ間の評価、すなわち人から見た人の評価を対象としているが、評価対象は人に限定されず、モノ、コンテンツ、組織、場所等であってもよい。また、この場合、各分野への目利きの信頼度の高い人(上述した見る目のある人物)の評価情報がより強く評価値に反映されるようにしてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した入力部100、処理部200、または出力部300に内蔵されるCPU、ROM、およびRAM等のハードウェアに、・入力部100、処理部200、または出力部300の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、
前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部を備える、情報処理装置。
(2)
前記制御部は、前記評価情報と前記センシングデータの処理結果の一致度に応じて、前記信頼度を推定する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記信頼度を示す情報を前記評価者に通知する制御を行う、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、
前記信頼度を示す前記情報を含む画面を生成し、
生成した前記画面を前記評価者に送信する制御を行う、前記(3)に記載の情報処理装置。
(5)
前記制御部は、
前記信頼度を評価項目毎に推定し、
前記信頼度の高さに応じて評価項目を配置した評価入力画面を生成し、
生成した前記評価入力画面を前記評価者に送信する制御を行う、前記(1)または(2)に記載の情報処理装置。
(6)
前記制御部は、前記評価者のセンシングデータに基づいて前記信頼度を推定する、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記制御部は、
蓄積された複数評価者のセンシングデータおよび前記複数評価者の各信頼度に基づいて生成された機械学習済の情報を用いて、前記評価者の前記センシングデータに基づく前記信頼度の推定処理を行う、前記(6)に記載の情報処理装置。
(8)
前記制御部は、
前記評価者の前記評価情報と、蓄積された複数評価者の評価情報の分析結果の評価値とを比較し、
比較結果に基づいて前記評価者の前記信頼度を推定する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、
蓄積された複数評価者の評価情報の分析結果の評価値の時系列変化と、前記評価者の前記評価情報とを比較し、
前記評価値が、前記評価者による前記評価情報に近似した場合、前記評価者の前記信頼度が高いことを前記評価者にフィードバックする制御を行う、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記制御部は、
蓄積された複数評価者による前記評価対象者に対する前記評価情報を分析し、前記評価対象者の評価値を算出する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記制御部は、
前記複数評価者による前記評価情報に、前記複数評価者の前記信頼度に応じた重み付けを行った上で、前記評価値を算出する、前記(10)に記載の情報処理装置。
(12)
前記制御部は、
前記算出した前記評価値と、前記評価対象者の前記評価情報とを比較し、
前記評価情報の前記評価値との近さに応じて前記評価者の前記信頼度を更新し、
前記複数評価者による前記評価情報に、前記更新した前記信頼度に応じた重み付けを行った上で、再度、前記評価値を算出する、前記(11)に記載の情報処理装置。
(13)
前記制御部は、
前記評価者による前記評価対象者に対する前記評価情報と、前記評価者が他の評価者から評価された評価情報の分析結果の評価値とに基づいて、前記評価対象者の前記評価値を算出する、前記(10)に記載の情報処理装置。
(14)
前記制御部は、
前記複数評価者による前記評価情報が、複数の人物を比較した相対評価の場合、前記複数評価者による全ての相対評価に基づいて複数の前記評価対象者をソートして絶対評価に換算した上で、前記評価対象者の前記評価値を算出する、前記(10)に記載の情報処理装置。
(15)
前記制御部は、
前記複数評価者による前記評価情報に、前記複数評価者の前記信頼度に応じた重み付けを行った上で、前記評価対象者の第1の評価値を算出し、
前記評価者による前記評価対象者に対する前記評価情報と、前記評価者が他の評価者から評価された評価情報の分析結果の評価値とに基づいて、前記評価対象者の第2の評価値を算出し、
前記複数評価者による前記評価情報が、複数の人物を比較した相対評価の場合、前記複数評価者による全ての相対評価に基づいて複数の前記評価対象者をソートして絶対評価に換算した上で、前記評価対象者の第3の評価値を算出し、
前記第1の評価値、前記第2の評価値、および前記第3の評価値に基づいて、前記評価対象者の最終的な前記評価値を算出する、前記(10)〜(14)のいずれか1項に記載の情報処理装置。
(16)
前記制御部は、
前記評価者により入力された評価入力画面の入力内容、前記評価者が入力したメッセージのテキスト解析結果、または前記評価者が発話した音声の解析結果の少なくともいずれかから、前記評価情報を取得し、記憶部に蓄積する制御を行う、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記制御部は、
蓄積された複数評価対象者のセンシングデータおよび前記複数評価対象者の各評価情報の分析結果の評価値に基づいて生成された機械学習済の情報を用いて、新たに取得した前記評価対象者のセンシングデータから前記評価情報を取得し、
取得した前記評価情報を記憶部に蓄積する制御を行う、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記制御部は、
前記評価対象者の前記評価情報の分析結果の評価値と、前記評価値が時系列変化した場合は変化の要因を示す情報とを、前記評価対象者に提示する制御を行う、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサが、
評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得することと、
前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定することとを含む、情報処理方法。
(20)
コンピータを、
評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、
前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部として機能させるための、プログラム。
10 システム
11,12,13 情報処理装置
100 入力部
150,250,350 インターフェース
200、200A、200B、200C、200D 処理部
201 評価部
203 評価情報DB
205 評価分析部
207 信頼度DB
208 センサ情報DB
209 分析結果DB
211 分析結果出力部
213 自動評価学習部
215 自動評価機DB
217 自動評価部
219 因果分析部
221 評価時系列分析部
224 信頼度自動推定学習部
226 信頼度自動推定機DB
228 信頼度自動推定部
300 出力部

Claims (20)

  1. 評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、
    前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部を備える、情報処理装置。
  2. 前記制御部は、前記評価情報と前記センシングデータの処理結果の一致度に応じて、前記信頼度を推定する、請求項1に記載の情報処理装置。
  3. 前記制御部は、前記信頼度を示す情報を前記評価者に通知する制御を行う、請求項1または2に記載の情報処理装置。
  4. 前記制御部は、
    前記信頼度を示す前記情報を含む画面を生成し、
    生成した前記画面を前記評価者に送信する制御を行う、請求項3に記載の情報処理装置。
  5. 前記制御部は、
    前記信頼度を評価項目毎に推定し、
    前記信頼度の高さに応じて評価項目を配置した評価入力画面を生成し、
    生成した前記評価入力画面を前記評価者に送信する制御を行う、請求項1または2に記載の情報処理装置。
  6. 前記制御部は、前記評価者のセンシングデータに基づいて前記信頼度を推定する、請求項1に記載の情報処理装置。
  7. 前記制御部は、
    蓄積された複数評価者のセンシングデータおよび前記複数評価者の各信頼度に基づいて生成された機械学習済の情報を用いて、前記評価者の前記センシングデータに基づく前記信頼度の推定処理を行う、請求項6に記載の情報処理装置。
  8. 前記制御部は、
    前記評価者の前記評価情報と、蓄積された複数評価者の評価情報の分析結果の評価値とを比較し、
    比較結果に基づいて前記評価者の前記信頼度を推定する、請求項1に記載の情報処理装置。
  9. 前記制御部は、
    蓄積された複数評価者の評価情報の分析結果の評価値の時系列変化と、前記評価者の前記評価情報とを比較し、
    前記評価値が、前記評価者による前記評価情報に近似した場合、前記評価者の前記信頼度が高いことを前記評価者にフィードバックする制御を行う、請求項1に記載の情報処理装置。
  10. 前記制御部は、
    蓄積された複数評価者による前記評価対象者に対する前記評価情報を分析し、前記評価対象者の評価値を算出する、請求項1に記載の情報処理装置。
  11. 前記制御部は、
    前記複数評価者による前記評価情報に、前記複数評価者の前記信頼度に応じた重み付けを行った上で、前記評価値を算出する、請求項10に記載の情報処理装置。
  12. 前記制御部は、
    前記算出した前記評価値と、前記評価対象者の前記評価情報とを比較し、
    前記評価情報の前記評価値との近さに応じて前記評価者の前記信頼度を更新し、
    前記複数評価者による前記評価情報に、前記更新した前記信頼度に応じた重み付けを行った上で、再度、前記評価値を算出する、請求項11に記載の情報処理装置。
  13. 前記制御部は、
    前記評価者による前記評価対象者に対する前記評価情報と、前記評価者が他の評価者から評価された評価情報の分析結果の評価値とに基づいて、前記評価対象者の前記評価値を算出する、請求項10に記載の情報処理装置。
  14. 前記制御部は、
    前記複数評価者による前記評価情報が、複数の人物を比較した相対評価の場合、前記複数評価者による全ての相対評価に基づいて複数の前記評価対象者をソートして絶対評価に換算した上で、前記評価対象者の前記評価値を算出する、請求項10に記載の情報処理装置。
  15. 前記制御部は、
    前記複数評価者による前記評価情報に、前記複数評価者の前記信頼度に応じた重み付けを行った上で、前記評価対象者の第1の評価値を算出し、
    前記評価者による前記評価対象者に対する前記評価情報と、前記評価者が他の評価者から評価された評価情報の分析結果の評価値とに基づいて、前記評価対象者の第2の評価値を算出し、
    前記複数評価者による前記評価情報が、複数の人物を比較した相対評価の場合、前記複数評価者による全ての相対評価に基づいて複数の前記評価対象者をソートして絶対評価に換算した上で、前記評価対象者の第3の評価値を算出し、
    前記第1の評価値、前記第2の評価値、および前記第3の評価値に基づいて、前記評価対象者の最終的な前記評価値を算出する、請求項10に記載の情報処理装置。
  16. 前記制御部は、
    前記評価者により入力された評価入力画面の入力内容、前記評価者が入力したメッセージのテキスト解析結果、または前記評価者が発話した音声の解析結果の少なくともいずれかから、前記評価情報を取得し、記憶部に蓄積する制御を行う、請求項1に記載の情報処理装置。
  17. 前記制御部は、
    蓄積された複数評価対象者のセンシングデータおよび前記複数評価対象者の各評価情報の分析結果の評価値に基づいて生成された機械学習済の情報を用いて、新たに取得した前記評価対象者のセンシングデータから前記評価情報を取得し、
    取得した前記評価情報を記憶部に蓄積する制御を行う、請求項1に記載の情報処理装置。
  18. 前記制御部は、
    前記評価対象者の前記評価情報の分析結果の評価値と、前記評価値が時系列変化した場合は変化の要因を示す情報とを、前記評価対象者に提示する制御を行う、請求項1に記載の情報処理装置。
  19. プロセッサが、
    評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得することと、
    前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定することとを含む、情報処理方法。
  20. コンピータを、
    評価者の評価対象者に対する評価情報と、前記評価対象者のセンシングデータとを取得する処理と、
    前記評価者の前記評価対象者に対する前記評価情報と、前記評価対象者のセンシングデータとに基づいて、前記評価者による評価の信頼度を推定する処理とを行う制御部として機能させるための、プログラム。
JP2019558911A 2017-12-13 2018-09-18 情報処理装置、情報処理方法、およびプログラム Pending JPWO2019116658A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017238529 2017-12-13
JP2017238529 2017-12-13
PCT/JP2018/034375 WO2019116658A1 (ja) 2017-12-13 2018-09-18 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2019116658A1 true JPWO2019116658A1 (ja) 2020-12-17

Family

ID=66820117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558911A Pending JPWO2019116658A1 (ja) 2017-12-13 2018-09-18 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US20200387758A1 (ja)
EP (1) EP3726453A4 (ja)
JP (1) JPWO2019116658A1 (ja)
CN (1) CN111465949A (ja)
WO (1) WO2019116658A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064080A (ja) * 2019-10-11 2021-04-22 ソニー株式会社 情報処理装置および方法、並びにプログラム
CN110708427B (zh) * 2019-10-22 2023-07-18 北京小米移动软件有限公司 信息处理方法、装置及存储介质
JP2021071747A (ja) * 2019-10-29 2021-05-06 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP7240306B2 (ja) * 2019-12-04 2023-03-15 Tis株式会社 プロジェクト評価システム、プロジェクト評価方法、およびプログラム
US11656966B2 (en) * 2020-04-06 2023-05-23 Computime Ltd. Local computing cloud that is interactive with a public computing cloud

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288305A (ja) * 2002-03-28 2003-10-10 Just Syst Corp ガイド情報提供装置、ガイド情報提供方法およびその方法をコンピュータに実行させるプログラム
JP2004227354A (ja) * 2003-01-23 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> 情報推薦装置、情報推薦方法、プログラム及び記録媒体
JP2006350870A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 評判情報作成方法、評判情報管理装置、受信装置、通信システム、評判情報管理プログラム
JP2008033468A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd 信用力評価方法、評価能力算出方法、これらの実行装置、これらを実行するためのプログラム
JP2014026462A (ja) * 2012-07-26 2014-02-06 Kddi Corp ソーシャルメディアにおけるユーザ信頼度推定装置、方法、プログラムおよび記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2359276A4 (en) 2008-12-01 2013-01-23 Topsy Labs Inc ORDERING AND SELECTION OF UNITS PER CALCULATED REPUTATION OR INFLUENCES
JP5556262B2 (ja) * 2010-03-15 2014-07-23 オムロン株式会社 画像属性判別装置、属性判別支援装置、画像属性判別方法、属性判別支援装置の制御方法、および、制御プログラム
JP2016006611A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR102354943B1 (ko) * 2015-05-20 2022-01-25 삼성전자주식회사 전자 장치가 외부 기기를 제어하는 방법 및 상기 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288305A (ja) * 2002-03-28 2003-10-10 Just Syst Corp ガイド情報提供装置、ガイド情報提供方法およびその方法をコンピュータに実行させるプログラム
JP2004227354A (ja) * 2003-01-23 2004-08-12 Nippon Telegr & Teleph Corp <Ntt> 情報推薦装置、情報推薦方法、プログラム及び記録媒体
JP2006350870A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 評判情報作成方法、評判情報管理装置、受信装置、通信システム、評判情報管理プログラム
JP2008033468A (ja) * 2006-07-27 2008-02-14 Hitachi Ltd 信用力評価方法、評価能力算出方法、これらの実行装置、これらを実行するためのプログラム
JP2014026462A (ja) * 2012-07-26 2014-02-06 Kddi Corp ソーシャルメディアにおけるユーザ信頼度推定装置、方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
US20200387758A1 (en) 2020-12-10
WO2019116658A1 (ja) 2019-06-20
EP3726453A4 (en) 2020-12-09
EP3726453A1 (en) 2020-10-21
CN111465949A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
US10595072B2 (en) Systems and methods for recognizing faces using non-facial information
WO2019116679A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2019116658A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018171223A1 (zh) 一种看护机器人的数据处理方法及装置
TWI779113B (zh) 音頻活動追蹤及概括的裝置、方法、設備以及電腦可讀儲存媒體
US20150058319A1 (en) Action support apparatus, action support method, program, and storage medium
US10210429B2 (en) Image based prediction of user demographics
Chung et al. Real‐world multimodal lifelog dataset for human behavior study
WO2019086856A1 (en) Systems and methods for combining and analysing human states
WO2015190141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2022130011A1 (en) Wearable apparatus and methods
WO2018171196A1 (zh) 一种控制方法、终端及系统
US10643148B2 (en) Ranking of news feed in a mobile device based on local signals
WO2023018562A1 (en) Evolution of topics in a messaging system
JP7398854B1 (ja) ウェブページ閲覧解析システム、ウェブページ閲覧解析方法およびウェブページ閲覧解析プログラム
JP7398853B1 (ja) 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム
US20230099519A1 (en) Systems and methods for managing stress experienced by users during events
US20210124980A1 (en) Augmented group experience event correlation
KR20230163209A (ko) 채팅방 기반 개인학습 관리 시스템 및 방법
KR20230127037A (ko) 사용자 상태 적응적 아바타 구현 방법, 컴퓨터 프로그램 및 컴퓨팅 장치
CN110598087A (zh) 一种基于环境信息和用户偏好的搜索方法和系统
Groß et al. Dennis Groß

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404