以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100は、ユーザの自宅に配置された第1端末装置であるスマートスピーカ(「宅用スマートスピーカ」ともいう)により検知されたセンサ情報に基づいて、ユーザが乗る移動体に配置された第2端末装置であるスマートスピーカ(「車載スマートスピーカ」ともいう)により提供する情報(「提供情報」ともいう)を決定する場合を示す。すなわち、図1の例では、情報処理装置100は、ユーザの自宅で検知されたセンサ情報に基づいて、ユーザが乗る移動体において提供する提供情報を決定する。なお、情報処理装置100は、車載スマートスピーカにより検知されたセンサ情報に基づいて、宅用スマートスピーカにより提供する提供情報を決定してもよいが、この点については後述する。また、第1端末装置及び第2端末装置について、特に区別なく説明する場合には、単に「端末装置」と記載する。
〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、スマートスピーカ10と、情報処理装置100とが含まれる。スマートスピーカ10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台のスマートスピーカ10や、複数台の情報処理装置100が含まれてもよい。
スマートスピーカ10は、音声入力手段であるマイク(音センサ)や音声出力手段であるスピーカ(音声出力部)を有し、ユーザによって利用される端末装置(情報処理装置)である。スマートスピーカ10は、例えば、スマートスピーカやAIスピーカと称されるデバイスであってもよい。また、スマートスピーカ10は、対話型の音声操作に対応し音声アシスト機能を有してもよい。
図1は、スマートスピーカTM1−1とスマートスピーカTM1−2の2つのスマートスピーカ10を示す。例えば、スマートスピーカTM1−1は、図1に示すユーザU1の自宅HM1に配置される第1端末装置であるスマートスピーカ10に対応する。また、スマートスピーカTM1−2は、図1に示すユーザU1の移動体C1に配置(搭載)される第2端末装置であるスマートスピーカ10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。
また、端末ID「TM1−1」により識別されるスマートスピーカ10は、ユーザU1により利用される宅用のスマートスピーカ10であり、上記のようにスマートスピーカTM1−1と記載する場合がある。また、例えば、端末ID「TM1−2」により識別されるスマートスピーカ10は、ユーザU2により利用される車載のスマートスピーカ10であり、スマートスピーカTM1−2と記載する場合がある。このように、各スマートスピーカ10を区別して説明する場合、「スマートスピーカ」の末尾に端末ID(TM1−1等)を付加した記載とする。各スマートスピーカ10について、特に区別なく説明する場合には、単に「スマートスピーカ10」と記載する。
また、スマートスピーカ10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。スマートスピーカ10は、種々のセンサを含むセンサ部を備える。また、スマートスピーカ10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、ユーザの位置を検知し、取得可能であるものとする。また、スマートスピーカ10は、通信を行っている基地局の位置情報や、Wi−Fi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
また、スマートスピーカ10は、マイク等の音を検知する音センサを有する。例えば、スマートスピーカ10は、音センサにより、スマートスピーカ10の周囲におけるユーザの発話を検知する。例えば、スマートスピーカ10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、スマートスピーカ10は、ユーザの発話に対して、処理を行う端末装置である。例えば、スマートスピーカ10は、ユーザの発話に限らず、スマートスピーカ10の周囲の環境音等を収集する。なお、スマートスピーカ10は、上記に限らず、種々のセンサを有してもよい。例えば、スマートスピーカ10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得のためのセンサ等の種々のセンサを有してもよい。そして、スマートスピーカ10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。
また、スマートスピーカ10は、音声認識の機能を有してもよい。また、スマートスピーカ10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、スマートスピーカ10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。
また、スマートスピーカ10は、画像センサ等を有してもよい。例えば、スマートスピーカ10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のスマートスピーカ10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、スマートスピーカ10は、情報処理装置100に種々の情報等を送信する。例えば、スマートスピーカ10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。なお、図1の例では、端末装置がスマートスピーカ10である場合を示すが、スマートスピーカ10が一例に過ぎず、端末装置は、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、後述する処理において要求される機能を実現可能であれば、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、スマートフォンや、タブレット型端末や、ノート型等のPC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等であってもよい。例えば、第1端末装置がスマートフォンやタブレット型端末等のデバイスであり、第2端末装置がスマートスピーカ10であってもよい。例えば、ユーザの自宅内に位置する第1端末装置がスマートフォンやタブレット型端末等のデバイスであり、移動体内に位置する第2端末装置がスマートスピーカ10であってもよい。また、例えば、第1端末装置がスマートスピーカ10であり、第2端末装置がスマートフォンやタブレット型端末等のデバイスであってもよい。例えば、ユーザの自宅内に位置する第1端末装置がスマートスピーカ10であり、移動体内に位置する第2端末装置がスマートフォンやタブレット型端末等のデバイスであってもよい。また、例えば、ユーザの自宅内に位置する第1端末装置がスマートフォンやタブレット型端末等のデバイスであり、移動体内に位置する第2端末装置が、スマートフォンやタブレット型端末等のデバイスであってもよい。
情報処理装置100は、ユーザの住宅に配置された第1端末装置、及びユーザの移動体に配置された第2端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報に基づいて、他方の端末装置により提供する提供情報を決定する情報処理装置(コンピュータ)である。すなわち、情報処理装置100は、スマートスピーカ等の端末装置により提供する提供情報を決定する決定装置である。例えば、情報処理装置100は、スマートスピーカTM1−1により検知されたセンサ情報に基づいて、スマートスピーカTM1−2により提供する提供情報を決定する。また、情報処理装置100は、スマートスピーカTM1−2により検知されたセンサ情報に基づいて、スマートスピーカTM1−1により提供する提供情報を決定する。
また、情報処理装置100は、決定した提供情報を提供する情報処理装置(コンピュータ)である。すなわち、情報処理装置100は、決定した提供情報を提供する提供装置である。例えば、情報処理装置100は、スマートスピーカTM1−1により検知されたセンサ情報に基づいて決定した提供情報を、スマートスピーカTM1−2に提供する。また、情報処理装置100は、スマートスピーカTM1−2により検知されたセンサ情報に基づいて決定した提供情報を、スマートスピーカTM1−1に提供する。
また、情報処理装置100は、音声認識に関する種々の技術を適宜用いて、取得した発話等の音声情報を文字情報に変換してもよい。また、情報処理装置100は、発話等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、コンテキストを推定してもよい。なお、ここでいうコンテキストは、例えば、スマートスピーカ10を利用するユーザの状況を示す情報である。例えば、コンテキストは、スマートスピーカ10の周囲に位置するユーザの状況やスマートスピーカ10の周囲の環境(背景)に基づいて推定されるスマートスピーカ10の周囲の状況であってもよい。
例えば、情報処理装置100は、一方の端末装置により検知されたセンサ情報により推定される一方の端末装置の周囲に位置するユーザ(以下「対象ユーザ」ともいう)の感情を示す感情情報に基づいて、他方の端末装置により提供する提供情報を決定する。例えば、情報処理装置100は、検知されたセンサ情報により対象ユーザの感情を推定する。情報処理装置100は、種々の従来技術を適宜用いて、ユーザの感情を推定する。例えば、情報処理装置100は、ユーザの発話を変換した文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザの感情を推定してもよい。例えば、情報処理装置100は、種々の感情ごとにキーワードの一覧を記憶部120(図3参照)に記憶し、ユーザの発話を変換した文字情報に含まれるキーワードが最も該当する一覧の感情をユーザの感情として推定してもよい。また、例えば、情報処理装置100は、ユーザが検索に用いたクエリ等のユーザが入力した種々の入力情報を用いてユーザの感情を推定してもよい。また、例えば、情報処理装置100は、ユーザの心拍や血圧以外の生体情報やユーザの顔を撮像した画像情報等を用いてユーザの感情を推定してもよい。なお、上記は一例であり、情報処理装置100は、ユーザの感情を推定可能であれば、どのような手法により推定してもよい。例えば、情報処理装置100は、ユーザの発話のトーン(音の調子)などにより、ユーザの感情を推定してもよい。例えば、情報処理装置100は、ユーザの発話のトーン(音の調子)が荒い場合、ユーザの感情を怒りの感情であると推定してもよい。例えば、情報処理装置100は、ユーザの発話のトーン(音の調子)が弱い場合、ユーザの感情を悲しみの感情であると推定してもよい。
また、情報処理装置100は、ユーザの発話の内容に基づいて会話のトピック(話題)に関する情報を推定してもよい。例えば、情報処理装置100は、ユーザの発話等に基づいてトピックに関する情報を推定してもよい。例えば、情報処理装置100は、トピック分析(解析)等の種々の従来手法を適宜用いて、ユーザの発話等からトピックを抽出してもよい。例えば、情報処理装置100は、ユーザの発話等を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザの発話等の文字情報から重要なキーワードをユーザの発話等のトピックとして抽出してもよい。例えば、情報処理装置100は、推定したトピックに基づいて、ユーザの感情を推定してもよい。例えば、情報処理装置100は、推定したトピックと、種々の感情ごとにキーワードの一覧とを比較することにより、ユーザの感情を推定してもよい。
また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する情報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から取得した情報を加味して、スマートスピーカ10により提供する提供情報を決定してもよい。
ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、提供する情報を決定する決定処理の一例を示す図である。
図1の例では、マップ情報MP1に示す自宅HM11(位置LC11)における発話を基に、ユーザU1が乗車した自動車である移動体C1で情報提供される場合を示す。図1では、スマートスピーカTM1−1が自宅HM11に配置され、スマートスピーカTM1−2が移動体C1に配置されている場合を示す。スマートスピーカTM1−1やスマートスピーカTM1−2は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。例えば、スマートスピーカTM1−1やスマートスピーカTM1−2は、音センサによりユーザU1やユーザU2の発話等の種々の音を検知し、情報処理装置100へ送信する。また、スマートスピーカTM1−1やスマートスピーカTM1−2は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC11等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC11」と記載した場合、その位置は位置情報LC11に対応する位置であることを示す。
図1では、自宅HM11において、ユーザU1やユーザU2が発話を行う。例えば、ユーザU1が、スマートスピーカTM1−1の周囲において、「XXXXXX」という発話PA1を行う。なお、図1では、発話PA1を「XXXXXX」という文字列で図示するが、発話PA1は、「いらいらする」や「腹立つ」などユーザU1に対する怒りの感情を推定させる内容を含む発話であるものとする。そして、情報処理装置100は、音センサにより「XXXXXX」という発話PA1(音声情報)を検知する。これにより、スマートスピーカTM1−1は、「XXXXXX」という発話PA1を入力として検知する(ステップS11)。そして、スマートスピーカTM1−1は、検知した発話PA1のセンサ情報(音声情報)を情報処理装置100に送信する。これにより、情報処理装置100は、スマートスピーカTM1−1が検知した発話PA1のセンサ情報(音声情報)を取得する。例えば、スマートスピーカTM1−1は、発話PA1が自宅HM11の位置LC11で行われたことを示す位置情報や発話PA1が日時dt1−1に行われたことを示す日時情報を発話PA1のセンサ情報に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−1は、スマートスピーカTM1−1の位置情報や発話PA1が行われた日時の情報を発話PA1のセンサ情報とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1−1は、発話PA1を検知したスマートスピーカ10がスマートスピーカTM1−1であることを特定可能にする端末情報(端末ID等)を発話PA1のセンサ情報に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−1は、スマートスピーカTM1−1の端末ID等を発話PA1のセンサ情報とともに情報処理装置100に送信する。これにより、情報処理装置100は、発話PA1のセンサ情報や位置情報や日時情報や端末情報等を発話PA1に関する行動情報として取得する(ステップS12)。
なお、スマートスピーカTM1−1は、発話PA1の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA1の文字情報を取得し、取得した文字情報を情報処理装置100へ送信してもよい。この場合、スマートスピーカTM1−1は、取得した発話PA1を行ったユーザがユーザU1であることを示す情報を情報処理装置100に送信してもよい。また、スマートスピーカTM1−1が音声認識機能を有する場合、スマートスピーカTM1−1は、情報処理装置100に送信することを要する情報のみを情報処理装置100に送信してもよい。また、情報処理装置100が、音声認識サーバから音声情報(発話PA1等)の文字情報を取得してもよいし、情報処理装置100が、音声認識サーバであってもよい。また、情報処理装置100は、発話PA1等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話の内容やユーザの状況を推定(特定)してもよい。
発話PA1のセンサ情報(音声情報)を取得した情報処理装置100は、発話PA1の音声情報を解析することにより、発話PA1を行ったユーザがユーザU1であることを推定してもよい。情報処理装置100は、種々の従来技術を適宜用いて発話を行ったユーザを推定してもよい。例えば、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121(図4参照)等に記憶された音声とを用いて、発話を行ったユーザを推定してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを推定してもよい。また、情報処理装置100は、スマートスピーカTM1−1から発話を行ったユーザを識別する情報を発話情報とともに取得してもよい。
このように、図1の例では、情報処理装置100は、種々の従来技術を適宜用いて、発話PA1を行ったユーザがユーザU1であると推定する。なお、上記は一例であり、情報処理装置100は、種々の情報を適宜用いて、発話を行ったユーザを推定してもよい。また、情報処理装置100は、画像センサ等により撮像されたユーザの画像を用いて、画像により発話を行ったユーザを推定してもよい。
そして、情報処理装置100は、ユーザU1の発話PA1に関する行動情報を行動情報記憶部123に登録する。図1中の行動情報記憶部123に示す「ユーザID」は、ユーザを識別するための識別情報を示す。図1中の行動情報記憶部123に示す「行動ID」は、ユーザの行動を識別する情報を示す。図1中の行動情報記憶部123に示す「種別」は、対応するユーザの行動の種別に関する情報を示す。図1中の行動情報記憶部123に示す「内容」は、対応するユーザの行動において対象となった内容を示す。図1中の行動情報記憶部123に示す「日時」は、対応するユーザの行動が行われた日時を示す。
図1の例では、情報処理装置100は、ユーザU1が日時dt1−1に位置LC11において、内容「XXXXXX」といった発話を行ったことを示す行動情報(行動情報AC21)を行動情報記憶部123に登録する。
そして、情報処理装置100は、ユーザU1の感情を推定する(ステップS13)。図1の例では、情報処理装置100は、スマートスピーカTM1−1により発話PA1が検知されたユーザU1の感情を推定する。例えば、情報処理装置100は、発話PA1に基づいてユーザU1の感情を推定する。例えば、情報処理装置100は、自然言語処理技術等の種々の従来手法を適宜用いて、発話PA1を解析することにより、発話PA1を行ったユーザU1の感情が怒りの感情であると推定してもよい。すなわち、情報処理装置100は、スマートスピーカTM1−1の周囲に位置し、発話PA1が検知されたユーザU1を対象ユーザとして、ユーザU1の感情が怒りの感情であると推定してもよい。
例えば、情報処理装置100は、図1中の推定用情報PINF11に示すように、ユーザU1が日時dt1−1に行った内容「XXXXXX」といった発話PA1に基づいて、ユーザU1の感情を推定する。図1の例では、情報処理装置100は、ユーザU1の発話PA1に含まれる「いらいらする」等の文字列が、感情「怒り」対応付けられたキーワードに該当する場合、ユーザU1の感情を怒りであると推定する。
そして、情報処理装置100は、推定した日時dt1−1におけるユーザU1の感情が怒りであることを示す感情情報を感情情報記憶部122に登録する。図1中の感情情報記憶部122に示す「ユーザID」は、ユーザを識別するための識別情報を示す。図1中の感情情報記憶部122に示す「日時」は、対応するユーザの感情が推定された日時を示す。図1中の感情情報記憶部122に示す「推定感情」は、対応する日時におけるユーザの感情を示す。
図1の例では、情報処理装置100は、日時dt1−1におけるユーザU1の感情が怒りの感情(負の感情)であると推定されたことを示す感情情報を感情情報記憶部122に登録する。
また、図1の例では、ユーザU2が、ユーザU1の発話PA1の後に、情報処理装置100の周囲において、「YYYYYY」という発話PA2を行う。なお、図1では、発話PA2を「YYYYYY」という文字列で図示するが、発話PA2は、「うるさい」や「黙れ」などユーザU1に対する怒りの感情を推定させる内容を含む発話であるものとする。このように、図1の例では、ユーザU2が、ユーザU1の発話PA1に対して怒りの感情を示す発話PA2を行う。そして、情報処理装置100は、音センサにより発話PA2(音声情報)を検知する。スマートスピーカTM1−1は、取得した発話PA2を含む音声情報を行動情報として情報処理装置100に送信する。発話PA2を含む音声情報を取得した情報処理装置100は、発話PA2の音声情報を解析することにより、発話PA2を行ったユーザがユーザU2であることを推定してもよい。
そして、情報処理装置100は、自然言語処理技術を適宜用いて発話PA2を解析することにより、発話PA2を行ったユーザU2の感情が怒りの感情であると推定してもよい。すなわち、情報処理装置100は、スマートスピーカTM1−1の周囲に位置するユーザU2を対象ユーザとして、ユーザU2の感情が怒りの感情であると推定してもよい。そして、情報処理装置100は、ユーザU1が発話PA2を行った日時dt1−1の時点におけるユーザU2の感情が負の感情の怒りであることを示す感情情報を感情情報記憶部122に登録する。また、図1の例では、情報処理装置100は、ユーザU2が日時dt1−1に位置LC11において、内容「YYYYYY」といった発話を行ったことを示す行動情報(行動情報AC21)を行動情報記憶部123に登録する。なお、図1の例では、説明を簡単にするために発話PA1及び発話PA2が行われた時点を同じ日時dt1−1として図示するが、発話PA1の後に発話PA2が行われたものとする。例えば、図1の例では、ユーザU1とユーザU2が何らかの原因により口論になっている場合を示す。
そして、図1の例では、マップ情報MP1に示す自動車である移動体C1にユーザU1が乗車し、移動体C1により移動する。例えば、ユーザU1は、自宅HM1の位置LC11を出発し、移動体C1により所定の目的地へ移動する。そして、移動体C1の位置が位置LC11から位置LC1−5に移動する。例えば、ユーザU1の運転等により、移動体C1は、位置LC1−5に移動する。その後、スマートスピーカTM1−2は、位置センサにより検知した位置LC1−5を示す位置情報(センサ情報)を情報処理装置100へ送信する(ステップS14)。これにより、情報処理装置100は、スマートスピーカTM1−2から位置情報を取得する。図1の例では、情報処理装置100は、日時dt1−1より後の日時dt1−5において、スマートスピーカTM1−2から位置LC1−5を示す位置情報(センサ情報)を取得する。このように、情報処理装置100は、スマートスピーカTM1−2を利用するユーザU1に関する位置が、日時dt1−1より後の日時dt1−5においては、範囲AR1内の位置LC1−5であることを示す情報を取得する。
なお、スマートスピーカTM1−2は、位置等を検知する毎にリアルタイムに、情報処理装置100に位置情報等の種々の情報を送信してもよいし、所定の間隔(例えば5分間隔など)で、情報処理装置100に位置情報等の種々の情報を送信してもよい。また、スマートスピーカTM1−2は、検知したセンサ情報やユーザの行動情報とともに位置情報を送信してもよい。また、図1の例では、情報処理装置100は、スマートスピーカTM1−2が検知した移動体C1内でのユーザU1の発話の情報をスマートスピーカTM1−2から取得し、取得したユーザU1の発話の情報を用いて、移動体C1に乗っているユーザがU1であると推定する。なお、情報処理装置100は、スマートスピーカTM1−2が検知した移動体C1内の画像情報をスマートスピーカTM1−2から取得し、取得した画像情報を用いて、移動体C1に乗っているユーザがU1であると推定してもよい。
また、情報処理装置100は、位置LC1−5が経路RT上の位置であることを示す情報を用いて、日時dt1−5において、ユーザU1が運転中であると推定してもよい。例えば、情報処理装置100は、日時dt1−5において、ユーザU1が自動車用の道路である経路RT上に位置するため、ユーザU1が運転中であると推定してもよい。例えば、情報処理装置100は、スマートスピーカTM1−2から取得した速度情報や加速度情報等のセンサ情報に基づいて、ユーザU1が運転中であると推定してもよい。また、例えば、情報処理装置100は、スマートスピーカTM1−2から取得した画像情報に基づいて、ユーザU1が運転中であると推定してもよい。例えば、情報処理装置100は、画像解析に関する種々の従来技術を適宜用いても、ユーザU1の行動種別を推定してもよい。
図1の例では、情報処理装置100は、日時dt1−5において、ユーザU1が経路RT上を走行中であることを示す行動情報を行動情報記憶部123に記憶する。すなわち、情報処理装置100は、日時dt1−5において、ユーザU1が運転(行動AC15)を行っていることを示す行動情報を行動情報記憶部123に記憶する。
そして、情報処理装置100は、提供情報を決定する(ステップS13)。情報処理装置100は、推定したユーザU1の感情に基づいて、スマートスピーカTM1−2により提供情報を決定する。図1の例では、情報処理装置100は、移動体C1を運転中であるユーザU1について推定した感情に基づいて、スマートスピーカTM1−2により運転中のユーザU1に提供する提供情報を決定する。例えば、情報処理装置100は、運転中であるユーザの感情が怒りや悲しみ等の負の感情である場合、そのユーザに安全運転を促す情報を提供情報に決定してもよい。また、例えば、情報処理装置100は、運転中であるユーザの感情が喜びや楽しみ等の正の感情である場合、そのユーザに音楽等の所定のコンテンツを推奨する情報を提供情報に決定してもよい。図1の例では、情報処理装置100は、移動体C1を運転中であるユーザU1の感情が怒りであるため、提供一覧SV1に示すように、スマートスピーカTM1−2により運転中のユーザU1に安全運転を促す情報を提供情報に決定する。
そして、情報処理装置100は、情報の提供先を決定する(ステップS16)。例えば、情報処理装置100は、対応付情報記憶部124に記憶されたユーザとスマートスピーカ10との対応付けを示す情報(「対応付情報」ともいう)に基づいて、情報の提供先のスマートスピーカ10を決定する。
図1中の対応付情報記憶部124に示す「ユーザID」は、ユーザを識別するための識別情報を示す。図1中の対応付情報記憶部124に示す「同居ユーザ」は、ユーザIDにより識別されるユーザと同居するユーザ(同居ユーザ)を識別するための識別情報を示す。図1中の対応付情報記憶部124に示す「宅用スマートスピーカ」は、ユーザIDにより識別されるユーザの自宅に配置されたスマートスピーカ10を識別する識別情報(端末ID)を示す。図1中の対応付情報記憶部124に示す「車載スマートスピーカ」は、ユーザIDにより識別されるユーザが移動体に搭載するスマートスピーカ10を識別する識別情報(端末ID)を示す。
図1の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、宅用のスマートスピーカとしてスマートスピーカTM1−1を利用し、車載のスマートスピーカとしてスマートスピーカTM1−2を利用することを示す。すなわち、スマートスピーカTM1−1はユーザU1の自宅に配置され、スマートスピーカTM1−2はユーザU1の移動体C1に配置されることを示す。また、ユーザU1は、ユーザU2やユーザU12が同居ユーザであることを示す。
図1の例では、情報処理装置100は、対応付情報記憶部124に記憶された対応付情報や行動情報AC21に基づいて、情報の提供先のスマートスピーカ10をスマートスピーカTM1−2に決定する。すなわち、情報処理装置100は、ユーザU1の発話PA1が宅用のスマートスピーカTM1−1により検知されているため、スマートスピーカTM1−1に対応する車載のスマートスピーカTM1−2を情報の提供先に決定する。このように、情報処理装置100は、発話PA1がユーザU1の自宅HM1で行われたことを示す行動情報AC11に基づいて、情報の提供を自宅HM1に対応する移動体C1で行うと決定する。
そして、情報処理装置100は、安全運転を促す提供情報をスマートスピーカTM1−2に提供する(ステップS17)。図1の例では、情報処理装置100は、スマートスピーカTM1−2に出力させる音声情報である提供情報INF1をスマートスピーカTM1−2に送信する。例えば、情報処理装置100は、音声合成等の種々の従来技術を適宜用いて、提供情報INF1を生成してもよい。
情報処理装置100から提供情報INF1を受信したスマートスピーカTM1−2は、提供情報INF1を出力する(ステップS18)。例えば、スマートスピーカTM1−2は、音声情報である提供情報INF1を音声出力する。図1の例では、スマートスピーカTM1−2は、安全運転を促す提供情報INF1を音声出力する。例えば、スマートスピーカTM1−2は、「安全運転でお願いします。」等の提供情報INF1を音声出力する。なお、提供情報INF1は、安全運転を促す情報であれば、どのような情報であってもよい。例えば、提供情報INF1は、「気持ちを落ち着かせて運転に集中しましょう」のような音声情報であってもよい。
このように、情報処理装置100は、ユーザU1が居住する自宅HM1に配置されたスマートスピーカTM1−1により検知された発話PA1に基づいて、ユーザU1が運転する移動体C1に配置されたスマートスピーカTM1−2により提供する提供情報を決定することにより、自宅HM1で収集した情報を基に移動体C1でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数のスマートスピーカ等の端末装置を用いることにより適切な情報提供を可能にすることができる。例えば、情報処理装置100は、複数の端末装置の各々が離れた場所(遠隔)に位置する場合であっても、一方の端末装置が検知した情報に基づいて、他方の端末装置により適切な情報提供を可能にすることができる。図1の例では、情報処理装置100は、自宅HM1(位置LC11)に配置されたスマートスピーカTM1−1と、移動体C1に配置されたスマートスピーカTM1−2とのように、互いに離れた場所(遠隔)に位置する場合であっても、スマートスピーカTM1−1が検知した情報に基づいて、スマートスピーカTM1−2により適切な情報提供を可能にすることができる。
〔1−1.宅内での情報提供〕
図1の例では、情報処理装置100は、ユーザの自宅で検知されたセンサ情報に基づいて、ユーザが乗る移動体において提供する提供情報を決定したが、移動体で検知されたセンサ情報に基づいて、自宅において提供する提供情報を決定してもよい。すなわち、情報処理装置100は、車載スマートスピーカにより検知されたセンサ情報に基づいて、宅用スマートスピーカにより提供する提供情報を決定してもよい。図1の例では、情報処理装置100は、移動体C1に配置されたスマートスピーカTM1−2により検知されたセンサ情報に基づいて、自宅HM1に配置されたスマートスピーカTM1−1により提供する提供情報を決定してもよい。
例えば、情報処理装置100は、ユーザU1が移動体C1を運転中において、推定されるユーザU1の感情(推定感情)に基づいて、自宅HM1に配置されたスマートスピーカTM1−1により、自宅HM1に在宅のユーザU2に提供する提供情報を決定してもよい。例えば、情報処理装置100は、ユーザU1が移動体C1を運転中において、スマートスピーカTM1−2により検知されたセンサ情報に基づくユーザU1の推定感情が悲しみ等の負の感情である場合、「ユーザU1が不の感情であることを示す情報を、自宅HM1に在宅のユーザU2に提供する提供情報に決定してもよい。例えば、情報処理装置100は、移動体C1を運転中のユーザU1の推定感情が悲しみ等の負の感情である場合、「ユーザU1さんは気分が優れないようです」、「帰宅中のユーザU1さんは落ち込んでいます」等の情報を、スマートスピーカTM1−1により出力する提供情報に決定してもよい。
〔1−2.他のユーザの感情〕
図1の例では、ユーザU1の感情に基づいて、ユーザU1への提供情報を決定する場合を示したが、情報処理装置100は、ユーザに提供する情報を他のユーザの感情に基づいて、決定してみもよい。例えば、情報処理装置100は、ユーザとは異なる他のユーザの住宅における発話情報を含むセンサ情報を取得し、取得した発話情報により推定される対象ユーザである他のユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定する。
図1の例では、情報処理装置100は、ユーザU1とは異なるユーザU2の自宅HM1における発話情報を取得し、取得した発話情報により推定されるユーザU2の感情を示す感情情報に基づいて、ユーザU1が運転中の移動体C1における提供情報を決定してもよい。例えば、情報処理装置100は、ユーザU1が移動体C1を運転中において、自宅HM1でユーザU2が子供であるユーザU12を叱っている発話情報ADXを取得し、取得した発話情報ADXにより推定されるユーザU2の感情が怒りである場合、ユーザU1が運転中の移動体C1において、ユーザU2が怒りの感情であることを示す情報を提供情報に決定してもよい。
例えば、情報処理装置100は、ユーザU1が移動体C1を運転中において、スマートスピーカTM1−1が検知した発話情報ADXにより推定されるユーザU2の感情が怒りである場合、ユーザU2が怒りの感情であることを示す情報を、スマートスピーカTM1−2による提供情報に決定してもよい。この場合、情報処理装置100は、帰宅中に旦那であるユーザU1が移動体C1の運転中において、スマートスピーカTM1−2から「ご家庭で奥様ユーザU2さんがお子様ユーザU12さんを叱りつけ険悪なムードになっています」と通知してもよい。
〔1−3.提供タイミング〕
図1の例では、情報処理装置100は、種々の情報に基づいて、情報提供のタイミングを決定してもよい。情報処理装置100は、発話の中断等を提供タイミングに決定してもよい。また、情報処理装置100は、提供先が宅内のスマートスピーカ10である場合、ユーザの位置がスマートスピーカ10から所定の範囲内に入ったタイミングを提供タイミングに決定してもよい。また、情報処理装置100は、ユーザが移動を停止したタイミングを提供タイミングに決定してもよい。また、情報処理装置100は、ユーザの信号待ちしたタイミングを提供タイミングに決定してもよい。例えば、情報処理装置100は、ユーザの所定の発言を行ったタイミングを提供タイミングに決定してもよい。
また、情報処理装置100は、発話情報の取得後において、ユーザが移動を開始するタイミングに基づいて、提供情報の提供タイミングを決定してもよい。情報処理装置100は、発話情報の取得後において、ユーザが移動体への乗車するタイミングに基づいて、提供情報の提供タイミングを決定してもよい。図1の例では、移動体C1には、エンジンの始動を検知するセンサ等の操作検知用センサが設けられてもよい。そして、スマートスピーカTM1−2は、操作検知用センサが検知したセンサ情報を、情報処理装置100へ送信する。これにより、情報処理装置100は、操作検知用センサが検知したセンサ情報を取得する。
また、情報処理装置100は、スマートスピーカTM1−2が検知した画像情報や音声情報に基づいて、エンジンの始動を推定してもよい。例えば、情報処理装置100は、スマートスピーカTM1−2が検知した画像情報や音声情報により、移動体C1のエンジンが始動したことを推定してもよい。情報処理装置100は、ユーザU1が発話PA1の後、ユーザU1が移動体C1へ乗車しエンジンを始動させたタイミングを、提供情報INF1を提供(出力)タイミングに決定してもよい。例えば、情報処理装置100は、ユーザU1が発話PA1の後、ユーザU1が移動体C1へ乗車しエンジンを始動させたタイミングで、提供情報INF1をスマートスピーカTM1−2に出力させてもよい。
〔1−4.スマートスピーカ〕
図1の例では、スマートスピーカTM1−1が自宅HM1に配置された場合を示したが、スマートスピーカTM1−1は、自宅においてユーザが利用可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1−1は、ユーザが携帯する携帯端末であってもよい。また、図1の例では、スマートスピーカTM1−2が移動体C1に配置(搭載)された場合を示したが、スマートスピーカTM1−2は、ユーザとともに移動可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1−2は、ユーザが携帯する携帯端末であってもよい。
〔1−5.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、スマートスピーカ10が決定処理を行ってもよい。例えば、スマートスピーカ10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100とスマートスピーカ10とは一体であってもよい。この場合、情報処理システムには、情報配信サーバが含まれてもよい。そして、スマートスピーカ10である情報処理装置100は、情報配信サーバから提供情報を取得し、決定した出力タイミングに基づいて、取得した提供情報を出力してもよい。また、スマートスピーカ10である情報処理装置100は、提供情報を出力したことを示す情報等を情報配信サーバに送信してもよい。また、スマートスピーカ10である情報処理装置100は、センサにより検知されたセンサ情報やユーザの行動情報等の種々の情報を情報配信サーバに送信してもよい。
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、スマートスピーカ10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、感情情報記憶部122と、行動情報記憶部123と、対応付情報記憶部124とを有する。なお、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報等の種々の情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
また、「自宅」は、ユーザIDにより識別されるユーザの自宅の位置情報を示す。なお、図4に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。
また、「勤務地」は、ユーザIDにより識別されるユーザの勤務地の位置情報を示す。なお、図4に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。
図4に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。また、ユーザU1は、自宅が「LC11」であることを示す。また、ユーザU1は、勤務地が「LC12」であることを示す。また、ユーザU1は、「スポーツ」に興味があることを示す。
図4に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)の年齢は、「20代」であり、性別は、「女性」であることを示す。また、ユーザU2は、自宅が「LC11」であることを示す。すなわち、ユーザU2は、ユーザU1と同居するユーザであることを示す。また、ユーザU2は、勤務地が「LC22」であることを示す。また、ユーザU2は、「グルメ」に興味があることを示す。
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザのデモグラフィック属性に関する情報やサイコグラフィック属性に関する情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入、興味、ライフスタイル等の情報を記憶してもよい。
また、ユーザ情報記憶部121は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。
項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。
図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121中の項目「音声」に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。
(感情情報記憶部122)
実施形態に係る感情情報記憶部122は、ユーザの感情に関する各種情報を記憶する。図5は、実施形態に係る感情情報記憶部の一例を示す図である。例えば、感情情報記憶部122は、推定されたユーザの感情に関する情報を記憶する。図5に示す感情情報記憶部122には、「ユーザID」、「日時」、「推定感情」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。「日時」は、対応するユーザの感情が推定された日時を示す。「日時」には、「dt1−1」等のように抽象的に図示するが、「2018年8月7日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月7日22時31分」や「2018年8月7日22時30−31分」等の所定の期間であってもよい。また、「推定感情」は、対応する日時におけるユーザの感情を示す。なお、「推定感情」は、「怒り(負の感情)」といった文字情報を図示するが、「推定感情」には、感情を識別する情報であればどのような情報が記憶されてもよい。例えば、「推定感情」には、感情を識別する感情ID等が記憶されてもよい。
図5の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、日時dt1−1における感情が怒りの感情(負の感情)であると推定されたことを示す。また、図5の例では、ユーザID「U2」により識別されるユーザ(ユーザU2)は、日時dt1−1における感情が怒りの感情(負の感情)であると推定されたことを示す。
なお、感情情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、感情情報記憶部122は、各感情情報が推定された際のユーザの位置情報を各感情情報に対応付けて記憶してもよい。また、図5では、ユーザIDごとに行動情報が感情情報記憶部122に記憶される場合を示したが、感情情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。なお、感情情報記憶部122は、各感情が負の感情や正の感情等のいずれの感情に対応するかを示す情報を各感情に対応付けて記憶してもよい。例えば、感情情報記憶部122は、怒りや悲しみ等に負の感情を示す情報を対応付けて記憶してもよい。また、例えば、感情情報記憶部122は、喜びや楽しみ等に正の感情を示す情報を対応付けて記憶してもよい。
(行動情報記憶部123)
実施形態に係る行動情報記憶部123は、ユーザの行動に関する各種情報を記憶する。図6は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部123は、各ユーザのスマートスピーカ10に配信したコンテンツに対するユーザの行動情報を記憶する。図6に示す行動情報記憶部123には、「ユーザID」、「行動ID」、「種別」、「内容」、「日時」、「位置」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。「日時」は、対応するユーザの行動が行われた日時を示す。「日時」には、「dt1−5」等のように抽象的に図示するが、「2018年8月8日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月8日22時31分」や「2018年8月8日22時30−31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC11」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。
図6の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC11」により識別される行動(行動AC11)等を行ったことを示す。具体的には、図6の例ではユーザU1は、日時dt1−1において、位置LC11に位置する自宅で「XXXXXX」といった発話(行動AC11)を行ったことを示す。
また、図6の例ではユーザU1は、日時dt1−1よりも後の日時dt1−5において、位置LC1−5に位置し、経路RTを走行する運転(行動AC15)を行っていることを示す。すなわち、ユーザU1は、日時dt1−5において、自宅HM1から出発して移動体C1により移動中であり、その位置が経路RT上の位置LC1−5であることを示す。例えば、情報処理装置100は、ユーザU1の位置や移動速度に基づいて、ユーザU1が移動体C1等の車で移動中であると推定してもよい。
また、図6の例では、ユーザID「U2」により識別されるユーザ(ユーザU2)は、行動ID「AC21」により識別される行動(行動AC21)等を行ったことを示す。具体的には、図6の例ではユーザU2は、日時dt1−1において、位置LC11に位置する自宅で「YYYYYY」といった発話(行動AC21)を行ったことを示す。
なお、行動情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動情報記憶部123は、各行動情報が取得された際のユーザの位置情報を各行動情報に対応付けて記憶してもよい。また、図6では、ユーザIDごとに行動情報が行動情報記憶部123に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
(対応付情報記憶部124)
実施形態に係る対応付情報記憶部124は、対応付けに関する情報を記憶する。例えば、対応付情報記憶部124は、ユーザとスマートスピーカとの対応付けに関する情報を記憶する。図7は、実施形態に係る対応付情報記憶部の一例を示す図である。図7に示す対応付情報記憶部124は、「ユーザID」、「同居ユーザ」、「宅用スマートスピーカ」、「車載スマートスピーカ」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。「同居ユーザ」は、ユーザIDにより識別されるユーザと同居するユーザ(同居ユーザ)を識別するための識別情報を示す。「同居ユーザ」は、ユーザIDにより識別されるユーザが利用するスマートスピーカを共用するユーザ(同居ユーザ)を識別するための識別情報を示す。また、「宅用スマートスピーカ」は、ユーザIDにより識別されるユーザの自宅に配置されたスマートスピーカ10を識別する識別情報(端末ID)を示す。すなわち、「宅用スマートスピーカ」は、ユーザIDにより識別されるユーザが自宅で利用するスマートスピーカ10を識別する識別情報(端末ID)を示す。また、「車載スマートスピーカ」は、ユーザIDにより識別されるユーザが移動体に搭載するスマートスピーカ10を識別する識別情報(端末ID)を示す。すなわち、「車載スマートスピーカ」は、ユーザIDにより識別されるユーザが移動体で利用するスマートスピーカ10を識別する識別情報(端末ID)を示す。なお、図7に示すように、「車載スマートスピーカ」には、車載スマートスピーカの最新位置、すなわち車載スマートスピーカが搭載された移動体の最新位置が記憶されてもよい。
図7の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、宅用のスマートスピーカとしてスマートスピーカTM1−1を利用し、車載のスマートスピーカとしてスマートスピーカTM1−2を利用することを示す。すなわち、スマートスピーカTM1−1はユーザU1の自宅に配置され、スマートスピーカTM1−2はユーザU1の移動体C1に配置されることを示す。また、ユーザU1は、ユーザID「U2」により識別されるユーザ(ユーザU2)やユーザID「U12」により識別されるユーザ(ユーザU12)を同居ユーザとすることを示す。また、スマートスピーカTM1−2の最新位置、すなわち移動体C1の最新位置は、位置LC1−5であることを示す。
なお、対応付情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、対応付情報記憶部124は、車載スマートスピーカがどの移動体に搭載されているかを特定するための情報が記憶されてもよい。例えば、対応付情報記憶部124は、車載スマートスピーカが搭載される移動体を識別する情報が、車載スマートスピーカを識別する情報に対応付けられて記憶されてもよい。
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、推定部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、種々の情報を取得する。取得部131は、スマートスピーカ10等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、感情情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等から各種情報を取得する。
取得部131は、ユーザの住宅に配置された第1端末装置、及びユーザの移動体に配置された第2端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。取得部131は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報を取得する。取得部131は、一方の端末装置により検知された音声情報を含むセンサ情報を取得する。
取得部131は、第1端末装置により検知されたセンサ情報を取得する。取得部131は、住宅におけるユーザの発話情報を含むセンサ情報を取得する。取得部131は、ユーザとは異なる他のユーザの住宅における発話情報を含むセンサ情報を取得する。取得部131は、第2端末装置により検知されたセンサ情報を取得する。取得部131は、ユーザが乗る移動体に配置された第2端末装置により検知されたセンサ情報を取得する。
図1の例では、取得部131は、スマートスピーカTM1−1が検知した発話PA1のセンサ情報(音声情報)を取得する。取得部131は、発話PA1のセンサ情報や位置情報や日時情報や端末情報等を発話PA1に関する行動情報として取得する。
取得部131は、スマートスピーカTM1−2から位置情報を取得する。取得部131は、日時dt1−1より後の日時dt1−5において、スマートスピーカTM1−2から位置LC1−5を示す位置情報(センサ情報)を取得する。取得部131は、スマートスピーカTM1−2を利用するユーザU1に関する位置が、日時dt1−1より後の日時dt1−5においては、範囲AR1内の位置LC1−5であることを示す情報を取得する。
(推定部132)
推定部132は、各種情報を推定する。推定部132は、各種情報を特定する。推定部132は、各種情報を抽出する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。推定部132は、ユーザ情報記憶部121や、感情情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を推定する。推定部132は、ユーザ情報記憶部121や、感情情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を特定する。推定部132は、ユーザ情報記憶部121や、感情情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を抽出する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
推定部132は、ユーザの発話の内容に基づいて会話のトピック(話題)に関する情報を推定する。例えば、推定部132は、ユーザの発話等に基づいてトピックに関する情報を推定する。例えば、推定部132は、トピック分析(解析)等の種々の従来手法を適宜用いて、ユーザの発話等からトピックを抽出してもよい。例えば、推定部132は、ユーザの発話等を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザの発話等の文字情報から重要なキーワードをユーザの発話等のトピックとして抽出してもよい。
推定部132は、取得部131により取得されたセンサ情報に基づいて、対象ユーザの感情を推定する。推定部132は、一方の端末装置により検知されたセンサ情報により推定される一方の端末装置の周囲に位置するユーザ(対象ユーザ)の感情を示す感情情報に基づいて、他方の端末装置により提供する提供情報を決定する。例えば、推定部132は、検知されたセンサ情報により対象ユーザの感情を推定する。推定部132は、種々の従来技術を適宜用いて、ユーザの感情を推定する。例えば、推定部132は、ユーザの発話を変換した文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザの感情を推定してもよい。例えば、推定部132は、記憶部120に記憶された各感情に対応付けられたキーワードの一覧情報を用いて、ユーザの発話を変換した文字情報に含まれるキーワードが最も該当する感情をユーザの感情として推定してもよい。また、例えば、推定部132は、ユーザが検索に用いたクエリ等のユーザが入力した種々の入力情報を用いてユーザの感情を推定してもよい。また、例えば、推定部132は、ユーザの心拍や血圧以外の生体情報やユーザの顔を撮像した画像情報等を用いてユーザの感情を推定してもよい。
図1の例では、推定部132は、ユーザU1の感情を推定する。推定部132は、スマートスピーカTM1−1により発話PA1が検知されたユーザU1の感情を推定する。例えば、推定部132は、発話PA1に基づいてユーザU1の感情を推定する。例えば、推定部132は、自然言語処理技術等の種々の従来手法を適宜用いて、発話PA1を解析することにより、発話PA1を行ったユーザU1の感情が怒りの感情であると推定してもよい。すなわち、推定部132は、スマートスピーカTM1−1の周囲に位置し、発話PA1が検知されたユーザU1を対象ユーザとして、ユーザU1の感情が怒りの感情であると推定してもよい。
例えば、推定部132は、図1中の推定用情報PINF11に示すように、ユーザU1が日時dt1−1に行った内容「XXXXXX」といった発話PA1に基づいて、ユーザU1の感情を推定する。図1の例では、推定部132は、ユーザU1の発話PA1に含まれる「いらいらする」等の文字列が、感情「怒り」対応付けられたキーワードに該当するため、ユーザU1の感情を怒りであると推定する。
(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を判定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、ユーザ情報記憶部121や、感情情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を決定する。決定部133は、ユーザ情報記憶部121や、感情情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を生成する。決定部133は、推定部132により推定された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。
決定部133は、センサ情報により推定される一方の端末装置の周囲に位置する対象ユーザの感情を示す感情情報に基づいて、他方の端末装置により提供する提供情報を決定する。決定部133は、推定部132により推定された対象ユーザの感情を示す感情情報に基づいて、提供情報を決定する。決定部133は、音声情報により推定される対象ユーザの感情を示す感情情報に基づいて、提供情報を決定する。
決定部133は、センサ情報により推定される対象ユーザの感情を示す感情情報に基づいて、ユーザが乗る移動体に配置された第2端末装置により提供する提供情報を決定する。決定部133は、発話情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定する。決定部133は、発話情報の取得後において、ユーザが移動体への乗車するタイミングに基づいて、提供情報の提供タイミングを決定する。
決定部133は、発話情報により推定される対象ユーザである他のユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定する。決定部133は、推定される対象ユーザの感情が負の感情である場合、安全運転を促す情報を提供情報に決定する。決定部133は、推定される対象ユーザの感情が怒りの感情である場合、安全運転を促す情報を提供情報に決定する。
決定部133は、センサ情報により推定される対象ユーザの感情を示す感情情報に基づいて、第1端末装置により提供する提供情報を決定する。決定部133は、センサ情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、第1端末装置により提供する提供情報を決定する。決定部133は、センサ情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、ユーザとは異なる他のユーザに住宅において提供する提供情報を決定する。
図1の例では、決定部133は、推定部132が推定したユーザU1の感情に基づいて、スマートスピーカTM1−2により提供情報を決定する。決定部133は、移動体C1を運転中であるユーザU1について推定した感情に基づいて、スマートスピーカTM1−2により運転中のユーザU1に提供する提供情報を決定する。決定部133は、運転中であるユーザの感情が怒りや悲しみ等の負の感情である場合、そのユーザに安全運転を促す情報を提供情報に決定してもよい。決定部133は、運転中であるユーザの感情が喜びや楽しみ等の正の感情である場合、そのユーザに音楽等の所定のコンテンツを推奨する情報を提供情報に決定してもよい。決定部133は、移動体C1を運転中であるユーザU1の感情が怒りであるため、提供一覧SV1に示すように、スマートスピーカTM1−2により運転中のユーザU1に安全運転を促す情報を提供情報に決定する。
決定部133は、情報の提供先を決定する。決定部133は、対応付情報記憶部124に記憶されたユーザとスマートスピーカ10との対応付けを示す情報(対応付情報)に基づいて、情報の提供先のスマートスピーカ10を決定する。決定部133は、対応付情報記憶部124に記憶された対応付情報や行動情報AC21に基づいて、情報の提供先のスマートスピーカ10をスマートスピーカTM1−2に決定する。決定部133は、ユーザU1の発話PA1が宅用のスマートスピーカTM1−1により検知されているため、スマートスピーカTM1−1に対応する車載のスマートスピーカTM1−2を情報の提供先に決定する。決定部133は、発話PA1がユーザU1の自宅HM1で行われたことを示す行動情報AC11に基づいて、情報の提供を自宅HM1に対応する移動体C1で行うと決定する。
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、スマートスピーカ10等の外部の情報処理装置に各種情報を提供する。提供部134は、スマートスピーカ10に各種情報を送信する。提供部134は、スマートスピーカ10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、推定部132により推定された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。
提供部134は、決定部133により決定された提供情報を提供する。図1の例では、提供部134は、安全運転を促す提供情報をスマートスピーカTM1−2に提供する。提供部134は、スマートスピーカTM1−2に出力させる音声情報である提供情報INF1をスマートスピーカTM1−2に送信する。
〔3.情報処理のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図8は、決定処理の一例を示すフローチャートである。図8は、広告出力に関する処理を含む決定処理の一例を示すフローチャートである。
図8に示すように、情報処理装置100は、ユーザの住宅に配置された第1端末装置、及びユーザの移動体に配置された第2端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する(ステップS101)。例えば、情報処理装置100は、第1端末装置第2端末装置のうち、いずれか一方の端末装置である一のスマートスピーカにより検知されたセンサ情報を取得する。そして、情報処理装置100は、センサ情報により推定される一方の端末装置の周囲に位置する対象ユーザの感情を示す感情情報に基づいて、他方の端末装置により提供する提供情報を決定する(ステップS102)。例えば、情報処理装置100は、一のスマートスピーカにより検知されたセンサ情報より推定される一方の端末装置の周囲に位置する対象ユーザの感情を示す感情情報に基づいて、他方の端末装置により提供する提供情報を決定する。そして、情報処理装置100は、決定した提供情報を提供する(ステップS103)。例えば、情報処理装置100は、一のスマートスピーカとは異なる他のスマートスピーカに提供情報を提供する。
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部133とを有する。取得部131は、ユーザの住宅に配置された第1端末装置、及びユーザの移動体に配置された第2端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。決定部133は、センサ情報により推定される一方の端末装置の周囲に位置する対象ユーザの感情を示す感情情報に基づいて、他方の端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、ユーザの住宅に配置された第1端末装置(実施形態では「スマートスピーカTM1−1」。以下同じ)、及びユーザの移動体に配置された第2端末装置(実施形態では「スマートスピーカTM1−2」。以下同じ)のうち、いずれか一方の端末装置により検知されたセンサ情報により推定される感情情報に基づいて、他方の端末装置により提供する提供情報を決定することにより、複数の端末装置を連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100は、推定部132を有する。推定部132は、取得部131により取得されたセンサ情報に基づいて、対象ユーザの感情を推定する。決定部133は、推定部132により推定された対象ユーザの感情を示す感情情報に基づいて、提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、センサ情報に基づいて、対象ユーザの感情を推定し、推定した対象ユーザの感情を示す感情情報に基づいて、提供情報を決定することにより、複数の端末装置を連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、一のスマートスピーカ10である一方の端末装置により検知されたセンサ情報を取得する。
これにより、実施形態に係る情報処理装置100は、一のスマートスピーカ10である一方の端末装置により検知されたセンサ情報に基づいて、他方の端末装置により提供する提供情報を決定することにより、スマートスピーカ10等を含む複数の端末装置を連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、一方の端末装置により検知された音声情報を含むセンサ情報を取得する。決定部133は、音声情報により推定される対象ユーザの感情を示す感情情報に基づいて、提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、一方の端末装置により検知された音声情報により推定される対象ユーザの感情を示す感情情報に基づいて、提供情報を決定することにより、複数の端末装置を連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1端末装置により検知されたセンサ情報を取得する。決定部133は、センサ情報により推定される対象ユーザの感情を示す感情情報に基づいて、ユーザが乗る移動体に配置された第2端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、第1端末装置により検知されたセンサ情報により推定される対象ユーザの感情を示す感情情報に基づいて、ユーザが乗る移動体に配置された第2端末装置により提供する提供情報を決定することにより、住宅の端末装置で収集した情報を基に移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、住宅におけるユーザの発話情報を含むセンサ情報を取得する。決定部133は、発話情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、住宅におけるユーザの発話情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定することにより、住宅でのユーザの発話を基に移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、発話情報の取得後において、ユーザが移動体への乗車するタイミングに基づいて、提供情報の提供タイミングを決定する。
これにより、実施形態に係る情報処理装置100は、発話情報の取得後において、ユーザが移動体への乗車するタイミングに基づいて、提供情報の提供タイミングを決定することにより、移動体においてユーザへ情報を提供するタイミングを適切に決定することができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザとは異なる他のユーザの住宅における発話情報を含むセンサ情報を取得する。決定部133は、発話情報により推定される対象ユーザである他のユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、ユーザとは異なる他のユーザの住宅における発話情報により推定される対象ユーザである他のユーザの感情を示す感情情報に基づいて、移動体における提供情報を決定することにより、住宅でのユーザの発話を基に移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、推定される対象ユーザの感情が負の感情である場合、安全運転を促す情報を提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、推定される対象ユーザの感情が負の感情である場合、安全運転を促す情報を提供情報に決定することにより、移動体においてユーザへ提供する情報を適切に決定することができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、推定される対象ユーザの感情が怒りの感情である場合、安全運転を促す情報を提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、推定される対象ユーザの感情が怒りの感情である場合、安全運転を促す情報を提供情報に決定することにより、移動体においてユーザへ提供する情報を適切に決定することができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第2端末装置により検知されたセンサ情報を取得する。決定部133は、センサ情報により推定される対象ユーザの感情を示す感情情報に基づいて、第1端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された第2端末装置により検知されたセンサ情報により推定される対象ユーザの感情を示す感情情報に基づいて、第1端末装置により提供する提供情報を決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが乗る移動体に配置された第2端末装置により検知されたセンサ情報を取得する。決定部133は、センサ情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、第1端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された第2端末装置により検知されたセンサ情報により推定される対象ユーザであるユーザの感情を示す感情情報に基づいて、第1端末装置により提供する提供情報を決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100は、提供部134を有する。提供部134は、決定部133により決定された提供情報を提供する。
これにより、実施形態に係る情報処理装置100は、決定した提供情報を提供することにより、複数の端末装置のうち、所望の端末装置によりユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。