JP2020027398A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2020027398A
JP2020027398A JP2018151288A JP2018151288A JP2020027398A JP 2020027398 A JP2020027398 A JP 2020027398A JP 2018151288 A JP2018151288 A JP 2018151288A JP 2018151288 A JP2018151288 A JP 2018151288A JP 2020027398 A JP2020027398 A JP 2020027398A
Authority
JP
Japan
Prior art keywords
information
user
information processing
processing apparatus
smart speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018151288A
Other languages
English (en)
Other versions
JP7027281B2 (ja
Inventor
安昭 兵藤
Yasuaki Hyodo
安昭 兵藤
一浩 二宮
Kazuhiro Ninomiya
一浩 二宮
西岡 孝章
Takaaki Nishioka
孝章 西岡
衣織 西田
Iori Nishida
衣織 西田
塚本 浩司
Koji Tsukamoto
浩司 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018151288A priority Critical patent/JP7027281B2/ja
Publication of JP2020027398A publication Critical patent/JP2020027398A/ja
Application granted granted Critical
Publication of JP7027281B2 publication Critical patent/JP7027281B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数の端末装置を用いることにより適切な情報提供を可能にする。【解決手段】本願に係る情報処理装置は、取得部と、決定部とを有する。取得部は、第1端末装置により検知されたセンサ情報を取得する。決定部は、取得部により取得されたセンサ情報に基づいて、第1端末装置とは異なる第2端末装置により提供する提供情報を決定する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
従来、種々の装置を用いてユーザにサービスを提供する技術が提供されている。例えば、住宅内に設置された住宅設備、例えば、エアコンや照明器具あるいは種々のセキュリティ機器などの制御並びに監視を行う住宅設備監視制御システムに関する技術が提供されている。このような住宅設備監視制御システムにおいては、車載ナビゲーション装置により、住宅設備が所望の状態でないままに利用者が外出してしまった場合に不都合が生じるのを防ぐ。
特開2009−260837号公報
しかしながら、上記の従来技術では、複数の端末装置を用いることにより適切な情報提供を可能にすることができるとは限らない。例えば、遠隔の住宅設備等の装置をナビゲーション装置により操作するだけでは、ユーザに対して適切な情報提供を行うことができない場合がある。
本願は、上記に鑑みてなされたものであって、複数の端末装置を用いることにより適切な情報提供を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、第1端末装置により検知されたセンサ情報を取得する取得部と、前記取得部により取得された前記センサ情報に基づいて、前記第1端末装置とは異なる第2端末装置により提供する提供情報を決定する決定部と、を備えたことを特徴とする。
実施形態の一態様によれば、複数の端末装置を用いることにより適切な情報提供を可能にすることができるという効果を奏する。
図1は、実施形態に係る情報処理の一例を示す図である。 図2は、実施形態に係る情報処理システムの構成例を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示す図である。 図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図5は、実施形態に係る店舗情報記憶部の一例を示す図である。 図6は、実施形態に係る行動情報記憶部の一例を示す図である。 図7は、実施形態に係る対応付情報記憶部の一例を示す図である。 図8は、実施形態に係る情報処理の一例を示すフローチャートである。 図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100は、ユーザの自宅に配置された端末装置であるスマートスピーカ(「宅用スマートスピーカ」ともいう)により検知されたセンサ情報に基づいて、ユーザが乗る移動体に搭載された端末装置であるスマートスピーカ(「車載スマートスピーカ」ともいう)により提供する情報(「提供情報」ともいう)を決定する場合を示す。すなわち、図1の例では、情報処理装置100は、ユーザの自宅で検知されたセンサ情報に基づいて、ユーザが乗る移動体において提供する提供情報を決定する。なお、情報処理装置100は、車載スマートスピーカにより検知されたセンサ情報に基づいて、宅用スマートスピーカにより提供する提供情報を決定してもよいが、この点については後述する。
〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、スマートスピーカ10と、情報処理装置100とが含まれる。スマートスピーカ10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台のスマートスピーカ10や、複数台の情報処理装置100が含まれてもよい。
スマートスピーカ10は、音声入力手段であるマイク(音センサ)や音声出力手段であるスピーカ(音声出力部)を有し、ユーザによって利用される端末装置(情報処理装置)である。スマートスピーカ10は、例えば、スマートスピーカやAIスピーカと称されるデバイスであってもよい。また、スマートスピーカ10は、対話型の音声操作に対応し音声アシスト機能を有してもよい。
図1は、スマートスピーカTM1−1とスマートスピーカTM1−2の2つのスマートスピーカ10を示す。例えば、スマートスピーカTM1−1は、図1に示すユーザU1の自宅HM1に配置されるスマートスピーカ10に対応する。また、スマートスピーカTM1−2は、図1に示すユーザU1の移動体C1に搭載されるスマートスピーカ10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。
また、端末ID「TM1−1」により識別されるスマートスピーカ10は、ユーザU1により利用される宅用のスマートスピーカ10であり、上記のようにスマートスピーカTM1−1と記載する場合がある。また、例えば、端末ID「TM1−2」により識別されるスマートスピーカ10は、ユーザU1により利用される車載のスマートスピーカ10であり、スマートスピーカTM1−2と記載する場合がある。このように、各スマートスピーカ10を区別して説明する場合、「スマートスピーカ」の末尾に端末ID(TM1−1等)を付加した記載とする。各スマートスピーカ10について、特に区別なく説明する場合には、単に「スマートスピーカ10」と記載する。
また、スマートスピーカ10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。スマートスピーカ10は、種々のセンサを含むセンサ部を備える。また、スマートスピーカ10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、ユーザの位置を検知し、取得可能であるものとする。また、スマートスピーカ10は、通信を行っている基地局の位置情報や、Wi−Fi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
また、スマートスピーカ10は、マイク等の音を検知する音センサを有する。例えば、スマートスピーカ10は、音センサにより、スマートスピーカ10の周囲におけるユーザの発話を検知する。例えば、スマートスピーカ10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、スマートスピーカ10は、ユーザの発話に対して、処理を行う端末装置である。例えば、スマートスピーカ10は、ユーザの発話に限らず、スマートスピーカ10の周囲の環境音等を収集する。なお、スマートスピーカ10は、上記に限らず、種々のセンサを有してもよい。例えば、スマートスピーカ10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得のためのセンサ等の種々のセンサを有してもよい。そして、スマートスピーカ10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。
また、スマートスピーカ10は、音声認識の機能を有してもよい。また、スマートスピーカ10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、スマートスピーカ10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。
また、スマートスピーカ10は、画像センサ等を有してもよい。例えば、スマートスピーカ10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のスマートスピーカ10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、スマートスピーカ10は、情報処理装置100に種々の情報等を送信する。例えば、スマートスピーカ10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。なお、図1の例では、端末装置がスマートスピーカ10である場合を示すが、スマートスピーカ10が一例に過ぎず、端末装置は、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、後述する処理において要求される機能を実現可能であれば、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、スマートフォンや、タブレット型端末や、ノート型等のPC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等であってもよい。例えば、ユーザの自宅内に位置する端末装置がスマートフォンやタブレット型端末等のデバイスであり、移動体内に位置する端末装置がスマートスピーカ10であってもよい。また、例えば、ユーザの自宅内に位置する端末装置がスマートスピーカ10であり、移動体内に位置する端末装置がスマートフォンやタブレット型端末等のデバイスであってもよい。また、例えば、ユーザの自宅内に位置する端末装置がスマートフォンやタブレット型端末等のデバイスであり、移動体内に位置する端末装置が、スマートフォンやタブレット型端末等のデバイスであってもよい。
情報処理装置100は、第1端末装置により検知されたセンサ情報に基づいて、第1端末装置とは異なる第2端末装置により提供する提供情報を決定する情報処理装置(コンピュータ)である。すなわち、情報処理装置100は、スマートスピーカ等の端末装置により提供する提供情報を決定する決定装置である。例えば、情報処理装置100は、スマートスピーカTM1−1により検知されたセンサ情報に基づいて、スマートスピーカTM1−2により提供する提供情報を決定する。また、情報処理装置100は、スマートスピーカTM1−2により検知されたセンサ情報に基づいて、スマートスピーカTM1−1により提供する提供情報を決定する。
また、情報処理装置100は、決定した提供情報を提供する情報処理装置(コンピュータ)である。すなわち、情報処理装置100は、決定した提供情報を提供する提供装置である。例えば、情報処理装置100は、スマートスピーカTM1−1により検知されたセンサ情報に基づいて決定した提供情報を、スマートスピーカTM1−2に提供する。また、情報処理装置100は、スマートスピーカTM1−2により検知されたセンサ情報に基づいて決定した提供情報を、スマートスピーカTM1−1に提供する。
また、情報処理装置100は、音声認識に関する種々の技術を適宜用いて、取得した発話等の音声情報を文字情報に変換してもよい。また、情報処理装置100は、発話等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、コンテキストを推定してもよい。なお、ここでいうコンテキストは、例えば、スマートスピーカ10を利用するユーザの状況を示す情報である。例えば、コンテキストは、スマートスピーカ10の周囲に位置するユーザの状況やスマートスピーカ10の周囲の環境(背景)に基づいて推定されるスマートスピーカ10の周囲の状況であってもよい。
また、情報処理装置100は、ユーザの発話の内容に基づいて会話のトピック(話題)に関する情報を推定する。例えば、情報処理装置100は、ユーザの発話等に基づいてトピックに関する情報を推定する。例えば、情報処理装置100は、トピック分析(解析)等の種々の従来手法を適宜用いて、ユーザの発話等からトピックを抽出してもよい。例えば、情報処理装置100は、ユーザの発話等を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザの発話等の文字情報から重要なキーワードをユーザの発話等のトピックとして抽出してもよい。
また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から取得した情報を加味して、スマートスピーカ10により提供する提供情報を決定してもよい。
ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、提供する情報を決定する決定処理の一例を示す図である。
図1の例では、マップ情報MP1に示す自宅HM1(位置LC11)における発話を基に、ユーザU1及びユーザU2が乗車した自動車である移動体C1で情報提供される場合を示す。図1では、スマートスピーカTM1−1が自宅HM1に配置され、スマートスピーカTM1−2が移動体C1に配置されている場合を示す。スマートスピーカTM1−1やスマートスピーカTM1−2は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。例えば、スマートスピーカTM1−1やスマートスピーカTM1−2は、音センサによりユーザU1やユーザU2の発話等の種々の音を検知し、情報処理装置100へ送信する。また、スマートスピーカTM1−1やスマートスピーカTM1−2は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC11等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC11」と記載した場合、その位置は位置情報LC11に対応する位置であることを示す。
図1では、自宅HM1において、ユーザU1やユーザU2が発話を行う。例えば、ユーザU2が、スマートスピーカTM1−1の周囲において、「Aレストラン良さそう」という発話PA1を行う。そして、情報処理装置100は、音センサにより「Aレストラン良さそう」という発話PA1(音声情報)を検知する。これにより、スマートスピーカTM1−1は、「Aレストラン良さそう」という発話PA1を入力として検知する(ステップS11)。そして、スマートスピーカTM1−1は、検知した発話PA1のセンサ情報(音声情報)を情報処理装置100に送信する。これにより、情報処理装置100は、スマートスピーカTM1−1が検知した発話PA1のセンサ情報(音声情報)を取得する。例えば、スマートスピーカTM1−1は、発話PA1が自宅HM1の位置LC11で行われたことを示す位置情報や発話PA1が日時dt1−1に行われたことを示す日時情報を発話PA1のセンサ情報に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−1は、スマートスピーカTM1−1の位置情報や発話PA1が行われた日時の情報を発話PA1のセンサ情報とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1−1は、発話PA1を検知したスマートスピーカ10がスマートスピーカTM1−1であることを特定可能にする端末情報(端末ID等)を発話PA1のセンサ情報に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−1は、スマートスピーカTM1−1の端末ID等を発話PA1のセンサ情報とともに情報処理装置100に送信する。これにより、情報処理装置100は、発話PA1のセンサ情報や位置情報や日時情報や端末情報等を発話PA1に関する行動情報として取得する(ステップS12)。
なお、スマートスピーカTM1−1は、発話PA1の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA1の文字情報を取得し、取得した文字情報を情報処理装置100へ送信してもよい。この場合、スマートスピーカTM1−1は、取得した発話PA1を行ったユーザがユーザU2であることを示す情報を情報処理装置100に送信してもよい。また、スマートスピーカTM1−1が音声認識機能を有する場合、スマートスピーカTM1−1は、情報処理装置100に送信することを要する情報のみを情報処理装置100に送信してもよい。また、情報処理装置100が、音声認識サーバから音声情報(発話PA1等)の文字情報を取得してもよいし、情報処理装置100が、音声認識サーバであってもよい。また、情報処理装置100は、発話PA1等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話の内容やユーザの状況を推定(特定)してもよい。
発話PA1のセンサ情報(音声情報)を取得した情報処理装置100は、発話PA1の音声情報を解析することにより、発話PA1を行ったユーザがユーザU2であることを特定(推定)してもよい。情報処理装置100は、種々の従来技術を適宜用いて発話を行ったユーザを特定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121(図4参照)等に記憶された音声とを用いて、発話を行ったユーザを特定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121に記憶された各ユーザの音声情報とを比較することより、発話を行ったユーザを特定(推定)してもよい。また、情報処理装置100は、スマートスピーカTM1−1から発話を行ったユーザを識別する情報を発話情報とともに取得してもよい。
このように、図1の例では、情報処理装置100は、種々の従来技術を適宜用いて、発話PA1を行ったユーザがユーザU2であると推定する。なお、上記は一例であり、情報処理装置100は、種々の情報を適宜用いて、発話を行ったユーザを推定してもよい。また、情報処理装置100は、画像センサ等により撮像されたユーザの画像を用いて、画像により発話を行ったユーザを推定してもよい。
そして、情報処理装置100は、ユーザU2の発話PA1に関する行動情報を行動情報記憶部123に登録する。図1中の行動情報記憶部123に示す「ユーザID」は、ユーザを識別するための識別情報を示す。図1中の行動情報記憶部123に示す「行動ID」は、ユーザの行動を識別する情報を示す。図1中の行動情報記憶部123に示す「種別」は、対応するユーザの行動の種別に関する情報を示す。図1中の行動情報記憶部123に示す「内容」は、対応するユーザの行動において対象となった内容を示す。図1中の行動情報記憶部123に示す「日時」は、対応するユーザの行動が行われた日時を示す。
図1の例では、情報処理装置100は、ユーザU2が日時dt1−1に位置LC11において、内容「Aレストラン良さそう」といった発話を行ったことを示す行動情報(行動情報AC21)を行動情報記憶部123に登録する。
また、図1の例では、ユーザU1が、ユーザU2の発話PA1の後に、情報処理装置100の周囲において、「いいね」という発話PA2を行う。このように、図1の例では、ユーザU1が、ユーザU2の発話PA1に対して同意を示す発話PA2を行う。そして、情報処理装置100は、音センサにより発話PA2(音声情報)を検知する。スマートスピーカTM1−1は、取得した発話PA2を含む音声情報を行動情報として情報処理装置100に送信する。発話PA2を含む音声情報を取得した情報処理装置100は、発話PA2の音声情報を解析することにより、発話PA2を行ったユーザがユーザU1であることを特定(推定)してもよい。そして、情報処理装置100は、自然言語処理技術を適宜用いて発話PA2を解析することにより、発話PA2の内容が同意を示す内容であると推定してもよい。そして、情報処理装置100は、ユーザU1の発話PA2に関する行動情報を行動情報記憶部123に登録してもよい。
また、情報処理装置100は、ユーザの発話の内容に基づいて発話のトピック(話題)に関する情報を推定する。例えば、情報処理装置100は、発話PA1に基づいてトピックを推定する。例えば、情報処理装置100は、トピック分析(解析)等の種々の従来手法を適宜用いて、発話PA1からトピックを抽出してもよい。例えば、情報処理装置100は、発話PA1を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話PA1の文字情報から重要なキーワードを発話PA1のトピックとして抽出してもよい。
図1の例では、情報処理装置100は、発話PA1のトピックが「Aレストラン」であると推定する。例えば、情報処理装置100は、発話PA1に「Aレストラン」が含まれるため、発話PA1のトピックを「Aレストラン」であると推定する。また、情報処理装置100は、発話PA1のトピックに対する評価を推定してもよい。例えば、情報処理装置100は、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話者のトピックへの評価を推定してもよい。例えば、情報処理装置100は、発話の内容に基づいて、発話者がトピックに対して肯定的であるか否定的であるかの評価を推定してもよい。図1の例では、情報処理装置100は、発話PA1がトピック「Aレストラン」をよいと評価しているため、肯定的であると推定してもよい。この場合、情報処理装置100は、肯定的な評価であると推定されたトピックを対象に、提供情報の決定を行ってもよい。
そして、情報処理装置100は、提供情報を決定する(ステップS13)。情報処理装置100は、ユーザU2の発話PA1のトピック「Aレストラン」に基づいて、提供情報を決定する。図1の例では、情報処理装置100は、店舗情報記憶部122に記憶された店舗情報のうち、トピックに対応する情報を提供情報に決定する。
図1中の店舗情報記憶部122に示す「店舗ID」は、店舗を識別するための識別情報を示す。図1中の店舗情報記憶部122に示す「名称」は、店舗の具体的な名称を示す。例えば、図1中の店舗情報記憶部122に示す「カテゴリ」は、店舗が属するカテゴリを示す。図1中の店舗情報記憶部122に示す「所在地」は、店舗が位置する場所を示す。なお、「所在地」は、「LC61」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。
図1の例では、店舗ID「SP1」により識別される店舗(店舗SP1)は、名称「Aレストラン」であり、カテゴリ「飲食」に属する店舗であることを示す。また、Aレストランは、位置LC61に位置することを示す。図1の例では、情報処理装置100は、トピック「Aレストラン」に対応するAレストランである店舗SP1に関する情報を提供情報に決定する。
そして、情報処理装置100は、情報の提供先を決定する(ステップS14)。例えば、情報処理装置100は、対応付情報記憶部124に記憶されたユーザとスマートスピーカ10との対応付けを示す情報(「対応付情報」ともいう)に基づいて、情報の提供先のスマートスピーカ10を決定する。
図1中の対応付情報記憶部124に示す「ユーザID」は、ユーザを識別するための識別情報を示す。図1中の対応付情報記憶部124に示す「共用ユーザID」は、ユーザIDにより識別されるユーザが利用するスマートスピーカを共用するユーザ(共用ユーザ)を識別するための識別情報を示す。図1中の対応付情報記憶部124に示す「宅用スマートスピーカ」は、ユーザIDにより識別されるユーザの自宅に配置されたスマートスピーカ10を識別する識別情報(端末ID)を示す。図1中の対応付情報記憶部124に示す「車載スマートスピーカ」は、ユーザIDにより識別されるユーザが移動体に搭載するスマートスピーカ10を識別する識別情報(端末ID)を示す。
図1の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、宅用のスマートスピーカとしてスマートスピーカTM1−1を利用し、車載のスマートスピーカとしてスマートスピーカTM1−2を利用することを示す。すなわち、スマートスピーカTM1−1はユーザU1の自宅に配置され、スマートスピーカTM1−2はユーザU1の移動体C1に配置されることを示す。また、ユーザU1は、ユーザID「U2」により識別されるユーザ(ユーザU2)を共用ユーザとすることを示す。
図1の例では、情報処理装置100は、対応付情報記憶部124に記憶された対応付情報や行動情報AC21に基づいて、情報の提供先のスマートスピーカ10をスマートスピーカTM1−2に決定する。すなわち、情報処理装置100は、発話PA1が宅用のスマートスピーカTM1−1により検知されているため、スマートスピーカTM1−1に対応する車載のスマートスピーカTM1−2を情報の提供先に決定する。このように、情報処理装置100は、発話PA1がユーザU1、U2の自宅HM1で行われたことを示す行動情報AC21に基づいて、情報の提供を自宅HM1に対応する移動体C1で行うと決定する。
そして、情報処理装置100は、情報の提供態様を決定する(ステップS15)。例えば、情報処理装置100は、図1中の提供態様情報SV1に示すように、情報の提供態様を決定する。情報処理装置100は、ステップS13により決定した提供情報に基づいて、提供する情報の対象を「Aレストラン」であると決定する。すなわち、情報処理装置100は、発話PA1から推定したトピック「Aレストラン」を対象に決定する。また、情報処理装置100は、ステップS14により決定した提供先に基づいて、情報の提供先を発話PA1が検知されたスマートスピーカTM1−1に対応付けられた車載のスマートスピーカTM1−2であると決定する。すなわち、情報処理装置100は、発話PA1を行ったユーザU2に対応付けられた車載のスマートスピーカTM1−2を提供先に決定する。
また、情報処理装置100は、情報の提供タイミングを決定する。図1の例では、情報処理装置100は、提供先が車載のスピーカTM1−2であり、対象が店舗SP1であるAレストランであるため、情報の提供タイミングを近接に決定する。すなわち、情報処理装置100は、位置が変動する移動体C1に搭載されたスマートスピーカTM1−2が提供先であり、所定の位置LC61に位置するAレストランが対象であるため、情報の提供タイミングを移動体C1がAレストランに近接したタイミングに決定する。図1の例では、情報処理装置100は、範囲AR1内に位置したタイミングを提供タイミングに決定する。情報処理装置100は、Aレストランを中心とする範囲AR1内に移動体C1(スマートスピーカTM1−2)が位置したタイミングを提供タイミングに決定する。なお、上記の提供タイミングは一例であり、情報処理装置100は、種々のタイミングを提供タイミングに決定してもよい。情報処理装置100は、提供先が宅内のスマートスピーカ10である場合、ユーザが所定の範囲内に位置することや、発話の中断等の提供タイミングに決定してもよい。
そして、図1の例では、マップ情報MP1に示す自動車である移動体C1にユーザU1及びユーザU2が乗車し、移動体C1により移動する。例えば、ユーザU1及びユーザU2は、自宅HM1の位置LC11を出発し、移動体C1により所定の目的地へ移動する。そして、移動体C1の位置が位置LC11から位置LC60に移動する。例えば、ユーザU1の運転等により、移動体C1は、位置LC60に移動する。その後、スマートスピーカTM1−2は、位置センサにより検知した位置LC60を示すセンサ情報を情報処理装置100へ送信する(ステップS16)。これにより、情報処理装置100は、スマートスピーカTM1−2から位置情報を取得する。図1の例では、情報処理装置100は、日時dt1−1より後の日時(例えば日時dt1−2等)において、スマートスピーカTM1−2から位置LC60を示す位置情報(センサ情報)を取得する。このように、情報処理装置100は、スマートスピーカTM1−2を利用するユーザU1に関する位置が、日時dt1−1より後の日時(例えば日時dt1−2等)においては、範囲AR1内の位置LC60であることを示す情報を取得する。
なお、スマートスピーカTM1−2は、位置等を検知する毎にリアルタイムに、情報処理装置100に位置情報等の種々の情報を送信してもよいし、所定の間隔(例えば5分間隔など)で、情報処理装置100に位置情報等の種々の情報を送信してもよい。また、スマートスピーカTM1−2は、検知したセンサ情報やユーザの行動情報とともに位置情報を送信してもよい。
そして、情報処理装置100は、タイミングを決定する(ステップS17)。情報処理装置100は、スマートスピーカTM1−2から取得したセンサ情報に基づいて、情報提供のタイミングを決定する。図1の例では、情報処理装置100は、スマートスピーカTM1−2から取得したセンサ情報に基づいて、スマートスピーカTM1−2にAレストランの情報を出力させるタイミングを決定する。
例えば、情報処理装置100は、移動体C1(スマートスピーカTM1−2)の位置が所定の条件を満たすかを判定する。例えば、情報処理装置100は、移動体C1の位置LC60と店舗SP1の位置LC61とに基づいて、提供態様情報SV1中の提供タイミングを満たすかを判定する。なお、情報処理装置100は、ジオフェンス等の種々の従来技術により、移動体C1の店舗SP1への近接を判定(決定)してもよい。情報処理装置100は、移動体C1の位置LC60と店舗SP1の位置LC61とを比較することにより、提供態様情報SV1中の提供タイミングを満たすかを判定する。情報処理装置100は、移動体C1の位置LC60と店舗SP1の位置LC61との間の距離を算出することにより、提供態様情報SV1中の提供タイミングを満たすかを判定する。この場合、情報処理装置100は、算出したユーザU1と店舗SP1との間の距離が範囲AR1である場合、提供態様情報SV1中の提供タイミングを満たすと判定する。例えば、情報処理装置100は、算出したユーザU1と店舗SP1との間の距離が1km以内である場合、提供態様情報SV1中の提供タイミングを満たすと判定する。図1の例では、情報処理装置100は、移動体C1の位置LC60が範囲AR1内であるため、提供態様情報SV1中の提供タイミングを満たすと判定する。そのため、情報処理装置100は、スマートスピーカTM1−2への提供タイミングになったと判定する。そして、情報処理装置100は、Aレストランに関する提供情報をスマートスピーカTM1−2に提供する(ステップS18)。図1の例では、情報処理装置100は、スマートスピーカTM1−2に出力させる音声情報である提供情報INF1をスマートスピーカTM1−2に送信する。例えば、情報処理装置100は、ユーザU2の過去の発話PA1に基づいて、ユーザU1、U2が過去にAレストランを話題にしたことを推定し、提供情報INF1を生成する。例えば、情報処理装置100は、音声合成等の種々の従来技術を適宜用いて、提供情報INF1を生成してもよい。
情報処理装置100から提供情報INF1を受信したスマートスピーカTM1−2は、提供情報INF1を出力する(ステップS19)。例えば、スマートスピーカTM1−2は、音声情報である提供情報INF1を音声出力する。図1の例では、スマートスピーカTM1−2は、Aレストランである店舗SP1に関する提供情報INF1を音声出力する。例えば、スマートスピーカTM1−2は、「先日話題になっていたAレストランはすぐこの先にありますよ」等の提供情報INF1を音声出力する。なお、提供情報INF1は、Aレストランである店舗SP1に関する情報であれば、どのような情報であってもよい。例えば、音声広告である提供情報INF1は、Aレストランをユーザに想起させる音声情報であればどのような音声情報であってもよい。例えば、提供情報INF1は、Aレストランに対応するジングルやサウンドロゴ等の音声情報であってもよい。例えば、提供情報INF1は、「先日発話されたAレストランが近くにあります」等の音声情報であってもよい。
このように、情報処理装置100は、ユーザU1、U2が居住する自宅HM1に配置されたスマートスピーカTM1−1により検知された発話PA1に基づいて、ユーザU1、U2が乗る移動体C1に搭載されたスマートスピーカTM1−2により提供する提供情報を決定することにより、自宅HM1で収集した情報を基に移動体C1でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数のスマートスピーカ等の端末装置を用いることにより適切な情報提供を可能にすることができる。例えば、情報処理装置100は、複数の端末装置の各々が離れた場所(遠隔)に位置する場合であっても、一方の端末装置が検知した情報に基づいて、他方の端末装置により適切な情報提供を可能にすることができる。図1の例では、情報処理装置100は、自宅HM1(位置LC11)に配置されたスマートスピーカTM1−1と、移動体C1に搭載されたスマートスピーカTM1−2とのように、互いに離れた場所(遠隔)に位置する場合であっても、スマートスピーカTM1−1が検知した情報に基づいて、スマートスピーカTM1−2により適切な情報提供を可能にすることができる。
〔1−1.その他の提供〕
〔1−1−1.その他の情報〕
なお、情報処理装置100は、上記のような情報提供に限らず、種々の情報を提供してもよい。情報処理装置100は、自宅で話題になったレストラン情報などを宅用スマートスピーカにより取得し、ドライブ中に当該話題になった場所に差し掛かったら案内情報を提供してもよい。情報処理装置100は、上記に限らず、移動体C1に搭載されたスマートスピーカTM1−2により種々の提供を行ってもよい。例えば、情報処理装置100は、自宅で話題になった旅行先の情報(旅先情報)をスマートスピーカTM1−2により提供してもよい。例えば、情報処理装置100は、自宅で話題になった旅先情報を、移動体C1にユーザU1やユーザU2が乗車したタイミングで、スマートスピーカTM1−2により提供してもよい。例えば、情報処理装置100は、画像センサにより検知された画像情報を解析することにより推定した移動体C1にユーザU1やユーザU2が乗車したタイミングで、旅先情報をスマートスピーカTM1−2により提供してもよい。
〔1−1−2.ルート情報〕
例えば、情報処理装置100は、宅内での会話から寄りたい店などを考慮した最適なルートをユーザに提案してもよい。情報処理装置100は、発話情報に基づくトピックを示すトピック情報に基づく移動ルートを、スマートスピーカTM1−2に提供する提供情報に決定してもよい。図1の例では、情報処理装置100は、発話PA1に基づくトピック「Aレストラン」を示すトピック情報に基づいて、スマートスピーカTM1−2に提供する移動ルートに決定してもよい。例えば、情報処理装置100は、トピック「Aレストラン」の位置LC61と移動体C1(スマートスピーカTM1−2)の位置との間を通る道路に基づいて、スマートスピーカTM1−2に提供する移動ルートに決定してもよい。そして、情報処理装置100は、決定した移動ルートを示す情報をスマートスピーカTM1−2に提供してもよい。
例えば、移動体C1(スマートスピーカTM1−2)の位置が自宅HM1(位置LC11)である場合、情報処理装置100は、位置LC11とAレストランの位置LC61との間を通るルートRT1を示す情報をスマートスピーカTM1−2に提供すると決定してもよい。そして、情報処理装置100は、ユーザU1やユーザU2が移動体C1に乗車したタイミングで、スマートスピーカTM1−2がルートRT1を示す情報を出力するように、ルートRT1を示す情報をスマートスピーカTM1−2に提供してもよい。例えば、情報処理装置100は、ユーザU1やユーザU2が移動体C1に乗車したタイミングで、ルートRT1を示す情報をスマートスピーカTM1−2に提供することにより、スマートスピーカTM1−2にルートRT1を示す情報を出力させてもよい。
〔1−1−3.その他のサービス〕
また、情報処理装置100は、種々のサービスを提供してもよい。情報処理装置100は、リビング内で話題になっていた場所に差し掛かったら車載のスマートスピーカ10が自動で写真を撮影するサービスを提供してもよい。情報処理装置100は、位置情報と、トピック情報とに基づいて、所定の画像センサによる撮像タイミングを決定してもよい。
例えば、情報処理装置100は、ユーザU1の発話に基づくトピックが「Tタワー」である場合、Tタワーの位置LC99の付近に移動体C1(スマートスピーカTM1−2)が位置したタイミングで、スマートスピーカTM1−2の画像センサによる撮像を行うように、スマートスピーカTM1−2に指示してもよい。例えば、情報処理装置100は、Tタワーの位置LC99から所定の範囲内に移動体C1(スマートスピーカTM1−2)が位置したタイミングで、スマートスピーカTM1−2外部を撮像する画像センサによる撮像を行うように、スマートスピーカTM1−2に指示してもよい。
〔1−2.宅内での情報提供〕
図1の例では、情報処理装置100は、ユーザの自宅で検知されたセンサ情報に基づいて、ユーザが乗る移動体において提供する提供情報を決定したが、移動体で検知されたセンサ情報に基づいて、自宅において提供する提供情報を決定してもよい。すなわち、情報処理装置100は、車載スマートスピーカにより検知されたセンサ情報に基づいて、宅用スマートスピーカにより提供する提供情報を決定してもよい。図1の例では、情報処理装置100は、移動体C1に搭載されたスマートスピーカTM1−2により検知されたセンサ情報に基づいて、自宅HM1に配置されたスマートスピーカTM1−1により提供する提供情報を決定してもよい。この点について以下説明する。
〔1−2−1.情報提供〕
情報処理装置100は、車等の移動体で話題の情報をリビングで提供してもよい。情報処理装置100は、移動体内におけるユーザの発話により推定したトピックに基づいて、ユーザの自宅で提供する情報を決定してもよい。情報処理装置100は、移動体内におけるユーザの発話により推定したトピックに基づく情報を、ユーザの自宅において提供してもよい。図1の例では、情報処理装置100は、移動体C1におけるユーザU1やユーザU2の発話から推定したトピックに関する情報を、自宅HM1で提供してもよい。
例えば、情報処理装置100は、スマートスピーカTM1−2により検知したユーザU1の発話からトピック「XX番組」に関する情報を、スピーカTM1−1により提供する情報に決定してもよい。例えば、情報処理装置100は、トピック「XX番組」に関する情報をユーザU1がスマートスピーカTM1−1から所定の範囲内に位置したタイミングで、スマートスピーカTM1−1に出力させてもよい。例えば、情報処理装置100は、スマートスピーカTM1−1から所定の範囲内に位置したタイミングで、トピック「XX番組」に関する情報をスマートスピーカTM1−1に提供することにより、スマートスピーカTM1−2にトピック「XX番組」に関する情報を出力させてもよい。
〔1−2−2.画像情報提供〕
情報処理装置100は、車等の移動体で検知した画像情報をリビングで提供してもよい。情報処理装置100は、長距離ドライブや複数人でのドライブの場合、ドライブレコーダ(車載スマートスピーカ等)により撮影された画像や動画を用いて、タイムラプスやスライドショー等の所定の画像情報(動画情報)をリビングで表示してもよい。
情報処理装置100は、車載のスマートスピーカ10により撮像された画像情報に基づいて、住宅のスマートスピーカ10における提供情報を決定してもよい。情報処理装置100は、車載のスマートスピーカ10により撮像された画像情報を、住宅における提供情報に決定してもよい。
図1の例では、情報処理装置100は、移動体C1に搭載されたスマートスピーカTM1−2の画像センサにより撮像された画像情報に基づいて、自宅HM1に配置されたスマートスピーカTM1−1により提供する提供情報を決定してもよい。情報処理装置100は、移動体C1に搭載されたスマートスピーカTM1−2の画像センサにより撮像された画像情報を、自宅HM1に配置されたスマートスピーカTM1−1により提供する提供情報に決定してもよい。
情報処理装置100は、移動体C1に搭載されたスマートスピーカTM1−2の画像センサにより撮像された画像情報を、自宅HM1に配置されたスマートスピーカTM1−1の所定の表示機能により表示してもよい。この場合、スマートスピーカTM1−1は、プロジェクタとして機能する投影部や、ディスプレイ画面等の表示部を有してもよい。なお、スマートスピーカTM1−1は、ユーザが視認可能な態様で画像情報を出力可能であれば、どのような機能により、画像情報を出力してもよい。
〔1−2−3.移動体の操作の基づく情報提供〕
情報処理装置100は、ユーザによる車等の移動体に対する操作に関するセンサ情報を検知し、検知したセンサ情報に基づく操作情報に応じて、種々の情報を宅内において提供してもよい。この場合、ユーザの移動体には、ユーザの操作を検知する種々の操作検知用センサが設けられてもよい。例えば、移動体が車である場合、移動体には、ワイパーの入り切りを検知するセンサやエンジンの始動を検知するセンサ等の操作検知用センサが設けられてもよい。そして、情報処理装置100や車載のスマートスピーカ10は、操作検知用センサが検知したセンサ情報を取得する。
また、情報処理装置100は、車載のスマートスピーカ10が検知した画像情報や音声情報に基づいて、ユーザの移動体に対する操作を推定してもよい。例えば、情報処理装置100は、車載のスマートスピーカ10が検知した画像情報により、ワイパーが動作していることを推定してもよい。また、情報処理装置100は、車載のスマートスピーカ10が検知した音声情報により、移動体のエンジンが始動したことを推定してもよい。
〔1−2−3−1.操作に基づく情報提供〕
情報処理装置100は、移動体の操作に関する操作情報に基づいて、住宅における提供情報を決定してもよい。例えば、情報処理装置100は、車のワイパーを動かしたら雨が降っていることをリビングに通知してもよい。例えば、情報処理装置100は、移動体のワイパーの操作に関する操作情報を取得し、操作情報に基づいてワイパーが操作されたと推定される場合、降雨を示す情報を、住宅における提供情報に決定する。
図1の例では、情報処理装置100は、移動体C1のワイパーが操作されたことを示す操作情報を取得した場合、自宅HM1に配置されたスマートスピーカTM1−1に移動体C1の位置における天候が降雨であることを示す情報を提供してもよい。この場合、情報処理装置100は、移動体C1の位置が位置LC12である場合、自宅HM1に配置されたスマートスピーカTM1−1に、ユーザU1の勤務地(位置LC12)付近における天候が降雨であることを示す情報を提供してもよい。そして、スマートスピーカTM1−1が、ユーザU1の勤務地(位置LC12)付近における天候が降雨であることを示す情報を出力することにより、同居するユーザU2等はユーザU1の勤務地(位置LC12)が雨であることを把握することができる。
〔1−2−3−2.予想時間の情報提供〕
情報処理装置100は、種々の情報を適宜用いて、移動体の自宅への到着予定時間を宅内のスマートスピーカ10に提供してもよい。例えば、情報処理装置100は、移動体で帰宅する父親の帰宅予定時間を宅内にいる他の家族に通知してもよい。
情報処理装置100は、移動体の位置を示す位置情報を取得し、取得した位置情報に基づいて、移動体の住宅への到着予定時間を、住宅における提供情報に決定してもよい。例えば、情報処理装置100は、種々の従来技術を適宜用いて、移動体の住宅への到着予定時間を推定してもよい。また、情報処理装置100は、移動体(出発点)の位置及び住宅(到着点)の位置を示す情報を、ナビゲーションサービスを提供する外部の情報処理装置へ送信することにより、移動体の住宅への到着予定時間を取得してもよい。
例えば、情報処理装置100は、移動体のエンジンが始動したタイミングを移動体に乗るユーザの帰宅開始時間と推定し、その帰宅開始時間に基づいて移動体の住宅への到着予定時間(帰宅予定時間)を取得してもよい。図1の例では、情報処理装置100は、移動体C1のエンジンが始動したタイミングを帰宅開始時間と推定し、移動体C1の位置及び自宅HM1の位置LC11に基づいて、移動体C1の自宅HM1への到着予定時間を推定してもよい。例えば、情報処理装置100は、移動体C1の位置が位置LC12である場合、移動体C1の位置LC12及び自宅HM1の位置LC11に基づく移動体C1の自宅HM1への到着予定時間をスマートスピーカTM1−1に提供してもよい。そして、スマートスピーカTM1−1が、ユーザU1の到着予定時間を示す情報を出力することにより、同居するユーザU2等はユーザU1が何時ごろに帰宅するかを把握することができる。
〔1−3.提供タイミング〕
図1の例では、移動体の位置に基づいて、情報提供のタイミングを決定する場合を示したが、上記の提供タイミングは一例であり、情報処理装置100は、種々のタイミングを提供タイミングに決定してもよい。情報処理装置100は、発話の中断等を提供タイミングに決定してもよい。また、情報処理装置100は、提供先が宅内のスマートスピーカ10である場合、ユーザの位置がスマートスピーカ10から所定の範囲内に入ったタイミングを提供タイミングに決定してもよい。また、情報処理装置100は、ユーザが移動を停止したタイミングを提供タイミングに決定してもよい。また、情報処理装置100は、ユーザの信号待ちしたタイミングを提供タイミングに決定してもよい。例えば、情報処理装置100は、ユーザの所定の発言を行ったタイミングを提供タイミングに決定してもよい。例えば、情報処理装置100は、ユーザが「お腹空いた」と発言を行ったタイミングを提供タイミングに決定してもよい。
〔1−4.スマートスピーカ〕
図1の例では、スマートスピーカTM1−1が自宅HM1に配置された場合を示したが、スマートスピーカTM1−1は、自宅においてユーザが利用可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1−1は、ユーザが携帯する携帯端末であってもよい。また、図1の例では、スマートスピーカTM1−2が移動体C1に搭載された場合を示したが、スマートスピーカTM1−2は、ユーザとともに移動可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1−2は、ユーザが携帯する携帯端末であってもよい。
〔1−5.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、スマートスピーカ10が決定処理を行ってもよい。例えば、スマートスピーカ10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100とスマートスピーカ10とは一体であってもよい。この場合、情報処理システムには、情報配信サーバが含まれてもよい。そして、スマートスピーカ10である情報処理装置100は、情報配信サーバから提供情報を取得し、決定した出力タイミングに基づいて、取得した提供情報を出力してもよい。また、スマートスピーカ10である情報処理装置100は、提供情報を出力したことを示す情報等を情報配信サーバに送信してもよい。また、スマートスピーカ10である情報処理装置100は、センサにより検知されたセンサ情報やユーザの行動情報等の種々の情報を情報配信サーバに送信してもよい。
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、スマートスピーカ10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、店舗情報記憶部122と、行動情報記憶部123と、対応付情報記憶部124とを有する。なお、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報等の種々の情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「自宅」、「勤務地」、「興味」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
また、「自宅」は、ユーザIDにより識別されるユーザの自宅の位置情報を示す。なお、図4に示す例では、「自宅」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「自宅」は、地域名や住所であってもよい。
また、「勤務地」は、ユーザIDにより識別されるユーザの勤務地の位置情報を示す。なお、図4に示す例では、「勤務地」は、「LC12」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。また、例えば、「勤務地」は、地域名や住所であってもよい。
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。
図4に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。また、ユーザU1は、自宅が「LC11」であることを示す。また、ユーザU1は、勤務地が「LC12」であることを示す。また、ユーザU1は、「スポーツ」に興味があることを示す。
図4に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)の年齢は、「20代」であり、性別は、「女性」であることを示す。また、ユーザU2は、自宅が「LC11」であることを示す。すなわち、ユーザU2は、ユーザU1と同居するユーザであることを示す。また、ユーザU2は、勤務地が「LC22」であることを示す。また、ユーザU2は、「グルメ」に興味があることを示す。
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザのデモグラフィック属性に関する情報やサイコグラフィック属性に関する情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入、興味、ライフスタイル等の情報を記憶してもよい。
また、ユーザ情報記憶部121は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。
項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。
図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121中の項目「音声」に記憶された各ユーザの音声情報とを比較することより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。
(店舗情報記憶部122)
実施形態に係る店舗情報記憶部122は、店舗(ストア)に関する各種情報を記憶する。図5は、実施形態に係る店舗情報記憶部の一例を示す図である。例えば、店舗情報記憶部122は、種々の店舗に関する情報を記憶する。図5に示す店舗情報記憶部122には、「店舗ID」、「名称」、「カテゴリ」、「所在地」といった項目が含まれる。
「店舗ID」は、店舗を識別するための識別情報を示す。「名称」は、店舗の具体的な名称を示す。例えば、「名称」は、「○○カフェX町店」のような屋号と店舗の場所を示す情報との組合せであってもよい。また、「カテゴリ」は、店舗が属するカテゴリを示す。また、「所在地」は、店舗が位置する場所を示す。なお、「所在地」は、「LC61」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。
図5の例では、店舗ID「SP1」により識別される店舗は、名称「Aレストラン」であり、カテゴリ「飲食」に属する店舗であることを示す。また、Aレストランは、位置LC61に位置することを示す。
なお、店舗情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(行動情報記憶部123)
実施形態に係る行動情報記憶部123は、ユーザの行動に関する各種情報を記憶する。図6は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部123は、各ユーザの行動履歴を記憶する。図6に示す行動情報記憶部123には、「ユーザID」、「行動ID」、「種別」、「内容」、「日時」、「位置」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。「日時」は、対応するユーザの行動が行われた日時を示す。「日時」には、「dt1−5」等のように抽象的に図示するが、「2018年7月25日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年7月25日22時31分」や「2018年7月25日22時30−31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC61」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町」等のような住所を示す情報であってもよい。
図6の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC11」により識別される行動(行動AC11)等を行ったことを示す。具体的には、図6の例ではユーザU1は、日時dt1−1よりも後の日時dt1−5において、位置LC61に位置するAレストランで飲食代の支払(行動AC11)を行ったことを示す。すなわち、ユーザU1は、日時dt1−5において、Aレストランを利用したことを示す。
また、図6の例では、ユーザID「U2」により識別されるユーザ(ユーザU2)は、行動ID「AC21」により識別される行動(行動AC21)等を行ったことを示す。具体的には、図6の例ではユーザU2は、日時dt1−1において、位置LC11に位置する自宅で「Aレストラン良さそう」といった発話(行動AC21)を行ったことを示す。
なお、行動情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、行動情報記憶部123は、各行動情報が取得された際のユーザの位置情報を各行動情報に対応付けて記憶してもよい。また、図6では、ユーザIDごとに行動情報が行動情報記憶部123に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
(対応付情報記憶部124)
実施形態に係る対応付情報記憶部124は、対応付けに関する情報を記憶する。例えば、対応付情報記憶部124は、ユーザとスマートスピーカとの対応付けに関する情報を記憶する。図7は、実施形態に係る対応付情報記憶部の一例を示す図である。図7に示す対応付情報記憶部124は、「ユーザID」、「共用ユーザID」、「宅用スマートスピーカ」、「車載スマートスピーカ」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。「共用ユーザID」は、ユーザIDにより識別されるユーザが利用するスマートスピーカを共用するユーザ(共用ユーザ)を識別するための識別情報を示す。また、「宅用スマートスピーカ」は、ユーザIDにより識別されるユーザの自宅に配置されたスマートスピーカ10を識別する識別情報(端末ID)を示す。すなわち、「宅用スマートスピーカ」は、ユーザIDにより識別されるユーザが自宅で利用するスマートスピーカ10を識別する識別情報(端末ID)を示す。また、「車載スマートスピーカ」は、ユーザIDにより識別されるユーザが移動体に搭載するスマートスピーカ10を識別する識別情報(端末ID)を示す。すなわち、「車載スマートスピーカ」は、ユーザIDにより識別されるユーザが移動体で利用するスマートスピーカ10を識別する識別情報(端末ID)を示す。なお、図7に示すように、「車載スマートスピーカ」には、車載スマートスピーカの最新位置、すなわち車載スマートスピーカが搭載された移動体の最新位置が記憶されてもよい。
図7の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、宅用のスマートスピーカとしてスマートスピーカTM1−1を利用し、車載のスマートスピーカとしてスマートスピーカTM1−2を利用することを示す。すなわち、スマートスピーカTM1−1はユーザU1の自宅に配置され、スマートスピーカTM1−2はユーザU1の移動体C1に配置されることを示す。また、ユーザU1は、ユーザID「U2」により識別されるユーザ(ユーザU2)を共用ユーザとすることを示す。また、スマートスピーカTM1−2の最新位置、すなわち移動体C1の最新位置は、位置LC60であることを示す。
なお、対応付情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、対応付情報記憶部124は、車載スマートスピーカがどの移動体に搭載されているかを特定するための情報が記憶されてもよい。例えば、対応付情報記憶部124は、車載スマートスピーカが搭載される移動体を識別する情報が、車載スマートスピーカを識別する情報に対応付けられて記憶されてもよい。
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、推定部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、種々の情報を取得する。取得部131は、スマートスピーカ10等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、店舗情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等から各種情報を取得する。
取得部131は、端末装置により検知されたセンサ情報を取得する。取得部131は、第1端末装置により検知されたセンサ情報を取得する。取得部131は、一のスマートスピーカである第1端末装置により検知されたセンサ情報を取得する。取得部131は、取得部131は、一のスマートスピーカにより検知されたセンサ情報を取得する。取得部131は、一のスマートスピーカにより検知された音声情報を含むセンサ情報を取得する。
取得部131は、ユーザが居住する住宅に配置された一のスマートスピーカにより検知されたセンサ情報を取得する。取得部131は、住宅におけるユーザの発話情報を含むセンサ情報を取得する。取得部131は、移動体に関する位置情報を取得する。取得部131は、トピック情報に対応する店舗の位置を示す店舗位置情報を取得する。
取得部131は、ユーザが乗る移動体に搭載された一のスマートスピーカにより検知されたセンサ情報を取得する。取得部131は、ユーザのうち、一のユーザが乗る移動体に搭載された一のスマートスピーカにより検知されたセンサ情報を取得する。取得部131は、一のスマートスピーカにより撮像された画像情報を含むセンサ情報を取得する。取得部131は、移動体の操作に関する操作情報を含むセンサ情報を取得する。取得部131は、移動体のワイパーの操作に関する操作情報を含むセンサ情報を取得する。取得部131は、移動体の位置を示す位置情報を取得する。
図1の例では、取得部131は、スマートスピーカTM1−1から発話PA1のセンサ情報(音声情報)を取得する。取得部131は、発話PA1が自宅HM1の位置LC11で行われたことを示す位置情報や発話PA1が日時dt1−1に行われたことを示す日時情報を取得する。取得部131は、発話PA1を検知したスマートスピーカ10がスマートスピーカTM1−1であることを特定可能にする端末情報(端末ID等)を取得する。取得部131は、スマートスピーカTM1−2から位置情報を取得する。取得部131は、日時dt1−1より後の日時(例えば日時dt1−2等)において、スマートスピーカTM1−2から位置LC60を示す位置情報(センサ情報)を取得する。取得部131は、スマートスピーカTM1−2を利用するユーザU1に関する位置が、日時dt1−1より後の日時(例えば日時dt1−2等)においては、範囲AR1内の位置LC60であることを示す情報を取得する。
(推定部132)
推定部132は、各種情報を推定する。推定部132は、各種情報を特定する。推定部132は、各種情報を抽出する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。推定部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。推定部132は、ユーザ情報記憶部121や、店舗情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を推定する。推定部132は、ユーザ情報記憶部121や、店舗情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を特定する。推定部132は、ユーザ情報記憶部121や、店舗情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を抽出する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。推定部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
推定部132は、ユーザの発話の内容に基づいて会話のトピック(話題)に関する情報を推定する。例えば、推定部132は、ユーザの発話等に基づいてトピックに関する情報を推定する。例えば、推定部132は、トピック分析(解析)等の種々の従来手法を適宜用いて、ユーザの発話等からトピックを抽出してもよい。例えば、推定部132は、ユーザの発話等を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザの発話等の文字情報から重要なキーワードをユーザの発話等のトピックとして抽出してもよい。
図1の例では、推定部132は、発話PA1を行ったユーザがユーザU2であると推定する。推定部132は、発話PA1の音声情報を解析することにより、発話PA1を行ったユーザがユーザU2であることを特定(推定)してもよい。推定部132は、種々の従来技術を適宜用いて発話を行ったユーザを特定(推定)してもよい。例えば、推定部132は、ユーザの発話と、ユーザ情報記憶部121(図4参照)等に記憶された音声とを用いて、発話を行ったユーザを特定(推定)してもよい。例えば、推定部132は、ユーザの発話の音声情報と、ユーザ情報記憶部121に記憶された各ユーザの音声情報とを比較することより、発話を行ったユーザを特定(推定)してもよい。
図1の例では、推定部132は、ユーザの発話の内容に基づいて発話のトピック(話題)に関する情報を推定する。例えば、推定部132は、発話PA1に基づいてトピックを推定する。例えば、推定部132は、トピック分析(解析)等の種々の従来手法を適宜用いて、発話PA1からトピックを抽出してもよい。例えば、推定部132は、発話PA1を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話PA1の文字情報から重要なキーワードを発話PA1のトピックとして抽出してもよい。
推定部132は、発話PA1のトピックが「Aレストラン」であると推定する。例えば、推定部132は、発話PA1に「Aレストラン」が含まれるため、発話PA1のトピックを「Aレストラン」であると推定する。また、推定部132は、発話PA1のトピックに対する評価を推定してもよい。例えば、推定部132は、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話者のトピックへの評価を推定してもよい。例えば、推定部132は、発話の内容に基づいて、発話者がトピックに対して肯定的であるか否定的であるかの評価を推定してもよい。推定部132は、発話PA1がトピック「Aレストラン」をよいと評価しているため、肯定的であると推定してもよい。
(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を判定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、ユーザ情報記憶部121や、店舗情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を決定する。決定部133は、ユーザ情報記憶部121や、店舗情報記憶部122や、行動情報記憶部123や、対応付情報記憶部124等に基づいて、各種情報を生成する。決定部133は、推定部132により推定された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。
決定部133は、取得部131により取得されたセンサ情報に基づいて、端末装置により提供する提供情報を決定する。決定部133は、取得部131により取得されたセンサ情報に基づいて、第1端末装置とは異なる第2端末装置により提供する提供情報を決定する。決定部133は、取得部131により取得されたセンサ情報に基づいて、第1端末装置とは異なる他のスマートスピーカである第2端末装置により提供する提供情報を決定する。決定部133は、取得部131により取得されたセンサ情報に基づいて、一のスマートスピーカとは異なる他のスマートスピーカにより提供する提供情報を決定する。決定部133は、取得部131により取得された音声情報に基づいて、提供情報を決定する。
決定部133は、取得部131により取得されたセンサ情報に基づいて、ユーザが乗る移動体に搭載された他のスマートスピーカにより提供する提供情報を決定する。決定部133は、取得部131により取得されたセンサ情報に基づいて、ユーザのうち、一のユーザが乗る移動体に搭載された他のスマートスピーカにより提供する提供情報を決定する。決定部133は、取得部131により取得された発話情報に基づいて、移動体における提供情報を決定する。決定部133は、取得部131により取得された発話情報に基づくトピックを示すトピック情報に応じて、移動体において提供する提供情報を決定する。決定部133は、トピック情報を、移動体において提供する提供情報に決定する。
決定部133は、取得部131により取得された位置情報と、トピック情報とに基づいて、移動体における提供情報を提供するタイミングを決定する。決定部133は、位置情報と店舗位置情報とに基づいて、移動体における提供情報を提供するタイミングを決定する。決定部133は、取得部131により取得された位置情報と、トピック情報とに基づいて、所定の画像センサによる撮像タイミングを決定する。決定部133は、取得部131により取得された発話情報に基づくトピックを示すトピック情報に基づく移動ルートを、移動体において提供する提供情報に決定する。
決定部133は、取得部131により取得されたセンサ情報に基づいて、ユーザが居住する住宅に配置された他のスマートスピーカにより提供する提供情報を決定する。決定部133は、取得部131により取得された画像情報に基づいて、住宅における提供情報を決定する。決定部133は、取得部131により取得された画像情報を、住宅における提供情報に決定する。決定部133は、取得部131により取得された操作情報に基づいて、住宅における提供情報を決定する。決定部133は、ワイパーが操作された場合、降雨を示す情報を、住宅における提供情報に決定する。決定部133は、取得部131により取得された位置情報に基づいて、移動体の住宅への到着予定時間を、住宅における提供情報に決定する。
決定部133は、提供情報を決定する。図1の例では、決定部133は、ユーザU2の発話PA1のトピック「Aレストラン」に基づいて、提供情報を決定する。決定部133は、店舗情報記憶部122に記憶された店舗情報のうち、トピックに対応する情報を提供情報に決定する。決定部133は、トピック「Aレストラン」に対応するAレストランである店舗SP1に関する情報を提供情報に決定する。
決定部133は、情報の提供先を決定する。例えば、決定部133は、対応付情報記憶部124に記憶されたユーザとスマートスピーカ10との対応付けを示す対応付情報に基づいて、情報の提供先のスマートスピーカ10を決定する。
図1の例では、決定部133は、対応付情報記憶部124に記憶された対応付情報や行動情報AC21に基づいて、情報の提供先のスマートスピーカ10をスマートスピーカTM1−2に決定する。決定部133は、発話PA1が宅用のスマートスピーカTM1−1により検知されているため、スマートスピーカTM1−1に対応する車載のスマートスピーカTM1−2を情報の提供先に決定する。決定部133は、発話PA1がユーザU1、U2の自宅HM1で行われたことを示す行動情報AC21に基づいて、発話PA1が情報の提供を自宅HM1に対応する移動体C1で行うと決定する。
決定部133は、情報の提供態様を決定する。例えば、決定部133は、図1中の提供態様情報SV1に示すように、情報の提供態様を決定する。決定部133は、決定した提供情報に基づいて、提供する情報の対象を「Aレストラン」であると決定する。決定部133は、発話PA1から推定したトピック「Aレストラン」を対象に決定する。また、決定部133は、決定した提供先に基づいて、情報の提供先を発話PA1が検知されたスマートスピーカTM1−1に対応付けられた車載のスマートスピーカTM1−2であると決定する。すなわち、決定部133は、発話PA1を行ったユーザU2に対応付けられた車載のスマートスピーカTM1−2を提供先に決定する。
また、決定部133は、情報の提供タイミングを決定する。図1の例では、決定部133は、提供先が車載のスピーカTM1−2であり、対象が店舗SP1であるAレストランであるため、情報の提供タイミングを近接に決定する。決定部133は、位置が変動する移動体C1に搭載されたスマートスピーカTM1−2が提供先であり、所定の位置LC61に位置するAレストランが対象であるため、情報の提供タイミングを移動体C1がAレストランに近接したタイミングに決定する。図1の例では、決定部133は、範囲AR1内に位置したタイミングを提供タイミングに決定する。決定部133は、Aレストランを中心とする範囲AR1内に移動体C1(スマートスピーカTM1−2)が位置したタイミングを提供タイミングに決定する。
決定部133は、タイミングを決定する。決定部133は、スマートスピーカTM1−2から取得したセンサ情報に基づいて、情報提供のタイミングを決定する。図1の例では、決定部133は、スマートスピーカTM1−2から取得したセンサ情報に基づいて、スマートスピーカTM1−2にAレストランの情報を出力させるタイミングを決定する。
例えば、決定部133は、移動体C1(スマートスピーカTM1−2)の位置が所定の条件を満たすかを判定する。例えば、情報処理装置100は、移動体C1の位置LC60が範囲AR1の領域内に位置する場合、所定の条件を満たすと判定する。例えば、決定部133は、移動体C1の位置LC60と店舗SP1の位置LC61とに基づいて、提供態様情報SV1中の提供タイミングを満たすかを判定する。決定部133は、移動体C1の位置LC60と店舗SP1の位置LC61とを比較することにより、提供態様情報SV1中の提供タイミングを満たすかを判定する。決定部133は、移動体C1の位置LC60と店舗SP1の位置LC61との間の距離を算出することにより、提供態様情報SV1中の提供タイミングを満たすかを判定する。この場合、決定部133は、算出したユーザU1と店舗SP1との間の距離が範囲AR1の半径以下である場合、提供態様情報SV1中の提供タイミングを満たすと判定する。例えば、決定部133は、算出したユーザU1と店舗SP1との間の距離が1km以内である場合、提供態様情報SV1中の提供タイミングを満たすと判定する。図1の例では、決定部133は、移動体C1の位置LC60が範囲AR1内であるため、提供態様情報SV1中の提供タイミングを満たすと判定する。そのため、決定部133は、スマートスピーカTM1−2への提供タイミングになったと判定する。
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、スマートスピーカ10等の外部の情報処理装置に各種情報を提供する。提供部134は、スマートスピーカ10に各種情報を送信する。提供部134は、スマートスピーカ10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、推定部132により推定された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。
提供部134は、決定部133により決定された提供情報を提供する。図1の例では、提供部134は、Aレストランに関する提供情報をスマートスピーカTM1−2に提供する。提供部134は、スマートスピーカTM1−2に出力させる音声情報である提供情報INF1をスマートスピーカTM1−2に送信する。
〔3.情報処理のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図8は、決定処理の一例を示すフローチャートである。
図8に示すように、情報処理装置100は、一のスマートスピーカにより検知されたセンサ情報を取得する(ステップS101)。例えば、情報処理装置100は、第1端末装置である一のスマートスピーカにより検知されたセンサ情報を取得する。そして、情報処理装置100は、センサ情報に基づいて、一のスマートスピーカとは異なる他のスマートスピーカにより提供する提供情報を決定する(ステップS102)。例えば、情報処理装置100は、一のスマートスピーカにより検知されたセンサ情報に基づいて、一のスマートスピーカとは異なる第2端末装置である他のスマートスピーカにより提供する提供情報を決定する。そして、情報処理装置100は、決定した提供情報を提供する(ステップS103)。例えば、情報処理装置100は、一のスマートスピーカとは異なる第2端末装置である他のスマートスピーカに提供情報を提供する。
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部133とを有する。取得部131は、第1端末装置により検知されたセンサ情報を取得する。決定部133は、取得部131により取得されたセンサ情報に基づいて、第1端末装置とは異なる第2端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、第1端末装置により検知されたセンサ情報に基づいて、第1端末装置とは異なる第2端末装置により提供する提供情報を決定することにより、複数の端末装置を連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、一のスマートスピーカである第1端末装置により検知されたセンサ情報を取得する。決定部133は、センサ情報に基づいて、第1端末装置とは異なる他のスマートスピーカである第2端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、一のスマートスピーカである第1端末装置により検知されたセンサ情報に基づいて、第1端末装置とは異なる他のスマートスピーカである第2端末装置により提供する提供情報を決定することにより、複数のスマートスピーカを連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数のスマートスピーカ等の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1端末装置により検知された音声情報を含むセンサ情報を取得する。決定部133は、取得部131により取得された音声情報に基づいて、提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、第1端末装置により検知された音声情報に基づいて、提供情報を決定することにより、複数の端末装置を連携させてユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが居住する住宅に配置された第1端末装置により検知されたセンサ情報を取得する。決定部133は、取得部131により取得されたセンサ情報に基づいて、ユーザが乗る移動体に搭載された第2端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、ユーザが居住する住宅に配置された第1端末装置により検知されたセンサ情報に基づいて、ユーザが乗る移動体に搭載された第2端末装置により提供する提供情報を決定することにより、住宅の端末装置で収集した情報を基に移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、住宅におけるユーザの発話情報を含むセンサ情報を取得する。決定部133は、取得部131により取得された発話情報に基づいて、移動体における提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、住宅におけるユーザの発話情報に基づいて、移動体における提供情報を決定することにより、住宅でのユーザの発話を基に移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、取得部131により取得された発話情報に基づくトピックを示すトピック情報に応じて、移動体において提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、発話情報に基づくトピックを示すトピック情報に応じて、移動体において提供する提供情報を決定することにより、移動体においてユーザへ提供する情報を適切に決定することができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、トピック情報を、移動体において提供する提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、トピック情報を、移動体において提供する提供情報に決定することにより、移動体においてユーザへ提供する情報を適切に決定することができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、移動体に関する位置情報を取得する。決定部133は、取得部131により取得された位置情報と、トピック情報とに基づいて、移動体における提供情報を提供するタイミングを決定する。
これにより、実施形態に係る情報処理装置100は、移動体に関する位置情報と、トピック情報とに基づいて、移動体における提供情報を提供するタイミングを決定することにより、適切なタイミングで移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、トピック情報に対応する店舗の位置を示す店舗位置情報を取得する。決定部133は、位置情報と店舗位置情報とに基づいて、移動体における提供情報を提供するタイミングを決定する。
これにより、実施形態に係る情報処理装置100は、移動体に関する位置情報と、トピック情報に対応する店舗の位置を示す店舗位置情報とに基づいて、移動体における提供情報を提供するタイミングを決定することにより、適切なタイミングで移動体の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、取得部131により取得された位置情報と、トピック情報とに基づいて、所定の画像センサによる撮像タイミングを決定する。
これにより、実施形態に係る情報処理装置100は、移動体に関する位置情報と、トピック情報に対応する店舗の位置を示す店舗位置情報とに基づいて、所定の画像センサによる撮像タイミングを決定することにより、適切なタイミングで移動体の端末装置で撮像を行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切なサービス提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、取得部131により取得された発話情報に基づくトピックを示すトピック情報に基づく移動ルートを、移動体において提供する提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、発話情報に基づくトピックを示すトピック情報に基づく移動ルートを、移動体において提供する提供情報に決定することにより、移動体においてユーザへ提供する情報を適切に決定することができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが乗る移動体に搭載された第1端末装置により検知されたセンサ情報を取得する。決定部133は、取得部131により取得されたセンサ情報に基づいて、ユーザが居住する住宅に配置された第2端末装置により提供する提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、ユーザが乗る移動体に搭載された第1端末装置により取得されたセンサ情報に基づいて、ユーザが居住する住宅に配置された第2端末装置により提供する提供情報を決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、第1端末装置により撮像された画像情報を含むセンサ情報を取得する。決定部133は、取得部131により取得された画像情報に基づいて、住宅における提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、第1端末装置により撮像された画像情報に基づいて、住宅における提供情報を決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、決定部133は、取得部131により取得された画像情報を、住宅における提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、第1端末装置により撮像された画像情報を、住宅における提供情報に決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、移動体の操作に関する操作情報を含むセンサ情報を取得する。決定部133は、取得部131により取得された操作情報に基づいて、住宅における提供情報を決定する。
これにより、実施形態に係る情報処理装置100は、移動体の操作に関する操作情報に基づいて、住宅における提供情報を決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、移動体のワイパーの操作に関する操作情報を含むセンサ情報を取得する。決定部133は、ワイパーが操作された場合、降雨を示す情報を、住宅における提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、移動体のワイパーが操作された場合、降雨を示す情報を、住宅における提供情報に決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、移動体の位置を示す位置情報を取得する。決定部133は、取得部131により取得された位置情報に基づいて、移動体の住宅への到着予定時間を、住宅における提供情報に決定する。
これにより、実施形態に係る情報処理装置100は、移動体の位置を示す位置情報に基づいて、移動体の住宅への到着予定時間を、住宅における提供情報に決定することにより、移動体の端末装置で収集した情報を基に住宅の端末装置でユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
また、実施形態に係る情報処理装置100は、提供部134を有する。提供部134は、決定部133により決定された提供情報を提供する。
これにより、実施形態に係る情報処理装置100は、決定した提供情報を提供することにより、複数の端末装置のうち、所望の端末装置によりユーザへの情報提供サービスを行うことができる。したがって、情報処理装置100は、複数の端末装置を用いることにより適切な情報提供を可能にすることができる。
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
121 ユーザ情報記憶部
122 店舗情報記憶部
123 行動情報記憶部
124 対応付情報記憶部
130 制御部
131 取得部
132 推定部
133 決定部
134 提供部
10 スマートスピーカ(端末装置)
N ネットワーク

Claims (20)

  1. 第1端末装置により検知されたセンサ情報を取得する取得部と、
    前記取得部により取得された前記センサ情報に基づいて、前記第1端末装置とは異なる第2端末装置により提供する提供情報を決定する決定部と、
    を備えることを特徴とする情報処理装置。
  2. 前記取得部は、
    一のスマートスピーカである前記第1端末装置により検知された前記センサ情報を取得し、
    前記決定部は、
    前記センサ情報に基づいて、前記第1端末装置とは異なる他のスマートスピーカである第2端末装置により提供する提供情報を決定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得部は、
    前記第1端末装置により検知された音声情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記音声情報に基づいて、前記提供情報を決定する
    ことを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記取得部は、
    ユーザが居住する住宅に配置された前記第1端末装置により検知された前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記センサ情報に基づいて、前記ユーザが乗る移動体に搭載された前記第2端末装置により提供する前記提供情報を決定する
    ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記取得部は、
    前記住宅における前記ユーザの発話情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記発話情報に基づいて、前記移動体における前記提供情報を決定する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記決定部は、
    前記取得部により取得された前記発話情報に基づくトピックを示すトピック情報に応じて、前記移動体において提供する前記提供情報を決定する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記決定部は、
    前記トピック情報を、前記移動体において提供する前記提供情報に決定する
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記取得部は、
    前記移動体に関する位置情報を取得し、
    前記決定部は、
    前記取得部により取得された前記位置情報と、前記トピック情報とに基づいて、前記移動体における前記提供情報を提供するタイミングを決定する
    ことを特徴とする請求項7に記載の情報処理装置。
  9. 前記取得部は、
    前記トピック情報に対応する店舗の位置を示す店舗位置情報を取得し、
    前記決定部は、
    前記位置情報と前記店舗位置情報とに基づいて、前記移動体における前記提供情報を提供するタイミングを決定する
    ことを特徴とする請求項8に記載の情報処理装置。
  10. 前記決定部は、
    前記取得部により取得された前記位置情報と、前記トピック情報とに基づいて、所定の画像センサによる撮像タイミングを決定する
    ことを特徴とする請求項8または請求項9に記載の情報処理装置。
  11. 前記決定部は、
    前記取得部により取得された前記発話情報に基づくトピックを示すトピック情報に基づく移動ルートを、前記移動体において提供する前記提供情報に決定する
    ことを特徴とする請求項5〜10のいずれか1項に記載の情報処理装置。
  12. 前記取得部は、
    ユーザが乗る移動体に搭載された前記第1端末装置により検知された前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記センサ情報に基づいて、前記ユーザが居住する住宅に配置された前記第2端末装置により提供する前記提供情報を決定する
    ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  13. 前記取得部は、
    前記第1端末装置により撮像された画像情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記画像情報に基づいて、前記住宅における前記提供情報を決定する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記決定部は、
    前記取得部により取得された前記画像情報を、前記住宅における前記提供情報に決定する
    ことを特徴とする請求項13に記載の情報処理装置。
  15. 前記取得部は、
    前記移動体の操作に関する操作情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記操作情報に基づいて、前記住宅における前記提供情報を決定する
    ことを特徴とする請求項12〜14のいずれか1項に記載の情報処理装置。
  16. 前記取得部は、
    前記移動体のワイパーの操作に関する前記操作情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記ワイパーが操作された場合、降雨を示す情報を、前記住宅における前記提供情報に決定する
    ことを特徴とする請求項15に記載の情報処理装置。
  17. 前記取得部は、
    前記移動体の位置を示す位置情報を取得し、
    前記決定部は、
    前記取得部により取得された前記位置情報に基づいて、前記移動体の前記住宅への到着予定時間を、前記住宅における前記提供情報に決定する
    ことを特徴とする請求項12〜16のいずれか1項に記載の情報処理装置。
  18. 前記決定部により決定された前記提供情報を提供する提供部、
    をさらに備えたことを特徴とする請求項1〜17のいずれか1項に記載の情報処理装置。
  19. コンピュータが実行する情報処理方法であって、
    第1端末装置により検知されたセンサ情報を取得する取得工程と、
    前記取得工程により取得された前記センサ情報に基づいて、前記第1端末装置とは異なる第2端末装置により提供する提供情報を決定する工程と、
    を含むことを特徴とする情報処理方法。
  20. 第1端末装置により検知されたセンサ情報を取得する取得手順と、
    前記取得手順により取得された前記センサ情報に基づいて、前記第1端末装置とは異なる第2端末装置により提供する提供情報を決定する手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2018151288A 2018-08-10 2018-08-10 情報処理装置、情報処理方法、及び情報処理プログラム Active JP7027281B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018151288A JP7027281B2 (ja) 2018-08-10 2018-08-10 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151288A JP7027281B2 (ja) 2018-08-10 2018-08-10 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020027398A true JP2020027398A (ja) 2020-02-20
JP7027281B2 JP7027281B2 (ja) 2022-03-01

Family

ID=69622173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151288A Active JP7027281B2 (ja) 2018-08-10 2018-08-10 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7027281B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001264077A (ja) * 2000-03-21 2001-09-26 Alpine Electronics Inc 家電制御システムおよびナビゲーション装置
JP2004320585A (ja) * 2003-04-18 2004-11-11 Mazda Motor Corp 情報提供システム及び情報提供用コンピュータのコンピュータプログラム
JP2006031723A (ja) * 2000-10-02 2006-02-02 Omron Corp 情報仲介システムとそれに用いられる情報仲介方法
WO2018085671A1 (en) * 2016-11-03 2018-05-11 Google Llc Focus session at a voice interface device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001264077A (ja) * 2000-03-21 2001-09-26 Alpine Electronics Inc 家電制御システムおよびナビゲーション装置
JP2006031723A (ja) * 2000-10-02 2006-02-02 Omron Corp 情報仲介システムとそれに用いられる情報仲介方法
JP2004320585A (ja) * 2003-04-18 2004-11-11 Mazda Motor Corp 情報提供システム及び情報提供用コンピュータのコンピュータプログラム
WO2018085671A1 (en) * 2016-11-03 2018-05-11 Google Llc Focus session at a voice interface device

Also Published As

Publication number Publication date
JP7027281B2 (ja) 2022-03-01

Similar Documents

Publication Publication Date Title
US9135248B2 (en) Context demographic determination system
KR101749847B1 (ko) 정황 감정 판정 시스템
KR102085187B1 (ko) 정황 건강 판정 시스템
JP7267696B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
EP3893087A1 (en) Response processing device, response processing method, and response processing program
JP7475808B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20180139592A1 (en) Information processing apparatus, information processing method, and program
JP7027281B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6267298B1 (ja) 提供装置、提供方法、提供プログラム、端末装置、出力方法、及び出力プログラム
JP6971205B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7032265B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7260263B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6216560B2 (ja) 通信端末、プログラム
JP7154063B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6971206B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7405502B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7093268B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20230134103A1 (en) Information processing apparatus and information processing method
JP2023170252A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023170106A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6421087B2 (ja) 周辺状況推定支援装置、方法およびプログラム
JP2023170107A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350