JP2019091387A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2019091387A
JP2019091387A JP2018000709A JP2018000709A JP2019091387A JP 2019091387 A JP2019091387 A JP 2019091387A JP 2018000709 A JP2018000709 A JP 2018000709A JP 2018000709 A JP2018000709 A JP 2018000709A JP 2019091387 A JP2019091387 A JP 2019091387A
Authority
JP
Japan
Prior art keywords
user
response
automatic response
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018000709A
Other languages
English (en)
Other versions
JP7010000B2 (ja
Inventor
賢吾 得地
Kengo Tokuchi
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to US15/996,532 priority Critical patent/US20190149490A1/en
Priority to CN201810750648.9A priority patent/CN110019743A/zh
Publication of JP2019091387A publication Critical patent/JP2019091387A/ja
Application granted granted Critical
Publication of JP7010000B2 publication Critical patent/JP7010000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの求める前提の下で、応答アシスタントから応答が得られるようにする。【解決手段】ユーザの問い合わせに応答する応答アシスタントの当該応答の判断基準となる設定が変更され、変更後の判断基準に従って応答がユーザに通知される。【選択図】図5

Description

本発明は、情報処理装置及びプログラムに関する。
特許文献1には、1つ以上のボット(bot)との間で通信を確立し、当該1つ以上のボットを通じてデバイスと相互作用を行う技術が記載されている。
特表2009−522687号公報
本発明の目的は、ユーザの求める前提の下で、応答アシスタントから応答が得られるようにすることにある。
請求項1に記載の発明は、ユーザの問い合わせに応答する応答アシスタントの前記応答の判断基準を変更する変更手段を有する情報処理装置である。
請求項2に記載の発明は、前記判断基準は、複数の設定項目を含み、前記変更手段は、個々の設定項目の内容を個別的に変更する、ことを特徴とする請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記変更手段は、前記応答アシスタントの利用開始後、前記設定項目の内容を変更する、ことを特徴とする請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記変更手段は、前記ユーザと前記応答アシスタントとの間の対話に基づいて、前記設定項目の内容を変更する、ことを特徴とする請求項3に記載の情報処理装置である。
請求項5に記載の発明は、前記応答アシスタントは、ユーザの問い合わせに対して、変更後の設定項目の内容を基準とした詳細な情報を前記応答としてユーザに通知する、ことを特徴とする請求項2から請求項4何れかに記載の情報処理装置である。
請求項6に記載の発明は、前記応答アシスタントは、ユーザの問い合わせに対して、変更後の設定項目の内容を基準とした情報を前記応答として優先的にユーザに通知する、ことを特徴とする請求項2から請求項4何れかに記載の情報処理装置である。
請求項7に記載の発明は、前記応答アシスタントは、ユーザの問い合わせに対して、変更後の設定項目の内容の範囲内で応答する、ことを特徴とする請求項2から請求項4何れかに記載の情報処理装置である。
請求項8に記載の発明は、前記複数の設定項目は、年代、職業、性格、人物、及び、環境を含む設定項目群の中から選択され、前記応答アシスタントは、前記複数の設定項目によって設定された基準に従って応答する、ことを特徴とする請求項2から請求項7何れかに記載の情報処理装置である。
請求項9に記載の発明は、前記設定項目は年代であり、前記応答アシスタントは、設定された年代を基準とした前記応答をユーザに通知する、ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置である。
請求項10に記載の発明は、前記設定項目は職業であり、前記応答アシスタントは、設定された職業を基準とした前記応答をユーザに通知する、ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置である。
請求項11に記載の発明は、前記設定項目は性格であり、前記応答アシスタントは、設定された性格を基準とした前記応答をユーザに通知する、ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置である。
請求項12に記載の発明は、前記設定項目は人物であり、前記応答アシスタントは、設定された人物を基準とした前記応答のユーザに通知する、ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置である。
請求項13に記載の発明は、前記設定項目は環境であり、前記応答アシスタントは、設定された環境を基準とした前記応答をユーザに通知する、ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置である。
請求項14に記載の発明は、前記変更手段は、更に、前記判断基準に応じて前記応答アシスタントの音声の発生の仕方を変更する、ことを特徴とする請求項1から請求項13何れかに記載の情報処理装置である。
請求項15に記載の発明は、前記変更手段は、前記応答アシスタントの音声の発生の仕方を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた音声の発生の仕方に変更する、ことを特徴とする請求項15に記載の情報処理装置である。
請求項16に記載の発明は、前記応答アシスタントの音声は、機器を制御するための中継装置から発せられる、ことを特徴とする請求項14又は請求項15に記載の情報処理装置である。
請求項17に記載の発明は、前記変更手段は、更に、前記判断基準に応じて、前記応答に応じて発光する発光手段の発光の仕方を変更する、ことを特徴とする請求項1から請求項16何れかに記載の情報処理装置である。
請求項18に記載の発明は、前記変更手段は、前記発光手段の発光の仕方を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた発光の仕方に変更する、ことを特徴とする請求項17に記載の情報処理装置である。
請求項19に記載の発明は、前記発光手段は、機器を制御するための中継装置に設けられている、ことを特徴とする請求項17又は請求項18に記載の情報処理装置である。
請求項20に記載の発明は、前記変更手段は、更に、前記判断基準に応じて、前記応答アシスタントに紐付く画像を変更する、ことを特徴とする請求項1から請求項19何れかに記載の情報処理装置である。
請求項21に記載の発明は、前記変更手段は、前記画像を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた画像に変更する、ことを特徴とする請求項20に記載の情報処理装置である。
請求項22に記載の発明は、前記画像は、機器を制御するための中継装置に表示される、ことを特徴とする請求項20又は請求項21に記載の情報処理装置である。
請求項23に記載の発明は、前記変更手段は、ユーザ毎に前記変更を行う、ことを特徴とする請求項1から請求項22何れかに記載の情報処理装置である。
請求項24に記載の発明は、コンピュータを、ユーザの問い合わせに応答する応答アシスタントの前記応答の判断基準となる設定を変更する変更手段、として機能させるプログラムである。
請求項1,24に記載の発明によれば、ユーザの求める前提の下で、応答アシスタントから応答を得ることができる。
請求項2に記載の発明によれば、個別的に変更された設定項目に従った応答を得ることができる。
請求項3に記載の発明によれば、応答アシスタントの利用開始後であっても、設定項目の内容を変更することができる。
請求項4に記載の発明によれば、対話を利用して設定項目を変更することができる。
請求項5に記載の発明によれば、設定項目の内容に関連する詳細な情報を応答として得ることができる。
請求項6に記載の発明によれば、設定項目の内容に関連する情報を応答として優先的に得ることができる。
請求項7に記載の発明によれば、設定項目の内容の範囲内で応答を得ることができる。
請求項8に記載の発明によれば、年代、職業、性格、人物、環境等の基準に従った応答を得ることができる。
請求項9に記載の発明によれば、設定された年代を基準とした応答を得ることができる。
請求項10に記載の発明によれば、設定された職業を基準とした応答を得ることができる。
請求項11に記載の発明によれば、設定された性格を基準とした応答を得ることができる。
請求項12に記載の発明によれば、設定された人物を基準とした応答を得ることができる。
請求項13に記載の発明によれば、設定された環境を基準とした応答を得ることができる。
請求項14から請求項16に記載の発明によれば、設定されている判断基準を聴覚的に認識し易くなる。
請求項17から請求項22に記載の発明によれば、設定されている判断基準を視覚的に認識し易くなる。
請求項23に記載の発明によれば、ユーザ毎に判断基準を設定することができる。
本発明の第1実施形態に係る情報処理システムの構成を示すブロック図である。 端末装置の構成を示すブロック図である。 設定項目を説明するための図である。 判断基準を設定するための画面を示す図である。 応答アシスタントと対話するための画面を示す図である。 応答アシスタントと対話するための画面を示す図である。 音声の発生の仕方を説明するための図である。 応答アシスタントと対話するための画面を示す図である。 第3実施形態に係る情報処理システムの構成を示すブロック図である。 中継装置を示す斜視図である。 中継装置の構成を示すブロック図である。 発光部の発光の仕方を説明するための図である。 話者の画像を説明するための図である。 話者の画像を示す図である。 話者の画像を示す図である。
<第1実施形態>
図1を参照して、本発明の第1実施形態に係る情報処理システムについて説明する。図1には、第1実施形態に係る情報処理システムの一例が示されている。
第1実施形態に係る情報処理システムは、一例として、端末装置10とサーバ12を含む。例えば、端末装置10とサーバ12は、インターネット等の通信経路Nを介して他の装置と通信する機能を有する。もちろん、端末装置10とサーバ12は、通信経路Nを利用せずに、それぞれ異なる通信経路を介して他の装置と通信してもよいし、直接的に他の装置と通信してもよい。なお、複数の端末装置10や複数のサーバ12が、情報処理システムに含まれていてもよい。
端末装置10は、パーソナルコンピュータ(PC)、タブレットPC、スマートフォン、携帯電話、等の装置であり、他の装置との間でデータを送受信する機能を有する。端末装置10は、ウェアラブル端末(腕時計型端末、リストバンド型端末、眼鏡型端末、指輪型端末、コンタクトレンズ型端末、体内埋め込み型端末、ヒアラブル端末等)であってもよい。また、端末装置10は、表示装置としてフレキシブルディスプレイを有していてもよい。フレキシブルディスプレイとして、例えば、有機エレクトロルミネッセンス型のディスプレイ(フレキシブル有機ELディスプレイ)、電子ペーパー型のディスプレイ、フレキシブル液晶ディスプレイ、等が用いられる。これら以外の表示方式が採用されたフレキシブルディスプレイが用いられてもよい。フレキシブルディスプレイは、表示部分が柔軟に変形可能なディスプレイであり、例えば、曲げたり、折り畳んだり、巻いたり、捩じったり、伸ばしたりすることが可能なディスプレイである。端末装置10全体がフレキシブルディスプレイによって構成されていてもよいし、フレキシブルディスプレイとそれ以外の構成とが機能的又は物理的に分かれていてもよい。
サーバ12は、データやユーザ情報の管理等を行う装置である。また、サーバ12は、他の装置との間でデータを送受信する機能を有する。サーバ12は、ユーザに対してソーシャルネットワーキングサービス(SNS)を提供してもよい。この場合、端末装置10は、サーバ12が提供するSNSを利用することで、当該SNSを利用する他の端末装置10との間で情報(例えば、文字列、静止画像、動画像、音声等)の送受信を行うことができる。
第1実施形態では、端末装置10において、ユーザと対話する機能を有する対話相手が用いられる。その対話相手は、ユーザの問い合わせに応答する応答アシスタントとして機能し、例えば、ユーザの発言を受け、その発言内容を解析することで、その発言に対する回答等の応答を作成してユーザに通知する。例えば、ユーザの発言は、文字入力、音声入力、画像入力等によって行われ、応答は、文字出力、音声出力、画像出力等によって行われる。対話相手は、例えばプログラムを実行することで実現され、そのプログラムは例えば端末装置10にインストールされている。もちろん、対話相手に関するプログラムは、サーバ12等の外部装置にインストールされ、対話相手の機能やそのような機能を提供するサービスが、サーバ12等の外部装置から端末装置10に対して提供されてもよい。
上記の対話相手は、例えば人工知能(AI)によって実現される自動応答AIによって構成されている。自動応答AIは、ユーザの発言内容を解析し、その発言内容に対する回答等の応答をユーザに通知する機能を有する。自動応答AIは、いわゆるチャットボット(chatbot)(人工知能を活用した自動会話プログラム)であってもよい。自動応答AIは、人工知能による学習機能を有し、その学習機能によって、人に近い判断を行う能力を有していてもよい。また、ニューラルネットワーク型のディープラーニングが利用されてもよいし、部分的に学習分野を強化する強化学習等が利用されてもよいし、その他、遺伝的アルゴリズム、クラスタ分析、自己組織化マップ、アンサンブル学習、等が利用されてもよい。もちろん、これら以外の人工知能に関する技術が利用されてもよい。自動応答AIは、インターネット等のネットワークを利用することで、ユーザの問い合わせに対する回答を検索し、その検索結果に基づいて応答を作成してユーザに通知してもよい。
以下、図2を参照して、端末装置10の構成について詳しく説明する。
通信部14は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部14は、無線通信機能を有する通信インターフェースであってもよいし、有線通信機能を有する通信インターフェースであってもよい。通信部14は、例えば、1又は複数の種類の通信方式に対応しており、通信相手に適した通信方式(つまり、通信相手が対応している通信方式)に従って通信相手と通信してもよい。通信方式は、例えば、赤外線通信、可視光通信、Wi−Fi(登録商標)通信、近接無線通信(例えばNFC(Near Field Communication)等)、等である。近接無線通信としては、Felica(登録商標)、Bluetooth(ブルートゥース)(登録商標)、RFID(Radio Frequency Identifier)等が用いられる。もちろん、別の方式の無線通信が近接無線通信として用いられてもよい。通信部14は、通信相手に応じて通信方式や周波数帯域を切り替えてもよいし、周囲の環境に応じて通信方式や周波数帯域を切り替えてもよい。
UI部16はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。表示部は、フレキシブルディスプレイであってもよい。操作部は、例えばタッチパネルやキーボード等の入力装置である。表示部と操作部を兼ねたユーザインターフェース(例えば、タッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示する装置等を含む)であってもよい。また、UI部16は、マイク等の集音部やスピーカ等の音声発生部を含んでいてもよい。この場合、音声入力によって情報が端末装置10に入力されてもよいし、音声によって情報が発せられてもよい。
記憶部18はハードディスクドライブやメモリ(例えばSSD等)等の記憶装置である。記憶部18には、例えば、各種のデータ、各種のプログラム(例えば、OS(Operating System)、各種のアプリケーションプログラム(アプリケーションソフトウェア)等)、他の装置のアドレスを示す情報、サーバ12のアドレスを示す情報(サーバアドレス情報)、等が記憶されている。それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。
例えば、記憶部18には、自動応答AIを実現するための自動応答AIプログラム(ソフトウェア)が記憶されており、その自動応答AIプログラムが実行されることで、自動応答AIの機能が実現される。なお、自動応答AIプログラムは、サーバ12等の外部装置に記憶されて当該外部装置によって実行されることで、自動応答AIの機能が、外部装置から端末装置10に提供されてもよい。この場合、自動応答AIプログラムは、記憶部18に記憶されていなくてもよい。
また、記憶部18には、判断基準情報が記憶されている。判断基準情報は、応答アシスタントとして機能する自動応答AIの応答の判断基準を示す情報である。判断基準は、1又は複数の設定項目を含む。設定項目は、例えば、年代、職業、性格、人物、環境、等であり、自動応答AIの属性(性質や特徴)を決定する要素である。後述するように、各設定項目は、ユーザによって変更されてもよい。各設定項目については後で詳しく説明する。
記憶部18には、サーバ12が提供するSNSを利用するためのSNSアプリケーションプログラムが記憶されていてもよい。そのSNSアプリケーションプログラムが実行されることで、当該SNSの利用が可能となる。
制御部20は、端末装置10の各部の動作を制御する機能を有する。例えば、制御部20は、各種のプログラムの実行、通信部14による通信の制御、UI部16を用いた情報の通知(例えば情報の表示や音声出力等)の制御、UI部16を用いて入力された情報の受け付け、等を行う。例えば、制御部20が自動応答AIプログラムを実行することで、自動応答AIの機能が実現される。また、制御部20は、変更部22を含む。
変更部22は、自動応答AIの応答の判断基準(設定項目の内容)を変更する機能を有する。また、変更部22は、個々の設定項目を個別的に変更する機能を有する。例えば、変更部22は、チャットボットの生成時に判断基準を変更してもよいし、チャットボットの生成後に(つまり、チャットボットの利用開始後に)、そのチャットボットの判断基準を変更してもよい。つまり、変更部22は、チャットボットの生成後において、判断基準を部分的に変更する機能を有する。もちろん、変更部22は、判断基準を構成する全設定項目の内容を変更してもよい。例えば、変更部22は、ユーザの変更操作に従って、判断基準(設定項目の内容)を変更する。
自動応答AIは、判断基準情報が示す判断基準に従って応答を作成し、その応答をユーザに通知する。つまり、自動応答AIは、判断基準を構成する各設定項目の内容によって決定された属性を有し、その属性に特有の応答を作成する。例えば、自動応答AIは、ユーザの問い合わせに対して、ある設定項目の内容(例えば、年代、職業、性格、人物、環境等)を基準とした詳細な情報を応答としてユーザに通知してもよいし、その設定項目の内容の範囲内で応答をユーザに通知してもよいし、その設定項目の内容を基準とした応答を優先的にユーザに通知してもよい。つまり、自動応答AIは、設定項目の内容によって決定された属性を有し、その属性に特有の詳細な情報を応答として作成してもよいし、その属性の範囲内で応答を作成してもよいし、その属性に特有な応答を優先的に通知してもよい。
また、自動応答AIは、ユーザとの対話内容が、設定項目の内容に関連する対話内容となるように、ユーザを誘導してもよい。自動応答AIは、その誘導のための質問を発したり、質問を繰り返したりしてもよい。自動応答AIは、ユーザを誘導し、更に、より具体的な応答が得られるように、上位概念的な質問(抽象的な質問)から下位概念的な質問(より具体的な質問)にかけて、質問を繰り返してもよい。つまり、自動応答AIは、より深く追求(分析)するために質問を発してもよい。
また、自動応答AIは、設定項目の内容に応じて、応答の仕方(言語、用語、流行語、話し方、言い回し等)を変えてもよい。判断基準(設定項目の内容)が変更された場合、自動応答AIは、変更後の設定項目の内容によって決定された属性を有することとなり、その属性に特有の応答を作成してユーザに通知する。
以下、第1実施形態に係る端末装置10について詳しく説明する。
図3を参照して、判断基準を構成する設定項目について詳しく説明する。図3には、各設定項目が示されている。上述したように、判断基準は、設定項目として、年代、職業、性格、キャラクタ(人物)、環境、等を含む。図3に示されている情報は、判断基準情報として記憶部18に記憶されている。以下、各設定項目について詳しく説明する。
年代は、自動応答AI(例えばチャットボット)が応答を作成する際の思考の基準年代となる。年代は、西暦(例えば1990年代等)を用いて設定されてもよいし、年号(例えば平成10年代等)を用いて設定されてもよい。また、複数の年代が設定されてもよいし、年代の設定に月日の設定も含まれてもよい。年代が設定された場合、自動応答AIは、設定された年代を基準とした応答を作成してユーザに通知する。例えば、自動応答AIは、ユーザの問い合わせに対する回答群の中から設定された年代(例えば1990年代等)に関連する詳細な情報を抽出して応答として通知してもよいし、設定された年代に関連する情報を、他の年代に関連する情報よりも優先的に通知してもよいし、設定された年代の範囲内で、ユーザの問い合わせに対応する応答を作成して通知してもよい。例えば、ユーザの問い合わせに対する回答として、設定された年代を基準とした回答が存在し、更に、その回答と同順位の回答であって他の年代を基準とした回答が存在する場合、自動応答AIは、設定された年代を基準とした回答を優先的に通知する。
また、自動応答AIは、ユーザとの対話内容が、設定された年代に関連する対話内容となるように、ユーザを誘導し、更に、より具体的な応答が得られるように、質問を繰り返してもよい。
また、自動応答AIは、設定された年代に合わせた応答方法に従って応答してもよい。例えば、自動応答AIは、設定された年代に使用されていた言語、用語(流行語等を含む)、話し方、言い回し等を使用して応答してもよい。
具体例を挙げて説明すると、年代として「1990年代」が設定された場合、自動応答AIは、1990年代に関連する詳細な情報を応答としてユーザに通知してもよいし、1990年代に関連する情報を応答として他の年代に関連する情報よりも優先的にユーザに通知してもよい。例えば、ユーザが、事件やニュースを問い合わせた場合、自動応答AIは、1990年代に発生した事件やニュースに関する情報を応答としてユーザに通知する。それら以外の問い合わせがあった場合も、自動応答AIは、1990年代に関する情報を応答としてユーザに通知する。また、自動応答AIは、ユーザとの対話内容が1990年代に関する対話内容となるように、ユーザを誘導してもよい。また、自動応答AIは、1990年代の流行語等を使用して応答してもよい。
職業は、自動応答AIが応答を作成する際の思考の基準職業となる。職業は、一例として、アーティスト、クリエータ、会社員、公務員、医師、学生(大学生、高校生、中学生、小学生等)、等である。もちろん、これら以外の職業が設定されてもよい。職業が設定された場合、自動応答AIは、設定された職業を基準とした応答を作成してユーザに通知する。つまり、自動応答AIは、設定された職業の立場で応答する。例えば、自動応答AIは、ユーザの問い合わせに対する回答群の中から、設定された職業(例えば医者)に関連する詳細な情報を抽出し、その情報を応答として通知してもよいし、設定された職業に関連する情報を、他の職業に関連する情報よりも優先的に通知してもよいし、設定された職業の範囲内(例えば、その職業の能力の範囲内)で、ユーザの問い合わせに対する応答を作成して通知してもよい。例えば、応答内容や言い回しが、設定された職業に応じた内容や言い回しとなる。また、自動応答AIは、ユーザとの対話内容が、設定された職業に関連する対話内容となるように、ユーザを誘導してもよい。また、自動応答AIは、設定された職業に合わせた応答方法に従って応答してもよい。例えば、自動応答AIは、設定された職業にて使用される言語、用語(専門用語等を含む)、話し方、言い回し等を使用してもよい。
抽象的なレベルの職業が設定されてもよいし、より具体的なレベルの職業が設定されてもよい。例えば、「会社員」は、抽象的なレベルの職業に該当し、「業種が特定された会社員」、「役職が特定された会社員」、「経験年数が特定された会社員」等は、より具体的なレベルの職業に該当する。また、「大学生」は、抽象的なレベルの職業に該当し、「学年が特定された大学生」、「大学名が特定された大学生」、「学部や学科が特定された大学生」等は、より具体的なレベルの職業に該当する。また、「医師」は、抽象的なレベルの職業に該当し、「専門分野(外科や内科等)が特定された医師」、「経験年数が特定された医師」等は、より具体的なレベルの職業に該当する。抽象的なレベルの職業が設定された場合、自動応答AIは、例えば、その職業の平均的又は一般的な能力や知識を前提として応答を作成して出力する。より具体的なレベルの職業が設定された場合、自動応答AIは、その具体的な職業の平均的又は一般的な能力や知識を前提として応答する。
具体例を挙げて説明すると、職業として「医師」が設定された場合、自動応答AIは、医師の立場で応答する。抽象的なレベルとしての「医師」が設定された場合、自動応答AIは、一般的な又は平均的な医師を想定し、その医師の立場で応答する。具体的には、自動応答AIは、詳細な医療情報(例えば、病気に関する情報、治療に関する情報、健康に関する情報、病院に関する情報、薬に関する情報等)をユーザに通知してもよいし、医療情報を他の情報よりも優先的に通知してもよい。例えば、ユーザが、症状を発言内容として自動応答AIに送った場合、自動応答AIは、その症状に関する医療情報を応答としてユーザに通知する。例えば、その症状から推測される病気に関する情報、その病気の治療に適した病院に関する情報、その治療方法に関する情報、その治療に用いられる薬に関する情報等が、医療情報としてユーザに通知される。
より具体的なレベルの職業として医師が設定された場合、自動応答AIは、その具体的なレベルに該当する医師の立場で応答する。例えば、職業として「内科医」が設定された場合、自動応答AIは、一般的な又は平均的な内科医を想定し、その内科医の立場で応答する。この場合に得られる応答は、職業として「外科医」や「歯科医」等が設定されたときに得られる応答とは異なる応答であると想定される。
また、自動応答AIは、ユーザとの対話内容が医療に関する対話内容となるように、ユーザを誘導してもよい。例えば、自動応答AIは、健康に関する上位概念的な質問として、「調子はどうですか?」といった質問を発し、その質問に対するユーザの発言内容に応じて、更に、下位概念的な質問(より具体的な質問)を発してもよい。例えば、ユーザが、「調子が良くない」と発言した場合、自動応答AIは、医療に関するより下位概念的な質問として、「どこの調子が悪いですか?」といった質問を発する。こうすることで、調子の悪い具体的な部分を、ユーザから聞き出すことができる。その質問に対して、ユーザが、「のどが痛い」と発言した場合、自動応答AIは、医療に関するより下位概念的な質問として、「のどの痛み」から推測される病気(例えば「風邪」)を特定し、その病名を応答としてユーザに通知する。例えば、「風邪ですね」といった応答が通知される。また、自動応答AIは、風邪の治療方法、薬、病院等の情報を応答として通知してもよい。更に、自動応答AIは、医療に関する更に下位概念的な質問として、「どの程度の痛みですか?」、「熱はありますか?」、「頭は痛いですか?」といった質問を発してもよい。こうすることで、より詳細な症状をユーザから聞き出すことができる。つまり、ユーザの症状をより深く追求(分析)することができる。また、ユーザが病院を問い合わせた場合、自動応答AIは、「専門の病院はXXです」、「近くの病院はYYです」、「今現在、診療を行っている病院はZZです」といった応答を通知してもよい。
また、自動応答AIは、医師が使用する専門用語を使用して応答してもよい。もちろん、医師とユーザとの関係に応じて、専門用語ではない一般的な用語が用いられてもよい。例えば、ユーザの職業が設定されている場合において、自動応答AIに設定された職業と、ユーザの職業との間に関連性がある場合、自動応答AIは、専門用語を使用して応答する。その関連性がない場合、自動応答AIは、一般的な用語を使用して応答する。その関連性は、業種、職種、職歴、学生の有無、学年、学歴、等に基づいて決定される。その決定は、自動応答AIによって行われる。例えば、自動応答AIの職業として医師が設定されており、ユーザの職業として医療に関する職業(例えば、医師、看護師等)が設定されている場合、自動応答AIは、専門用語を使用して応答する。一方、ユーザの職業として医療以外の職業が設定されている場合、自動応答AIは、一般的な用語を使用して応答する。
ここで、ユーザを誘導する処理の別の具体例について説明する。例えば、職業として「英語の教師」が設定された場合、自動応答AIは、英語の学習に関する情報(例えば、英語の学習方法、参考書に関する情報、英会話スクールに関する情報等)を優先的に通知する。例えば、ユーザが、「英語の勉強方法を教えて」と発言した場合、自動応答AIは、英語の学習に関する上位概念的な質問として、「英会話ですか?英文法ですか?英作文ですか?」といった質問を発する。その質問に対して、ユーザが、「英会話」と発言した場合、自動応答AIは、英語の学習に関する下位概念的な質問として、「日常会話ですか?ビジネス英会話ですか?」といった質問を発する。その質問に対して、ユーザが、「ビジネス英会話」と発言した場合、自動応答AIは、更なる下位概念的な質問として、「どのような場面を想定していますか?」といった質問を発する。これに対して、ユーザが、「プレゼンテーション」と発言した場合、自動応答AIは、英語を用いたプレゼンテーションの役に立つ参考書に関する情報や、英語を用いたプレゼンテーションの手法を学習するための英会話スクールに関する情報を、応答として通知してもよい。このように、上位概念的な質問から下位概念的な質問を行うことで、ユーザの詳細な要求を聞き出すことができ、それにより、より具体的な応答が通知される。
性格は、自動応答AIが応答を作成する際の思考の基準性格となる。性格は、一例として、温厚、怒りっぽい、無感情、等である。もちろん、これら以外の性格が設定されてもよい。性格が設定された場合、自動応答AIは、設定された性格を基準とした応答を作成して通知する。つまり、自動応答AIは、属性としてその性格を有する人物を想定し、その性格に応じて、応答方法(例えば表現)を変える。例えば、性格として「温厚」が設定された場合、自動応答AIは、温厚な表現(例えば穏やかな表現)を用いて応答する。一方、性格として「怒りっぽい」が設定された場合、自動応答AIは、荒々しい表現を用いて応答する。また、性格として「怒りっぽい」が設定された場合において、ユーザが、短時間の間(例えば、予め定められた時間の間)に複数の質問を自動応答AIに送った場合、自動応答AIは、怒りを表すメッセージを応答として通知してもよいし、ユーザからの質問を受け付けないようにしてもよい(無視してもよい)。
キャラクタ(人物)は、自動応答AIが応答を作成する際の思考の基準キャラクタ(基準人物)である。キャラクタは、一例として、有名人や歴史上の人物等であり、具体的には、政治家、学者、作家、企業家、俳優、アーティスト(音楽家や画家等)、芸能人、スポーツ選手、等である。もちろん、これら以外の人物が設定されてもよい。キャラクタ(人物)が設定された場合、自動応答AIは、設定された人物を基準とした応答を作成して通知する。つまり、自動応答AIは、設定された人物の立場で応答する。例えば、自動応答AIは、設定された人物の思考や名言に合わせて、応答内容を変える。自動応答AIは、設定された人物の名言を利用して応答を作成してユーザに通知してもよいし、設定された人物の思考(その人物が有していると想定されて設定された思考)に基づいて応答を作成してユーザに通知してもよい。具体的には、ある戦国武将が人物として設定された場合、自動応答AIは、その戦国武将の名言を利用して応答を作成してもよいし、その戦国武将が有していると想定される思考を利用して応答を作成してもよい。
環境は、自動応答AIが応答を作成する際の思考の基準環境となる。環境は、一例として、シチュエーション、場面、人間関係、立場、等である。もちろん、これら以外の環境が設定されてもよい。環境が設定された場合、自動応答AIは、設定された環境を基準とした応答を作成してユーザに通知する。例えば、自動応答AIは、設定された環境に応じて応答の内容を変える。また、自動応答AIは、設定された環境に合わせた応答方法に従って応答してもよい。例えば、自動応答AIは、設定された環境にて使用される言語、用語、話し方、言い回し等を使用してもよい。
具体例を挙げて説明すると、環境として「職場の上司と部下との関係」が設定された場合、自動応答AIは、上司と部下との間の上下関係を模した言い回しを用いて応答してもよいし、その上下関係に応じた内容を応答として作成して通知してもよい。例えば、自動応答AIが上司として設定された場合、自動応答AIは、上司を模した言い回しを用いて応答する。また、自動応答AIは、上司が有していると想定される知識レベルや経験レベルに応じた応答内容を通知してもよい。自動応答AIが部下として設定された場合、自動応答AIは、部下を模した言い回しを用いて応答する。また、自動応答AIは、部下が有していると想定される知識レベルや経験レベルに応じた応答内容を通知してもよい。
なお、上記の設定項目以外の設定項目が判断基準として用いられてもよい。例えば、性別や年齢が、判断基準として用いられてもよい。性別が設定された場合、自動応答AIは、その性別に従って応答内容や応答方法を変える。つまり、自動応答AIは、その性別を有する人物の立場で応答する。性別が男性であれば、自動応答AIは、男性の思考(例えば、男性が有すると想定される価値観や趣味等)に従って応答を作成して通知してもよいし、男性的な言い回しで応答を通知してもよい。また、性別が女性であれば、自動応答AIは、女性の思考に従って応答を作成してもよいし、女性的な言い回しで応答を通知してもよい。年齢が設定された場合、自動応答AIは、その年齢に従って応答内容や応答方法を変える。つまり、自動応答AIは、その年齢の人物の立場で応答する。例えば、年齢が10代後半であれば、自動応答AIは、10代後半の人の思考(例えば、10代後半の人が有すると想定される価値観や趣味等)に従って応答を作成して通知してもよいし、10代後半の人の言い回しで応答を通知してもよい。また、年齢が50代後半であれば、自動応答AIは、50代後半の人の思考に従って応答を作成して通知してもよいし、50代後半の人の言い回しで応答を通知してもよい。
更に別の設定項目として、医学に関する設定項目、交通に関する設定項目、政治に関する設定項目、ショッピングに関する設定項目等が、設定されてもよい。例えば、医学に関する設定項目として、最新の知識が設定された場合、自動応答AIは、最新の医学知識に基づいて応答する。また、交通に関する設定項目として、最新の知識が設定された場合、自動応答AIは、最新の交通情報を応答として通知する。また、政治に関する設定項目として、最新の知識が設定された場合、自動応答AIは、最新の政治事情に基づいて応答する。また、ショッピングに関する設定項目として、最新の情報が設定された場合、自動応答AIは、ショッピングに関して最新の情報(例えば、ショッピングサイトの最新の情報、商品の最新の情報等)を応答として通知する。ユーザは、これらの設定項目も個別的に設定することができる。
以下、図4を参照して、判断基準(設定項目)を設定するための画面について説明する。図4には、その画面24が示されている。ユーザが、UI部16を用いて画面24の表示指示を与えた場合、制御部20は、画面24をUI部16の表示部に表示させる。画面24には、各設定項目を設定するための入力欄が表示されている。例えば、入力欄26は、年代を設定するための欄である。入力欄28は、職業を設定するための欄である。入力欄30は、性格を設定するための欄である。入力欄32は、キャラクタ(人物)を設定するための欄である。入力欄34は、環境を設定するための欄である。このように、各設定項目の内容が、ユーザによって個別的に設定できるようになっている。
ユーザは、UI部16を用いて、各入力欄に設定内容を入力する。例えば、各入力欄には、プルダウン方式に従って、設定内容の候補の一覧が表示され、ユーザは、その一覧の中から設定内容を選択する。その選択された設定内容が、判断基準として用いられる。例えば、ユーザが年代の入力欄26を指定した場合、制御部20は、年代の一覧(例えば、1970年代、1980年代、1990年代、・・・等)を画面24に表示させる。ユーザが、その一覧からある年代(例えば1990年代)を選択した場合、変更部22は、その年代を、自動応答AIの判断基準として設定する。もちろん、ユーザは、各入力欄に設定内容を直接的に入力してもよい。ユーザが、画面24上で設定ボタンを押した場合、各入力欄に入力された設定内容が判断基準として設定される。
変更部22は、入力欄26に入力された年代、入力欄28に入力された職業、入力欄30に入力された性格、入力欄32に入力されたキャラクタ、及び、入力欄34に入力された環境を、自動応答AIの判断基準として設定する。
なお、ユーザは、すべての設定項目を設定してもよいし、一部の設定項目を設定し、他の設定項目を設定しなくてもよい。ユーザによって設定された設定項目は、自動応答AIの判断基準として用いられる。ユーザによって設定されなかった設定項目は、判断基準として用いられず、自動応答AIは、その設定項目の属性を有していないとして応答を作成する。例えば、職業が設定された場合、自動応答AIは、その設定された職業を基準として応答する。一方、職業が設定されていない場合、自動応答AIは、職業を限定せずに応答する。
ユーザは、自動応答AI(例えばチャットボット)の作成時に、画面24の表示指示を与えて、各設定項目を設定してもよい。また、ユーザは、自動応答AIの作成後に、画面24の表示指示を与えて、各設定項目を設定してもよい。例えば、自動応答AIとの対話中に、ユーザが画面24の表示指示を与えた場合、制御部20は、画面24を表示部に表示させる。ユーザが画面24上にて設定項目の内容を変更した場合、変更部22は、その変更後の設定項目の内容を自動応答AIの判断基準として設定する。それ以降、自動応答AIは、変更後の設定項目の内容に従って応答する。このように、自動応答AIが作成された後においても、各設定項目を個別的に変更することができる。
以下、図5を参照して、自動応答AIの利用時に端末装置10に表示される画面について詳しく説明する。図5には、その画面36が示されている。制御部20は、UI部16の表示部に画面36を表示させ、その画面36に各種の情報を表示させる。画面36は、ユーザが自動応答AIと対話するためのインターフェース(対話応答画面)である。画面36には、ユーザが端末装置10に入力した情報(例えば文字列や画像等)と、自動応答AIの発言内容を示す情報(例えば文字列や画像等)が表示される。ユーザと自動応答AIとの間の対話は、いわゆるチャット形式の対話(つまりリアルタイム形式の対話、更に換言すると、ユーザと自動応答AIが互いに発言しながら対話が進む形式)であってもよい。例えば、ユーザが、自動応答AIプログラム(例えばチャット用プログラム)の実行指示を与えた場合、制御部20が、その自動応答AIプログラムを実行し、自動応答AIと対話するための画面36を表示部に表示させる。
自動応答AI(例えばチャットボット)が既に作成されている場合、制御部20は、自動応答AIプログラムの実行指示に従って、対話のための画面36を表示部に表示させる。自動応答AIが作成されていない場合、制御部20は、自動応答AIを作成するための画面を表示部に表示させる。例えば、制御部20は、図4に示されている画面24を表示部に表示させる。ユーザが、画面24上にて各設定項目を設定すると、制御部20は、ユーザによって設定された各設定項目の内容を判断基準として有する自動応答AIを作成し、その自動応答AIと対話するための画面36を表示部に表示させる。なお、自動応答AIプログラムはサーバ12等の外部装置によって実行されてもよい。この場合、画面36の情報が、外部装置から端末装置10に送信されて、画面36が、端末装置10の表示部に表示される。
制御部20は、ユーザに紐付く画像38と自動応答AIに紐付く画像40を、画面36に表示させる。画像38は、ユーザを識別するための画像であり、画像40は、自動応答AIを識別するための画像である。なお、画像38に代えて又は画像38と共に、ユーザを示す文字列(例えば、氏名、ユーザID、ハンドルネーム、ニックネーム等のようにユーザを識別するための文字列)が表示されてもよい。また、文字列「ユーザ」が表示されてもよい。同様に、画像40に代えて又は画像40と共に、自動応答AIを示す文字列(例えば、文字列「ボット」等の文字列)が表示されてもよい。
ユーザに紐付く画像38は、画面36内において、端末装置10を利用するユーザに割り当てられた領域に表示され、自動応答AIに紐付く画像40は、画面36内において、自動応答AIに割り当てられた領域に表示される。
図5に示す例では、画面36の右側にユーザ用のエリアが設定されており、右側のエリアに、ユーザに紐付く画像38が表示されている。また、ユーザの発言内容が、画像38に紐付けられると共に、右側のエリアに寄せて表示される。画面36の左側に自動応答AI用のエリアが設定されており、左側のエリアに、自動応答AIに紐付く画像40が表示されている。また、自動応答AIの発言内容が、画像40に紐付けられると共に、左側のエリアに寄せて表示される。もちろん、この表示例は一例に過ぎず、エリアの配置関係は逆であってもよいし、上下方向に各エリアが設定されてもよいし、各エリアの全部又は一部が互いに重なり合ってもよいし、画面36の特定エリア(例えば中央エリア)に最新の発言内容が表示され、その周囲に過去の発言内容が表示されてもよい。また、各エリアは、互いに同じ大きさを有していてもよいし、互いに異なる大きさを有していてもよいし、発言内容の量や発言回数に応じて、拡大又は縮小されてもよい。エリアの設定や大きさの制御は、制御部20によって行われる。
図5に示す例では、対話者は、1人のユーザと1つの自動応答AIのみであるが、複数のユーザや複数の自動応答AIが対話に参加してもよい。この場合、画面36において各対話者用のエリアが設けられてもよい。例えば、2人のユーザと1つの自動応答AIが対話に参加している場合、画面36に3つのエリアが設定され、各対話者の発言内容が自身のエリア内に表示される。例えば、複数の端末装置10の間で通信を行うことで、複数のユーザの間で画面36を介した対話が行われる場合、当該複数のユーザの発言内容が画面36に表示される。複数の自動応答AIが対話に参加する場合も同様である。複数の自動応答AIに関するプログラムが同一の端末装置10にインストールされて、当該複数の自動応答AIが当該同一の端末装置10に格納されていてもよいし、当該複数の自動応答AIのそれぞれに関するプログラムが別々の端末装置10にインストールされて、各自動応答AIが別々の端末装置10に格納されていてもよい。例えば、画面36には、自装置である端末装置10に格納されている自動応答AIの発言内容が表示され、更に、別の端末装置10に格納されている自動応答AIの発言内容が表示される。別の端末装置10に格納されている自動応答AIは、例えば通信経路Nを介して対話に参加する。
以降、ユーザと自動応答AIとの間で対話が行われる。その対話において、ユーザは、UI部16を操作して文字列や画像等を入力することで、発言内容を入力してもよいし、音声によって発言内容を入力してもよい。また、ユーザの発言内容は、文字列や画像等の情報として画面36に表示されてもよいし、表示されなくてもよい。同様に、自動応答AIの発言内容は、文字列や画像等の情報として画面36に表示されてもよいし、表示されずに又は表示されると共に音声として発せられてもよい。以下では、一例として、各対話者の発言内容が画面36に表示されるものとして説明するが、その発言内容は音声によって発せられてもよい。
各発言内容は、送信日時に従って時系列に沿って表示される。例えば、ユーザが、自身の発言内容を自動応答AIに送った日時が、ユーザの発言内容の送信日時に該当する。また、自動応答AIが応答を作成した日時、又は、その応答としての発言内容が画面36に表示された日時が、自動応答AIの発言内容の送信日時に該当する。
画面36上で対話が進むと、制御部20は、画面36をスクロールさせ、最新の発言内容や、その直近の発言内容を、画面36に表示させる。これにより、画面36に表示しきれない過去の発言内容は、画面36に表示されなくなる。
自動応答AIプログラムが起動すると、例えば、自動応答AIが「どうしましたか?」といった一般的な質問(ユーザの要求を問う質問)を発し、その質問を示す文字列が自動応答AIの発言内容42として画面36に表示される。もちろん、文字列に代えて又は文字列と共に、自動応答AIの発言内容が音声として発せされてもよい。その発言内容42は自動応答AIの発言内容であるため、制御部20は、その発言内容42を自動応答AIの画像40に紐付けて画面36に表示させる。以下の対話においても同様である。
次に、ユーザが、「おすすめの音楽を教えて」等と発言した場合、その内容を示す文字列がユーザの発言内容44として画面36に表示される。例えば、ユーザが、画面36を操作して文字列を入力することで、発言内容44を端末装置10に入力してもよいし、発言内容を音声によって端末装置10に入力してもよい。その発言内容44はユーザの発言内容であるため、制御部20は、その発言内容44をユーザの画像38に紐付けて画面36に表示させる。以下の対話においても同様である。
また、発言内容46は、自動応答AIの発言内容であり、自動応答AIの画像40に紐付けて画面36に表示される。
図5に示す例では、発言内容42,44,46の順番で各発言内容が発せられており、発言内容42,44,46は、発せられた日時(送信日時)に従って時系列に沿って表示されている。以降の発言内容についても同様である。
自動応答AIは、ユーザの発言内容44を解析することでユーザの問い合わせを識別し、その問い合わせに対する応答を作成する。このとき、自動応答AIは、設定された判断基準(各設定項目の内容)に従って応答を作成する。一例として、判断基準としての年代が、「1990年代」に設定されているものとする。この場合、自動応答AIは、ユーザの問い合わせ(おすすめの音楽)に対して、1990年代を基準として応答を作成する。具体的には、自動応答AIは、1990年代に関連する詳細な情報を、応答として、他の年代に関連する情報よりも優先的にユーザに通知する。自動応答AIは、ユーザの発言内容44を解析し、1990年代に関連する「おすすめの音楽」を検索する。例えば、自動応答AIは、1990年代にヒットした曲(人気があった曲、売り上げた高かった曲、賞を受賞した曲等)を、1990年代のおすすめの曲として検索し、それらの曲の情報を応答として他の曲に優先してユーザに通知する。1990年代以外の年代にヒットした曲(おすすめの音楽)が存在している場合であっても、自動応答AIは、1990年代にヒットした曲を、他の年代にヒットした曲よりも優先して回答する。画面36には、1990年代にヒットした曲を示す情報(曲名AAA,BBB,CCC等を示す文字列)が、自動応答AIの発言内容46として表示されている。こうすることで、自動応答AIとの対話中にユーザが年代を指定しなくても、ユーザの問い合わせに関して、設定された年代に関する詳細な情報が優先的にユーザに通知される。また、自動応答AIは、1990年代の範囲内で、ユーザの問い合わせに対する応答を作成してもよい。なお、自動応答AIは、インターネット等を利用することで1990年代のおすすめの曲を検索してもよいし、端末装置10に記憶されている曲データの中から1990年代のおすすめの曲を検索してもよい。また、自動応答AIは、他の装置に格納されている他の自動応答AIとの間で通信を行うことで、他の自動応答AIから1990年代のおすすめの曲に関する情報を取得してもよい。年代以外の設定項目が設定された場合も、年代と同様に、自動応答AIは、設定項目の内容を基準とした応答を作成してユーザに通知する。
また、自動応答AIとの対話中にユーザが判断基準の変更指示を与えた場合、変更部22は、その変更指示に従って判断基準を変更する。例えば、ユーザが年代を1980年代に変更した場合、変更部22は、年代に関する設定項目の内容を1980年代に変更する。自動応答AIは、その変更後の判断基準に従って応答する。例えば、ユーザがおすすめの音楽を問い合わせた場合、自動応答AIは、1980年代にヒットした曲を回答する。このように、自動応答AIが作成された後においても、ユーザは、判断基準を構成する各設定項目の内容を個別的に変更することができ、自動応答AIは、変更後の判断基準に従って応答する。
なお、各発言内容が送信された時間(例えば、時刻や日時)を示す情報が、画面36に表示されてもよい。例えば、画面36には、日付(例えば、今日の日付、11月9日)を示す文字列が表示されている。その日付を示す文字列の表示位置よりも下部に表示されている発言内容が、その日付以降に送信された発言内容であり、その表示位置よりも上部に表示されている発言内容が、その日付よりも前の日付に送信された発言内容である。例えば、発言内容42は、自動応答AIによって11月9日の16:00に発せられており(送信されており)、その時刻を示す情報が、発言内容42に紐付けて表示されている。例えば、時刻を示す情報が、発言内容42の近傍に表示される。他の発言内容についても同様に、送信時刻を示す情報が表示されている。もちろん、時刻や日時を示す情報は表示されなくてもよい。
また、発言内容の既読及び未読が管理されてもよい。ここで、既読メッセージと未読メッセージについて説明する。既読メッセージは、発言内容の送信者以外の者(対話相手)によって読まれた発言内容であり、未読メッセージは、送信者以外の者によって読まれていない発言内容である。例えば、ユーザが発言内容を送信した後、自動応答AIが、その発言内容を解析し始めた場合、制御部20は、ユーザの発言内容が自動応答AIによって読まれたと判断する。また、自動応答AIが発言内容を発して、その発言内容が画面36に表示された後、ユーザが、画面36上でその発言内容を指定した場合や、当該発言内容を指定して別ウィンドウ(別画面)にて当該発言内容を表示させた場合や、既読の指示を与えた場合に、制御部20は、自動応答AIの発言内容がユーザによって読まれたと判断する。別の例として、自動応答AIが発言したことを示す確認メッセージが表示部に表示され、ユーザが、その発言内容の表示指示を与えた場合や、当該発言内容が画面36に実際に表示された場合に、制御部20は、自動応答AIの発言内容がユーザによって読まれたと判断してもよい。
制御部20は、発言内容が対話相手によって読まれたと判断した場合、発言内容が対話相手によって読まれたことを示す既読情報(文字列や画像等)を、当該発言内容に紐付けて画面36に表示させる。図5に示す例では、自動応答AIの発言内容42,46が、ユーザによって読まれたと判断されており、また、ユーザの発言内容44が、自動応答AIによって読まれたと判断されている。従って、既読情報(例えば文字列「既読」)が、発言内容42,44,46のそれぞれに紐付けて表示されている。例えば、既読情報が、各発言内容の近傍に表示される。
既読情報が紐付けられている発言内容は、既読メッセージに該当し、既読情報が紐付けられていないメッセージは、未読メッセージに該当する。
制御部20は、発言内容が対話相手によって読まれていないことを示す未読情報を、未読メッセージに紐付けて画面36に表示させてもよい。また、既読情報が既読メッセージに紐付けて表示されると共に、未読情報が未読メッセージに紐付けて表示されてもよいし、何れか一方の情報が表示されてもよい。
なお、図5に示す例では、既読情報が文字列として発言内容に紐付けて表示されているが、既読の表現方法として、文字列を用いる方法以外の方法が用いられてもよい。例えば、制御部20は、既読メッセージと未読メッセージとで表現の態様を異ならせてもよい。具体的には、制御部20は、未読メッセージに含まれる文字列を特定のフォントを使って表現してもよいし、その文字列を特定の色で表現してもよいし、その文字列を太字で表現してもよいし、未読メッセージの表示枠を装飾してもよいし、未読メッセージをハイライト表示してもよい。こうすることで、既読メッセージと未読メッセージが互いに区別されて表示される。もちろん、制御部20は、既読メッセージについて上記の処理を適用し、未読メッセージには上記の処理を適用しなくてもよい。また、制御部20は、既読情報や未読情報を表示すると共に、上記の処理を実行してもよい。
ユーザの発言内容についての既読情報や未読情報が、画面36に表示されると共に、自動応答AIの発言内容についての既読情報や未読情報が、画面36に表示されてもよいし、ユーザ又は自動応答AIの何れか一方の発言内容についての既読情報や未読情報が、画面36に表示されてもよい。なお、既読情報や未読情報は表示されなくてもよい。
本実施形態によれば、ユーザは、自動応答AIの判断基準を構成する各設定項目の内容を個別的に変更することができる。これにより、ユーザの求める前提の下で、自動応答AIから応答が得られる。
変更部22は、ユーザと自動応答AIとの間の対話に基づいて、判断基準を変更してもよい。以下、図6を参照して、この処理について説明する。図6には、画面36が示されている。例えば、ユーザが、「判断基準の年代を1990年代に設定して。」等と発言した場合、その内容を示す文字列がユーザの発言内容48として画面36に表示される。自動応答AIは、ユーザの発言内容48を解析することでユーザの問い合わせを識別する。図6に示す例では、ユーザが、判断基準の年代を1990年代に設定することを要求しているため、変更部22は、判断基準の年代を1990年代に設定する。以降、自動応答AIは、1990年代を基準として応答を作成する。なお、設定が完了した旨を示す自動応答AIの発言内容50が、画面36に表示されてもよい。自動応答AIとの対話の中で判断基準を変えることができるので、判断基準を変更するための画面を表示せずに済む。
上述した実施形態では、ユーザによって判断基準が変更されるが、判断基準は自動的に変更されてもよい。例えば、変更部22は、ユーザの属性や、自動応答AIとの間の対話の履歴等に応じて、判断基準を変更してもよい。
ユーザの属性は、ユーザの年齢、性別、職業(学生を含む)、性格、等である。ユーザの属性を示す情報は、例えば記憶部18に記憶されている。
例えば、変更部22は、ユーザの年齢に応じて、判断基準としての年代や職業を変更する。具体的には、ユーザの年齢が10代である場合、変更部22は、判断基準としての年代を、ユーザが生まれたときの年代、ユーザが小学生、中学生又は高校生のときの年代等に設定する。また、変更部22は、判断基準としての職業を学生に設定してもよい。ユーザの年齢に応じて判断基準としての年代や職業を変更することで、ユーザの年齢に適合する応答が自動応答AIから得られ易くなる。
また、変更部22は、ユーザの性別に応じて、判断基準としての性別を変更してもよい。変更部22は、ユーザの性別と同一の性別を判断基準として設定してもよいし、異なる性別を判断基準として設定してもよい。ユーザの性別と同一の性別が判断基準として設定された場合、同性の対話相手からの応答が得られる。また、ユーザの性別とは異なる性別が判断基準として設定された場合、異性の対話相手からの応答が得られる。
また、変更部22は、ユーザの職業に応じて、判断基準としての職業を変更してもよい。具体的には、ユーザの職業が医師である場合、変更部22は、判断基準としての職業を医師に設定する。ユーザの職業に応じて判断基準の職業を変更することで、ユーザの職業に適合する応答が自動応答AIから得られ易くなる。例えば、ユーザの職業で使用されている専門用語等を含む応答が得られる。
また、変更部22は、ユーザの性格に応じて、判断基準としての性格を変更してもよい。変更部22は、ユーザの性格と同一又は類似の性格を判断基準として設定してもよいし、異なる性格を判断基準として設定してもよい。ユーザの性格と同一又は類似の性格が判断基準として設定された場合、ユーザの性格と同一又は類似の性格を有する対話相手からの応答が得られる。また、ユーザの性格と異なる性格が判断基準として設定された場合、ユーザの性格と異なる性格を有する対話相手からの応答が得られる。
また、変更部22は、ユーザの属性に応じて、判断基準としての年齢や性別を変更してもよい。変更部22は、ユーザの年齢と同一の年齢を判断基準の年齢設定として設定してもよいし、異なる年齢を判断基準の年齢設定として設定してもよい。また、変更部22は、ユーザの年齢と同世代の年代を判断基準の年齢設定として設定してもよい。例えば、ユーザの年齢が10代である場合、変更部22は、自動応答AIの年齢設定を10代に設定する。こうすることで、ユーザと同世代の対話相手から応答が得られる。また、変更部22は、ユーザの年齢よりも高い年齢や、ユーザの年齢よりも高い年代を、判断基準の年齢設定として設定してもよい。こうすることで、ユーザの年齢よりも年齢の高い世代の対話相手からの応答が得られる。それとは逆に、変更部22は、ユーザの年齢よりも低い年齢や、ユーザの年齢よりも低い世代を、判断基準の年齢設定として設定してもよい。こうすることで、ユーザの年齢よりも年齢の低い世代の対話相手からの応答が得られる。
また、自動応答AIは、ユーザとの対話の履歴に基づいて、ユーザの年齢、性別、職業、性格、等を推測し、変更部22は、その推測結果に基づいて判断基準を変更してもよい。
以上のように、ユーザの属性に応じて判断基準を変更することで、ユーザの属性に適合した応答が得られ易くなる。
また、変更部22は、ユーザの住所や国籍、使用言語等に応じて、判断基準を変えてもよい。
上記の判断基準は、ユーザ毎に設定されてもよい。例えば、ユーザを識別するためのユーザ識別情報と当該ユーザ用の判断基準を示す情報とが互いに対応付けられて記憶部18に記憶される。ユーザ識別情報は、例えば、ユーザアカウント情報、ユーザID、ユーザの氏名等である。変更部22は、例えば、自動応答AIの判断基準を、端末装置10にログインしているユーザの識別情報に対応付けられている判断基準に変更する。例えば、図4に示されている画面24にて、ユーザ識別情報を登録することで、ユーザ毎に判断基準が設定される。ユーザアカウント毎に判断基準が設定されている場合、変更部22は、自動応答AIの判断基準を、端末装置10にログイン中のユーザアカウントに対応付けられている判断基準に変更する。なお、同一ユーザに対して複数のユーザアカウントが対応付けられている場合、端末装置10へのログインに用いられたユーザアカウントに対応付けられている判断基準が用いられる。つまり、同一ユーザが端末装置10にログインした場合であっても、そのログインに用いられたユーザアカウントが異なれば、異なる判断基準が用いられる。
<第2実施形態>
以下、第2実施形態に係る情報処理システムについて説明する。第2実施形態では、自動応答AIは、音声によって応答する。その音声は、例えば、UI部16のスピーカから発せされる。また、第2実施形態では、変更部22は、自動応答AIの設定に応じて、応答時における自動応答AIの音声の発生の仕方を変更する。例えば、自動応答AIの応答の判断基準(設定項目の内容)が変更された場合、変更部22は、その変更に応じて、自動応答AIの音声の発生の仕方を変更する。その結果、自動応答AIの応答を表す音声が、変更後の発生の仕方で発せられる。更に詳しく説明すると、変更部22は、自動応答AIの音声の発生の仕方を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた音声の発生の仕方に変更する。もちろん、変更部22は、自動応答AIの音声の発生の仕方を、これら以外の設定項目に応じた音声の発生の仕方に変更してもよい。
図7を参照して、設定項目毎の音声の発生の仕方について説明する。図7には、設定項目毎の音声の発生の仕方が示されている。図7に示されている情報は、判断基準情報として記憶部18に記憶されている。
年代が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、設定された年代に応じた音声の発生の仕方に変更する。こうすることで、自動応答AIの応答を表す音声が、設定された年代に応じた音声の発生の仕方に従って発せられる。例えば、年代として「若い年代(例えば10〜20代)」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「会話が速く、声が高い」という発生の仕方に変更する。また、年代として「中年(例えば30〜40代)」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「会話が落ち着いており、声が少し低い」という発生の仕方に変更する。また、年代として「高年(例えば50代以降)」が設定された場合、変更部22は、「会話が遅く、声が低い」という発生の仕方に変更する。
具体例を挙げて説明すると、年代として「1990年代」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「1990年代」当時のユーザの年代に対応する発生の仕方に変更する。例えば、ユーザの現在の年齢が50歳である場合、1990年代当時のユーザの年代は「20代」であるため、変更部22は、自動応答AIの音声の発生の仕方を、「20代」に対応する音声の発生の仕方に変更する。こうすることで、1990年代当時のユーザの年代に対応する音声の発生の仕方で、自動応答AIの音声が発せられる。なお、ユーザの年代は、例えばUI部16を介して予め設定される。もちろん、変更部22は、自動応答AIの音声の発生の仕方を、ユーザの現在の年代に対応する音声の発生の仕方に変更してもよい。上記の例では、変更部22は、自動応答AIの音声の発生の仕方を、「50代」に対応する音声の発生の仕方に変更してもよい。こうすることで、ユーザの現在の年代に対応する音声の発生の仕方で、自動応答AIの音声が発生される。
職業が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、設定された職業に応じた音声の発生の仕方に変更する。こうすることで、自動応答AIの応答を表す音声が、設定された職業に応じた音声の発生の仕方に従って発せられる。例えば、職業として「アーティストやクリエータ」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「内容に論理性が欠けて、感覚的な発言が多い」という発生の仕方に変更する。また、職業として「学生」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「略語が多い」という発生の仕方に変更する。また、職業として「公務員や医師や弁護士等」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「表現が硬く、丁寧な言葉遣い」という発生の仕方に変更する。
性格が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、設定された性格に応じた音声の発生の仕方に変更する。こうすることで、自動応答AIの応答を表す音声が、設定された性格に応じた音声の発生の仕方に従って発せられる。例えば、性格として「怒りっぽいやせっかち」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「会話が速い」という発生の仕方に変更する。また、性格として「温厚やのんびり」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「会話がゆっくり」という発生の仕方に変更する。また、性格として「バランスの良い性格」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「癖のない会話や、標準的な言い回し」という発生の仕方に変更する。また、性格として「真面目や硬派」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「堅苦しい言い回しや、丁寧な言葉遣い」という発生の仕方に変更する。
キャラクタが設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、設定されたキャラクタに応じた音声の発生の仕方に変更する。こうすることで、自動応答AIの応答を表す音声が、設定されたキャラクタに応じた音声の発生の仕方に従って発せられる。例えば、キャラクタとして「科学系の有名人」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「理系の専門用語が多く出る会話」という発生の仕方に変更する。また、キャラクタとして「文科系の有名人」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「自身の作品の有名な台詞を引用する」とう発生の仕方に変更する。
環境が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、設定された環境に応じた音声の発生の仕方に変更する。こうすることで、自動応答AIの応答を表す音声が、設定された環境に応じた音声の発生の仕方に従って発せられる。例えば、環境として「静かな場所」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「音声が小さい」という発生の仕方に変更する。また、環境として「ボットが上司であり、部下がユーザ」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「返事が命令口調」という発生の仕方に変更する。
上記の設定項目以外の設定項目が判断基準として用いられてもよい。例えば、性別が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、設定された性別に応じた音声の発生の仕方に変更する。具体例を挙げて説明すると、性別として「男性」が設定された場合、変更部22は、自動応答AIの音声を「男性の音声」に変更し、音声の発生の仕方を「男性の言い回し」に設定する。また、性別として「女性」が設定された場合、変更部22は、自動応答AIの音声を「女性の音声」に変更し、音声の発生の仕方を「女性の言い回し」に設定する。もちろん、人間以外の動物が設定項目として設定されてもよい。この場合、変更部22は、自動応答AIの音声の発生の仕方を、設定された動物の音声の発生の仕方に変更する。例えば、動物として「猫」が設定された場合、変更部22は、自動応答AIの音声の発生の仕方を、「猫」の音声の発生の仕方(例えば鳴き声等)に変更する。
ユーザ毎に判断基準が設定されている場合、変更部22は、ユーザ毎に、自動応答AIの音声の発生の仕方を変更する。例えば、ユーザAが自動応答AIと対話している場合(例えば、ユーザAが端末装置10にログインしている場合)、変更部22は、ユーザAに対応付けられている判断基準に従って、自動応答AIの音声の発生の仕方を変更する。別のユーザBが自動応答AIと対話している場合(例えば、ユーザBが端末装置10にログインしている場合)、変更部22は、ユーザBに対応付けられている判断基準に従って、自動応答AIの音声の発生の仕方を変更する。
以下、図8を参照して、具体例について説明する。図8には、画面36が示されている。図8に示されている発言内容42,44,46は、図5に示されている発言内容と同じ内容である。
まず、ユーザに紐付かない自動応答AI(ユーザに紐付かないボット、ユーザに依存しないボット)が、「どうしましたか?」という発言内容42を発する。制御部20は、ユーザに紐付かない自動応答AIに紐付く画像52を画面36に表示させ、発言内容42をその画像52に紐付けて画面36に表示させる。画像52は、ユーザに紐付かない自動応答AIを識別するための画像である。また、ユーザに紐付かない自動応答AIは、予め定められた音声の発生の仕方に従って、発言内容42を音声によって発する。その音声は、例えば、UI部16に設けられているスピーカから発せられる。
例えば、ユーザAが端末装置10にログインしており、発言内容42に対して、「おすすめの音楽を教えて」という発言内容44を発した場合、制御部20は、ユーザAに紐付く画像54を画面36に表示させ、発言内容44をその画像54に紐付けて画面36に表示させる。画像54は、ユーザAを識別するための画像であり、例えば、ユーザAの写真であってもよいし、ユーザAに紐付くキャラクタの画像(例えばアバター等)であってもよい。
ユーザAの問い合わせに対する自動応答AIの返事が、発言内容46として画面36に表示される。図5を参照して説明したように、例えば、判断基準としての年代が「1990年代」に設定されている場合、1990年代にヒットした曲を示す情報が、自動応答AIの発言内容46として表示される。ユーザAが端末装置10にログインしているため、制御部20は、ユーザに紐付かない自動応答AIに紐付く画像52に代えて、ユーザAに紐付く自動応答AIに紐付く画像56を画面36に表示させ、発言内容46をその画像56に紐付けて画面36に表示させる。画像56は、ユーザAに紐付く自動応答AIを識別するための画像である。なお、画像56が表示されずに、画像52が表示されてもよい。
また、ユーザAに紐付く自動応答AIは、ユーザAに対応付けられている判断基準に応じた音声の発生の仕方に従って、発言内容46を音声によって発する。上記のように年代が設定されている場合、ユーザAに紐付く自動応答AIは、その年代に応じた音声の発生の仕方に従って、発言内容46を音声によって発する。その音声は、例えば、UI部16に設けられているスピーカから発せられる。例えば、ユーザAに紐付く自動応答AIは、「1990年代」当時のユーザAの年代に対応する発生の仕方に従って、発言内容46を発する。なお、ユーザAの年齢は、例えば、ユーザA用の判断基準を設定するときに設定される。
第2実施形態によれば、自動応答AIが音声によって応答を発する場合に、設定された判断基準に応じた発生の仕方に従って、その音声が発せられる。こうすることで、判断基準に関わらず一定の発生の仕方に従って自動応答AIが音声を発する場合と比べて、ユーザは、設定されている判断基準を聴覚的に認識し易くなる。
また、ユーザ毎に判断基準が設定されている場合、ユーザ毎に、自動応答AIの音声の発生の仕方が変更される。つまり、自動応答AIと対話しているユーザに紐付く判断基準に応じた発生の仕方に従って、自動応答AIの音声が発せられる。こうすることで、ユーザに関わらず一定の発生の仕方に従って音声が発せられる場合と比較して、ユーザは、自身と対話している自動応答AIの判断基準が、自身用に設定された判断基準であるのか否かを認識し易くなる。
なお、ユーザAが音声によって発言内容44を端末装置10に入力した場合、変更部22は、音声認識処理を適用することで、その音声の発生者であるユーザAを識別してもよい。この場合、変更部22は、その識別結果に従って、自動応答AIの判断基準を、ユーザAに紐付く判断基準に変更し、更に、自動応答AIの音声の発生の仕方を、ユーザAに紐付く判断基準に応じた発生の仕方に変更する。例えば、ユーザAが音声によって発言内容を端末装置10に入力した場合、ユーザAに紐付く判断基準に応じた発生の仕方に従って、自動応答AIの音声が発せされ、ユーザBが音声によって発言内容を端末装置10に入力した場合、ユーザBに紐付く判断基準に応じた発生の仕方に従って、自動応答AIの音声が発せられる。端末装置10へのログインの有無に関わらず、変更部22は、ユーザの音声を識別して、上記の処理を実行してもよい。
第2実施形態において、変更部22は、自動応答AIの応答の判断基準を変更せずに、自動応答AIの音声の発生の仕方を変更してもよい。例えば、音声の発生の仕方として、ユーザによって、年代、職業、性格、キャラクタ、及び、環境を含む設定項目群の中から少なくとも1つの設定項目が選択された場合、変更部22は、自動応答AIの音声の発生の仕方を、選択された1又は複数の設定項目に応じた発生の仕方に変更する。その発生の仕方は、図7に示されている発生の仕方と同じである。このとき、変更部22は、第1実施形態に係る処理(つまり、自動応答AIの応答の判断基準自体の変更)を行わずに、自動応答AIの音声の発生の仕方を変更する。こうすることで、自動応答AIは、設定された音声の発生の仕方に従って音声を発する。なお、自動応答AIは、予め定められた判断基準に従って応答することになる。
<第3実施形態>
以下、第3実施形態に係る情報処理システムについて説明する。第3実施形態では、第2実施形態と同様に、自動応答AIは、音声によって応答する。図9には、第3実施形態に係る情報処理システムの一例が示されている。第3実施形態に係る情報処理システムは、第1実施形態に係る情報処理システムの構成に加えて、情報処理装置の一例としての中継装置58と機器60とを含む。端末装置10、サーバ12、中継装置58、及び、機器60は、例えば、通信経路Nを介して互いに通信する機能を有する。第3実施形態では、中継装置58によって、変更部22による処理が実行される。なお、第3実施形態に係る情報処理システムには、端末装置10、サーバ12及び機器60は含まれていなくてもよい。また、複数の機器60が情報処理システムに含まれていてもよい。
情報処理装置の一例としての中継装置58は、上述した自動応答AIを搭載し、音声によってユーザと対話する機能を有する。また、中継装置58は、1又は複数の機器60を制御する機能を有していてもよい。例えば、コネクテッドホーム(IoT技術を用いて家電等の機器60同士をネットワークによって接続するシステム)が構築された場合、各機器60を制御するための装置として中継装置58が用いられてもよい。この場合、中継装置58を介して各機器60同士が接続される。もちろん、各機器60は、中継装置58を介さずに直接的に互いに接続してもよいし、サーバ12を介して接続してもよい。
機器60は、例えば、画像形成機能(スキャン機能、プリント機能、コピー機能、ファクシミリ機能等)を備えた画像形成装置、PC、タブレットPC、スマートフォン、携帯電話、ロボット(人型ロボット、人以外の動物型ロボット、それら以外のロボット等)、プロジェクタ、液晶ディスプレイ等の表示装置、記録装置、再生装置、カメラ等の撮像装置、冷蔵庫、炊飯器、電子レンジ、コーヒーメーカー、掃除機、洗濯機、空調機、照明機器、時計、監視カメラ、自動車、二輪車、航空機(例えば無人航空機(いわゆるドローン))、ゲーム機、各種のセンシング機器(例えば温度センサ、湿度センサ、電圧センサ、電流センサ等)等の装置である。機器60は、ユーザに対してアウトプットを出力する機器(例えば画像形成装置やPC等)であってもよいし、ユーザに対してアウトプットを出力しない機器(例えばセンシング機器)であってもよい。機器60の概念の範疇には機器全般が含まれてもよい。例えば、情報機器、映像機器、音響機器、その他の機器も、本実施形態に係る機器の範疇に含まれてもよい。また、機器60は、他の装置との間でデータを送受信する機能を有する。
以下、図10を参照して、中継装置58の外観について説明する。図10は、中継装置58を示す斜視図である。中継装置58は、いわゆるスマートスピーカであり、通信機能と音声によるアシスト機能とを有する。中継装置58は、柱状の本体部62を含む。本体部62の側面には、スピーカ64、マイク66、発光部68,70、及び、表示部84が設けられている。なお、本体部62の形状は、図10に示されている形状に限定されるものではない。スピーカ64とマイク66とを備えた中継装置58であれば、その形状は、どのような形状であってもよい。また、スピーカ64、マイク66、発光部68,70、及び、表示部84は、図10に示されている位置以外の位置に配置されてもよい。
ユーザが自動応答AIと対話している場合、スピーカ64から自動応答AIの発言内容が音声として発せられる。また、音楽やテレビの音声やラジオの音声等が、スピーカ64から発せられてもよい。
マイク66は、集音装置として機能し、中継装置58の周囲の音を集音する。例えば、ユーザの音声がマイク66によって集音される。
発光部68は、1又は複数の光源(例えば光源72,74,76)を含み、設定された自動応答AI(ボット)に応じた発光の仕方に従って発光する。つまり、発光部68は、設定された判断基準に応じた発光の仕方に従って発光する。例えば、職業の設定項目として医者が設定されている場合、光源72,76が青色に発光し、光源74が黄色に発光する。別の設定項目が設定された場合、その設定された内容に応じた発光の仕方に従って、発光部68は発光する。
発光部70は、1又は複数の光源(例えば光源78,80,82)を含み、自動応答AIの現在の判断基準に紐付くユーザアカウントに応じた発光の仕方に従って発光する。例えば、ユーザBに紐付く判断基準が自動応答AIの判断基準として設定されている場合、光源78,82が青色に発光し、光源80が黄色に発光する。別のユーザに紐付く判断基準が用いられている場合、そのユーザに応じた発光の仕方に従って、発光部70は発光する。
なお、発光部68,70は区別されずに本体部62に設けられてもよい。例えば、発光部68,70に含まれる全光源を用いて、設定されている判断基準(自動応答AI)やユーザアカウントを表現してもよい。また、各光源の発光パターン(例えば、点滅の仕方、時間の長さ等)によって、設定されている判断基準やユーザアカウントを表現してもよい。
表示部84は、表示装置である。表示部84は、操作部を兼ねたユーザインターフェース(例えばタッチパネル等)であってもよい。
以下、図11を参照して、中継装置58の構成について更に詳しく説明する。図11には、中継装置58の構成の一例が示されている。
中継装置58は、上記のスピーカ64、マイク66、発光部68,70及び表示部84の他、通信部86、記憶部88及び制御部90を含む。
通信部86は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部86は、無線通信機能を有する通信インターフェースであってもよいし、有線通信機能を有する通信インターフェースであってもよい。通信部86は、例えば、1又は複数の種類の通信方式に対応しており、通信相手に適した通信方式に従って通信相手と通信してもよい。通信方式は、例えば、赤外線通信、可視光通信、Wi−Fi通信、近接無線通信等である。これら以外の通信方式が用いられてもよい。また、通信部86は、通信相手に応じて通信方式や周波数帯域を切り替えてもよいし、周囲の環境に応じて通信方式や周波数帯域を切り替えてもよい。
記憶部88はハードディスクドライブやメモリ(例えばSSD等)等の記憶装置である。記憶部88には、例えば、各種のデータ、各種のプログラム(例えば、OS、各種のアプリケーションプログラム等)、他の装置(例えば端末装置10、サーバ12、機器60等)のアドレスを示す情報、等が記憶されている。それらは別々の記憶装置に記憶されてもよいし、1つの記憶装置に記憶されてもよい。
また、記憶部88には、自動応答AIを実現するための自動応答AIプログラムが記憶されており、その自動応答AIプログラムが実行されることで、自動応答AIの機能が実現される。なお、自動応答AIプログラムは、サーバ12等の外部装置に記憶されて当該外部装置かによって実行されることで、自動応答AIの機能が、外部装置から中継装置58に提供されてもよい。この場合、自動応答AIプログラムは、記憶部88に記憶されなくてもよい。
また、記憶部88には、判断基準情報が記憶されている。例えば、図3や図7に示されている情報が、記憶部88に記憶されている。また、後述する図12に示されている情報が、記憶部88に記憶されている。
制御部90は、中継装置58の各部の動作を制御する機能を有する。例えば、制御部90は、各種のプログラムの実行、スピーカ64による音の出力の制御、マイク66による集音の制御、発光部68,70による発光の制御、表示部84による情報の表示の制御、通信部86による通信の制御、等を行う。また、制御部90が自動応答AIプログラムを実行することで、自動応答AIの機能が実現される。また、制御部90は、変更部22を含む。
変更部22は、第2実施形態と同様に、自動応答AIの応答の判断基準(設定項目の内容)を変更し、更に、その判断基準に応じて、自動応答AIの音声の発生の仕方を変更する。例えば、変更部22は、図7に示されている情報に従って、自動応答AIの音声の発生の仕方を変更する。また、第3実施形態では、変更部22は、設定された判断基準に応じて、発光部68の発光の仕方を変更する。また、変更部22は、設定された判断基準に紐付くユーザアカウントに応じて、発光部70の発光の仕方を変更する。なお、変更部22は、マイク66が集音したユーザの音声に対して音声認識処理を適用することで、当該ユーザを識別し、発光部70の発光の仕方を、当該ユーザに応じた発光の仕方に変更してもよい。また、変更部22は、自動応答AIの判断基準を、音声によって識別されたユーザに紐付く判断基準に変更し、自動応答AIの音声の発生の仕方を、当該ユーザに紐付く判断基準に応じた発生の仕方に変更してもよい。
上述したように、変更部22は、図7に示されている情報に従って、自動応答AIの音声の発生の仕方を変更する。その音声は、スピーカ64から発せられる。以下では、図12を参照して、設定項目毎の発光部68の発光の仕方について説明する。図12には、設定項目毎の発光の仕方が示されている。図12に示されている情報は、判断基準情報として記憶部18に記憶されている。なお、図7に示されている情報と図12に示されている情報とが一体となった情報が、記憶部18に記憶されていてもよい。
年代が設定された場合、変更部22は、発光部68の発光の仕方を、設定された年代に応じた発光の仕方に変更する。こうすることで、発光部68は、設定された年代に応じた発光の仕方に従って発光する。例えば、年代として「若い年代(例えば10〜20代)」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が速く、赤色」という発光の仕方に変更する。また、年代として「中年(例えば30〜40代)」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が中速で、青色」という発光の仕方に変更する。また、年代として「高年(例えば50代以降)」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が遅い、緑色」という発光の仕方に変更する。
職業が設定された場合、変更部22は、発光部68の発光の仕方を、設定された職業に応じた発光の仕方に変更する。こうすることで、発光部68は、設定された職業に応じた発光の仕方に従って発光する。例えば、職業として「アーティストやクリエータ」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が速く、赤色」という発光の仕方に変更する。また、職業として「学生」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が中速で、青色」という発光の仕方に変更する。また、職業として「公務員、医師、弁護士等」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が遅く、緑色」という発光の仕方に変更する。
性格が設定された場合、変更部22は、発光部68の発光の仕方を、設定された性格に応じた発光の仕方に変更する。こうすることで、発光部68は、設定された性格に応じた発光の仕方に従って発光する。例えば、性格として「怒りっぽいやせっかち」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が速い」という発光の仕方に変更する。また、性格として「温厚やのんびり」が設定された場合、変更部22は、発光部68の発光の仕方を、「点滅が遅い」という発光の仕方に変更する。また、性格として「バランスの良い性格」が設定された場合、変更部22は、発光部68の発光の仕方を、「標準的な点滅」という発光の仕方に変更する。また、性格として「真面目や硬派」が設定された場合、変更部22は、発光部68の発光の仕方を、「1回1回の点滅をゆっくり」という発光の仕方に変更する。
キャラクタが設定された場合、変更部22は、発光部68の発光の仕方を、設定されたキャラクタに応じた発光の仕方に変更する。こうすることで、発光部68は、設定された性格に応じた発光の仕方に従って発光する。例えば、キャラクタとして「科学系の有名人」が設定された場合、変更部22は、発光部68の発光の仕方を、「奇抜な発光パターンで発光する」という発光の仕方に変更する。また、キャラクタとして「文科系の有名人」が設定された場合、変更部22は、発光部68の発光の仕方を、「暖色系の色で発光する」という発光の仕方に変更する。
環境が設定された場合、変更部22は、発光部68の発光の仕方を、設定された環境に応じた発光の仕方に変更する。こうすることで、発光部68は、設定された性格に応じた発光の仕方に従って発光する。例えば、環境として「静かな場所」が設定された場合、変更部22は、発光部68の発光の仕方を、「ゆっくり点滅、穏やかな色」という発光の仕方に変更する。また、環境として「ボットが上司であり、部下がユーザ」が設定された場合、変更部22は、発光部68の発光の仕方を、「ユーザの返事が遅いと、点滅で催促する」という発光の仕方に変更する。
以下、音声による対話の具体例について説明する。例えば、中継装置58に搭載されている自動応答AIが、「どうしましたか?」といった発言内容を発すると、その発言内容は、音声としてスピーカ64から発せられる。これに対して、例えば、ユーザAが、「おすすめの音楽を教えて」といった発言内容を音声で発すると、その音声はマイク66によって集音される。変更部22は、その音声に対して音声認識処理を適用することで、話者がユーザAであることを識別し、自動応答AIの判断基準をユーザAに紐付く判断基準に変更する。例えば、ユーザAに紐付く判断基準として、年代「1990年代」が設定されている場合、自動応答AIは、1990年代にヒットした曲を検索する。また、変更部22は、自動応答AIの音声の発生の仕方を、ユーザAに紐付く判断基準に応じた音声の発生の仕方に変更する。これにより、1990年代にヒットした曲を示す発言内容が、ユーザAに紐付く判断基準に応じた発生の仕方に従って、音声としてスピーカ64から発せられる。また、制御部90は、発光部68の発光の仕方を、ユーザAに紐付く判断基準に応じた発光の仕方に変更し、更に、発光部70の発光の仕方を、ユーザAに紐付く発光の仕方(ユーザAを識別するための発光の仕方)に変更する。これにより、発光部68は、ユーザAに紐付く判断基準に応じた発光の仕方に従って発光し、発光部70は、ユーザAに紐付く発光の仕方に従って発光する。
制御部90は、各発言内容を表示部84に表示させてもよい。例えば、図5や図8に示されている発言内容42,44,46が表示部84に表示される。例えば、自動応答AIの発言内容が表示部84に表示されると共に、その発言内容が音声としてスピーカ64から発せられる。
第3実施形態によれば、第2実施形態と同様に、自動応答AIが音声によって応答を発する場合に、設定された判断基準に応じた発生の仕方に従って、その音声が発せられる。また、発光部68は、判断基準に応じた発光の仕方に従って発光する。こうすることで、発光部68が、判断基準に関わらず一定の発光の仕方に従って発光する場合と比較して、ユーザは、設定されている判断基準を視覚的に認識し易くなる。また、発光部70は、ユーザに応じた発光の仕方に従って発光する。こうすることで、そのような発光部70を用いない場合と比べて、ユーザは、誰の判断基準が設定されているのかを視覚的に認識し易くなる。
なお、端末装置10と中継装置58とによって、上記の処理が実行されてもよい。例えば、自動応答AIの発言内容が端末装置10に表示されると共に、その発言内容を示す情報が端末装置10から中継装置58に送信されて、その発言内容が、スピーカ64から音声として発せられてもよい。また、ユーザの音声が中継装置58のマイク66によって集音され、その音声を示す情報が中継装置58から端末装置10に送信されて、ユーザの発言内容として端末装置10に表示されてもよい。この場合、自動応答AIと変更部22は、端末装置10に搭載されて、中継装置58には搭載されていなくてもよい。
第3実施形態において、変更部22は、自動応答AIの音声の発生の仕方を変更せずに、自動応答AIの判断基準に応じて、発光部68の発光の仕方を変更してもよい。この場合、自動応答AIは、予め定められた音声の発生の仕方に従って音声を発することになる。
また、第3実施形態において、変更部22は、自動応答AIの応答の判断基準を変更せずに、自動応答AIの音声の発生の仕方や、発光部68の発光の仕方を変更してもよい。例えば、発光部68の発光の仕方として、ユーザによって、年代、職業、性格、キャラクタ、及び、環境を含む設定項目群の中から少なくとも1つの設定項目が選択された場合、変更部22は、自動応答AIの音声の発生の仕方を、選択された1又は複数の設定項目に応じた発生の仕方に変更し、発光部68の発光の仕方を、選択された1又は複数の設定項目に応じた発光の仕方に変更する。音声の発生の仕方は、図7に示されている発生の仕方と同じであり、発光部68の発光の仕方は、図12に示されている発光の仕方と同じである。このとき、変更部22は、第1実施形態に係る処理(つまり、自動応答AIの応答の判断基準自体の変更)を行わずに、自動応答AIの音声の発生の仕方と発光部68の発光の仕方を変更する。こうすることで、自動応答AIは、設定された音声の発生の仕方に従って音声を発し、発光部68は、設定された発光の仕方に従って発光する。なお、自動応答AIは、予め定められた判断基準に従って応答することになる。
<第4実施形態>
以下、第4実施形態について説明する。上述した第1から第3実施形態において、変更部22は、設定された判断基準に応じて、自動応答AIに紐付く画像を変更してもよい。第1及び第2実施形態であれば、自動応答AIに紐付く画像が、端末装置10の画面36に表示され、その画像が、設定された判断基準に応じて変更される。また、第3実施形態であれば、自動応答AIに紐付く画像が、中継装置58の表示部84に表示され、その画像が、設定された判断基準に応じて変更される。
図13には、設定項目毎の話者画像が示されている。図13に示されている情報は、第1及び第2実施形態であれば、判断基準情報として端末装置10の記憶部18に記憶されており、第3実施形態であれば、判断基準情報として中継装置58の記憶部88に記憶されている。
年代が設定された場合、変更部22は、自動応答AIに紐付く画像を、設定された年代に応じた画像に変更する。例えば、年代として「若い年代(例えば10〜20代)」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「若者の画像」に変更する。また、年代として「中年(例えば30〜40代)」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「中年の画像」に変更する。また、年代として「高年(例えば50代以降)」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「高齢者の画像」に変更する。なお、自動応答AIの性別が設定されている場合、変更部22は、自動応答AIに紐付く画像を、その性別を表す画像に変更する。性別が設定されていない場合、変更部22は、年齢に応じた変化のみを画像に反映させる。
職業が設定された場合、変更部22は、自動応答AIに紐付く画像を、設定された職業に応じた画像に変更する。例えば、職業として「アーティストやクリエータ」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「お洒落な格好をした人の画像」に変更する。また、職業として「学生」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「学生服を着た人の画像」に変更する。また、職業として「ビジネスマン」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「スーツを着た人の画像」に変更する。また、職業として「医師」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「白衣を着た人の画像」に変更する。
性格が設定された場合、変更部22は、自動応答AIに紐付く画像を、設定された性格に応じた画像に変更する。例えば、性格として「怒りっぽいやせっかち」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「怒りマークが付いた画像」に変更する。また、性格として「温厚やのんびり」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「温厚な表情の画像」に変更する。また、性格として「バランスの良い性格」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「適度な微笑みの画像」に変更する。また、性格として「真面目や硬派」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「硬い表情の画像」という発光の仕方に変更する。
キャラクタが設定された場合、変更部22は、自動応答AIに紐付く画像を、設定されたキャラクタに応じた画像に変更する。例えば、変更部22は、自動応答AIに紐付く画像を、「そのキャラクタ(その有名人)を象徴する装飾品や服装を身に付けた人の画像」に変更する。
環境が設定された場合、変更部22は、自動応答AIに紐付く画像を、設定された環境に応じた画像に変更する。例えば、環境として「静かな場所」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「落ち着いた服装を着た人の画像」に変更する。また、環境として「職場」が設定された場合、変更部22は、自動応答AIに紐付く画像を、「職場の制服を着た人の画像」に変更する。
なお、ユーザの年代、職業、性格、キャラクタ、環境等が設定されている場合、変更部22は、ユーザに紐付く画像を、その設定された内容に応じた画像に変更してもよい。
図14及び図15には、自動応答AIに紐付く画像の一例が示されている。例えば、職業として「学生」が設定された場合、図14に示すように、学生服を着た人を表す画像92が、自動応答AIに紐付く画像として表示される。また、職業として「ビジネスマン」が設定された場合、図15に示すように、ワイシャツとネクタイを身に付けた人を表す画像94やスーツを身に付けた人の画像が、自動応答AIに紐付く画像として表示される。上述したように、ユーザの職業が学生であれば、画像92が、ユーザに紐付く画像として表示されてもよい。また、ユーザの職業がビジネスマンであれば、画像94が、ユーザに紐付く画像として表示されてもよい。
第4実施形態によれば、判断基準に応じて、自動応答AIに紐付く画像が変更される。こうすることで、判断基準に関わらず一定の画像が自動応答AIに紐付く画像として表示される場合と比較して、ユーザは、設定されている判断基準を視覚的に認識し易くなる。
上記の端末装置10、サーバ12及び中継装置58のそれぞれは、一例としてハードウェアとソフトウェアとの協働により実現される。具体的には、端末装置10、サーバ12及び中継装置58のそれぞれは、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、端末装置10、サーバ12及び中継装置58のそれぞれの各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、端末装置10、サーバ12及び中継装置58のそれぞれの各部は、例えばプロセッサや電子回路やASIC(Application Specific Integrated Circuit)等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、端末装置10、サーバ12及び中継装置58のそれぞれの各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。
10 端末装置、12 サーバ、20 制御部、22 変更部、58 中継装置。

Claims (24)

  1. ユーザの問い合わせに応答する応答アシスタントの前記応答の判断基準を変更する変更手段を有する情報処理装置。
  2. 前記判断基準は、複数の設定項目を含み、
    前記変更手段は、個々の設定項目の内容を個別的に変更する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記変更手段は、前記応答アシスタントの利用開始後、前記設定項目の内容を変更する、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記変更手段は、前記ユーザと前記応答アシスタントとの間の対話に基づいて、前記設定項目の内容を変更する、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記応答アシスタントは、ユーザの問い合わせに対して、変更後の設定項目の内容を基準とした詳細な情報を前記応答としてユーザに通知する、
    ことを特徴とする請求項2から請求項4何れかに記載の情報処理装置。
  6. 前記応答アシスタントは、ユーザの問い合わせに対して、変更後の設定項目の内容を基準とした情報を前記応答として優先的にユーザに通知する、
    ことを特徴とする請求項2から請求項4何れかに記載の情報処理装置。
  7. 前記応答アシスタントは、ユーザの問い合わせに対して、変更後の設定項目の内容の範囲内で応答する、
    ことを特徴とする請求項2から請求項4何れかに記載の情報処理装置。
  8. 前記複数の設定項目は、年代、職業、性格、人物、及び、環境を含む設定項目郡の中から選択され、
    前記応答アシスタントは、前記複数の設定項目によって設定された基準に従って応答する、
    ことを特徴とする請求項2から請求項7何れかに記載の情報処理装置。
  9. 前記設定項目は年代であり、
    前記応答アシスタントは、設定された年代を基準とした前記応答をユーザに通知する、
    ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置。
  10. 前記設定項目は職業であり、
    前記応答アシスタントは、設定された職業を基準とした前記応答をユーザに通知する、
    ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置。
  11. 前記設定項目は性格であり、
    前記応答アシスタントは、設定された性格を基準とした前記応答をユーザに通知する、
    ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置。
  12. 前記設定項目は人物であり、
    前記応答アシスタントは、設定された人物を基準とした前記応答のユーザに通知する、
    ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置。
  13. 前記設定項目は環境であり、
    前記応答アシスタントは、設定された環境を基準とした前記応答をユーザに通知する、
    ことを特徴とする請求項2から請求項8何れかに記載の情報処理装置。
  14. 前記変更手段は、更に、前記判断基準に応じて前記応答アシスタントの音声の発生の仕方を変更する、
    ことを特徴とする請求項1から請求項13何れかに記載の情報処理装置。
  15. 前記変更手段は、前記応答アシスタントの音声の発生の仕方を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた音声の発生の仕方に変更する、
    ことを特徴とする請求項15に記載の情報処理装置。
  16. 前記応答アシスタントの音声は、機器を制御するための中継装置から発せられる、
    ことを特徴とする請求項14又は請求項15に記載の情報処理装置。
  17. 前記変更手段は、更に、前記判断基準に応じて、前記応答に応じて発光する発光手段の発光の仕方を変更する、
    ことを特徴とする請求項1から請求項16何れかに記載の情報処理装置。
  18. 前記変更手段は、前記発光手段の発光の仕方を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた発光の仕方に変更する、
    ことを特徴とする請求項17に記載の情報処理装置。
  19. 前記発光手段は、機器を制御するための中継装置に設けられている、
    ことを特徴とする請求項17又は請求項18に記載の情報処理装置。
  20. 前記変更手段は、更に、前記判断基準に応じて、前記応答アシスタントに紐付く画像を変更する、
    ことを特徴とする請求項1から請求項19何れかに記載の情報処理装置。
  21. 前記変更手段は、前記画像を、年代、職業、性格、人物、及び、環境を含む設定項目群の中の少なくとも1つの設定項目に応じた画像に変更する、
    ことを特徴とする請求項20に記載の情報処理装置。
  22. 前記画像は、機器を制御するための中継装置に表示される、
    ことを特徴とする請求項20又は請求項21に記載の情報処理装置。
  23. 前記変更手段は、ユーザ毎に前記変更を行う、
    ことを特徴とする請求項1から請求項22何れかに記載の情報処理装置。
  24. コンピュータを、
    ユーザの問い合わせに応答する応答アシスタントの前記応答の判断基準となる設定を変更する変更手段、
    として機能させるプログラム。
JP2018000709A 2017-11-14 2018-01-05 情報処理装置及びプログラム Active JP7010000B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/996,532 US20190149490A1 (en) 2017-11-14 2018-06-04 Information processing apparatus and non-transitory computer readable medium
CN201810750648.9A CN110019743A (zh) 2017-11-14 2018-07-10 信息处理装置及存储程序的计算机可读介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017219319 2017-11-14
JP2017219319 2017-11-14

Publications (2)

Publication Number Publication Date
JP2019091387A true JP2019091387A (ja) 2019-06-13
JP7010000B2 JP7010000B2 (ja) 2022-01-26

Family

ID=66837433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018000709A Active JP7010000B2 (ja) 2017-11-14 2018-01-05 情報処理装置及びプログラム

Country Status (2)

Country Link
JP (1) JP7010000B2 (ja)
CN (1) CN110019743A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060952A (ja) * 2019-10-08 2021-04-15 株式会社Macbee Planet プログラム、情報処理装置及び情報処理方法
WO2021100493A1 (ja) * 2019-11-22 2021-05-27 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム
JPWO2021117166A1 (ja) * 2019-12-11 2021-06-17
JP2021144554A (ja) * 2020-03-13 2021-09-24 株式会社リクルート 順番管理システム、順番管理装置、およびプログラム
WO2022059307A1 (ja) * 2020-09-16 2022-03-24 株式会社Cureapp 情報処理装置、情報処理方法及び情報処理プログラム
JP7171000B1 (ja) 2022-03-28 2022-11-15 Tis株式会社 対話システム、対話方法及び対話プログラム
JP7418106B2 (ja) 2019-09-11 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713007B2 (en) * 2017-12-12 2020-07-14 Amazon Technologies, Inc. Architecture for a hub configured to control a second device while a connection to a remote system is unavailable

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090162824A1 (en) * 2007-12-21 2009-06-25 Heck Larry P Automated learning from a question and answering network of humans
JP2014186744A (ja) * 2009-02-18 2014-10-02 Nec Corp 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
CN104461226A (zh) * 2013-09-23 2015-03-25 北京三星通信技术研究有限公司 用于网络的聊天方法、聊天设备及聊天系统
CN106503275A (zh) * 2016-12-30 2017-03-15 首都师范大学 聊天机器人的音色配置方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512228B (zh) * 2015-11-30 2018-12-25 北京光年无限科技有限公司 一种基于智能机器人的双向问答数据处理方法和系统
CN106297789B (zh) * 2016-08-19 2020-01-14 北京光年无限科技有限公司 智能机器人的个性化交互方法及交互系统
US10691330B2 (en) * 2016-09-23 2020-06-23 Apple Inc. Device, method, and graphical user interface for force-sensitive gestures on the back of a device
CN106649746A (zh) * 2016-12-26 2017-05-10 北京云知声信息技术有限公司 一种答案获取方法及装置
CN107340859B (zh) * 2017-06-14 2021-04-06 北京光年无限科技有限公司 多模态虚拟机器人的多模态交互方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090162824A1 (en) * 2007-12-21 2009-06-25 Heck Larry P Automated learning from a question and answering network of humans
JP2014186744A (ja) * 2009-02-18 2014-10-02 Nec Corp 動作対象制御装置、動作対象制御システム、動作対象制御方法及びプログラム
CN104461226A (zh) * 2013-09-23 2015-03-25 北京三星通信技术研究有限公司 用于网络的聊天方法、聊天设备及聊天系统
CN106503275A (zh) * 2016-12-30 2017-03-15 首都师范大学 聊天机器人的音色配置方法及装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418106B2 (ja) 2019-09-11 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2021060952A (ja) * 2019-10-08 2021-04-15 株式会社Macbee Planet プログラム、情報処理装置及び情報処理方法
WO2021100493A1 (ja) * 2019-11-22 2021-05-27 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム
US20220391438A1 (en) * 2019-11-22 2022-12-08 Sony Group Corporation Information processing apparatus, information processing method, and program
JPWO2021117166A1 (ja) * 2019-12-11 2021-06-17
WO2021117166A1 (ja) * 2019-12-11 2021-06-17 富士通株式会社 会話制御プログラム、会話制御方法及び会話制御装置
JP7334800B2 (ja) 2019-12-11 2023-08-29 富士通株式会社 会話制御プログラム、会話制御方法及び会話制御装置
JP2021144554A (ja) * 2020-03-13 2021-09-24 株式会社リクルート 順番管理システム、順番管理装置、およびプログラム
WO2022059307A1 (ja) * 2020-09-16 2022-03-24 株式会社Cureapp 情報処理装置、情報処理方法及び情報処理プログラム
JP7171000B1 (ja) 2022-03-28 2022-11-15 Tis株式会社 対話システム、対話方法及び対話プログラム
JP2023145092A (ja) * 2022-03-28 2023-10-11 Tis株式会社 対話システム、対話方法及び対話プログラム

Also Published As

Publication number Publication date
JP7010000B2 (ja) 2022-01-26
CN110019743A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
JP7010000B2 (ja) 情報処理装置及びプログラム
US20220284896A1 (en) Electronic personal interactive device
CN110998725B (zh) 在对话中生成响应
CN110168526A (zh) 用于媒体探索的智能自动化助理
CN104813311B (zh) 用于多人的虚拟代理推荐的系统和方法
CN110019752A (zh) 多方向对话
CN110364148A (zh) 自然助理交互
CN110021301A (zh) 数字助理服务的远场延伸
CN110223698A (zh) 训练数字助理的说话人识别模型
CN107491929A (zh) 数据驱动的自然语言事件检测和分类
CN107480161A (zh) 用于媒体探究的智能自动化助理
CN110473538A (zh) 检测数字助理的触发
CN106164962A (zh) 基于用户的显式声明的个性化推荐
CN106910513A (zh) 情绪智能聊天引擎
US20190149490A1 (en) Information processing apparatus and non-transitory computer readable medium
CN109074117A (zh) 用于提升记忆力与作决策的以个人情绪为基础的计算机可读取认知感觉内存储器及认知洞察力
JP2019008570A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021073549A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
CN110460715A (zh) 用于操作数字助理的方法、设备和介质
Bruno et al. Culturally-competent human-robot verbal interaction
CN109257942A (zh) 用户特定的声学模型
Brown Unifying interaction across distributed controls in a smart environment using anthropology-based computing to make human-computer interaction" Calm"
CN110097883A (zh) 用于在主设备处访问配套设备的呼叫功能的语音交互
JP7350384B1 (ja) 対話システム、及び対話方法
Zoghaib Voice Marketing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

R150 Certificate of patent or registration of utility model

Ref document number: 7010000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150