JP7146373B2 - 接客サービスシステム - Google Patents

接客サービスシステム Download PDF

Info

Publication number
JP7146373B2
JP7146373B2 JP2017137205A JP2017137205A JP7146373B2 JP 7146373 B2 JP7146373 B2 JP 7146373B2 JP 2017137205 A JP2017137205 A JP 2017137205A JP 2017137205 A JP2017137205 A JP 2017137205A JP 7146373 B2 JP7146373 B2 JP 7146373B2
Authority
JP
Japan
Prior art keywords
customer service
situation
service
robot
customer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017137205A
Other languages
English (en)
Other versions
JP2019018265A (ja
Inventor
雅美 田嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017137205A priority Critical patent/JP7146373B2/ja
Publication of JP2019018265A publication Critical patent/JP2019018265A/ja
Application granted granted Critical
Publication of JP7146373B2 publication Critical patent/JP7146373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、サービス享受者に対して接客サービスを行うための接客サービスシステムに関するものである。
昨今、ロボットや人工知能等の情報処理技術の発展が目覚ましく、従来機械化が困難であった分野にもロボットや情報処理技術が取り入れられている。例えば、来客対応等の接客に人工知能を搭載したロボットを採用することが提案されている(例えば、特許文献1参照)。
ロボットが行う接客にも、従来人が行っていた接客と同様に、サービス提供、マナー(礼儀)、ホスピタリティが求められる。ここで、サービス提供とは、接客の主目的であり、例えば会社受付での来客対応の場合には、客を案内して客と会社の担当者を引き合わせることがこれに該当する。マナーとは、単にサービスを提供するだけでなく、接客サービス時に人がするのと同様の礼節を表現することであり、例えば会社受付での来客対応の場合には、ロボットが客に対して挨拶、お辞儀等(それがサービス提供には必ずしも必要でないもの)をすることがこれに該当する。ホスピタリティとは、目配り、気配り、心配りを通じて、個々の状況に応じた対応をすることで客に心地よさを提供することであり、単に定型の挨拶をするだけでなく、例えば雨天の際には足元の悪い中来て頂いたことに対する感謝を表し、傘の置き場所を案内する等の気配りがこれに該当する。特に、日本における接客のホスピタリティは、「おもてなし」(Omotenashi)という言葉で海外にも紹介されるように、繊細できめ細かいものである。
従来、ロボットによる接客は、サービス提供者である接客スタッフが行っていたことをロボットに代替させることで無人化や自動化を目指すものが多い(例えば、特許文献2)。このように、ロボットが人に変わって接客をする場合にも、単にマナーを備えてサービスを提供するだけでなく、ホスピタリティないし「おもてなし」(以下、「接客ホスピタリティ」ともいう。)を実現することが望まれる。
特開2009-248193号公報 特開2017-111489号公報
業態、価格、企業能力などに応じて客の期待度は異なるが、いずれにしても接客ホスピタリティの質を向上させるために重要な視点は、客の満足度を高める(より消極的には、負の満足度を低下させる)ために、商品、サービス、施設環境、五感に訴える品質に加えて、さらにおもてなしによって、対価以上の満足を多くの客に感じてもらう仕組みや組織能力を提供することである。
接客ホスピタリティの重要な要素は、観察・洞察力及びアクションである。接客スタッフは、客が滞在する間(例えば、飲食店の場合には2時間、旅館ならば1泊2日の間)に、その時々の環境(込み具合む含む)と客の状況(過去の知見や常連ならば個人情報等を含む)を観察・洞察し、その客にとって最適なおもてなしのストーリを描き、それに従ってアクションを起こす。
接客スタッフによるアクションが逆効果となる場合もあるが、その場合にも、接客スタッフは、実行したアクションに満足していないという客の反応を観察・洞察して、リカバリのためのアクションを実行する。このように、接客スタッフ(人)であれば、接客サービスを提供した後の客の反応を観察し、客が喜んだか不機嫌になったかを判断することで、その後同様の状況に接したときによりよい接客サービスを提供するよう学習することが可能である。
そこで、本発明の目的は、接客サービスシステムにおいても、従来接客スタッフが行っていたのと同様にして、客の反応に基づいて接客サービスの学習を行うことである。
この目的を達成するために、本願では、上記の観察・洞察のための情報リサーチ及び必要なアクションの分析を人だけでなくロボットも利用して行う。具体的には、客がどのようなアクションに対してどのようなリアクションをしたかという情報を蓄積し、それを機械学習等の学習技術を用いて分析することで、確度の高い接客ホスピタリティを求めることができる接客サービスシステムを提供する。
また、本発明者は、ロボットが接客スタッフの代替をするだけでなく、ロボットと接客スタッフとが協働することで、従来、接客スタッフが行っていた以上の接客ホスピタリティを提供して従来以上の顧客満足度が得られる可能性があることを見出した。観察・洞察すべき客ないし客周辺の状況は、外的要因(環境の温度、湿度、騒音、空間、香り等)と、内的要因(提供する料理、接客サービス、組織能力等)と、さらに、客との価値共創(利用する客の質で同じサービスをしていても、店の雰囲気や感動効果に違いができる)で成り立っている。したがって、接客サービスは接客スタッフが提供したほうがよい場合と、ロボットが提供したほうがよい場合とがある。
そこで、本発明のさらなる目的は、接客サービスへのロボットの導入によって、接客スタッフの工数を削減するだけでなく、ロボットと接客スタッフとの適切な役割分担によって、接客サービスの向上を図ることである。
一態様の接客サービスシステムは、サービス享受者の感情を認識する感情認識手段と、前記サービス享受者又は前記サービス享受者周辺の状況に対する接客サービスを判断する学習モデルを備えた接客サービス判断手段と、前記学習モデルの学習を行う学習手段とを備え、前記学習手段は、前記状況と当該状況に対する接客サービスとの関係を、前記感情認識手段にて認識された感情に基づいて学習する。
この構成により、所定の状況下で接客サービスが実行された場合に、それに対するサービス享受者の感情、即ち反応を認識して、学習にフィードバックするので、状況に応じて提供すべき接客サービスをサービス享受者の反応に基づいて学習できる。
前記学習手段は、前記感情認識手段にて認識された感情に基づいて、状況と当該状況に対する接客サービスとの前記関係が正例であるか負例であるかを判断し、状況と当該状況に対する接客サービスとの前記関係を正例又は負例として学習してよい。
前記学習手段は、前記感情認識手段にて認識された感情に基づいて、状況と当該状況に対する接客サービスとの前記関係が正例であるか負例であるかを判断し、正例であると判断した状況と当該状況に対する接客サービスとの前記関係を学習してもよい。
上記の接客サービスシステムは、さらに、サービス享受者に対して接客サービスを実行するロボットと、前記サービス享受者又は前記サービス享受者周辺の状況を認識する状況認識手段とを備えていてよく、前記ロボットは、前記状況認識手段にて認識された状況に基づいて前記接客サービス判断手段にて求められた、当該状況に対する接客サービスを実行してよく、前記学習手段は、前記状況認識手段にて認識された状況と前記ロボットが実行した接客サービスとの関係を、状況と当該状況に対する接客サービスとの前記関係として学習してよい。
この構成により、認識された状況に応じて学習モデルによって判断された接客サービスをロボットが実行するとともに、サービス享受者の感情を学習モデルの学習にフィードバックするので、状況に対してロボットが実行すべき接客サービスをサービス享受者の反応に基づいて学習できる。
上記の接客サービスシステムは、さらに、サービス提供者が、前記ロボットに実行させるための接客サービス及び自ら実行する接客サービスを入力するためのコントローラを備えていてよく、前記ロボットは、さらに、前記コントローラに入力された、前記ロボットに実行させるための接客サービスを実行してよく、前記学習手段は、さらに、前記状況認識手段にて認識された状況と前記コントローラに入力された接客サービスとの関係を、状況と当該状況に対する接客サービスとの前記関係として学習してよい。
この構成により、ロボットが学習モデルによる判断に従って接客サービスを実行するだけでなく、サービス提供者が必要な接客サービスを判断して、ロボットに実行させ、又は自分で実行することができるので、ロボットとサービス提供者との協働が実現され、学習手段はそのような協働によって実行された接客サービスを学習できる。
前記状況認識手段は、前記サービス享受者又は前記サービス享受者周辺を撮影して撮影画像を生成する撮影手段と、前記撮影画像に対して画像認識を行うことで、前記状況を認識する認識処理手段とを備えていてよい。
前記状況認識手段は、前記サービス享受者又は前記サービス享受者周辺の音声を受けて音声データを生成する収音手段と、前記音声データに対して音声認識を行うことで、前記状況を認識する認識処理手段とを備えていてよい。
前記状況認識手段は、前記サービス享受者の入力を受け付ける入力手段と、前記入力手段にて受け付けた入力に基づいて、前記状況を認識する認識処理手段とを備えていてよい。
前記感情認識手段は、前記サービス享受者を撮影して撮影画像を生成する撮影手段と、前記撮影画像に対して画像認識を行うことで、前記感情を認識する認識処理手段とを備えていてよい。
前記感情認識手段は、前記サービス享受者の音声を受けて音声データを生成する収音手段と、前記音声データに対して音声認識を行うことで、前記感情を認識する認識処理手段とを備えていてよい。
前記感情認識手段は、前記サービス享受者の音声を受けて音声データを生成する収音手段と、前記音声データに対して音声分析を行うことで、前記感情を認識する認識手段とを備えていてよい。
前記感情認識手段は、前記サービス享受者の操作を受け付ける入力手段と、前記入力手段にて受け付けた操作に基づいて、前記感情を認識する認識処理手段とを備えていてよい。
前記接客サービス判断手段は、前記状況に対する前記接客サービスとして、前記ロボットが実行すべき接客サービスであるか、前記サービス提供者が実行すべき接客サービスであるかを判断してよい。この構成により、学習モデルはロボットとサービス提供者との分担を学習できる。
前記コントローラは、前記状況認識手段にて認識された状況に基づいて前記接客サービス判断手段にて求められた、当該状況に対する接客サービスを提示してよい。この構成により、学習モデルが判断した接客サービスをサービス提供者が実行できる。
本発明の実施の形態の接客サービスシステムの全体構成及び配置を示す図 本発明の実施の形態の接客サービスシステムの構成を示すブロック図 本発明の実施の形態の飲食店において実行される接客サービスのフロー図 本発明の実施の形態のロボットと接客スタッフとの協働によって提供される接客サービスの例を示すフロー図 本発明の実施の形態のロボットと接客スタッフとの協働によって提供される接客サービスの例を示すフロー図 本発明の実施の形態のロボットと接客スタッフとの協働によって提供される接客サービスの例を示すフロー図 本発明の実施の形態のロボットと接客スタッフとの協働によって提供される接客サービスの例を示すフロー図 本発明の実施の形態のロボットと接客スタッフとの協働によって提供される接客サービスの例を示すフロー図
以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
図1は、本発明の実施の形態の接客サービスシステム100の全体構成及び配置を示す図である。図1は、本発明の実施の形態の接客サービスシステム1001が飲食店に設置される例を示している。図1に示すように、飲食店には、サービス享受者である客Cが利用する複数のテーブルTが設置されており、各テーブルTにはロボット10とエージェント20が備えられている。接客をするサービス提供者としての接客スタッフSは、コントローラ30を携帯している。
ロボット10、エージェント20、及びコントローラ30は、各々情報処理装置40(図2参照)と通信可能であり、本実施の形態では、無線ルータを介して無線通信が可能である。また、同じテーブルTに設置されているロボット10とエージェント20とは互いに近距離無線通信によって通信可能である。
ロボット10は、手、足、腰、首を駆動可能な人型ロボットである。また、ロボット10は、テーブルTに置かれても客Cの飲食の邪魔にならない程度の大きさであり、例えば、高さは20cm程度である。ロボット10は、胸部に表示パネル(図2の表示部12に相当)を備えており、頭部にカメラ(図2の撮影部14に相当)のレンズを備えており、口の部分にスピーカ(図2の音声出力部13に相当)を備えており、耳の部分にはマイク(図2の収音部15に相当)を備えている。
エージェント20は、ロボット10とともに各テーブルTに備えられている。エージェント20は、スマートフォンないしはタブレットのように、タッチパネル(図2の表示部21及び入力部22に相当)を備え、テーブルTについた客Cが手に取って操作をできる形態の装置である。コントローラ30もスマートフォンのように、タッチパネル(図2の入力部31及び表示部32に相当)を備え、接客サービスをする接客スタッフSが携帯できる装置である。なお、コントローラ30は、ウェアラブルな形態であってもよい。
図2は、接客サービスシステム100の構成を示すブロック図である。接客サービスシステム100は、ロボット10、エージェント20、コントローラ30、及び情報処理装置40を備えている。ロボット10、エージェント20、コントローラ30、及び情報処理装置40はいずれも通信部を備えており、ロボット10、エージェント20、及びコントローラ30は、それぞれ情報処理装置40と通信可能である。
図2には、ロボット10、エージェント20、及びコントローラ30が各々1つ示されているが、実際には、図1に示すように、ロボット10とエージェント20の組は複数あり、コントローラ30も複数あり、各々が情報処理装置40と通信可能である。
図2に示すように、ロボット10は、駆動部11と、表示部12と、音声出力部13と、撮影部14と、収音部15と、通信部16とを備えている。また、図示は省略するが、ロボット10には、上記の各部を含むロボット全体を制御する制御部が設けられている。制御部は、プロセッサとメモリとを含み、プロセッサが本実施の形態の接客プログラムに従って上記の各部を制御する。
駆動部11は、ロボット10の手、足、腰、首を駆動する駆動機構及びモータを含む。表示部12は、画像を表示する表示パネル及びその駆動回路を含む。なお、表示部12は、タッチセンサを備えたタッチパネルであってもよい。音声出力部13は、音声を出力するスピーカである。撮影部14は、撮影をして画像を生成するカメラである。収音部15は、音声を受けて電気信号に変換するマイクである。通信部16は、無線通信によりエージェント20の通信部23及び情報処理装置40の通信部と通信をする。
エージェント20は、表示部21と、入力部22と、通信部23とを備えている。表示部21は画像を表示する表示パネルである。入力部22は、客の操作入力を受け付けるタッチセンサであり、表示部21に重ねられてタッチパネルを構成する。通信部23は、ロボット10の通信部16及び情報処理装置40の通信部41と通信する。なお、ロボット10の通信部16との通信は近距離無線通信であってよい。また、入力部22は、音声の入力を受け付けるマイクであってもよい。
コントローラ30は、入力部31と、表示部32と、通信部33とを備える。入力部31は、接客スタッフの操作入力を受け付けるタッチセンサである。表示部32は、画像を表示する表示パネルであり、入力部31としてのタッチセンサとともに、タッチパネルを構成する。通信部33は、情報処理装置40の通信部41と無線通信をする。
情報処理装置40は、通信部41と、状況認識部42と、接客サービス判断部43と、学習部44と、感情認識部45とを備えている。状況認識部42、接客サービス判断部43、学習部44、感情認識部45は、プロセッサとメモリを含む汎用のコンピュータが本実施の形態の情報処理プログラムを実行することで構成される。情報認識部420、接客サービス判断部43、及び感情認識部45は、それぞれ機械学習によって学習された学習モデルが記憶されている。学習モデルは、例えばニューラルネットワークであってよい。学習部44は、接客サービス判断部43の学習モデルの学習を行う。学習はディープラーニングであってよい。なお、学習部44は、状況認識部42及び感情認識部45の学習モデルをも学習するものであってよい。
次に、上記のように構成された接客サービスシステム100の動作を説明する。本実施の形態では、エージェント20を操作する客、情報処理装置40における情報処理の結果に従って動作するロボット10、及びコントローラ30を操作する接客スタッフの3者によって接客サービスの提供を実現する。
図3は、飲食店において実行される接客サービスのフロー図である。まず、客C及び客Cの周辺が観察されてその状況が認識される(ステップS31)。次に、認識された状況に応じて、どのような接客サービスをすべきかが判断され(ステップS32)、接客サービスが実行される(ステップS33)。そして、そのような接客サービスによって客の感情がどのように変化したかが認識される(ステップS34)。そして、その客の感情(反応)を踏まえて、当該状況で当該接客サービスをしたことが適切であったか否かを学習する(ステップS35)。
ロボットを導入しない従来の飲食店では、図3のフローを個々の接客スタッフが行い、あるいは、経験を有する接客スタッフが経験の浅い接客スタッフをサポートしながら上記のフローを繰り返して、接客スタッフのOJT教育が行われていた。
昨今、機械学習の発展が目覚ましく、機械学習によって画像、音声、発話内容から人の感情を読み取る技術も提供されている。画像から感情を認識する技術は、例えば特開2008-146318号公報や特開2012-59107号公報に記載されており、音声分析によって感情を認識する技術は、例えば特開2010-134937号公報や特開2003-248837号公報に記載されており、発話内容から感情を認識する技術は、例えば特開2016-92582号公報や特開2016-90776号公報に記載されている。
本実施の形態では、図3のフローをロボットと接客スタッフ(人)が協働することで、客への接客サービスを提供し、向上させていく。また、その過程で、ロボットと接客スタッフの役割分担についても学習していく。ロボット10と接客スタッフSとの協働の例を以下に説明する。
図4~8は、ロボット10と接客スタッフSが種々の役割分担をして接客サービスを行うフローを示す図である。図4~8において、左側の工程はロボット10又はエージェント20と情報処理装置40が行う(以下では単にロボットが行うと表記する)ものであり、右側の工程は接客スタッフSが行うものである。
図4の例では、状況認識はロボット10が行い(ステップS31r)、ロボット10で認識された状況に基づいて接客スタッフSが必要な接客サービスを判断して(ステップS32s)、ロボット10に指示をする。ロボット10は、接客スタッフSから指示された接客サービスを実行する(ステップS33r)。ロボット10はさらに接客サービスをした後の客Cの反応として、客Cの感情を認識する(ステップS34r)。ロボット10は、この客Cの感情を踏まえて、認識された状況に対して行った接客サービスを学習する(ステップS35r)。
図5の例では、接客スタッフSが状況を認識して(ステップS31s)、必要な接客サービスを判断し(ステップS32s)、ロボット10に指示をする。ロボット10は、接客スタッフSから指示された接客サービスを実行する(ステップS33r)。ロボット10はさらに接客サービスをした後の客Cの反応として、客Cの感情を認識する(ステップS34r)。ロボット10は、この客Cの感情を踏まえて、認識された状況に対して行った接客サービスを学習する(ステップS35r)。
図6の例では、接客スタッフSが状況を認識して(ステップS31s)、認識した状況をロボット10に伝えると、ロボット10は、必要な接客サービスを判断して(ステップS32r)、接客サービスを実行する(ステップS33r)。ロボット10はさらに接客サービスをした後の客Cの反応として、客Cの感情を認識する(ステップS34r)。ロボット10は、この客Cの感情を踏まえて、認識された状況に対して行った接客サービスを学習する(ステップS35r)。
図7の例では、ロボットが状況を認識して(ステップS31r)、必要な接客サービスを判断する(ステップS32r)。接客スタッフSは、ロボット10にて判断された接客サービスを実行する(ステップS33s)。ロボット10は、接客サービスをした後の客Cの反応として、客Cの感情を認識する(ステップS34r)。ロボット10は、この客Cの感情を踏まえて、認識された状況に対して行った接客サービスを学習する(ステップS35r)。
図8の例では、接客スタッフSが状況を認識して(ステップS31s)、必要な接客サービスを判断し(ステップS32s)、さらにその接客サービスを実行する(ステップS33s)。ロボット10は、接客サービスをした後の客Cの反応として、客Cの感情を認識する(ステップS34r)。ロボット10は、この客Cの感情を踏まえて、認識された状況に対して行った接客サービスを学習する(ステップS35r)。
以上のように、接客サービスシステム100では、ロボット10と接客スタッフSとが役割分担をすることで、図3に示すフローを実行する。この場合に、ロボット10と接客スタッフSとの役割分担を固定するのではなく、接客スタッフSができることややるべきことについては、接客スタッフSが適宜対応し、ロボット10ができることややるべきことについては、ロボット10が適宜対応することで、結果として図4~8のような役割分担が実現される。ロボット10は、さらに、このような役割分担も含めて学習を行う。これにより、単にロボット10が接客スタッフSの代替となるのではなく、ロボット10と接客スタッフSとが適切に協働ないし役割分担をすることによる質の高い接客サービスの提供が可能になる。
以下、図4~8の各例について、接客サービスシステム100の各部の動作とともに、具体的な例を説明する。
図4の例では、まず、ロボット10が状況を認識する(ステップS431r)。状況認識部41は、ロボット10から得られる画像及び音声、並びにエージェント20から得られる入力のそれぞれに基づいて状況を認識する。
まず、画像による状況認識について説明する。ロボット10は、撮影部14において所定のフレーム間隔で客Cないし客Cの周辺(例えばテーブルの上)を撮影し、通信部16を介して撮影によって得られた撮影画像を情報処理装置40に送信する。情報処理装置40の通信部41は撮影画像を受信し、状況認識部41が学習モデルを用いてこの画像の内容を認識する。
例えば、撮影部14にて料理を食べ終わった状態の皿の撮影画像が得られた場合に、状況認識部41は、その撮影画像について画像認識を行い、料理を食べ終わった状態の皿の画像であると認識する。学習モデルには出力として複数の状況があらかじめ用意されており、学習モデルは、用意された各状況に撮影画像が該当する可能性を出力し、状況認識部41は、その可能性が所定の閾値以上である状況が当該撮影画像に対応する状況であると判断する。
次に、音声による状況認識について説明する。ロボット10は、収音部15において、客Cの発話を受けて音声データに変換し、通信部16を介して音声データを情報処理装置40に送信する。情報処理装置40の通信部41は音声データを受信し、状況認識部41が学習モデルを用いて音声認識を行い、この音声データの内容を認識する。例えば、客Cが「この料理のカロリーは高いのかなぁ」と発話して収音部15にてその音声データが得られた場合に、状況認識部41は、その音声データについて音声認識を行って、「この料理のカロリーは高いのかなぁ」という発話内容を認識する。
次に、客Cの入力による状況認識について説明する。エージェント20は、入力部22において、客Cの入力を受け付けて入力データを生成し、通信部23を介して入力データを情報処理装置440の通信部41に送信する。エージェント20には、あらかじめ入力メニューが用意されており、客Cはこれを選択することで入力を行うことができる。また、客Cは、エージェント20にテキストを入力することもできる。
情報処理装置40の通信部41は入力データを受信し、状況認識部41がこの入力データの内容を認識する。例えば、客Cがおすすめメニューの紹介を要求する入力を行った場合に、状況認識部41は、その入力データについて、客Cがおすすめメニューの紹介を要求しているという状況を認識する。
図4の例では、次に、接客スタッフSは、状況認識部41にて認識された状況を把握して必要な接客サービスを判断する(ステップS432s)。このために、状況認識部41は、認識結果を通信部41に出力し、通信部41は、認識結果をコントローラ30に送信する。コントローラ30の通信部33は、状況認識部41による認識結果を受信して、表示部32に表示する。
例えば、状況認識部41にて撮影画像から皿が空いているという状況を認識した場合には、コントローラ30は、表示部32にてその撮影画像とともに、状況認識部41で認識された結果である皿が空いているという状況を示すテキストないしラベルを表示する。また、例えば、状況認識部41にて音声データから「この料理のカロリーは高いのかなぁ」という発話内容を認識したら、コントローラ30は、表示部32にてその発話内容をテキストで表示する。また、例えば、状況認識部41にて入力データからおすすめメニューの紹介を要求しているという状況を認識したら、コントローラ30は、表示部32にてその要求をテキスト又はラベルで表示する。
図4の例では、接客スタッフSは、コントローラ30の表示部32に表示された内容を確認して、必要な接客サービスを判断し(ステップS432s)、コントローラ30の入力部31を用いて、ロボット10に実行させる接客サービスを指示する。ロボット10が実行するサービスはあらかじめコントローラ30においてメニューとして用意されており、接客スタッフSは、それらのメニューの中から選択することでロボット10に実行させる接客サービスを指示する。また、接客スタッフSは、コントローラ30に音声又はタッチ操作で発話内容を入力して、接客サービスとして当該発話内容をロボット10に発話させることもできる。
コントローラ30の通信部33は接客スタッフSによる指示を情報処理装置40に送信し、情報処理装置40の通信部41はこれを受信する。情報処理装置40は、コントローラ30から受けた指示をロボット10の通信部16に送信するとともに、当該指示を状況認識部41で認識された状況と関連付けて学習部44に記憶する。
ロボット10は、情報処理装置40から送信されてきた指示を通信部16で受信する。ロボット10の駆動部11及び音声出力部13は、受信した指示に従って手足等を駆動し、かつ音声を出力することで接客サービスを実行する(ステップS433r)。
例えば、接客スタッフSが撮影画像から認識された皿が空いているという状況を把握した場合には、接客スタッフSは、ロボット10に皿を下げるか否かを客Cに問うよう指示することができる。また、接客スタッフSが音声データから認識された「この料理のカロリーは高いのかなぁ」という発話内容を把握した場合には、接客スタッフSは、ロボット10に提供した料理のカロリー値を説明するよう指示することができる。また、接客スタッフSが入力データから認識されたおすすめメニューの紹介を要求しているという状況を把握したら、おすすめメニューを紹介するようにロボット10に指示をすることができる。
ロボット10は、接客サービスを実行した後に、客Cの感情を認識する(ステップS434r)。まず、ロボット10の撮影部14は、客Cの顔を撮影して撮影画像を生成し、通信部16はこの撮影画像を情報処理装置40に送信する。情報処理装置40の通信部41は撮影画像を受信して、感情認識部45に出力する。感情認識部45は、この撮影画像から客Cの感情を認識する。感情認識部45は学習モデルを備えている。学習モデルは、撮影画像を入力として、喜怒哀楽等の感情の可能性(度合)を出力する。
また、ロボット10の収音部140は、客Cの音声を入力して音声データを生成し、通信部16はこの音声データを情報処理装置40に送信する。情報処理装置40の通信部41は音声データを受信して、感情認識部45に渡す。感情認識部45は、この音声データから客Cの感情を認識する。
感情認識部45は、客Cの音声データについて音声分析を行うことで、当該音声データの音量や周波数等に基づいて喜怒哀楽等の感情を認識する。また、感情認識部450は、客Cの音声データに対して音声認識を行って、発話内容を認識した上で、当該発話内容に基づいて客Cの感情を認識する。この場合にも学習モデルが利用される。学習モデルは音声データを入力として、喜怒哀楽等の感情の可能性(度合)を出力する。感情認識部45は、認識した感情を学習部44に渡す。なお、感情認識部45による感情認識手法として、上掲の特許公報に記載された技術を用いることができる。
次に、学習部44は、感情認識部45にて認識された感情に従って、先に記憶されている状況と接客サービスとの関係を学習する(ステップS435r)。学習部44には、感情認識部45にて認識される各感情について、正例又は負例の分類が記憶されている。感情認識部45は、正例である感情が認識された場合には、状況と接客サービスとの組み合わせを正例として学習し、負例である感情が認識された場合には、状況と接客サービスとの組み合わせを負例として学習する。
このとき、学習部44は、接客サービスをロボット10が行ったものとして学習する。例えば、「皿が空いている」という状況について、「ロボット10が皿を下げるか否かを問う」という接客サービスによって、客Cの感情が「喜び」と認識された場合には、「皿が空いている」という状況について、単に「皿を下げるか問う」という接客サービスを学習するのではなく、「ロボット10が皿を下げるかを問う」という接客サービスを学習する。
このように、同じ接客サービスであっても、ロボット10が行ったか接客スタッフSが行ったかの情報(即ち、提供主体の情報)も含めて学習をすることで、学習の成果として、ロボット10が行うか接客スタッフSが行うかの提供主体の判断も可能となる学習モデルが得られる。学習部44は、学習によって得られた学習モデルを接客サービス判断部43に記憶する。
上記のように、図4の例では、接客スタッフSが接客サービスの判断を行い、情報処理装置40では、接客スタッフSの判断で行った接客サービスによる客Cの反応を学習するので、接客スタッフSの判断を情報処理装置40にて学習することができる。
図5の例では、まず、接客スタッフSが状況を認識する(ステップS531s)。接客スタッフSは、複数のテーブルが設置されたホールを巡回しており、自らの観察によって状況を認識する。接客スタッフSは、さらに、認識した状況に対して必要な接客サービスを判断する(ステップS532s)。接客スタッフSは、例えば、テーブルT上のコップの水がなくなっているという状況を認識して、水を追加するかを客Cに問うという接客サービスが必要であると判断する。接客スタッフSは、テーブルを特定した上で、認識した状況と必要であると判断した接客サービスとをコントローラ30に入力する。
コントローラ30の通信部33は、接客スタッフSによって入力されたテーブルと当該テーブルについての状況と接客サービスとの組み合わせを情報処理装置40に送信する。情報処理装置40の通信部41は、これを受信して、学習部44に記憶するとともに、指示された接客サービスの内容を該当するテーブルTのロボット10に送信する。ロボット10の通信部16は、接客サービスの内容を受信して、駆動部11及び音声出力部13を用いて該当する接客サービスを実行する(ステップS533r)。
接客サービスを実行した後のロボット10における感情認識(ステップS534r)及び学習(ステップS535r)の処理は図4の例と同様である。図5の例の場合には、学習部44は、接客スタッフSが認識した状況と判断した接客サービスとの関係を正例又は負例として学習することができる。
図6の例では、まず、接客スタッフSが状況を認識し(ステップS631s)、認識した状況を該当するテーブルを特定しつつ、コントローラ30に入力する。コントローラ30の通信部33は、入力された状況を情報処理装置40に送信する。情報処理装置40の通信部41はこれを受信して接客サービス判断部43に渡す。
接客サービス判断部43の学習モデルは、状況を入力として、入力された状況に対応して実行すべき接客サービスを出力とする。接客サービス判断部43は、この学習モデルを用いて実行すべき接客サービスを判断する(ステップS632r)。このとき、接客サービス判断部43が判断した接客サービスがロボット10によって実行されるべきものである場合には、情報処理装置40の通信部41は、接客サービス判断部43で判断された接客サービスを実行する指示をロボット10に送信する。
ロボット10は、通信部16にてこの指示を受信する。ロボット10の駆動部11及び音声出力部13は、指示に従って接客サービスを実行する(ステップS633r)。その後のロボット10による感情認識(ステップS634r)及び学習(ステップS635r)の処理は、図4の例と同様である。
図6の例の場合には、接客スタッフSが何らかの対応をすべきと気づいた場合にコントローラ30に入力するだけで、ロボット10が必要な接客サービスを自ら判断して実行することができる。また、本例では、ロボット10が判断した結果を客Cの反応を踏まえて学習することができる。すなわち、接客サービス判断部43がある状況に対してロボット10がある接客サービスをすべきと判断したが、その接客サービスの結果、客Cの感情が悪化したのであれば、学習部44は、そのような状況と接客サービスとの組み合わせを負例として学習し、そのような学習データが増えると、やがてロボット10は当該状況に対して当該接客サービスは相応しくないと判断することになる。
図7の例では、ロボット10が状況を認識し(ステップS731r)、当該状況に対応する接客サービスを判断する(ステップS732r)。このとき、接客サービス判断部43が判断した接客サービスが接客スタッフSによって実行されるべきものである場合には、情報処理装置40の通信部41は、判断された接客サービスを実行する指示をコントローラ30に送信する。例えば、接客サービス判断部43が状況に基づいて、接客スタッフSがコップに水を足すという接客サービスであった場合に、通信部41はその接客サービスの指示をロボット10ではなくコントローラ30に送信する。
コントローラ30は、通信部33にて指示を受信し、受信した指示の内容を表示部32に表示する。接客スタッフSは、表示部32に表示された指示の内容を確認して、接客サービスを実行する(ステップS733s)。その後のロボット10による感情認識(ステップS734r)及び学習(ステップS735s)の処理は図4の例と同様である。
図7の例の場合には、接客スタッフSによってしか実行できない接客サービスや接客スタッフが行った方が望ましい接客サービスを接客スタッフが行うことができ、この場合にも、状況の認識や認識した状況に対して必要な接客サービスの判断はロボット10にて行うことができる。よって、接客サービスが気付かない状況についても気づくことができ、未熟な接客スタッフが判断できない接客サービスについてもロボット10が接客スタッフに指示を与えることができる。
図8の例では、接客スタッフSが状況を認識し(ステップS831s)、必要な接客サービスを判断し(ステップS832s)、接客サービスを実行する(ステップS833s)。そして、接客スタッフSは、認識した状況と実行した接客サービスとの組み合わせをコントローラ300の入力部31に入力する。コントローラ300の通信部33は、入力された状況と接客サービスとの組み合わせを情報処理装置40に送信する。
情報処理装置40は、通信部41にてこれを受信して、学習部44に記憶する。感情認識部45は、上記と同様にして感情を認識し(ステップS834r)、学習部430は、認識された感情に従って、コントローラ300から受信した状況と接客サービスとの組み合わせを正例又は負例として学習する(ステップS835r)。
図8の例によれば、特に、ロボットの学習が進んでいない場合に、接客スタッフが状況の把握、接客サービスの判断及び実行を行うという従来の接客サービスを行いつつ、その内容をコントローラ30に入力することで、接客サービス判断部40の学習モデルにおいて接客スタッフの判断を学習できる。このとき、仮に未熟な接客スタッフが状況に相応しない誤った接客サービスを行った場合にも、客Cの感情を認識して当該接客サービスを評価することで、そのような状況と接客サービスを負例として学習するので、接客サービスの判断ミスによって間違った学習がされることを回避できる。
以上説明したように、本実施の形態の接客サービスシステム100は、接客サービスを受けた客Cの感情を感情認識部440で認識して、学習モデルの学習に活用するので、接客サービスを実行した後の客Cの反応に基づいて、接客サービスを判断する学習モデルの学習を行うことができる。
また、接客サービス判断部43は、状況に応じた接客サービスを判断するが、その際に当該接客サービスがロボット10によって提供すべきか接客スタッフSによって提供すべきかを判断するので、状況処理部430の判断に従って接客スタッフSとロボット10との適切な協働ないし役割分担が実現される。
なお、上記の実施の形態では、ロボット10と接客スタッフSとの協働ないし役割分担について、図4~8の例を説明したが、この他の役割分担であってもよい。例えば、状況認識(ステップS31)から接客サービスの実行(ステップS33)までをすべてロボット10で行ってもよいし、状況認識(ステップS31)及び接客サービスの実行(ステップS33)を接客スタッフSが行い、接客サービスの判断(ステップS32)をロボット10で行うようにしてよい。
また、上記の実施の形態では、ロボット10と情報処理装置40とが別の装置として接客サービスシステム100を構成していたが、情報処理装置40の機能の一部又は全部が各ロボット10に備えられていてもよい。この場合には、学習部44で学習した結果を複数のロボット10で共有するようにすることが望ましい。また、情報処理装置40は、広域ネットワークを介して各ロボット10と通信可能に接続されるものであってもよい。また、エージェント20とロボット10が一体となって構成されていてもよい。
さらに、上記の実施の形態における入力部22、31は、いずれもタッチパネル等の操作の入力を受け付けるモジュールであってもよいが、音声入力を受け付けるモジュールであってもよい。
また、上記の実施の形態では、ロボット10と接客スタッフSとの役割分担が固定されておらず、ロボット10と接客スタッフSとが適宜に図3のいずれかのステップを実行したが、ロボット10と接客スタッフSの役割が一部において固定されていてもよい。例えば、状況の認識はすべてロボット10で行うようにしてもよく、あるいは、接客サービスの実行はすべて接客スタッフSが行うようにしてもよい。このような、役割の一部固定は、例えば、接客サービス判断部43における学習モデルの学習が進んでいない段階で有効である。
また、上記の実施の形態では、学習部44において、感情認識部45で認識される各感情について、それが正例であるか負例であるかが定義されており、認識された感情が正例である判断した場合には、当該感情を認識した状況と接客サービスとの関係を正例として学習し、認識された感情が負例であると判断した場合には、当該感情を認識した状況と接客サービスとの関係を負例として学習した。これに代えて、学習部44は、認識された感情が正例であると判断した場合にのみ、当該感情を認識した状況と接客サービスとの関係を学習し、認識された感情が負例であると判断した場合には、当該感情を認識した状況と接客サービスとの関係を学習しないようにしてもよい。
上記の実施の形態では、接客サービスシステム100が飲食店に応用される例を説明したが、接客サービスシステム100は、例えば、会社やサービス施設(病院等)の受付、宿泊施設の客室内、飛行機等の乗り物内等、接客サービスが提供されるすべての場面に適用可能である。また、上記の実施の形態では、ロボット10が人型ロボットであったが、ロボット10の形態はこれに限らない。また、ロボット10は、駆動部11を備えていなくてもよい。
また、上記の実施の形態では、接客サービス判断部43の学習モデルが判断する接客サービスには、当該接客サービスの提供主体(ロボット10又は接客スタッフS)の情報を含むものであったが、提供主体の情報が「ロボット10又は接客スタッフS」であってもよい。すなわち、接客サービス判断部43が判断する接客サービスには、ロボット10と接客スタッフSのいずれが実行してもよいとされる接客サービスが含まれていてもよい。
また、接客サービス判断部43は、学習モデルによって、提供主体を特定せずに提供すべき接客サービスを判断し、判断された接客サービスについて学習モデルを使わずに、あるいは別の学習モデルを用いて、提供主体を判断してもよい。この場合も、情報処理装置43は、提供主体を「ロボット」、「接客スタッフ」、又は「ロボット又は接客スタッフ」のいずれかと判断してよい。
また、上記の実施の形態では、接客サービスに対する客の感情を学習したが、同じ人が同じ接客サービスを受けた場合にも、その客のその時の状態(デート、打ち上げ、喧嘩中、個人の生活の中での感情等)によって異なる感情を持つことがある。よって、そのような客のその時の状態も学習して、接客サービスを提供する際には、客の状態も加味して必要な接客サービスを判断するようにしてもよい。また、客の個人的な属性(年齢、性別等)やサービスの利用履歴を含めて学習を行ってもよい。この場合に、客の属性や利用履歴は例えば電子マネーから取得するようにしてよい。
以上のとおり、本発明の接客サービスシステム100によれば、状況に応じて提供すべき接客サービスをサービス享受者の反応に基づいて学習できるという効果を有し、飲食店等において接客を行う接客サービスシステム等として有用である。
10 ロボット
11 駆動部
12 表示部
13 音声出力部
14 撮影部
15 収音部
16 通信部
20 エージェント
21 表示部
22 入力部
23 通信部
30 コントローラ
31 入力部
32 表示部
33 通信部
40 情報処理装置
41 通信部
42 状況認識部
43 接客サービス判断部
44 学習部
45 感情認識部
100 接客サービスシステム
T テーブル
C 客
S 接客スタッフ

Claims (11)

  1. サービス享受者に対して接客サービスを実行するロボットと、
    前記サービス享受者及び前記サービス享受者周辺の状況、又は前記サービス享受者周辺の状況を認識する状況認識手段と、
    サービス享受者の感情を認識する感情認識手段と、
    前記サービス享受者及び前記サービス享受者周辺の状況、又は前記サービス享受者周辺の状況に対する接客サービスを判断する学習モデルを備えた接客サービス判断手段と、
    前記学習モデルの学習を行う学習手段と、
    サービス提供者が、前記ロボットに実行させるための接客サービス及び自ら実行する接客サービスを入力するためのコントローラと、
    を備えた接客サービスシステムであって、
    前記ロボットは、前記状況認識手段にて認識された状況に基づいて前記接客サービス判断手段にて求められた、当該状況に対する接客サービスを実行し、
    前記学習手段は、前記状況認識手段にて認識された状況と前記ロボットが実行した接客サービスとの関係を、前記感情認識手段にて認識された感情に基づいて、状況と当該状況に対する接客サービスとの前記関係として学習し、
    前記ロボットは、さらに、前記コントローラに入力された、前記ロボットに実行させるための接客サービスを実行し、
    前記学習手段は、さらに、前記状況認識手段にて認識された状況と前記コントローラに入力された接客サービスとの関係を、状況と当該状況に対する接客サービスとの前記関係として学習し、
    前記接客サービス判断手段は、前記状況に対する前記接客サービスとして、前記ロボットが実行すべき接客サービスであるか、前記サービス提供者が実行すべき接客サービスであるかを判断する、接客サービスシステム。
  2. サービス享受者に対して接客サービスを実行するロボットと、
    前記サービス享受者及び前記サービス享受者周辺の状況、又は前記サービス享受者周辺の状況を認識する状況認識手段と、
    サービス享受者の感情を認識する感情認識手段と、
    前記サービス享受者及び前記サービス享受者周辺の状況、又は前記サービス享受者周辺の状況に対する接客サービスを判断する学習モデルを備えた接客サービス判断手段と、
    前記学習モデルの学習を行う学習手段と、
    サービス提供者が、前記ロボットに実行させるための接客サービス及び自ら実行する接客サービスを入力するためのコントローラと、
    を備えた接客サービスシステムであって、
    前記ロボットは、前記状況認識手段にて認識された状況に基づいて前記接客サービス判断手段にて求められた、当該状況に対する接客サービスを実行し、
    前記学習手段は、前記状況認識手段にて認識された状況と前記ロボットが実行した接客サービスとの関係を、前記感情認識手段にて認識された感情に基づいて、状況と当該状況に対する接客サービスとの前記関係として学習し、
    前記ロボットは、さらに、前記コントローラに入力された、前記ロボットに実行させるための接客サービスを実行し、
    前記学習手段は、さらに、前記状況認識手段にて認識された状況と前記コントローラに入力された接客サービスとの関係を、状況と当該状況に対する接客サービスとの前記関係として学習し、
    前記コントローラは、前記状況認識手段にて認識された状況に基づいて前記接客サービス判断手段にて求められた、当該状況に対する接客サービスを提示する、接客サービスシステム。
  3. 前記学習手段は、前記感情認識手段にて認識された感情に基づいて、状況と当該状況に対する接客サービスとの前記関係が正例であるか負例であるかを判断し、状況と当該状況に対する接客サービスとの前記関係を正例又は負例として学習する、請求項1又は2に記載の接客サービスシステム。
  4. 前記学習手段は、前記感情認識手段にて認識された感情に基づいて、状況と当該状況に対する接客サービスとの前記関係が正例であるか負例であるかを判断し、正例であると判断した状況と当該状況に対する接客サービスとの前記関係を学習する、請求項1又は2に記載の接客サービスシステム。
  5. 前記状況認識手段は、
    前記サービス享受者及び前記サービス享受者周辺、又は前記サービス享受者周辺を撮影して撮影画像を生成する撮影手段と、
    前記撮影画像に対して画像認識を行うことで、前記状況を認識する認識処理手段と、
    を備える、請求項又はに記載に記載の接客サービスシステム。
  6. 前記状況認識手段は、
    前記サービス享受者又は前記サービス享受者周辺の音声を受けて音声データを生成する収音手段と、
    前記音声データに対して音声認識を行うことで、前記状況を認識する認識処理手段と、
    を備える、請求項又はに記載の接客サービスシステム。
  7. 前記状況認識手段は、
    前記サービス享受者の入力を受け付ける入力手段と、
    前記入力手段にて受け付けた入力に基づいて、前記状況を認識する認識処理手段と、
    を備える、請求項又はに記載の接客サービスシステム。
  8. 前記感情認識手段は、
    前記サービス享受者を撮影して撮影画像を生成する撮影手段と、
    前記撮影画像に対して画像認識を行うことで、前記感情を認識する認識処理手段と、
    を備える、請求項のいずれかに記載の接客サービスシステム。
  9. 前記感情認識手段は、
    前記サービス享受者の音声を受けて音声データを生成する収音手段と、
    前記音声データに対して音声認識を行うことで、前記感情を認識する認識処理手段と、
    を備える、請求項のいずれかに記載の接客サービスシステム。
  10. 前記感情認識手段は、
    前記サービス享受者の音声を受けて音声データを生成する収音手段と、
    前記音声データに対して音声分析を行うことで、前記感情を認識する認識処理手段と、
    を備える、請求項のいずれかに記載の接客サービスシステム。
  11. 前記感情認識手段は、
    前記サービス享受者の操作を受け付ける入力手段と、
    前記入力手段にて受け付けた操作に基づいて、前記感情を認識する認識処理手段と、
    を備える、請求項のいずれかに記載の接客サービスシステム。
JP2017137205A 2017-07-13 2017-07-13 接客サービスシステム Active JP7146373B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017137205A JP7146373B2 (ja) 2017-07-13 2017-07-13 接客サービスシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017137205A JP7146373B2 (ja) 2017-07-13 2017-07-13 接客サービスシステム

Publications (2)

Publication Number Publication Date
JP2019018265A JP2019018265A (ja) 2019-02-07
JP7146373B2 true JP7146373B2 (ja) 2022-10-04

Family

ID=65354790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137205A Active JP7146373B2 (ja) 2017-07-13 2017-07-13 接客サービスシステム

Country Status (1)

Country Link
JP (1) JP7146373B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210402611A1 (en) * 2019-02-25 2021-12-30 Qbit Robotics Corporation Information processing system and information processing method
JP6900058B2 (ja) * 2019-07-30 2021-07-07 株式会社リビングロボット パーソナルアシスタント制御システム
JP7192748B2 (ja) * 2019-11-25 2022-12-20 トヨタ自動車株式会社 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340764A (ja) 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004299026A (ja) 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP2008279529A (ja) 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット
JP2009266200A (ja) 2008-04-24 2009-11-12 Korea Advanced Inst Of Sci Technol ロボットの好感度形成装置及びその方法
JP2012139798A (ja) 2011-01-05 2012-07-26 Advanced Telecommunication Research Institute International 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
US20150183112A1 (en) 2012-07-23 2015-07-02 Future Robot Co., Ltd Method and device for generating robot control scenario
JP2016012342A (ja) 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2017087411A (ja) 2015-11-11 2017-05-25 グローリー株式会社 操作ガイダンスシステム、及び、ロボット

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3236163B2 (ja) * 1994-02-28 2001-12-10 株式会社テムス 受付・案内のロボットシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340764A (ja) 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004299026A (ja) 2003-04-01 2004-10-28 Honda Motor Co Ltd 受付案内システム
JP2008279529A (ja) 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット
JP2009266200A (ja) 2008-04-24 2009-11-12 Korea Advanced Inst Of Sci Technol ロボットの好感度形成装置及びその方法
JP2012139798A (ja) 2011-01-05 2012-07-26 Advanced Telecommunication Research Institute International 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
US20150183112A1 (en) 2012-07-23 2015-07-02 Future Robot Co., Ltd Method and device for generating robot control scenario
JP2016012342A (ja) 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム及びプログラム
JP2017087411A (ja) 2015-11-11 2017-05-25 グローリー株式会社 操作ガイダンスシステム、及び、ロボット

Also Published As

Publication number Publication date
JP2019018265A (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
US11241789B2 (en) Data processing method for care-giving robot and apparatus
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
CN109074117B (zh) 提供基于情绪的认知助理系统、方法及计算器可读取媒体
US20200145615A1 (en) System and method for providing virtual interpersonal communication
JP6761598B2 (ja) 感情推定システム、感情推定モデル生成システム
CN109196491A (zh) 机器智能预测通信和控制系统
JP6719072B2 (ja) 接客装置、接客方法及び接客システム
EP3992962A1 (en) Voice interaction method and related device
JP7146373B2 (ja) 接客サービスシステム
JP2005293052A (ja) 顧客応対ロボット
KR102443636B1 (ko) 전화번호 연관 정보를 제공하기 위한 전자 장치 및 그의 동작 방법
JP6291303B2 (ja) コミュニケーション支援ロボットシステム
US11881229B2 (en) Server for providing response message on basis of user's voice input and operating method thereof
JP2018084998A (ja) 接客システム及び接客方法
WO2020116026A1 (ja) 応答処理装置、応答処理方法及び応答処理プログラム
CN110178159A (zh) 具有集成式投影仪的音频/视频可穿戴式计算机系统
CN110462597B (zh) 信息处理系统以及存储介质
JPWO2020174537A1 (ja) 情報処理システムおよび情報処理方法
CN206892866U (zh) 具有情景分析功能的智能对话装置
US20230056862A1 (en) Hearing device, and method for adjusting hearing device
US11430429B2 (en) Information processing apparatus and information processing method
WO2020175115A1 (ja) 情報処理装置、及び情報処理方法
JP7123028B2 (ja) 情報処理システム、情報処理方法、及びプログラム
JP2021009434A (ja) ブラウザ装置、情報出力方法及び情報出力プログラム
JP7425681B2 (ja) 社会的能力生成装置、社会的能力生成方法、およびコミュニケーションロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220506

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220506

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220720

C092 Termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C092

Effective date: 20220726

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150