JP6772686B2 - 接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置 - Google Patents

接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置 Download PDF

Info

Publication number
JP6772686B2
JP6772686B2 JP2016174124A JP2016174124A JP6772686B2 JP 6772686 B2 JP6772686 B2 JP 6772686B2 JP 2016174124 A JP2016174124 A JP 2016174124A JP 2016174124 A JP2016174124 A JP 2016174124A JP 6772686 B2 JP6772686 B2 JP 6772686B2
Authority
JP
Japan
Prior art keywords
visitor
customer service
information
conversation
clerk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016174124A
Other languages
English (en)
Other versions
JP2018041231A (ja
Inventor
祐輔 酒井
祐輔 酒井
岡野 哲也
哲也 岡野
雅晴 新井
雅晴 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016174124A priority Critical patent/JP6772686B2/ja
Priority to US15/683,027 priority patent/US20180068177A1/en
Publication of JP2018041231A publication Critical patent/JP2018041231A/ja
Application granted granted Critical
Publication of JP6772686B2 publication Critical patent/JP6772686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • G06Q30/0617Representative agent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Manipulator (AREA)

Description

本発明の実施形態は、接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置に関する。
従来、施設内や、街中等の予め設定された領域内においてロボットを利用して顧客(来客)に案内サービスを提供する案内システムが知られている。この案内システムでは、自律移動体から構成される案内実施手段が、案内の実施が決定された顧客を対象として、音声又は映像により、目標位置への移動を促すことを内容とする案内を実施する。
国際公開第2012/073301号
上記の従来技術では、来客に対し、応対する窓口などに移動を促すことはできる。しかしながら、移動を促した窓口などにおいて、来客と応対する店員に対し、何ら来客についての案内が行われず、店員への接客支援が十分ではないという問題がある。
1つの側面では、来客と応対する店員への支援を行うことができる接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置を提供することを目的とする。
1つの案では、接客支援プログラムは、接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得し、前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得し、前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定し、取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる処理をコンピュータに実行させる。
本発明の1実施態様によれば、来客と応対する店員への支援を行うことができる。
図1は、実施形態にかかる接客支援システムの構成例を説明する説明図である。 図2は、接客ロボットの外観を説明する説明図である。 図3は、接客ロボットの駆動を説明する説明図である。 図4は、窓口での応対を説明する説明図である。 図5は、実施形態にかかる接客支援システムの機能構成を例示するブロック図である。 図6は、顧客情報DB、店員情報DB、会話シナリオDB、接客情報を説明する説明図である。 図7は、来客への接客応対例を説明する説明図である。 図8は、実施形態にかかる接客支援システムにおける受付支援の動作例を説明する説明図である。 図9は、会話シナリオ選択処理の一例を示すフローチャートである。 図10は、実施形態にかかる接客支援システムにおける店員支援の動作例を説明する説明図である。 図11は、店員端末における表示画面を説明する説明図である。 図12は、店員端末における表示画面を説明する説明図である。 図13は、実施形態にかかるサーバ装置のハードウエア構成の一例を示すブロック図である。
以下、図面を参照して、実施形態にかかる接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる接客支援システム(受付支援システム)の構成例を説明する説明図である。図1に示すように、接客支援システムは、接客ロボット1a、1b、店員端末2およびサーバ装置3を有する。接客ロボット1a、1b、店員端末2およびサーバ装置3は、LAN(Local Area Network)などの通信ネットワーク4を介して互いに通信可能に接続されている。この接客支援システムは、例えば金融機関などの店舗に設置され、来客時の受付応対や店員の接客支援などのサービスを提供する。一例として、本実施形態の接客支援システムは、銀行に設置されているものとする。
接客ロボット1a、1bは、サーバ装置3が提供する受付支援サービスや店員支援サービスをもとに、来客(来訪者)との会話を行って来客と応対するヒューマン・インターフェース装置である。具体的には、接客ロボット1aは、店舗の入り口や待合室などに設置され、店舗を訪れた来客に対し、店員が来客と応対するまでの間に店員に代わって受付応対する。接客ロボット1bは、店員が来客と応対する窓口などに設置され、店員の接客時に店員(応対者)の支援を行う。接客ロボット1a、1bについて、特に区別しない場合は接客ロボット1とする。
本実施形態では、来客と応対するヒューマン・インターフェース装置の一例として接客ロボット1を例示する。しかしながら、ヒューマン・インターフェース装置は、サーバ装置3が提供する受付支援サービスをもとに、来客との会話が可能なものであれば接客ロボット1に限定しない。例えば、来客のタブレット端末やスマートフォンなどの端末において、サーバ装置3が提供する受付支援サービスを利用するアプリケーションプログラムを実行することで、来客の端末を介した応対を行ってもよい。
図2は、接客ロボット1の外観を説明する説明図である。図2に示すように、接客ロボット1は、台などに胴体部10および頭部11が設置された据え置き型のロボットである。接客ロボット1の胴体部10には腕部12が設けられ、頭部11には周囲を撮像する撮像部101が設けられている。腕部12および頭部11は胴体部10に設けられた駆動部104(図5参照)により駆動する。
図3は、接客ロボット1の駆動を説明する説明図である。図3に示すように、接客ロボット1の頭部11は、胴体部10の首周りに回転駆動する。これにより、接客ロボット1は、頭部11に設けられた撮像部101の撮像方向を、所定の撮像対象に向けることができる。例えば、来客に対して店員が応対している場面では、頭部11を回転駆動させることで、来客または店員に撮像部101を向けることができる。また、接客ロボット1の腕部12は、例えば上下に駆動する。これにより、接客ロボット1は、腕部12の手振りによる応対を行うことができる。
また、胴体部10が設置された台には、音声入出力部102と、タッチパネル103とが設けられている。音声入出力部102は、音声を受け付けるマイクおよび音声を出力するスピーカである。タッチパネル103は、利用者への画面表示および利用者からのタッチ操作の受け付けを行う。なお、接客ロボット1の構成は、一例であり、図示例に限定しない。例えば、接客ロボット1は、胴体部10の下に車両装置や歩行装置を備え、撮像部101により撮像した画像をもとに人(例えば来客)に追従して移動する自律走行型のロボットであってもよい。
店員端末2は、店舗の店員が利用する端末装置であり、PC(Personal Computer)やタブレット端末などを適用できる。一例として、本実施形態では、来客と応対する窓口に据え置かれ、窓口で店員が使用する据え置き型のPCを店員端末2とする。店員端末2は、業務情報や顧客情報の提供など、接客時に店員が利用するための各種サービスをサーバ装置3より受ける。
図4は、窓口での応対を説明する説明図である。図4に示すように、窓口5は、来客H1に対して店員H2が応対(接客)する場所である。図示例の窓口5は、来客H1と店員H2がテーブルを挟んで対面する形式であり、テーブル上には店員端末2および接客ロボット1bが設置されている。
サーバ装置3は、接客ロボット1および店員端末2をクライアントとし、クライアントに対して各種のサービスを提供する。例えば、サーバ装置3は、撮像部101で撮像した来客H1の画像や音声入出力部102で受け付けた来客H1の音声を接客ロボット1より受けて接客ロボット1の会話を制御することで、来客H1との応対時における受付支援サービスを提供する。また、サーバ装置3は、店員端末2からの要求に応じて業務情報や顧客情報などの各種情報を店員端末2に提供することで、例えば店員H2が来客H1に接客する際の店員支援サービスを提供する。
図5は、実施形態にかかる接客支援システムの機能構成を例示するブロック図である。図5に示すように、接客ロボット1は、上述した撮像部101、音声入出力部102、タッチパネル103の他に、制御部100、駆動部104、通信部105および記憶部106を有する。
制御部100は、記憶部106に記憶されたプログラムを順次実行することで、接客ロボット1の動作を制御する。駆動部104は、制御部100の制御のもと、頭部11や腕部12の駆動を行うモータ等である。
通信部105は、制御部100の制御のもと、通信ネットワーク4を介してサーバ装置3との通信を行う通信インタフェースである。例えば、通信部105は、来客H1との応対時に撮像部101で撮像した画像や音声入出力部102で受け付けた音声をサーバ装置3へ送信し、来客H1との会話にかかる制御情報をサーバ装置3より受信する。制御部100は、通信部105を介してサーバ装置3より受信した情報をもとに、音声入出力部102より音声を出力する。これにより、接客ロボット1では、来客H1との会話を行うことができる。
記憶部106は、例えばROM(Read Only Memory)やRAM(Random Access Memory)などであり、接客ロボット1の制御にかかるプログラムや各種データを記憶する。記憶部106が記憶する各種データには、例えば、来客H1との挨拶や用件伺いなどの標準仕様の会話シナリオやサーバ装置3より受信した情報などがある。
店員端末2は、制御部200、撮像部201、表示部202、操作部203、通信部204および記憶部205を有する。
制御部200は、記憶部205に記憶されたプログラムを順次実行することで、店員端末2の動作を制御する。撮像部201は、店員端末2を利用する店員H2などの撮像を行うカメラである。表示部202は、液晶ディスプレイなどであり、制御部200の制御のもと各種の画面表示を行う。操作部203は、キーボードやマウスなどの操作装置であり、店員H2の操作を受け付ける。通信部204は、通信ネットワーク4を介してサーバ装置3との通信を行う通信インタフェースである。記憶部205は、例えばROM、RAM、ハードディスク装置などの記憶装置であり、店員端末2の制御にかかるプログラムや各種データを記憶する。
サーバ装置3は、通信部310、対話認識処理部320、記憶部330、受付支援処理部340および店員支援処理部350を有する。
通信部310は、通信ネットワーク4を介して接客ロボット1または店員端末2との通信を行う通信インタフェースである。例えば、通信部310は、撮像部101で撮像した画像(例えば来客H1の画像)や音声入出力部102で受け付けた音声(例えば来客H1の音声)を接客ロボット1より受信する。通信部310は、接客ロボット1より受信した情報を対話認識処理部320に出力する。また、通信部310は、受付支援処理部340または店員支援処理部350より来客H1との会話にかかる制御情報を受けて接客ロボット1へ送信する。また、通信部310は、店員支援処理部350より店員端末2の画面表示にかかる表示情報を受けて店員端末2へ送信する。
対話認識処理部320は、入り口での受付時や窓口5での応対時における接客ロボット1より受信した、撮像部101の撮像画像や音声入出力部102の入力音声をもとに、接客ロボット1が受け付けた画像・音声の認識を行う処理部である。具体的には、対話認識処理部320は、画像認識処理部321および音声認識処理部322を有し、認識結果を受付支援処理部340、店員支援処理部350に出力する。
画像認識処理部321は、所定の画像認識処理を行う。具体的には、画像認識処理部321は、撮像部101の撮像画像より公知の顔認識技術を用いて顔領域を特定し、接客ロボット1が撮像した来客H1または店員H2などの顔の認識を行う。
また、画像認識処理部321は、撮像部101の撮像画像より認識した顔の画像(顔情報)をもとに、記憶部330に記憶された顔情報と比較することで、撮像された人物を特定する。例えば、画像認識処理部321は、顧客情報DB332の顔情報と比較し、類似度合いが所定値以上の顔情報を求めることで、撮像部101の撮像画像より認識した顔から顧客情報DB332に登録された顧客を特定する。また、画像認識処理部321は、店員情報DB333の顔情報と比較し、類似度合いが所定値以上の顔情報を求めることで、撮像部101の撮像画像より認識した顔から店員情報DB333に登録された店員H2を特定する。また、画像認識処理部321は、接客情報335の顔情報と比較し、類似度合いが所定値以上の顔情報を求めることで、撮像部101の撮像画像より認識した顔から接客情報335に登録された来客H1を特定する。
音声認識処理部322は、所定の音声認識処理を行う。具体的には、音声認識処理部322は、音声入出力部102の入力音声より公知の音声認識技術を用いて人の音声を抽出する。次いで、音声認識処理部322は、抽出した人の音声をもとに、認識対象とする言葉の辞書データを参照することで、人の会話内容を認識する。これにより、サーバ装置3は、来客H1との応対時において受け付けた音声入出力部102の入力音声より、応対時における会話内容を認識できる。
また、対話認識処理部320は、画像認識処理部321で認識した顔や、音声認識処理部322で認識した人の音声をもとに、人の感情を認識してもよい。具体的には、対話認識処理部320は、認識した顔情報や音声情報を公知のコグニティブ・サービス(コンピューティング)が提供するAPI(Application Programming Interface)に入力することで、人の喜怒哀楽を示す感情の評価値を得ることができる。
記憶部330は、例えばハードディスク装置509(図13参照)であり、サーバ装置3の処理に要する各種データを記憶する。具体的には、記憶部330は、業務情報DB331、顧客情報DB332、店員情報DB333、会話シナリオDB334、接客情報335および待ち行列情報336を記憶する。
業務情報DB331は、店舗における各種業務の情報を記憶するデータベースである。顧客情報DB332は、店舗の顧客についての情報を記憶するデータベースである。店員情報DB333は、店舗の店員H2についての情報を記憶するデータベースである。会話シナリオDB334は、接客ロボット1が行う会話についてのシナリオが記述された会話シナリオの情報を記憶するデータベースである。接客情報335は、接客ロボット1aによる来客H1の受付時に発行され、店舗内にいる来客H1についての接客内容を示す情報である。待ち行列情報336は、店員H2ごとの応対待ちを示す情報である。
ここで、サーバ装置3が提供する受付支援サービスや店員支援サービスに関連する、顧客情報DB332、店員情報DB333、会話シナリオDB334、接客情報335の詳細について説明する。図6は、顧客情報DB332、店員情報DB333、会話シナリオDB334、接客情報335を説明する説明図である。
図6に示すように、記憶部330は、顧客を識別する「顧客番号」ごとに、各顧客の情報(顔情報、属性情報、口座情報、履歴情報)を記憶するデータベースである。「顔情報」は、例えば顧客の顔画像である。「属性情報」は、顧客の住所、氏名などの属性を示す情報である。「口座情報」は、顧客の口座内容を示す情報である。「履歴情報」は、顧客との過去の取引内容などの顧客の履歴を示す情報である。
店員情報DB333は、店員H2を識別する「店員番号」ごとに、各店員の情報(顔情報、応対業務、権限情報、履歴情報)を記憶するデータベースである。「顔情報」は、例えば店員H2の顔画像である。「応対業務」は、店員H2が応対する業務内容(例えば口座開設、送金、相続、転居等の各種申請等)を示す情報である。
「権限情報」は、店員H2が有する権限を示す情報である。例えば、「権限情報」には、管理職員、専門職員、一般職員などの人事上の権限の他、情報の開示範囲を示す閲覧権限が示されていてもよい。この「権限情報」を参照することで、店員H2が有する権限に対応する情報の開示範囲を決定することができる。例えば、人事上の権限をもとに、例えば管理職は情報の全て、専門職は自らの応対業務に関する情報の全て、一般職は機密性の高い所定の情報(例えば「口座情報」)以外の全てなどのように開示範囲を決定してもよい。また、多段階に区分けされた、情報の開示範囲にかかる権限の中のいずれの段階の権限であるかをもとに、開示範囲を決定してもよい。
「履歴情報」は、過去から現在までに店員H2が行った職務上の処理の履歴を示す情報である。例えば、「履歴情報」には、店員H2が現在使用している店員端末2を識別する情報(店員端末2のネットワークアドレスなど)が含まれる。また、「履歴情報」には、店員H2が処理中または処理済みである来客H1との応対内容が含まれる。この「履歴情報」を参照することで、店員H2が利用している店員端末2の特定、店員H2が現在応対中であるか否かの特定、店員H2の応対履歴の確認などを行うことができる。
会話シナリオDB334は、会話シナリオを識別する「シナリオ番号」ごとに、各シナリオの情報(シナリオ種別、会話時間、会話シナリオ)を記憶するデータベースである。「シナリオ種別」は、会話シナリオに沿った会話の種別を示す情報である。例えば、転居などの申請手続きに関連する会話の場合は「申請」、口座の開設に関連する会話の場合は「口座開設」、特に種別の限定のない会話の場合は「雑談」などが「シナリオ種別」に設定される。
「会話時間」は、会話シナリオに沿って会話が行われた場合の会話時間を示す情報である。この「会話時間」には、会話シナリオの内容をもとに、予め見積もられた時間が設定される。
「会話シナリオ」は、接客ロボット1が行う会話についてのシナリオを示す情報である。例えば、「会話シナリオ」は、来客H1への応対内容について、対話認識処理部320により認識された会話内容や来客H1の感情によってシナリオが分岐する木構造で示されている。
接客情報335は、入り口などで受付を行った来客H1を識別する「受付番号」ごとに、各来客H1についての接客内容を示す情報(時刻、顔情報、用件、応対先、会話内容)を記憶する。
「時刻」は、受付を行った来客H1の受付時刻を示す情報である。「顔情報」は、受付を行った来客H1の顔画像である。「用件」は、受付を行った来客H1の用件を示す情報である。この「用件」には、受付時において来客H1との会話から認識された用件(例えば、転居手続きなど)が格納される。「応対先」は、受付を行った来客H1の応対先となる店員H2を示す情報である。この「応対先」には、応対先として決定された店員H2を示す「店員番号」などが格納される。「会話内容」は、受付を行った来客H1に対して接客ロボット1が応対した際の会話内容を示す情報である。この「会話内容」には、対話認識処理部320により認識された来客H1との会話内容が格納される。
図5に戻り、受付支援処理部340は、サーバ装置3が提供する受付支援サービスに係る処理を行う。具体的には、受付支援処理部340は、来客受付部341、待ち時間取得部342、顧客情報取得部343、会話シナリオ選択部345および会話制御部346を有する。
来客受付部341は、接客ロボット1aが受け付けた来客H1の顔画像と、用件とを取得し、来客H1に応対する店員H2(応対先)を決定する。具体的には、来客受付部341は、接客ロボット1aが来客H1と応対した際の撮像画像と、入力音声とを対話認識処理部320で認識した認識結果をもとに、来客H1の顔画像と、用件とを取得する。次いで、来客受付部341は、取得した用件をもとに、店員情報DB333の「応対業務」を参照して、用件と対応する応対業務が設定された店員H2を決定する。次いで、来客受付部341は、受け付けた時刻、来客H1の顔情報(顔画像)、用件および応対先を含む接客情報335を発行する。また、来客受付部341は、応対先である店員H2について、待ち行列情報336への登録を行う。
待ち時間取得部342は、来客受付部341で決定された応対先である店員H2において来客H1を応対するまでの待ち時間を取得する。具体的には、待ち時間取得部342は、待ち行列情報336を参照して応対先である店員H2の応対待ちの有無を確認する。応対待ちがある場合、待ち時間取得部342は、応対待ちの件数などをもとに待ち時間の見積りを行う。応対待ちがない場合、待ち時間取得部342は、店員情報DB333の履歴情報を参照し、応対先である店員H2が現在使用している店員端末2に対して来客H1がある旨の通知を行う。次いで、待ち時間取得部342は、この通知に対する店員端末2からの返信、例えば、直ぐに応対する旨の返信があった場合、待ち時間取得部342は待ち時間をゼロとする。また、応対までの待ち時間が通知された場合、待ち時間取得部342は通知のあった待ち時間とする。
顧客情報取得部343は、来客H1の顔画像をもとに対話認識処理部320で特定された顧客についての顧客情報を顧客情報DB332より取得する。
会話シナリオ選択部345は、会話シナリオDB334の会話シナリオの中から待ち時間取得部342で取得された待ち時間内の会話シナリオを選択する。具体的には、会話シナリオ選択部345は、会話シナリオDB334の「会話時間」をもとに、待ち時間内で会話が終了するものと見込まれる会話シナリオを選択する。
また、会話シナリオ選択部345は、待ち時間内で会話が終了するものと見込まれる複数の会話シナリオの中から、会話シナリオDB334の「シナリオ種別」をもとに、来客H1の用件にマッチングする会話シナリオを選択する。例えば、来客H1の用件が転居などの申請手続きである場合、「シナリオ種別」が「申請」である会話シナリオがマッチングするものとして選択される。これにより、より来客H1の用件にマッチングした会話シナリオでの会話を実施することができる。
また、会話シナリオ選択部345は、来客H1の顧客情報が顧客情報DB332より取得された場合、待ち時間内で会話が終了するものと見込まれる複数の会話シナリオの中から、顧客情報の設定内容(例えば、属性情報や履歴情報)とマッチングする会話シナリオを選択する。例えば、履歴情報における過去の取引履歴に転居などの申請手続きが含まれている場合、「シナリオ種別」が「申請」である会話シナリオがマッチングするものとして選択される。これにより、来客H1の顧客情報に含まれる履歴などをもとに、より来客H1にマッチングした会話シナリオでの会話を実施することができる。
会話制御部346は、会話シナリオ選択部345により選択された会話シナリオをもとに、接客ロボット1aにおける来客H1との会話を制御する。具体的には、会話制御部346は、会話シナリオ選択部345により選択された会話シナリオの情報を会話シナリオDB334より読み出す。次いで、会話制御部346は、会話シナリオDB334より読み出した「会話シナリオ」に従って、接客ロボット1aにおける音声入出力部102の発話内容を制御する。具体的には、会話制御部346は、対話認識処理部320により認識された会話内容や来客H1の感情に対応する分岐に沿って木構造の「会話シナリオ」を読み進めていくことで、音声入出力部102の発話内容を制御する。
また、会話制御部346は、対話認識処理部320により認識された来客H1の感情をもとに、会話シナリオ選択部345により選択された会話シナリオを切り替えてもよい。例えば、会話制御部346は、対話認識処理部320により認識された来客H1の喜怒哀楽を示す評価値が所定値以上である場合に、会話シナリオの切り替えを行う。この場合、例えば、同じシナリオを続けることで生じる来客H1の感情悪化を抑止することができる。
また、会話制御部346は、対話認識処理部320により認識された会話内容、すなわち接客ロボット1aにおける来客H1との会話内容を接客情報335に記録(生成)し、接客情報335の更新を行う。これにより、店員H2が来客H1と応対する前の会話が接客情報335に記録されることとなる。
店員支援処理部350は、サーバ装置3が提供する店員支援サービスに係る処理を行う。具体的には、店員支援処理部350は、接客・顧客情報取得部351、店員権限取得部352、開示範囲決定部353、表示制御部354、会話シナリオ選択部355および会話制御部356を有する。
接客・顧客情報取得部351は、接客ロボット1bが撮像した来客H1の顔画像を取得し、接客情報335の「顔情報」および顧客情報DB332の「顔情報」と照合することで、受け付け済みの来客H1を特定する。次いで、接客・顧客情報取得部351は、特定した来客H1と対応付けられた接客情報335および顧客情報を取得する。
店員権限取得部352は、接客ロボット1bが撮像した店員H2の顔画像を取得し、店員情報DB333の「顔情報」と照合することで、店員H2を特定する。次いで、店員権限取得部352は、特定した店員H2と対応付けられた「権限情報」を店員情報DB333より取得する。
開示範囲決定部353は、店員権限取得部352が取得した「権限情報」をもとに、店員H2が有する権限に対応する情報の開示範囲を決定する。例えば、店員H2が有する権限が転居などの手続きに関する専門職である場合は、手続きの応対業務に関連する情報の全てが開示範囲となり、自らの応対業務に関連しない「口座情報」などの情報は開示範囲外となる。
表示制御部354は、開示範囲決定部353により決定された開示範囲内で、接客・顧客情報取得部351より取得した接客情報335および顧客情報を表示する表示情報を生成する。具体的には、表示制御部354は、開示範囲決定部353により決定された開示範囲から外れる情報(例えば「口座情報」)をマスク処理などで隠すことで、開示範囲内の情報を表示する表示情報を生成する。生成された表示情報は、通信部310を介して店員端末2に出力され、店員端末2の画面に表示出力される。したがって、店員端末2の画面には、店員H2の権限において許容される開示範囲内で、来客H1の接客情報335および顧客情報が表示される。よって、接客支援システムでは、来客H1と応対する店員H2への支援を行うことができる。
また、表示制御部354は、対話認識処理部320により認識された来客H1の感情を表示する表示情報を生成する。生成された表示情報は、通信部310を介して店員端末2に出力され、店員端末2の画面に表示出力される。したがって、店員端末2の画面には、対話認識処理部320により認識された来客H1の感情が表示される。よって、店員H2は、認識された来客H1の感情を容易に確認することができる。なお、表示制御部354では、店員H2の店員端末2の操作時に、対話認識処理部320により認識された来客H1の感情を表示する表示情報を生成し、生成した表示情報を店員端末2に出力する。これにより、接客支援システムでは、店員H2が店員端末2で作業をしている最中に認識された来客H1の感情状態を確認することができる。
会話シナリオ選択部355は、店員H2による店員端末2からの指示をもとに、会話シナリオDB334の会話シナリオの中から所定の会話シナリオを選択する。具体的には、会話シナリオ選択部355は、来客H1の顧客情報が接客・顧客情報取得部351より取得された場合、会話シナリオDB334の複数の会話シナリオの中から、顧客情報の設定内容(例えば、属性情報や履歴情報)とマッチングする会話シナリオを選択する。例えば、履歴情報における過去の取引履歴に転居などの申請手続きが含まれている場合、「シナリオ種別」が「申請」である会話シナリオがマッチングするものとして選択される。
また、シナリオの選択は、店員端末2の操作指示をもとに行われてもよい。例えば、店員端末2の表示画面400(図11参照)に会話シナリオDB334にあるシナリオの一覧を表示させ、店員H2による選択操作を受け付けることで、シナリオの選択を行ってもよい。
会話制御部356は、会話シナリオ選択部355により選択された会話シナリオをもとに、接客ロボット1bにおける来客H1との会話を制御する。具体的には、会話制御部356は、会話シナリオ選択部355により選択された会話シナリオの情報を会話シナリオDB334より読み出す。次いで、会話制御部356は、会話シナリオDB334より読み出した「会話シナリオ」に従って、接客ロボット1bにおける音声入出力部102の発話内容を制御する。具体的には、会話制御部356は、対話認識処理部320により認識された会話内容や来客H1の感情に対応する分岐に沿って木構造の「会話シナリオ」を読み進めていくことで、音声入出力部102の発話内容を制御する。
また、会話制御部356は、対話認識処理部320により認識された来客H1の感情をもとに、会話シナリオ選択部355により選択された会話シナリオを切り替えてもよい。例えば、会話制御部356は、対話認識処理部320により認識された来客H1の喜怒哀楽を示す評価値が所定値以上である場合に、会話シナリオの切り替えを行う。この場合、例えば、同じシナリオを続けることで生じる来客H1の感情悪化を抑止することができる。
また、会話制御部356は、対話認識処理部320により認識された会話内容、すなわち接客ロボット1bにおける来客H1との会話内容を接客情報335に記録(生成)し、接客情報335の更新を行う。これにより、接客ロボット1bが来客H1と応対した際の会話内容が接客情報335に記録されることとなる。
また、会話制御部356は、店員H2が店員端末2の表示画面400におけるコンソール領域404(図11参照)における作業内容をもととに、作業内容に対応する表示情報を接客ロボット1bに出力してもよい。具体的には、コンソール領域404で「転居申請手続」や「検索」などの操作(作業)が行われた場合に、作業中であることを示す「転居申請手続中」や「検索中」などの表示情報を生成して接客ロボット1bに出力する。接客ロボット1bでは、出力された表示情報をタッチパネル103に表示する。このように、店員H2における店員端末2の作業内容を来客H1に提示してもよい。
図7は、来客H1への接客応対例を説明する説明図である。図7に示すように、店舗では、サーバ装置3が提供する受付支援サービスを介して、来店した来客H1を接客ロボット1aが受け付け(S1)、応対する店員H2への案内を行う(S2)。
図8は、実施形態にかかる接客支援システムにおける受付支援の動作例を説明する説明図である。図8に示すように、接客ロボット1aは、来客H1との挨拶や用件伺いなど、予め設定された標準仕様の会話シナリオに従って来客H1との応対を行い、来客H1を受け付ける(S10)。次いで、サーバ装置3の来客受付部341は、接客ロボット1aが受け付けた来客H1の顔画像と、用件とを取得する(S11)。
次いで、来客受付部341は、取得した用件をもとに、店員情報DB333の「応対業務」を参照して、応対する店員H2を決定する(S12)。次いで、来客受付部341は、受け付けた時刻、来客H1の顔情報(顔画像)、用件および応対先を含む接客情報335を発行する(S13)。
次いで、待ち時間取得部342は、応対する店員H2において来客H1を応対するまでの待ち時間を取得する(S14)。ここで、応対する店員H2には、応対待ちがないものとする。
応対待ちがない場合、待ち時間取得部342は、店員情報DB333の履歴情報を参照し、応対先である店員H2が現在使用している店員端末2に対して来客H1の通知を行う。通知を受けた店員端末2は、来客の表示を行う(S15)。店員端末2では、店員H2による操作指示をもとに、待ち時間をサーバ装置3に通知する(S16)。例えば、直ぐの応対が指示された場合は、待ち時間をゼロと通知する。また、応対までの待ち時間が指定された場合は、指定された待ち時間を通知する。このように、店員H2の都合に合わせた待ち時間としてもよい。
次いで、会話シナリオ選択部345は、会話シナリオDB334の会話シナリオの中から待ち時間取得部342で取得された待ち時間内の会話シナリオを選択する、会話シナリオ選択処理を行う(S17)。
図9は、会話シナリオ選択処理の一例を示すフローチャートである。図9に示すように、処理が開始されると、会話シナリオ選択部345は、会話シナリオDB334の「会話時間」をもとに、待ち時間内の会話シナリオを会話シナリオDB334より抽出する(S30)。次いで、会話シナリオ選択部345は、顧客情報取得部343による顧客情報の取得の有無を判定する(S31)。
顧客情報が取得された場合(S31:YES)、会話シナリオ選択部345は、待ち時間内の複数の会話シナリオの中から、顧客情報にマッチングする会話シナリオを抽出する(S32)。
顧客情報が取得されない場合(S31:NO)、会話シナリオ選択部345は、待ち時間内の複数の会話シナリオの中から、来客H1の用件にマッチングする会話シナリオを抽出する(S33)。なお、このようにS33における処理は、S32の後に行ってもよい。
次いで、会話シナリオ選択部345は、S30〜S33で抽出した会話シナリオから所定の会話シナリオを選択する(S34)。このS34における選択は、より待ち時間に近いものを選択してもよい。また、S34における選択は、S33やS32におけるマッチング度合いがより高い(用件や顧客情報との一致度の高い)ものを選択してもよい。
図8に戻り、S17に次いで、会話制御部346は、会話シナリオ選択部345により選択された会話シナリオをもとに、接客ロボット1aにおける来客H1との会話を制御する(S18)。接客ロボット1aでは、サーバ装置3の制御のもと、来客H1との会話が行われる(S19)。次いで、会話制御部346は、対話認識処理部320により認識された会話内容をもとに、接客ロボット1aにおける来客H1との会話内容を接客情報335に記録し、接客情報335の更新を行う(S20)。
図7に戻り、待ち時間後(待ち時間なしの場合はそのまま案内)に店員H2への案内が行われた来客H1には、窓口5において店員H2による応対が実施される(S3)。この応対時には、サーバ装置3が提供する店員支援サービスを用いた店員H2への接客支援が行われる。
図10は、実施形態にかかる接客支援システムにおける店員支援の動作例を説明する説明図である。図10に示すように、接客ロボット1bは、窓口5において応対する店員H2と、来客H1とを撮像し(S40)、サーバ装置3へ送信する。
サーバ装置3の接客・顧客情報取得部351は、接客ロボット1bが撮像した顔画像をもとに、接客情報335、顧客情報DB332の顔情報と照合して、来客H1の顔認証を行う。同様に、店員権限取得部352は、接客ロボット1bが撮像した顔画像をもとに、店員情報DB333の顔情報と照合して、店員H2の顔認証を行う(S41)。
次いで、接客・顧客情報取得部351は、顔認証により特定した来客H1と対応付けられた接客情報335および顧客情報を取得する(S42)。同様に、店員権限取得部352は、顔認証により特定した店員H2と対応付けられた、店員H2の権限情報を店員情報DB333より取得する(S43)。
次いで、開示範囲決定部353は、店員権限取得部352が取得した店員H2の権限情報をもとに、店員H2が有する権限に対応する情報の開示範囲(閲覧権限)を決定する(S44)。
次いで、表示制御部354は、開示範囲決定部353により決定された開示範囲内で、接客・顧客情報取得部351より取得した接客情報335および顧客情報を表示する表示情報を生成する。次いで、表示制御部354は、生成した表示情報を通信部310を介して店員端末2に出力する(S45)。店員端末2は、サーバ装置3より出力された表示情報を表示部202に画面表示する(S46)。
図11は、店員端末2における表示画面を説明する説明図である。図11に示すように、表示画面400は、顧客情報を表示する顧客情報表示領域401と、接客情報335を表示する接客情報表示領域402と、来客H1の感情を示す感情表示領域403と、各種操作指示を行うコンソール領域404とを有する。
顧客情報表示領域401には、店員H2の権限により許容される開示範囲内の顧客情報が表示される。具体的には、顧客情報表示領域401において、店員H2の権限により許容される開示範囲内の履歴情報401aはそのまま表示される。また、店員H2の権限により許容される開示範囲外の口座情報401bは、例えばマスク処理などにより隠蔽された形で表示される。接客情報335は、店員H2の権限により許容される開示範囲内の情報であることから、接客情報表示領域402においてそのまま表示される。感情表示領域403には、対話認識処理部320により認識された来客H1の感情が表示される。これらの情報により、来客H1と応対する店員H2への支援を行うことができる。
コンソール領域404には、来客H1の用件に対応した処理(図示例では転居申請手続)を行う操作ボタン405aと、接客ロボット1bへ来客H1に対する応対を依頼する操作ボタン405bが表示されている。店員H2は、コンソール領域404に表示された操作ボタン405a、405bを操作することで、申請手続きなどの処理の開始や接客ロボット1bによる来客H1への応対を指示することができる。
次いで、会話シナリオ選択部355は、操作ボタン405bの操作による店員端末2からの指示をもとに、接客ロボット1bへの応対の指示の有無を判定する(S47)。応対の指示がない場合(S47:NO)、会話シナリオ選択部355は処理を待機する。
応対の指示がある場合(S47:YES)、会話シナリオ選択部355は、会話シナリオDB334の会話シナリオの中から所定の会話シナリオを選択する(S48)。会話制御部356は、会話シナリオ選択部355により選択された会話シナリオをもとに、接客ロボット1bにおける来客H1との会話を制御する(S49)。
接客ロボット1bでは、サーバ装置3の制御のもと、来客H1との会話が行われる(S50)。次いで、会話制御部356は、対話認識処理部320により認識された会話内容をもとに、接客ロボット1bにおける来客H1との会話内容を接客情報335に記録し、接客情報335の更新を行う(S51)。
次いで、表示制御部354は、更新された接客情報335の表示情報を生成し、生成した表示情報を通信部310を介して店員端末2に出力する(S52)。次いで、店員端末2は、サーバ装置3より出力された表示情報を表示部202に画面表示して接客情報335の表示内容を更新する(S53)。
図12は、店員端末2における表示画面400を説明する説明図である。図12に示す例では、操作ボタン405bの操作によって、接客ロボット1bによる来客H1への応対が指示されている。接客情報表示領域402には、S51〜S53の処理により、接客ロボット1bによる来客H1への応対時における会話内容が追加されている。このように更新された接客情報表示領域402の表示を確認することで、店員H2は、接客ロボット1bが来客H1と応対した際の会話内容を確認することができる。
図7に戻り、来客H1との応対の記録は、例えば店員H2による店員端末2の操作により、顧客情報DB332の「履歴情報」に登録される。これにより、顧客情報の履歴更新が行われる(S4)。
以上のように、サーバ装置3は、接客ロボット1bより来客H1と、来客H1と応対する店員H2との顔画像を取得する。また、サーバ装置3は、来客H1の顔画像をもとに特定された、来客H1と対応付けられた情報(例えば接客情報335、顧客情報)を取得する。また、サーバ装置3は、店員H2の顔画像をもとに特定された、店員H2の権限を取得し、店員H2の権限に対応する開示範囲を決定する。また、サーバ装置3は、決定された開示範囲内で来客H1と対応付けられた情報を店員H2の店員端末2に表示出力させる。これにより、接客支援システムでは、来客H1と応対する店員H2への支援を行うことができる。
また、サーバ装置3は、店員端末2を介して来客H1と応対する店員H2からの指示を受け付ける。また、サーバ装置3は、店員H2からの指示をもとに、来客H1との会話を行う接客ロボット1bに所定の会話シナリオに基づく会話を実行させる。このようにして、来客H1との会話を接客ロボット1bに行わせることで、例えば来客H1と対応する店員H2が席を外す際などに代理応対をさせることができる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、対話認識処理部320の全部または一部の機能は接客ロボット1側にあってもよい。また、受付支援処理部340の機能を有する第1のサーバ装置と、店員支援処理部350の機能を有する第2のサーバ装置と、のように、受付支援処理部340および店員支援処理部350の機能を分離してもよい。
また、サーバ装置3で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、サーバ装置3で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図13は、実施形態にかかるサーバ装置3のハードウエア構成の一例を示すブロック図である。
図13に示すように、サーバ装置3は、各種演算処理を実行するCPU501と、データ入力を受け付ける入力装置502と、モニタ503と、スピーカ504とを有する。また、サーバ装置3は、記憶媒体からプログラム等を読み取る媒体読取装置505と、各種装置と接続するためのインタフェース装置506と、有線または無線により外部機器と通信接続するための通信装置507とを有する。また、サーバ装置3は、各種情報を一時記憶するRAM508と、ハードディスク装置509とを有する。また、サーバ装置3内の各部(501〜509)は、バス510に接続される。
ハードディスク装置509には、上記の実施形態で説明した通信部310、対話認識処理部320、受付支援処理部340および店員支援処理部350における各種の処理を実行するためのプログラム511が記憶される。また、ハードディスク装置509には、プログラム511が参照する各種データ512(業務情報DB331、顧客情報DB332、店員情報DB333、会話シナリオDB334、接客情報335および待ち行列情報336など)が記憶される。入力装置502は、例えば、操作者から操作情報の入力を受け付ける。モニタ503は、例えば、操作者が操作する各種画面を表示する。インタフェース装置506は、例えば印刷装置等が接続される。通信装置507は、LAN等の通信ネットワーク4と接続され、通信ネットワーク4を介した外部機器との間で各種情報をやりとりする。
CPU501は、ハードディスク装置509に記憶されたプログラム511を読み出して、RAM508に展開して実行することで、各種の処理を行う。なお、プログラム511は、ハードディスク装置509に記憶されていなくてもよい。例えば、サーバ装置3が読み取り可能な記憶媒体に記憶されたプログラム511を読み出して実行するようにしてもよい。サーバ装置3が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム511を記憶させておき、サーバ装置3がこれらからプログラム511を読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得し、
前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得し、
前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定し、
取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる、
処理をコンピュータに実行させることを特徴とする接客支援プログラム。
(付記2)
前記来訪者と対応付けられた情報は、前記応対者が前記来訪者と応対する前の接客内容を示す接客情報である、
ことを特徴とする付記1に記載の接客支援プログラム。
(付記3)
前記接客情報は、前記応対者が前記来訪者と応対する前の、前記接客ロボットと前記来訪者との会話をもとに生成される、
ことを特徴とする付記2に記載の接客支援プログラム。
(付記4)
来訪者と応対する応対者からの指示を受け付け、
前記応対者からの指示をもとに、前記来訪者との会話を行う接客ロボットに所定の会話シナリオに基づく会話を実行させる、
処理をコンピュータに実行させることを特徴とする接客支援プログラム。
(付記5)
前記接客ロボットより前記来訪者の顔画像を取得する処理をさらにコンピュータに実行させ、
前記実行させる処理は、前記来訪者の顔画像をもとに特定された前記来訪者と対応付けられた情報をもとに、複数の会話シナリオの中から選択して会話を実行させる、
ことを特徴とする付記4に記載の接客支援プログラム。
(付記6)
前記会話をもとに前記来訪者の感情を認識する処理をさらにコンピュータに実行させ、
前記実行させる処理は、認識された前記来訪者の感情をもとに、複数の会話シナリオの中から選択して会話を実行させる、
ことを特徴とする付記4に記載の接客支援プログラム。
(付記7)
実行された前記会話の内容を前記応対者の端末に表示出力させる処理をさらにコンピュータに実行させる、
ことを特徴とする付記4に記載の接客支援プログラム。
(付記8)
前記会話をもとに前記来訪者の感情を認識する処理をさらにコンピュータに実行させ、
前記表示出力させる処理は、認識された前記来客の感情を表示出力させる、
ことを特徴とする付記7に記載の接客支援プログラム。
(付記9)
来訪者の応対を行う応対者による端末操作に関する情報を取得し、
取得した前記情報に基づき、前記応対者による作業内容を特定し、
特定した前記作業内容を示す情報を前記来訪者に提示する指示を、前記来訪者との会話を行う接客ロボットに出力する、
処理をコンピュータに実行させることを特徴とする接客支援プログラム。
(付記10)
来訪者の応対を行う応対者による端末操作時に、該来訪者との会話を行う接客ロボットにより撮影された前記来訪者の画像を取得し、
取得した前記画像に基づき、前記来訪者の状態を特定し、
特定した前記状態を示す情報を、前記応対者が操作する端末に表示する、
処理をコンピュータに実行させることを特徴とする接客支援プログラム。
(付記11)
接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得し、
前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得し、
前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定し、
取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる、
処理をコンピュータが実行することを特徴とする接客支援方法。
(付記12)
前記来訪者と対応付けられた情報は、前記応対者が前記来訪者と応対する前の接客内容を示す接客情報である、
ことを特徴とする付記11に記載の接客支援方法。
(付記13)
前記接客情報は、前記応対者が前記来訪者と応対する前の、前記接客ロボットと前記来訪者との会話をもとに生成される、
ことを特徴とする付記12に記載の接客支援方法。
(付記14)
来訪者と応対する応対者からの指示を受け付け、
前記応対者からの指示をもとに、前記来訪者との会話を行う接客ロボットに所定の会話シナリオに基づく会話を実行させる、
処理をコンピュータが実行することを特徴とする接客支援方法。
(付記15)
前記接客ロボットより前記来訪者の顔画像を取得する処理をさらにコンピュータに実行させ、
前記実行させる処理は、前記来訪者の顔画像をもとに特定された前記来訪者と対応付けられた情報をもとに、複数の会話シナリオの中から選択して会話を実行させる、
ことを特徴とする付記14に記載の接客支援方法。
(付記16)
前記会話をもとに前記来訪者の感情を認識する処理をさらにコンピュータに実行させ、
前記実行させる処理は、認識された前記来訪者の感情をもとに、複数の会話シナリオの中から選択して会話を実行させる、
ことを特徴とする付記14に記載の接客支援方法。
(付記17)
実行された前記会話の内容を前記応対者の端末に表示出力させる処理をさらにコンピュータに実行させる、
ことを特徴とする付記14に記載の接客支援方法。
(付記18)
前記会話をもとに前記来訪者の感情を認識する処理をさらにコンピュータに実行させ、
前記表示出力させる処理は、認識された前記来客の感情を表示出力させる、
ことを特徴とする付記17に記載の接客支援方法。
(付記19)
来訪者の応対を行う応対者による端末操作に関する情報を取得し、
取得した前記情報に基づき、前記応対者による作業内容を特定し、
特定した前記作業内容を示す情報を前記来訪者に提示する指示を、前記来訪者との会話を行う接客ロボットに出力する、
処理をコンピュータが実行することを特徴とする接客支援方法。
(付記20)
来訪者の応対を行う応対者による端末操作時に、該来訪者との会話を行う接客ロボットにより撮影された前記来訪者の画像を取得し、
取得した前記画像に基づき、前記来訪者の状態を特定し、
特定した前記状態を示す情報を、前記応対者が操作する端末に表示する、
処理をコンピュータが実行することを特徴とする接客支援方法。
(付記21)
接客ロボットと、来訪者と応対する応対者の端末と、サーバ装置とを有する接客支援システムであって、
前記サーバ装置は、
接客ロボットにより、前記来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得する第1の取得部と、
前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得する第2の取得部と、
前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定する特定部と、
取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる制御部と、
を有することを特徴とする接客支援システム。
(付記22)
前記来訪者と対応付けられた情報は、前記応対者が前記来訪者と応対する前の接客内容を示す接客情報である、
ことを特徴とする付記21に記載の接客支援システム。
(付記23)
前記接客情報は、前記応対者が前記来訪者と応対する前の、前記接客ロボットと前記来訪者との会話をもとに生成される、
ことを特徴とする付記22に記載の接客支援システム。
(付記24)
来訪者と応対する応対者の端末と、前記来訪者との会話を行う接客ロボットと、サーバ装置とを有する接客支援システムであって、
前記サーバ装置は、
来訪者と応対する応対者からの指示を受け付ける受付部と、
前記応対者からの指示をもとに、前記接客ロボットに所定の会話シナリオに基づく会話を実行させる会話制御部と、
を有することを特徴とする接客支援システム。
(付記25)
前記接客ロボットより前記来訪者の顔画像を取得する取得部をさらに有し、
前記会話制御部は、前記来訪者の顔画像をもとに特定された前記来訪者と対応付けられた情報をもとに、複数の会話シナリオの中から選択して会話を実行させる、
ことを特徴とする付記24に記載の接客支援システム。
(付記26)
前記会話をもとに前記来訪者の感情を認識する認識部をさらに有し、
前記会話制御部は、認識された前記来訪者の感情をもとに、複数の会話シナリオの中から選択して会話を実行させる、
ことを特徴とする付記24に記載の接客支援システム。
(付記27)
実行された前記会話の内容を前記応対者の端末に表示出力させる表示制御部をさらに有する、
ことを特徴とする付記24に記載の接客支援システム。
(付記28)
前記会話をもとに前記来訪者の感情を認識する認識部をさらに有し、
前記表示制御部は、認識された前記来客の感情を表示出力させる、
ことを特徴とする付記27に記載の接客支援システム。
(付記29)
接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得する第1の取得部と、
前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得する第2の取得部と、
前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定する特定部と、
取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる制御部と、
を有することを特徴とする情報処理装置。
(付記30)
来訪者と応対する応対者からの指示を受け付ける受付部と、
前記応対者からの指示をもとに、接客ロボットに所定の会話シナリオに基づく会話を実行させる会話制御部と、
を有することを特徴とする情報処理装置。
(付記31)
来訪者の応対を行う応対者による端末操作に関する情報を取得する取得部と、
取得した前記情報に基づき、前記応対者による作業内容を特定する特定部と、
特定した前記作業内容を示す情報を前記来訪者に提示する指示を、前記来訪者との会話を行う接客ロボットに出力する出力部と、
を有することを特徴とする情報処理装置。
(付記32)
来訪者の応対を行う応対者による端末操作時に、該来訪者との会話を行う接客ロボットにより撮影された前記来訪者の画像を取得する取得部と、
取得した前記画像に基づき、前記来訪者の状態を特定する特定部と、
特定した前記状態を示す情報を、前記応対者が操作する端末に表示する制御部と、
を有することを特徴とする情報処理装置。
(付記33)
来訪者に応対する応対者からの指示を受け付け、
前記応対者からの指示をもとに、前記来訪者との会話を行う接客ロボットに会話シナリオに基づく会話を実行させ、
前記会話に基づき、前記来訪者の状態を認識し、
認識した前記状態を示す情報を前記応対者の端末に表示する、
処理をコンピュータに実行させることを特徴とする接客支援プログラム。
(付記34)
来訪者に応対する応対者からの指示を受け付け、
前記応対者からの指示をもとに、前記来訪者との会話を行う接客ロボットにより撮影された前記来訪者の画像を取得し、
取得した前記画像に基づき、前記来訪者の状態を認識し、
認識した前記状態を示す情報を前記応対者の端末に表示する、
処理をコンピュータに実行させることを特徴とする接客支援プログラム。
1、1a、1b…接客ロボット
2…店員端末
3…サーバ装置
4…通信ネットワーク
5…窓口
10…胴体部
11…頭部
12…腕部
310…通信部
320…対話認識処理部
321…画像認識処理部
322…音声認識処理部
330…記憶部
331…業務情報DB
332…顧客情報DB
333…店員情報DB
334…会話シナリオDB
335…接客情報
336…待ち行列情報
340…受付支援処理部
341…来客受付部
342…待ち時間取得部
343…顧客情報取得部
345…会話シナリオ選択部
346…会話制御部
350…店員支援処理部
351…接客・顧客情報取得部
352…店員権限取得部
353…開示範囲決定部
354…表示制御部
355…会話シナリオ選択部
356…会話制御部
400…表示画面
401…顧客情報表示領域
401a…履歴情報
401b…口座情報
402…接客情報表示領域
403…感情表示領域
404…コンソール領域
405a、405b…操作ボタン
H1…来客
H2…店員

Claims (6)

  1. 接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得し、
    前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得し、
    前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定し、
    取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる、
    処理をコンピュータに実行させることを特徴とする接客支援プログラム。
  2. 前記来訪者と対応付けられた情報は、前記応対者が前記来訪者と応対する前の接客内容を示す接客情報である、
    ことを特徴とする請求項1に記載の接客支援プログラム。
  3. 前記接客情報は、前記応対者が前記来訪者と応対する前の、前記接客ロボットと前記来訪者との会話をもとに生成される、
    ことを特徴とする請求項2に記載の接客支援プログラム。
  4. 接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得し、
    前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得し、
    前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定し、
    取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる、
    処理をコンピュータが実行することを特徴とする接客支援方法。
  5. 接客ロボットと、来訪者と応対する応対者の端末と、サーバ装置とを有する接客支援システムであって、
    前記サーバ装置は、
    接客ロボットにより、前記来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得する第1の取得部と、
    前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得する第2の取得部と、
    前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定する特定部と、
    取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる制御部と、
    を有することを特徴とする接客支援システム。
  6. 接客ロボットにより、来訪者の顔画像と、該来訪者の応対を行う応対者の顔画像とを取得する第1の取得部と、
    前記来訪者の顔画像をもとに前記来訪者を特定するとともに、特定した前記来訪者に対応付けられた情報を取得する第2の取得部と、
    前記応対者の顔画像をもとに前記応対者を特定するとともに、特定した前記応対者の閲覧権限を特定する特定部と、
    取得した前記情報のうち、特定した前記閲覧権限に応じた情報を前記応対者の端末に表示させる制御部と、
    を有することを特徴とする情報処理装置。
JP2016174124A 2016-09-06 2016-09-06 接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置 Active JP6772686B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016174124A JP6772686B2 (ja) 2016-09-06 2016-09-06 接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置
US15/683,027 US20180068177A1 (en) 2016-09-06 2017-08-22 Method, device, and non-transitory computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016174124A JP6772686B2 (ja) 2016-09-06 2016-09-06 接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP2018041231A JP2018041231A (ja) 2018-03-15
JP6772686B2 true JP6772686B2 (ja) 2020-10-21

Family

ID=61280522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016174124A Active JP6772686B2 (ja) 2016-09-06 2016-09-06 接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置

Country Status (2)

Country Link
US (1) US20180068177A1 (ja)
JP (1) JP6772686B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002475B (zh) * 2018-06-15 2021-12-24 联想(北京)有限公司 内容输出方法及系统、计算机系统及计算机可读存储介质
US10969763B2 (en) * 2018-08-07 2021-04-06 Embodied, Inc. Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback
CN109377580A (zh) * 2018-10-11 2019-02-22 上海思依暄机器人科技股份有限公司 一种考勤系统
US11557297B2 (en) 2018-11-09 2023-01-17 Embodied, Inc. Systems and methods for adaptive human-machine interaction and automatic behavioral assessment
JP2022142506A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 制御装置、制御方法、およびロボット制御システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140518A (ja) * 2000-11-02 2002-05-17 Ntt Comware Corp 応対手順提示方法、応対手順提示装置および応対手順提示プログラムを記録したプログラム記録媒体
JP2004310034A (ja) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd 対話エージェントシステム
JP4594857B2 (ja) * 2005-12-12 2010-12-08 本田技研工業株式会社 受付システム
JP2009080668A (ja) * 2007-09-26 2009-04-16 Sky Kk 覗き見防止システム及び覗き見防止プログラム
JP2009241166A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International ロボット遠隔操作システム
JP6219448B1 (ja) * 2016-05-16 2017-10-25 Cocoro Sb株式会社 顧客応対制御システム、顧客応対システム及びプログラム

Also Published As

Publication number Publication date
JP2018041231A (ja) 2018-03-15
US20180068177A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6772686B2 (ja) 接客支援プログラム、接客支援方法、接客支援システムおよび情報処理装置
US10984386B2 (en) Interview system
JP6440483B2 (ja) 通信システム、サーバ装置、ロボット、情報処理方法、およびプログラム
JP6848693B2 (ja) 顧客応対システム、顧客応対方法、顧客応対装置、及びプログラム
JP6719072B2 (ja) 接客装置、接客方法及び接客システム
JP2009533998A (ja) ビデオ通信のための方法ならびにシステム
WO2014057704A1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
WO2010010736A1 (ja) 会議画像生成方法、会議システム、サーバ装置及び会議装置等
KR20220004259A (ko) 인공지능을 이용한 원격진료 서비스 방법 및 시스템
JP7323098B2 (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
JP2018032164A (ja) 面接システム
US20200413009A1 (en) Bidirectional video communication system and kiosk terminal
JP2018041230A (ja) 受付支援プログラム、受付支援方法、受付支援システムおよび情報処理装置
CN116762125A (zh) 环境协作智能系统和方法
JP5220953B1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
JP7146373B2 (ja) 接客サービスシステム
JP4904188B2 (ja) 分配装置、分配プログラム及び分配システム
US20200404212A1 (en) Bidirectional video communication system and operator terminal
JP2018036712A (ja) 対応者割当てシステム、対応者割当て方法、および対応者割当て装置
JP7246587B1 (ja) 保険相談システムおよび保険相談用プログラム
JP2020025221A (ja) コミュニケーション支援装置、コミュニケーション支援システム及び通信方法
JP7118821B2 (ja) 接遇ガイドプログラム、接遇ガイド装置、及び接遇ガイドシステム
US11720869B2 (en) Detecting usage issues on enterprise systems and dynamically providing user assistance
JP2024025135A (ja) 応対支援装置、応対支援方法、及び、応対支援プログラム
JP5518919B2 (ja) 顔登録装置、プログラムおよび顔登録方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200914

R150 Certificate of patent or registration of utility model

Ref document number: 6772686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150