WO2020075290A1 - 顧客対応システム - Google Patents

顧客対応システム Download PDF

Info

Publication number
WO2020075290A1
WO2020075290A1 PCT/JP2018/038100 JP2018038100W WO2020075290A1 WO 2020075290 A1 WO2020075290 A1 WO 2020075290A1 JP 2018038100 W JP2018038100 W JP 2018038100W WO 2020075290 A1 WO2020075290 A1 WO 2020075290A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
server
information
robot
microphone
Prior art date
Application number
PCT/JP2018/038100
Other languages
English (en)
French (fr)
Inventor
三ツ堀裕太
Original Assignee
株式会社ユニキャスト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユニキャスト filed Critical 株式会社ユニキャスト
Priority to JP2020549922A priority Critical patent/JPWO2020075290A1/ja
Priority to PCT/JP2018/038100 priority patent/WO2020075290A1/ja
Publication of WO2020075290A1 publication Critical patent/WO2020075290A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor

Definitions

  • the present invention relates to a customer service system, and more specifically to a technology that enables a service tailored to a user's taste.
  • customer service a service of providing answers and advice according to customer's request, for example, support service
  • support service a service of providing answers and advice according to customer's request, for example, support service
  • Patent Document 1 discloses a customer service system using a device capable of automatically outputting an answer in response to a user's utterance and establishing a conversation with the user. .
  • the customer support system described in Patent Document 1 determines a response sentence based on a conversation scenario for a conversation device that transmits a user utterance and receives the response sentence and a user utterance transmitted from the conversation device, It has a conversation server that transmits the determined answer sentence and the operation control information associated with the answer sentence to the conversation device, and stores a conversation log that stores the user utterance and the answer sentence.
  • a conversation device used in a customer service system includes an arithmetic processing unit (CPU), a main memory (RAM), a read-only memory (ROM), an input / output device (I / O), and if necessary.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a customer service system capable of coping with the taste of a user.
  • the customer service system of the present invention includes a server, a microphone, a speaker, and a camera, and a terminal capable of communicating with the server, and the terminal transmits a predetermined word to the user through the speaker,
  • the server or the terminal identifies the user from the voice information of the user acquired by the microphone or the image information from the camera, and identifies the type of target desired by the identified user.
  • the customer service system of the present invention includes a server, a microphone, a speaker, and a camera, and a terminal capable of communicating with the server, and the terminal transmits a predetermined word to the user through the speaker,
  • the server or the terminal identifies the attribute of the user from the voice information of the user acquired by the microphone or the image information from the camera, and based on the identified attribute, the user desires the attribute.
  • a customer-facing system that identifies the types of objects that are present.
  • a customer service system of the present invention includes a server, a robot having a microphone, a speaker, and a camera and capable of communicating with the server, and the robot transmits a predetermined word to a user by the speaker, Image information for identifying the user's attribute is obtained using the camera, the server or the robot identifies the user's attribute by the image information from the camera, and the microphone of the user.
  • the type of product, service or information desired by the user is specified from the voice information, the input information from the input device for the user to input, or the attribute of the specified user.
  • the attribute of the user is also specified by the voice information from the microphone.
  • the server or the robot identifies the user by the voice information of the user acquired by the microphone or the image information from the camera.
  • the server or the robot is based on the product, service or information desired by the user and the stock status of the corresponding product, the service availability status, or the information usage status. Then, the type of information to be provided to the user is selected, and the robot provides the information having the selected type to the user.
  • the server or the robot corrects the information provided by the robot to the user based on at least the past purchase, service reception status or information usage status.
  • the server or the robot corrects the content presented to the user by using the result analyzed from the image information from the camera.
  • the server or the robot corrects the information provided by the robot to the user using the result analyzed from the voice information from the microphone.
  • the robot has a plurality of the robots, various information collected by the one robot is accumulated in the server, and the other robots use the information to correct the information provided to the user. To do.
  • FIG. 3 is a block diagram showing a circuit configuration of the robot according to the first embodiment of the present invention. It is a flowchart which shows operation
  • the first embodiment is characterized in that the attribute of the user is specified from the information of the user acquired by the robot, and the type of target desired by the user is specified based on the specified attribute.
  • FIG. 1 is a schematic configuration diagram of a customer service system according to the first embodiment of the present invention.
  • FIG. 2 is a perspective view of the robot according to the first embodiment of the present invention seen from above on the front side.
  • FIG. 3 is a block diagram showing the circuit configuration of the robot according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart showing an example of the operation of the customer service system according to the first embodiment of the present invention.
  • a customer service system 1 includes a server 2, a wireless LAN (Local Area Network) 3 installed in a store, etc., and robots 4-1 and 4-2 of a plurality of terminals. , And the server 2 can communicate with the plurality of robots 4-1, 4-2, ... Through the wireless LAN 3.
  • a wireless LAN Local Area Network
  • the server 2 is installed in an office of a store, an office of a company, or the like.
  • the robots 4-1, 4-2, ... are arranged near the entrance of the store or in the sales floor so that they can face the user (customer).
  • the server 2 includes a bus (data bus and control bus) 10, a data processing unit 11, a date communication unit 21, and a storage unit 31.
  • the data processing unit 11 includes a data transmission / reception processing unit 12, a voice processing unit 13, an image processing unit 14, a user identification processing unit 15, and a proposal content identification processing unit 16, and a data communication unit 21 and a storage unit via the bus 10.
  • the data is transmitted / received and controlled with 31.
  • the storage unit 31 has image information and audio information for each user, and stores personal data 32 indicating attributes (for example, emotion, physical condition, taste, sex, age, occupation, etc.) of each user, and a stock status of products.
  • Various data including the content data 35 is stored.
  • the data transmission / reception processing unit 12 controls the data communication unit 21 via the bus 10, supplies the transmission data to the data communication unit 21, and transmits the transmission data to the wireless LAN 3. Further, the data transmission / reception processing unit 12 receives the data transmitted from the robots 4-1, 4-2, ... Via the wireless LAN 3, via the data communication unit 21 and the bus 10.
  • the voice processing unit 13 extracts the voice information of the user from the reception data received by the data transmission / reception processing unit 12 from the robots 4-1, 4-2, ... And transmits it to the user identification processing unit 15.
  • the image processing unit 14 extracts the image information of the user from the reception data received by the data transmission / reception processing unit 12 from the robots 4-1, 4-2, ... And transmits it to the user identification processing unit 15.
  • the user identification processing unit 15 identifies the user by comparing the voice information of the user received from the voice processing unit 13 and the image information of the user received from the image processing unit 14 with the personal data 32 of the storage unit 31. At the same time, the attribute of the user is specified, and the personal data 32 is corrected if necessary.
  • the proposal content identification processing unit 16 of the data processing unit 11 reads out from the storage unit 31 a plurality of types of proposable content corresponding to the user identified by the user identification processing unit 15 in the proposal content data 34, and reads out the plurality of types.
  • the inventory data 33 and the purchase content data 35 corresponding to the user identified by the user identification processing unit 15 are collated with the content that can be proposed by the user, and the panel input information, the voice analysis information, the face from the robot 4-1 are displayed.
  • a robot that refers to the authorized image analysis information to identify the most appropriate suggestable content, and uses the identified suggestable content as proposal content data through the bus 10, the data communication unit 21, and the wireless LAN 3 to face the user. Send to.
  • the robots 4-1, 4-2, ... Upon receiving the proposal content data from the proposal content specifying processing unit 16, the robots 4-1, 4-2, ... Output the proposal content data as voice and images, and print it on paper with a printer and output it. .
  • the robot 4-1 has a head 51, a neck 52, a body 53, and a base 54, which are connected in this order from the top. Left and right arms 55 and 56 are attached to the body 53.
  • the head 51 and the arms 55 and 56 are operated by various motor drive units 67 (see FIG. 3).
  • a wireless signal transmission / reception unit 61 that performs wireless communication with the wireless LAN 3 is provided.
  • a video camera 62 for picking up an image of the user is provided below the forehead of the head 51.
  • a microphone 63 is provided on the right ear of the head 51.
  • a speaker 64 is provided at the mouth of the head 51.
  • a liquid crystal touch panel 65 is provided at the center of the front of the body 53.
  • a printer 66 is provided on the lower front side of the body 53.
  • the robot 4-1 includes a wireless signal transmission / reception unit 61, a video camera 62, a microphone 63, a speaker 64, a liquid crystal touch panel 65, a printer 66, and various types by a control board 60 including a CPU, a ROM, a RAM and the like.
  • the motor drive unit 67 is controlled.
  • the wireless signal transmission / reception unit 61 is configured to perform data communication with the server 2 (see FIG. 1) by performing wireless communication with the wireless LAN 3.
  • the video camera 62 images a user facing the robot 4-1 to generate a video signal and transmits the video signal to the control board 60.
  • the microphone 63 converts a voice (user's voice) from the outside into a voice signal by an electric signal and transmits the voice signal to the control board 60.
  • the speaker 64 converts a voice signal based on an electric signal from the control board 60 into a voice and outputs the voice to the outside.
  • the liquid crystal touch panel 65 displays an image based on the control from the control board 60, detects a user's touch operation, and transmits an operation signal of the detection result to the control board 60.
  • the printer unit 66 prints characters and images on paper under the control of the control board 60 and prints them out.
  • the various motor drive units 67 are configured to operate the head 51, the arms 55, 56, and the like under the control of the control board 60.
  • the other robots 4-2 ... have the same hardware configuration as the robot 4-1 except that the data such as the ID stored is different from that of the robot 4-1.
  • control board 60 of the robot 4-1 first creates image information from the video signal from the video camera 62 in step S1 and recognizes the approach of the user by determining this image information. If so, the process proceeds to the process of step S2.
  • step S2 the control board 60 of the robot 4-1 creates image information from the video signal from the video camera 62, starts recognition of the user's face based on this image information, and outputs audio from the audio signal from the microphone 63. Information is created, recognition of the user's voice is started from this voice information, and the process proceeds to step S3.
  • step S3 the control board 60 of the robot 4-1 transmits the first predetermined audio signal to the speaker 64 to cause the speaker 64 to generate a "Welcome” sound, and the process proceeds to step S4.
  • step S4 the control board 60 of the robot 4-1 detects the image of the face of the user from the image information and cuts it out, and the cut-out image information of the face of the user is sent to the server via the wireless signal transmitting / receiving unit 61 and the wireless LAN 3. 2, and the process proceeds to step S5.
  • step S21 the data transmission / reception processing unit 12 of the data processing unit 11 of the server 2 receives the image information of the user's face from the robot 4-1 via the data communication unit 21 and the bus 10, and The user identification processing unit 15 identifies the user by comparing the image information of the face of the user received by the image processing unit 14 with the personal data 32 of the storage unit 31. Thereafter, the process on the server 2 side moves to step S22.
  • step S5 the control board 60 of the robot 4-1 creates voice information from the voice signal from the microphone 63, and when the voice of the user is detected from this voice information, the process proceeds to step S6.
  • step S6 the control board 60 of the robot 4-1 transmits a second predetermined audio signal to the speaker 64 to generate an audio "What are you looking for?" From the speaker 64, and the process of step S7. Move to.
  • step S7 the control board 60 of the robot 4-1 creates voice information of the user from the voice signal from the microphone 63, and transmits the voice information of the user to the server 2 via the wireless signal transmitting / receiving unit 61 and the wireless LAN 3. To do.
  • the control board 60 controls the liquid crystal touch panel 65 to display a predetermined input image on the liquid crystal touch panel 65 to prompt the user to operate the liquid crystal touch panel 65, detect the user's operation, and detect the user's operation.
  • Panel input information is created from the operation detection result and transmitted to the server 2 via the wireless signal transmission / reception unit 61 and the wireless LAN 3, and the process proceeds to step S8.
  • step S8 the control board 60 of the robot 4-1 creates the voice information of the user from the voice signal from the microphone 63, analyzes the voice information of the user, and outputs the voice analysis information to the wireless signal transmission / reception unit 61 and the wireless LAN 3 Is transmitted to the server 2 via, and the process proceeds to step S9.
  • step S9 the control board 60 of the robot 4-1 performs image processing of the image information of the user's face cut out in step S4, analyzes the user's emotions, physical condition, and tastes, and outputs the analysis results to the face recognition image.
  • the analysis information is transmitted to the server 2 via the wireless signal transmitting / receiving unit 61 and the wireless LAN 3, and the process proceeds to step S10.
  • step S22 the proposal content specification processing unit 16 of the data processing unit 11 of the server 2 reads out the proposal content data 34 indicating the content of a plurality of types of proposals corresponding to the user identified by the user identification processing unit 15 from the storage unit 31.
  • the inventory data 33 and the purchase content data 35 corresponding to the user identified by the user identification processing unit 15 are collated with the read-out proposal contents, and the panel input information and voice from the robot 4-1 are also compared.
  • the most appropriate proposal content data is identified by referring to the analysis information and the face recognition image analysis information, and the process proceeds to step S23.
  • step S23 the data transmission / reception processing unit 12 of the data processing unit 11 of the server 2 controls the data communication unit 21 via the bus 10 to send the specified proposal content data to the robot 4-1 via the wireless LAN 3. After transmitting, the process proceeds to step S24.
  • step S24 the data processing unit 11 of the server 2 stores the specified proposal content data in the storage unit 31 via the bus 10, and proceeds to the process of step S25.
  • step S10 the control board 60 of the robot 4-1 transmits a third predetermined audio signal to the speaker 64 based on the proposal content data from the server 2, and the speaker 64 displays “If so, The voice of " ⁇ , B of B is recommended” is generated, and the process proceeds to step S11.
  • step S11 the control board 60 of the robot 4-1 transmits a predetermined video signal to the liquid crystal touch panel 65, and the screen of the liquid crystal touch panel 65 displays, "If so, the XX of store A and the delta of store B are displayed. While displaying and outputting the character "It is recommended” and the image accompanying it, the printer unit 66 is controlled and the characters "If that is the case, ⁇ of store A and ⁇ of store B are recommended” and that The accompanying image is printed, printed out, and the process of this time is ended.
  • step S25 the data processing unit 11 of the server 2 waits for a predetermined time for the purchase content data indicating the content purchased by the identified user to be transmitted from the register of the store via the wireless LAN or the like, and then stores the data of the identified user.
  • the purchase content data is transmitted from the register, the purchase content data is received and stored in the storage unit 31.
  • the user is specified using the image information of the user received from the image processing unit 14, and the attribute (for example, emotion, physical condition, preference) of the user is specified.
  • the user's voice information received from the voice processing unit 13 may be used to identify the user and the attribute of the user.
  • the present embodiment even if the user is specified using the voice information of the user received from the voice processing unit 13, and the attribute of the user is specified using the image information of the user received from the image processing unit 14. Good.
  • the customer service system 1 of the first embodiment includes the server 2, the microphone 63, the speaker 64, and the camera (video camera 62). And a terminal (robots 4-1, 4-2 ...) Communicatable with the server 2, the server 2 sends a predetermined word to the user through the speaker 64, and the server 2 Identifies the user from the voice information of the user acquired by the microphone 63 or the image information from the camera, and identifies the type of target (product) desired by the identified user.
  • the process of specifying the user and specifying the type of target (product) desired by the specified user is performed by the server 2.
  • the processing performed may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the customer service system 1 includes a server 2, a microphone 63, a speaker 64, and a camera (video camera 62), and a terminal (robot 4-1 and communicator 4-1 capable of communicating with the server 2). 4-2 ...), the server 2 sends a predetermined word to the user through the speaker 64, and the server 2 uses the voice information of the user acquired by the microphone 63 or the camera.
  • the attribute of the user is specified from the image information from the (video camera 62), and the type of target desired by the user is specified based on the specified attribute.
  • the server 2 performs the process of specifying the user's attribute and specifying the type of target desired by the user based on the specified attribute.
  • the processing performed by the server 2 may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the user is specified from the voice information of the user acquired by the microphone 63 or the image information from the camera, and the specified user is Since the type of desired target (product) is specified, it is possible to respond according to the taste of the user, give a positive impression to the user, increase the purchase desire of the user, and improve the sales performance of the store. it can.
  • the second embodiment uses a service or information in addition to a product as a target desired by the identified user.
  • the customer service system 1 includes a server 2, a microphone 63, a speaker 64, and a camera (video camera 62), and can communicate with the server 2.
  • the robots 4-1, 4-2, ... Send a predetermined word to the user through the speaker 64, and acquire image information for identifying the user's attribute using the camera (video camera 62). .
  • the server 2 specifies the user's attribute by the image information from the camera, and the voice information of the user acquired by the microphone 63, the input information from the input device for the user to input, or the specified
  • the type of product, service or information desired by the user is specified from the user's attribute.
  • the processing performed by the server 2 may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the customer service system 1 specifies the user's attribute also by the voice information from the microphone 63.
  • the server 2 identifies the user based on the voice information of the user acquired by the microphone 63 or the image information from the camera (the video camera 62), and the product, service or information desired by the identified user. , The type of information to be provided to the user is selected based on the stock status of the corresponding product, the availability status of the service, or the information usage status. Among them, the microphone 63 transmits the voice information of the user to the robot, and the robot having the voice information of the user provides the user with the information received from the server 2.
  • the processing performed by the server 2 may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the server 2 corrects at least the information provided to the user by the robots 4-1, 4-2, ... Based on the past purchase, service reception status or information usage status.
  • the processing performed by the server 2 may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the server 2 corrects the content presented to the user by using the result analyzed from the image information from the camera (video camera 62).
  • the processing performed by the server 2 may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the server 2 corrects the information provided by the robot to the user using the result analyzed from the voice information from the microphone 63.
  • the processing performed by the server 2 may be performed on the robot side (terminal side). If the processing capacity of the robot is improved, that is preferable.
  • the customer service system 1 has a plurality of the robots 4-1, 4-2, ... And various information collected by the one robot is accumulated in the server 2.
  • the other robot uses the information to correct the information provided to the user.
  • the user is specified from the voice information of the user acquired by the microphone 63 or the image information from the camera, and the specified user is Since the type of desired product, service or information is specified, it is possible to respond according to the taste of the user, give a positive impression to the user, increase the purchase desire of the user, and improve the sales performance in the commercial facility. can do.
  • the robot is used as the terminal, but the terminal is not limited to the robot, and various types of applications such as a stationary game machine and a touch panel input device are applicable.
  • a wired LAN may be used as means for enabling the terminal and the server 2 to communicate with each other.
  • the customer service system is adapted to store operations, but may be applied to other operations such as administration, tourism, and service industries.
  • the terminals may be arranged in all stores of the commercial group, and the server 2 may manage the inventory of all the stores.
  • the types of objects in the present invention include, for example, types of products (clothes, food, toys, etc.), types of services (sales, medical care, translation, etc.) or information (data for downloading movies, data for downloading games). , Map information, etc.), and may have any function as long as the user's consciousness (recognition, will, desire, etc.) or action is directed.
  • the customer service system of the present invention can be effectively used in commercial facilities such as stores and game centers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザの嗜好に合わせた対応が可能な顧客対応システムを提供する。【解決手段】顧客対応システム1は、サーバ2と、マイク63、スピーカ64及びカメラ(ビデオカメラ62)を有し、前記サーバ2と通信可能な端末(ロボット4-1、4-2…)と、を有し、前記端末は、前記スピーカ64によって、ユーザへ所定の言葉を発信し、前記サーバ2は、前記マイク63が取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザを特定し、当該特定したユーザが所望している対象(商品)の種類を特定する。

Description

顧客対応システム
 本発明は、顧客対応システムに係り、詳しくはユーザの嗜好に合わせた対応を可能にする技術に関する。
近年、通信ネットワーク及びネットワーク通信機器の普及発展に連れて、商品やサービスの流通もネットワークを介して行われることが拡大してゆく。これに伴い顧客対応サービス(顧客の要望に応じて回答やアドバイスを提供する役務、例えばサポートサービスなど)もネットワークを介して顧客とサービス提供者の間で行われるようになってきた。 
ネットワークを介した顧客対応サービスの一形態としてはホームページに掲載するFAQ形式のサービスやオフライン方式のEメール対応によるサービスがあったが、リアルな対応が行えないという点で満足がいかない点があった。そこで、リアル性のあるチャット方式による顧客対応サービスが提供されるようになってきた。 
これは、エージェントと呼ばれるオペレータがオンラインQ&A検索システム(Talisma Knowledge Management)と呼ばれるデータベースを利用してチャット方式により顧客からの質問に対する応答などを行うサービスである。 
しかし、上記の従来の方式による顧客対応サービスは、業務毎にチャットオペレータ用のデータベースをデータベース専門家が準備し提供するコストが、従来の電話対応用のマニュアルと同程度に必要となり、ランニングコストにおける人件費の節約に関しては大きな優位性を発揮することが出来なかった。 
このことに対応して、特許文献1には、ユーザ発話に応答する回答を自動的に出力して、ユーザとの会話を成立させることが可能な装置を用いた顧客対応システムが開示されている。 
特許文献1に記載の顧客対応システムは、ユーザ発話を送信し、その回答文を受信する会話装置と、会話装置から送信されたユーザ発話に対して、会話シナリオに基づいて回答文を決定し、決定した回答文及びその回答文に対応付けされた動作制御情報を会話装置に送信するとともに、前記ユーザ発話、回答文を記憶した会話ログを記憶する会話サーバとを有している。 
また、特許文献1には、顧客対応システムに用いられる会話装置は、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入出力装置(I/O)、必要な場合にはハードディスク装置等の外部記憶装置を具備している情報処理装置、或いはそのような情報処理装置を含む器具、おもちゃなどであって、例えばコンピュータ、携帯電話機、いわゆるインターネット家電、又はロボットなどの装置であることが記載されている。
特開2010-073191号公報
 しかしながら、特許文献1に記載された顧客対応システムでは、ユーザ発話に応答する回答を自動的に出力して、ユーザとの会話を成立させることはできますが、会話を行うユーザまたはその属性を個別に判断して会話を成立させているのではないため、ユーザの嗜好に合わせた対応ができなかった。 
本発明は、上記状況に鑑みなされたものであり、ユーザの嗜好に合わせた対応が可能な顧客対応システムを提供することを目的とする。
 本発明の顧客対応システムは、サーバと、マイク、スピーカ及びカメラを有し、前記サーバと通信可能な端末と、を有し、前記端末は、前記スピーカによって、ユーザへ所定の言葉を発信し、前記サーバ、又は、前記端末は、前記マイクが取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザを特定し、当該特定したユーザが所望している対象の種類を特定する。
 本発明の顧客対応システムは、サーバと、マイク、スピーカ及びカメラを有し、前記サーバと通信可能な端末と、を有し、前記端末は、前記スピーカによって、ユーザへ所定の言葉を発信し、前記サーバ、又は、前記端末は、前記マイクが取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザの属性を特定し、当該特定した属性に基づいて、当該ユーザが所望している対象の種類を特定する
 顧客対応システム。
本発明の顧客対応システムは、サーバと、マイク、スピーカ及びカメラを有し、前記サーバと通信可能なロボットと、を有し、前記ロボットは、前記スピーカによって、ユーザへ所定の言葉を発信し、ユーザの属性を特定するための画像情報を、前記カメラを用いて取得し、前記サーバ、又は、前記ロボットは、ユーザの属性を前記カメラからの画像情報によって特定し、前記マイクが取得したユーザの音声情報、又は、ユーザが入力するための入力装置からの入力情報、又は、前記特定したユーザの属性、からユーザが所望している商品、サービス又は情報の種類を特定する。 
好適には、ユーザの属性は前記マイクからの音声情報によっても特定する。 好適には、前記サーバ、又は、前記ロボットは、ユーザを、前記マイクが取得したユーザの音声情報、又は、前記カメラからの画像情報によって特定する。 
好適には、前記サーバ、又は、前記ロボットは、ユーザが所望している商品、サービス又は情報と、対応する商品の在庫状況、又は、サービスの提供可能性状況、又は、情報利用状況とに基づいて、ユーザに提供する情報の種類を選定し、前記ロボットは、前記種類を選定した情報をユーザに提供する。 
好適には、前記サーバ、又は、前記ロボットは、少なくとも、過去の、購買、サービス受領状況又は情報利用状況から、前記ロボットがユーザに提供する情報を補正する。 
好適には、前記サーバ、又は、前記ロボットは、前記カメラからの画像情報から解析された結果を用いて、ユーザに提示する内容を補正する。 
好適には、前記サーバ、又は、前記ロボットは、前記マイクからの音声情報から解析された結果を用いて、前記ロボットがユーザに提供する情報を補正する。 
 好適には、複数台の前記ロボットを有し、1つの前記ロボットが収集した各種の情報は、前記サーバに蓄積され、他の前記ロボットが当該情報を利用して、ユーザに提供する情報を補正する。
 本発明における顧客対応システムによってユーザの嗜好に合わせた対応を実現することが可能となった。
本発明の第1実施形態に係る顧客対応システムの概略構成図である。 本発明の第1実施形態に係るロボットの斜視図である。 本発明の第1実施形態に係るロボットの回路構成を示すブロック図である。 本発明の第1実施形態に係る顧客対応システムの動作を示すフローチャートである。
[第1実施形態] 以下、図1~図4を参照して、本発明の第1実施形態を詳細に説明する。第1実施形態は、ロボットが取得したユーザの情報から当該ユーザの属性を特定し、当該特定した属性に基づいてユーザが所望している対象の種類を特定することを特徴とする。 
<第1実施形態の構成> 図1は、本発明の第1実施形態に係る顧客対応システムの概略構成図である。 図2は、本発明の第1実施形態に係るロボットの正面側の上方から見た斜視図である。 図3は、本発明の第1実施形態に係るロボットの回路構成を示すブロック図である。 図4は、本発明の第1実施形態に係る顧客対応システムの動作の一例を示すフローチャートである。 
図1に示すように、実施形態に係る顧客対応システム1は、サーバ2と、店舗等に設置された無線LAN(Local Area Network)3と、複数の端末のロボット4-1、4-2…とを有し、サーバ2は、無線LAN3を介して複数のロボット4-1、4-2…と通信可能になっている。 
サーバ2は、店舗の事務室や会社のオフィス等に設置される。一方、ロボット4-1、4-2…は、店舗の入り口近傍や売場に配置され、ユーザ(顧客)と対面できるようになっている。 
次に、サーバ2について詳細に説明する。 サーバ2は、バス(データバス及び制御バス)10と、データ処理部11と、デーチ通信部21と、記憶部31とから構成される。 データ処理部11は、データ送受信処理部12、音声処理部13、画像処理部14、ユーザ特定処理部15、及び提案内容特定処理部16を備え、バス10を介してデータ通信部21及び記憶部31と、データの送受信及び制御を行う。 
記憶部31は、個々のユーザを画像情報及び音声情報を有するとともに、個々のユーザの属性(例えば感情、体調、嗜好、性別、年齢、職業等)を示す個人データ32と、商品の在庫状況を示す在庫データデータ33と、ユーザに対して提案可能な内容を複数種類有するとともに、個々のユーザに対して提案した内容を示す提案内容データ34と、個々のユーザが購入した商品の内容を示す購入内容データ35とを含む各種データを記憶している。 
以下、データ処理部11の各要素について詳細に説明する。 データ送受信処理部12は、バス10を介してデータ通信部21を制御し、データ通信部21に送信データを供給して、当該送信データを無線LAN3に送信する。また、データ送受信処理部12は、無線LAN3を介してロボット4-1、4-2…から送信されるデータをデータ通信部21及びバス10を介して受信する。 
音声処理部13は、データ送受信処理部12がロボット4-1、4-2…から受信した受信データからユーザの音声情報を抽出して、ユーザ特定処理部15に送信する。 
画像処理部14は、データ送受信処理部12がロボット4-1、4-2…から受信した受信データからユーザの画像情報を抽出して、ユーザ特定処理部15に送信する。 
ユーザ特定処理部15は、音声処理部13から受信したユーザの音声情報、及び画像処理部14から受信したユーザの画像情報を、記憶部31の個人データ32と照合することで、ユーザを特定するとともに、当該ユーザの属性を特定し、必要に応じて前記個人データ32の修正を行う。 
データ処理部11の提案内容特定処理部16は、提案内容データ34の内、ユーザ特定処理部15で特定したユーザに対応する複数種類の提案可能な内容を記憶部31から読み出し、読み出した複数種類の提案可能な内容に対して、在庫データ33、及びユーザ特定処理部15で特定したユーザに対応する購入内容データ35を照合するとともに、ロボット4-1からのパネル入力情報、音声解析情報、顔認画像解析情報を参照して、最も適切な提案可能な内容を特定し、特定した提案可能な内容を提案内容データとしてバス10、データ通信部21、及び無線LAN3を介してユーザと対面するロボットに送信する。 
ロボット4-1、4-2…は、提案内容特定処理部16からの提案内容データを受信した場合、当該提案内容データを、音声及び画像で出力するとともに、プリンタで紙に印刷して出力する。 
図2に示すように、ロボット4-1は、上から順に頭部51、首部52、胴体53、ベース54を接続したものである。また、胴体53には左右の腕55、56が取り付けられている。頭部51、腕55、56は、各種モータ駆動部67(図3参照)により動作を行うようになっている。 
頭部51の額の上側には、無線LAN3と無線通信を行う無線信号送受信部61が設けられている。頭部51の額の下側には、ユーザの撮像を行うビデオカメラ62が設けられている。 
頭部51の右耳の部分には、マイク63が設けられている。 頭部51の口の部分には、スピーカ64が設けられている。 
胴体53の正面中央部には液晶タッチパネル65が設けられている。 胴体53の正面下側部にはプリンタ66が設けられている。 
図3に示すように、ロボット4-1は、CPU、ROM、RAM等を備える制御基板60によって、無線信号送受信部61、ビデオカメラ62、マイク63、スピーカ64、液晶タッチパネル65、プリンタ66及び各種モータ駆動部67の制御を行うようになっている。 
無線信号送受信部61は、無線LAN3と無線通信を行うことで、サーバ2(図1参照)とデータの送受信を行うようになっている。 
ビデオカメラ62は、ロボット4-1と対面したユーザを撮像することで映像信号を生成して制御基板60に送信する。 
マイク63は、外部からの音声(ユーザの声)を電気信号による音声信号に変換して制御基板60に送信する。 
スピーカ64は、制御基板60からの電気信号による音声信号を音声に変換して外部に出力する。 
液晶タッチパネル65は、制御基板60からの制御に基づいて画像を表示するとともに、ユーザのタッチ操作を検出し、検出結果の操作信号を制御基板60に送信する。 
プリンタ部66は、制御基板60からの制御に基づいて用紙に文字、画像等を印刷してプリント出力する。 
各種モータ駆動部67は、制御基板60からの制御に基づいて頭部51、腕55、56等の動作を行うようになっている。 尚、他のロボット4-2…は、ID等の記憶するデータがロボット4-1と異なるだけで、ハード構成がロボット4-1と同じになっている。 
以下、顧客対応システム1の動作を説明する。 図4に示すように、ロボット4-1の制御基板60は、まず、ステップS1において、ビデオカメラ62からの映像信号から画像情報を作成し、この画像情報を判定することでユーザの接近を認知した場合、ステップS2の処理の処理に移行する。 
ステップS2において、ロボット4-1の制御基板60は、ビデオカメラ62からの映像信号から画像情報を作成し、この画像情報によりユーザの顔の認知を開始するとともに、マイク63からの音声信号から音声情報を作成し、この音声情報よりユーザの音声の認知を開始して、ステップS3の処理に移行する。 
ステップS3において、ロボット4-1の制御基板60は、スピーカ64に第1の所定の音声信号を送信して、スピーカ64から「いらっしゃいませ」の音声を発生させ、ステップS4の処理に移行する。 
ステップS4において、ロボット4-1の制御基板60は、前記画像情報よりユーザの顔の画像を検出して切出し、切出したユーザの顔の画像情報を無線信号送受信部61及び無線LAN3を介してサーバ2に送信し、ステップS5の処理に移行する。 
ここで、サーバ2側の処理について説明する。ステップS21において、サーバ2のデータ処理部11のデータ送受信処理部12は、ロボット4-1からのユーザの顔の画像情報をデータ通信部21及びバス10を介して受信し、データ処理部11のユーザ特定処理部15は、画像処理部14により受信したユーザの顔の画像情報を記憶部31の個人データ32と照合することで、ユーザを特定する。この後、サーバ2側の処理は、ステップS22に移行する。 
次にロボット4-1側の処理に戻って説明する。 ステップS5において、ロボット4-1の制御基板60は、マイク63からの音声信号から音声情報を作成し、この音声情報からユーザの音声の検出した場合、ステップS6の処理に移行する。 
ステップS6において、ロボット4-1の制御基板60は、スピーカ64に第2の所定の音声信号を送信して、スピーカ64から「何をお探しでしょうか」の音声を発生させ、ステップS7の処理に移行する。 
ステップS7において、ロボット4-1の制御基板60は、マイク63からの音声信号からユーザの音声情報を作成し、このユーザの音声情報を無線信号送受信部61及び無線LAN3を介してサーバ2に送信する。また、制御基板60は、液晶タッチパネル65を制御して、液晶タッチパネル65に所定の入力画像を表示させることでユーザに液晶タッチパネル65の操作を促した状態で、ユーザの操作を検出し、ユーザの操作の検出結果からパネル入力情報を作成して、無線信号送受信部61及び無線LAN3を介してサーバ2に送信し、ステップS8の処理に移行する。 
ステップS8において、ロボット4-1の制御基板60は、マイク63からの音声信号からユーザの音声情報を作成し、このユーザの音声情報を解析して音声解析情報を無線信号送受信部61及び無線LAN3を介してサーバ2に送信し、ステップS9の処理に移行する。 
ステップS9において、ロボット4-1の制御基板60は、ステップS4において切出したユーザの顔の画像情報の画像処理を行い、ユーザの感情、体調、嗜好を解析し、これらの解析結果を顔認画像解析情報として無線信号送受信部61及び無線LAN3を介してサーバ2に送信し、ステップS10の処理に移行する。 
次に、サーバ2側の処理について説明する。ステップS22において、サーバ2のデータ処理部11の提案内容特定処理部16は、ユーザ特定処理部15で特定したユーザに対応する複数種類の提案の内容を示す提案内容データ34を記憶部31から読み出し、読み出した複数種類の提案の内容に対して、在庫データ33、及びユーザ特定処理部15で特定したユーザに対応する購入内容データ35を照合するとともに、ロボット4-1からのパネル入力情報、音声解析情報、顔認画像解析情報を参照して、最も適切な提案内容データを特定して、ステップS23の処理に移行する。 
テップS23において、サーバ2のデータ処理部11のデータ送受信処理部12は、バス10を介してデータ通信部21を制御し、前記特定した提案内容データを、無線LAN3を介してロボット4-1に送信し、ステップS24の処理に移行する。 
テップS24において、サーバ2のデータ処理部11は、前記特定した提案内容データを、バス10を介して記憶部31に記憶し、ステップS25の処理に移行する。 
次にロボット4-1側の処理に戻って説明する。 ステップS10において、ロボット4-1の制御基板60は、サーバ2からの提案内容データに基づいて、スピーカ64に第3の所定の音声信号を送信して、スピーカ64から「それでしたら、A店の○○、B店の△△がお勧めです」の音声を発生させ、ステップS11の処理に移行する。 
ステップS11において、ロボット4-1の制御基板60は、液晶タッチパネル65に所定の映像信号を送信して、液晶タッチパネル65の画面に「それでしたら、A店の○○、B店の△△がお勧めです」の文字及びそれに付随する画像を表示出力させるとともに、プリンタ部66を制御して、用紙に「それでしたら、A店の○○、B店の△△がお勧めです」の文字及びそれに付随する画像を印刷してプリント出力し、今回
の処理を終了する。 
次に、サーバ2側の処理について説明する。ステップS25において、サーバ2のデータ処理部11は、特定したユーザが購入した内容を示す購入内容データが店舗のレジスタから無線LAN等を介して送信されるのを所定時間待機し、特定したユーザの購入内容データがレジスタから送信された場合、当該購入内容データを受信して記憶部31に記憶する。 
尚、図4に示したフローチャートでは、画像処理部14から受信したユーザの画像情報を用いて当該ユーザを特定するとともに、当該ユーザの属性(例えば感情、体調、嗜好)を特定したが、本実施形態では、音声処理部13から受信したユーザの音声情報を用いて当該ユーザを特定するとともに、当該ユーザの属性を特定してもよい。 
また、本実施形態では、音声処理部13から受信したユーザの音声情報を用いて当該ユーザを特定し、画像処理部14から受信したユーザの画像情報を用いて当該ユーザの属性を特定してもよい。 
さらに、本実施形態では、画像処理部14から受信したユーザの画像情報を用いて当該ユーザを特定し、音声処理部13から受信したユーザの音声情報を用いて当該ユーザの属性を特定してもよい。 
 以下、このような本発明の第1実施形態の構成及び作用を纏めて説明すると、第1実施形態の顧客対応システム1は、サーバ2と、マイク63、スピーカ64及びカメラ(ビデオカメラ62)を有し、前記サーバ2と通信可能な端末(ロボット4-1、4-2…)と、を有し、前記サーバ2は、前記スピーカ64によって、ユーザへ所定の言葉を発信し、前記サーバ2は、前記マイク63が取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザを特定し、当該特定したユーザが所望している対象(商品)の種類を特定する。
尚、本発明の第1実施形態では、ユーザを特定し、当該特定したユーザが所望している対象(商品)の種類を特定する処理は、サーバ2で行ったが、このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。 
 また、本発明の第1実施形態の顧客対応システム1は、サーバ2と、マイク63、スピーカ64及びカメラ(ビデオカメラ62)を有し、前記サーバ2と通信可能な端末(ロボット4-1、4-2…)と、を有し、前記サーバ2は、前記スピーカ64によって、ユーザへ所定の言葉を発信し、前記サーバ2は、前記マイク63が取得したユーザの音声情報、又は、前記カメラ(ビデオカメラ62)からの画像情報から当該ユーザの属性を特定し、当該特定した属性に基づいて、当該ユーザが所望している対象の種類を特定する。
 尚、本発明の第1実施形態では、ユーザの属性を特定し、当該特定した属性に基づいて、当該ユーザが所望している対象の種類を特定する処理は、サーバ2で行ったが、このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。
このような本発明の第1実施形態の顧客対応システム1によれば、前記マイク63が取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザを特定し、当該特定したユーザが所望している対象(商品)の種類を特定するので、ユーザの嗜好に合わせた対応が可能になり、ユーザに好印象を与え、ユーザの購買欲を高め、店舗の売り上げ成績を向上することができる。 
[第2実施形態] 以下、本発明の第2実施形態を詳細に説明する。第2実施形態は、当該特定したユーザが所望している対象として、商品に加えて、サービス又は情報を用いている。 
なお、第2実施形態のハードウエアは、上述した第1実施形態と同一の構成であるため、第2実施形態において、図1乃至図3を代用して説明する。 
本発明の第2実施形態の顧客対応システム1は、図1乃至図3に示すように、サーバ2と、マイク63、スピーカ64及びカメラ(ビデオカメラ62)を有し、前記サーバ2と通信可能なロボット4-1、4-2…と、を有する。 
前記ロボット4-1、4-2…は、前記スピーカ64によって、ユーザへ所定の言葉を発信し、ユーザの属性を特定するための画像情報を、前記カメラ(ビデオカメラ62)を用いて取得する。 
前記サーバ2は、ユーザの属性を前記カメラからの画像情報によって特定し、前記マイク63が取得したユーザの音声情報、又は、ユーザが入力するための入力装置からの入力情報、又は、前記特定したユーザの属性、からユーザが所望している商品、サービス又は情報の種類を特定する。このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。 
また、本発明の第2実施形態の顧客対応システム1は、ユーザの属性を前記マイク63からの音声情報によっても特定する。 
 前記サーバ2は、ユーザを、前記マイク63が取得したユーザの音声情報、又は、前記カメラ(ビデオカメラ62)からの画像情報によって特定し、特定されたユーザが所望している商品、サービス又は情報と、対応する商品の在庫状況、又は、サービスの提供可能性状況、又は、情報利用状況とに基づいて、ユーザに提供する情報の種類を選定して前記ロボット4-1、4-2…の内、前記マイク63でユーザの音声情報を取得したロボットに送信し、ユーザの音声情報を取得した前記ロボットは、前記サーバ2からの受信した情報をユーザに提供する。このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。
 前記サーバ2は、少なくとも、過去の、購買、サービス受領状況又は情報利用状況から、前記ロボット4-1、4-2…がユーザに提供する情報を補正する。このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。
 前記サーバ2は、前記カメラ(ビデオカメラ62)からの画像情報から解析された結果を用いて、ユーザに提示する内容を補正する。このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。
 前記サーバ2は、前記マイク63からの音声情報から解析された結果を用いて、前記ロボットがユーザに提供する情報を補正する。このようなサーバ2で行った処理は、ロボット側(端末側)で行ってもよい。ロボットの処理能力が向上した場合には、その方が好適である。
 本発明の第2実施形態の顧客対応システム1は、複数台の前記ロボット4-1、4-2…を有し、1つの前記ロボットが収集した各種の情報は、前記サーバ2に蓄積され、他の前記ロボットが当該情報を利用して、ユーザに提供する情報を補正する。
 このような本発明の第2実施形態の顧客対応システム1によれば、前記マイク63が取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザを特定し、当該特定したユーザが所望している商品、サービス又は情報の種類を特定するので、ユーザの嗜好に合わせた対応が可能になり、ユーザに好印象を与え、ユーザの購買欲を高め、商業施設での売り上げ成績を向上することができる。
 尚、特定したユーザが所望しているサービスとして、接客のロゴ表示等、各種適用可能である。
以上で具体的な実施形態の説明を終えるが、本発明の態様はこれらに限られるものではない。例えば、第1実施形態及び第2実施形態では、端末としてロボットを用いたが、端末にはロボット以外にも、例えば据置型のゲーム機、タッチパネル入力装置等、各種適用可能である。 
また、端末とサーバ2を通信可能にする手段として、無線LAN以外にも、有線LAN、広域インターネット等を用いてもよい。 
 第1実施形態及び第2実施形態では、顧客対応システムを店舗業務に対応させたが、行政、観光、サービス業等の他の業務に対応させてもよい。
 第1実施形態及び第2実施形態の顧客対応システムにおいて、商業グループの全店舗に前記端末を配置し、サーバ2によって全店舗の在庫管理を行えるようにしてもよい。
定義
本発明における対象の種類とは、たとえば、商品(衣服、食品、玩具等)の種類、サービス(営業、医療、翻訳等)の種類又は情報(映画のダウンロード用のデータ、ゲームのダウンロード用のデータ、地図情報等)の種類であり、ユーザの意識(認識、意志、欲求等)や行為が向けられるものとしての機能を有するものであればどのようなものであって良い。
本発明の顧客対応システムは、店舗、ゲームセンター等の商業施設に効果的に利用できる。
 1…顧客対応システム
 2…サーバ 3…無線LAN 4-1、4-2……ロボット 10…バス 11…データ処理部 21…データ通信部 31…記憶部 61…無線信号送受信部 62…ビデオカメラ 63…マイク 64…スピーカ 65…液晶タッチパネル 66…プリンタ

Claims (10)

  1.  サーバと、
     マイク、スピーカ及びカメラを有し、前記サーバと通信可能な端末と、を有し、
     前記端末は、
      前記スピーカによって、ユーザへ所定の言葉を発信し、
     前記サーバ、又は、前記端末は、
      前記マイクが取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザを特定し、当該特定したユーザが所望している対象の種類を特定する
     顧客対応システム。
  2.  サーバと、
     マイク、スピーカ及びカメラを有し、前記サーバと通信可能な端末と、を有し、
     前記端末は、
      前記スピーカによって、ユーザへ所定の言葉を発信し、
     前記サーバ、又は、前記端末は、
      前記マイクが取得したユーザの音声情報、又は、前記カメラからの画像情報から当該ユーザの属性を特定し、当該特定した属性に基づいて、当該ユーザが所望している対象の種類を特定する
     顧客対応システム。
  3.  サーバと、
     マイク、スピーカ及びカメラを有し、前記サーバと通信可能なロボットと、を有し、
     前記ロボットは、
      前記スピーカによって、ユーザへ所定の言葉を発信し、
      ユーザの属性を特定するための画像情報を、前記カメラを用いて取得し、
     前記サーバ、又は、前記ロボットは、
      ユーザの属性を前記カメラからの画像情報によって特定し、
      前記マイクが取得したユーザの音声情報、又は、ユーザが入力するための入力装置からの入力情報、又は、前記特定したユーザの属性、からユーザが所望している商品、サービス又は情報の種類を特定する
     顧客対応システム。
  4.  ユーザの属性は前記マイクからの音声情報によっても特定する
     請求項3に記載の顧客対応システム。
  5.  前記サーバ、又は、前記ロボットは、
      ユーザを、前記マイクが取得したユーザの音声情報、又は、前記カメラからの画像情報によって特定する、
     請求項3又は請求項4に記載の顧客対応システム。
  6.  前記サーバ、又は、前記ロボットは、
      ユーザが所望している商品、サービス又は情報と、対応する商品の在庫状況、又は、サービスの提供可能性状況、又は、情報利用状況とに基づいて、ユーザに提供する情報の種類を選定し、
     前記ロボットは、前記種類を選定した情報をユーザに提供する
     請求項3~請求項5のいずれか一項に記載の顧客対応システム。
  7.  前記サーバ、又は、前記ロボットは、
     少なくとも、過去の、購買、サービス受領状況又は情報利用状況から、前記ロボットがユーザに提供する情報を補正する
     請求項6に記載の顧客対応システム。
  8.  前記サーバ、又は、前記ロボットは、
     前記カメラからの画像情報から解析された結果を用いて、ユーザに提示する内容を補正する
     請求項6又は請求項7に記載の顧客対応システム。
  9.  前記サーバ、又は、前記ロボットは、
     前記マイクからの音声情報から解析された結果を用いて、前記ロボットがユーザに提供する情報を補正する
     請求項6~請求項8のいずれか一項に記載の顧客対応システム。
  10.  複数台の前記ロボットを有し、
     1つの前記ロボットが収集した各種の情報は、前記サーバに蓄積され、
     他の前記ロボットが当該情報を利用して、ユーザに提供する情報を補正する
     請求項3~請求項9のいずれか一項に記載の顧客対応システム。
PCT/JP2018/038100 2018-10-12 2018-10-12 顧客対応システム WO2020075290A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020549922A JPWO2020075290A1 (ja) 2018-10-12 2018-10-12 顧客対応システム
PCT/JP2018/038100 WO2020075290A1 (ja) 2018-10-12 2018-10-12 顧客対応システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/038100 WO2020075290A1 (ja) 2018-10-12 2018-10-12 顧客対応システム

Publications (1)

Publication Number Publication Date
WO2020075290A1 true WO2020075290A1 (ja) 2020-04-16

Family

ID=70164656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/038100 WO2020075290A1 (ja) 2018-10-12 2018-10-12 顧客対応システム

Country Status (2)

Country Link
JP (1) JPWO2020075290A1 (ja)
WO (1) WO2020075290A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7057594B1 (ja) * 2021-03-19 2022-04-20 ナーブ株式会社 情報処理装置、オンライン接客システム、オンライン接客方法、シナリオ生成方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016128956A (ja) * 2015-01-09 2016-07-14 大日本印刷株式会社 端末装置、商品販売装置、プログラム及び商品販売システム
JP2017120642A (ja) * 2015-12-30 2017-07-06 富士通株式会社 定量化されたエリアのための在庫管理
JP2017159396A (ja) * 2016-03-09 2017-09-14 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
JP2018032252A (ja) * 2016-08-25 2018-03-01 日本テレビ放送網株式会社 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
JP2018045624A (ja) * 2016-09-16 2018-03-22 ヤフー株式会社 決定プログラム、決定方法、及び決定装置
CN108234591A (zh) * 2017-09-21 2018-06-29 深圳市商汤科技有限公司 基于身份验证装置的内容数据推荐方法、装置和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4786516B2 (ja) * 2006-12-13 2011-10-05 三菱重工業株式会社 ロボットによるサービスシステムにおけるサービス対象者判別方法と該方法を用いたロボットによるサービスシステム
JP2015114891A (ja) * 2013-12-12 2015-06-22 日本郵便株式会社 配送管理サーバ、配送管理方法及び配送管理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016128956A (ja) * 2015-01-09 2016-07-14 大日本印刷株式会社 端末装置、商品販売装置、プログラム及び商品販売システム
JP2017120642A (ja) * 2015-12-30 2017-07-06 富士通株式会社 定量化されたエリアのための在庫管理
JP2017159396A (ja) * 2016-03-09 2017-09-14 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
JP2018032252A (ja) * 2016-08-25 2018-03-01 日本テレビ放送網株式会社 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
JP2018045624A (ja) * 2016-09-16 2018-03-22 ヤフー株式会社 決定プログラム、決定方法、及び決定装置
CN108234591A (zh) * 2017-09-21 2018-06-29 深圳市商汤科技有限公司 基于身份验证装置的内容数据推荐方法、装置和存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7057594B1 (ja) * 2021-03-19 2022-04-20 ナーブ株式会社 情報処理装置、オンライン接客システム、オンライン接客方法、シナリオ生成方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2020075290A1 (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
US11032419B2 (en) Intelligent customer service systems, customer service robots, and methods for providing customer service
US8082188B2 (en) Lens order system, lens order method, lens order program and recording medium storing the lens order program
US8090628B2 (en) Lens order system, lens order method, lens order program and recording medium storing the lens order program
WO2014057704A1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
JP2018027613A (ja) 接客装置、接客方法及び接客システム
CN113287175B (zh) 互动式健康状态评估方法及其系统
US11514493B1 (en) System and method for conversational commerce online
CN111131005A (zh) 一种客服系统的对话方法及装置、设备、存储介质
WO2014142327A1 (ja) 聴力テスト提供システムおよび聴力テスト提供方法
US10978209B2 (en) Method of an interactive health status assessment and system thereof
CN108700979A (zh) 产品展示图形用户界面
US20030202017A1 (en) Dialog control system
WO2020075290A1 (ja) 顧客対応システム
CN110489519B (zh) 基于会话预测模型的会话方法及相关产品
JP5220953B1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
JP2021058982A (ja) ロボット、ロボット制御装置及びロボット制御方法
JP7146373B2 (ja) 接客サービスシステム
JP2017117184A (ja) ロボット、質問提示方法、及びプログラム
JP7045886B2 (ja) 応答装置、応答方法、応答プログラム及び応答システム
EP3832494A1 (en) Information processing device and information processing method
CN109726026A (zh) 一种交互数据处理方法、装置、设备及存储介质
JP7412157B2 (ja) ネットワークシステム、サーバ、および情報処理方法
KR102557848B1 (ko) 식단 큐레이션 정보 제공 서버 및 방법
WO2023119992A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023135939A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18936308

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020549922

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18936308

Country of ref document: EP

Kind code of ref document: A1