JP2020160641A - 仮想人物選定装置、仮想人物選定システム及びプログラム - Google Patents

仮想人物選定装置、仮想人物選定システム及びプログラム Download PDF

Info

Publication number
JP2020160641A
JP2020160641A JP2019057652A JP2019057652A JP2020160641A JP 2020160641 A JP2020160641 A JP 2020160641A JP 2019057652 A JP2019057652 A JP 2019057652A JP 2019057652 A JP2019057652 A JP 2019057652A JP 2020160641 A JP2020160641 A JP 2020160641A
Authority
JP
Japan
Prior art keywords
virtual person
personality
person selection
selection device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019057652A
Other languages
English (en)
Inventor
秀行 増井
Hideyuki Masui
秀行 増井
松本 征二
Seiji Matsumoto
征二 松本
宏治 石丸
Koji Ishimaru
宏治 石丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019057652A priority Critical patent/JP2020160641A/ja
Publication of JP2020160641A publication Critical patent/JP2020160641A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】接客されるユーザの満足度を得られるように工夫した仮想人物選定装置、仮想人物選定システム及びプログラムを提供する。【解決手段】仮想人物選定装置1は、ユーザの性格を示す性格診断データを取得する性格取得部12と、仮想人物に対応付けられた複数の性格情報と、複数の性格情報の各々に対応する話し方に関する特性情報とを記憶した特性DB22と、性格診断データとマッチングする性格情報とを対応付けたマッチングDB25と、性格取得部12により取得したユーザの性格診断データに対応する性格情報を、マッチングDB25から取得するマッチング部13と、マッチング部13により取得した性格情報に対応付けられた特性情報を、特性DB22から抽出する特性抽出部14と、特性抽出部14により抽出した特性情報を適用させた発話を仮想人物が行う発話部19と、を備える。【選択図】図1

Description

本発明は、仮想人物選定装置、仮想人物選定システム及びプログラムに関する。
従来、受付等にディスプレイ等の表示装置やマイク等を設置し、バーチャルなキャラクタを表示させて、ユーザに対する応対を、キャラクタが、人に代わって行う仕組みが開示されている(例えば、特許文献1、2)。
特開2001−249924号公報 特開2011−227856号公報
上記したいずれの文献も、予め決められた一連の接客作業について、音声と映像を用いて、どのユーザに対しても一律に対応するものにすぎなかった。そのため、ユーザの満足度が得られにくいものであった。
そこで、本発明は、接客されるユーザの満足度を得られるように工夫した仮想人物選定装置、仮想人物選定システム及びプログラムを提供することを目的とする。
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、ユーザの対話相手になる仮想人物を選定する仮想人物選定装置であって、前記仮想人物に対応付けられた複数の性格情報と、前記複数の性格情報の各々に対応する話し方に関する特性情報とを記憶した特性データベースと、ユーザの性格に対応する前記特性データベースの前記性格情報を決定するマッチング手段と、前記マッチング手段により決定された前記性格情報に対応付けられた前記特性情報を、前記特性データベースから抽出する特性抽出手段と、前記特性抽出手段により抽出した前記特性情報を適用させた発話を、前記仮想人物が行う発話手段と、を備える仮想人物選定装置である。
第2の発明は、第1の発明の仮想人物選定装置において、前記ユーザの性格を示す性格診断データを取得する性格取得手段と、前記性格診断データと、マッチングする性格情報とを対応付けたマッチングデータベースと、を備え、前記マッチング手段は、前記性格取得手段により取得した前記ユーザの前記性格診断データに対応する前記性格情報を、前記マッチングデータベースから取得する、仮想人物選定装置である。
第3の発明は、第2の発明の仮想人物選定装置において、前記性格取得手段は、前記ユーザに対して提示した設問に対する前記ユーザからの回答に基づいて前記性格診断データを取得する、仮想人物選定装置である。
第4の発明は、第2の発明又は第3の発明の仮想人物選定装置において、前記性格取得手段は、前記ユーザの行動をセンシングしたセンシングデータに基づいて前記性格診断データを取得する、仮想人物選定装置である。
第5の発明は、第1の発明から第4の発明までのいずれかの仮想人物選定装置において、前記ユーザの感情データを取得する感情取得手段を備え、前記マッチング手段は、前記感情取得手段が取得した前記発話手段による発話後の前記ユーザの感情データに応じて前記性格情報を決定する、仮想人物選定装置である。
第6の発明は、第5の発明の仮想人物選定装置において、前記ユーザの音声データを取得する音声取得手段と、前記ユーザの顔画像データを取得する顔画像取得手段と、を備え、前記感情取得手段は、前記音声取得手段により取得した前記音声データに対して音声認識処理を行った結果データと、前記顔画像取得手段により取得した前記顔画像データに対して画像認識処理を行った結果データとを用いて、前記ユーザの感情データを取得する、仮想人物選定装置である。
第7の発明は、第1の発明から第6の発明までのいずれかの仮想人物選定装置において、前記仮想人物のキャラクタ画像を、前記ユーザが視認可能な表示装置に出力するキャラクタ出力手段を備える、仮想人物選定装置である。
第8の発明は、第7の発明の仮想人物選定装置において、異なる複数の前記キャラクタ画像と、性格情報とを対応付けて記憶したキャラクタ画像記憶部と、前記マッチング手段により決定された前記性格情報に対応付けられた前記キャラクタ画像を、前記キャラクタ画像記憶部から抽出するキャラクタ抽出手段と、を備え、前記キャラクタ出力手段は、前記キャラクタ抽出手段により抽出された前記キャラクタ画像を、前記表示装置に出力する、仮想人物選定装置である。
第9の発明は、第7の発明の仮想人物選定装置において、異なる複数の前記キャラクタ画像を記憶したキャラクタ画像記憶部と、前記キャラクタ画像記憶部に記憶された前記複数のキャラクタ画像を表示装置に出力するキャラクタ候補出力手段と、前記キャラクタ候補出力手段により出力された前記複数のキャラクタ画像のうちの一の前記キャラクタ画像を受け付けるキャラクタ受付手段と、を備え、前記キャラクタ出力手段は、前記キャラクタ受付手段により受け付けた前記一のキャラクタ画像を、前記表示装置に出力する、仮想人物選定装置である。
第10の発明は、第7の発明から第9の発明までのいずれかの仮想人物選定装置において、前記キャラクタ出力手段は、前記発話手段による発話に同期させて、動きのある前記キャラクタ画像を、前記表示装置に出力する、仮想人物選定装置である。
第11の発明は、第1の発明から第10の発明までのいずれかの仮想人物選定装置において、前記ユーザの発話内容に応答する返答内容を取得する返答取得手段を備え、前記発話手段は、前記返答取得手段により取得した前記返答内容に、前記特性抽出手段により抽出した前記特性情報を適用させて前記発話を行う、仮想人物選定装置である。
第12の発明は、第1の発明から第11の発明までのいずれかの仮想人物選定装置と、前記仮想人物選定装置に対して通信可能に接続された端末と、を備えた仮想人物選定システムであって、前記発話手段による前記発話が、前記端末の音声出力装置から出力される、仮想人物選定システムである。
第13の発明は、第1の発明から第11の発明までのいずれかの仮想人物選定装置としてコンピュータを機能させるためのプログラムである。
本発明によれば、接客されるユーザの満足度を得られるように工夫した仮想人物選定装置、仮想人物選定システム及びプログラムを提供することができる。
本実施形態に係る仮想人物選定システムの全体概要図及び仮想人物選定装置の機能ブロック図である。 本実施形態に係る仮想人物選定装置の記憶部の例を示す図である。 本実施形態に係る仮想人物選定装置のコミュニケーション処理を示すフローチャートである。 本実施形態に係る仮想人物選定装置の性格診断データ処理を示すフローチャートである。 本実施形態に係る仮想人物選定装置により選定されるキャラクタ画像の例を示す図である。 本実施形態に係る仮想人物選定装置の発話処理を示すフローチャートである。 本実施形態に係る仮想人物選定装置での発話についての具体例を示す図である。
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
(実施形態)
<仮想人物選定システム100>
図1は、本実施形態に係る仮想人物選定システム100の全体概要図及び仮想人物選定装置1の機能ブロック図である。
図1に示す仮想人物選定システム100は、仮想人物選定装置1と、端末4とを備えたシステムである。仮想人物選定装置1は、端末4を使用するユーザの性格診断データに基づいて、ユーザごとにバーチャルなキャラクタ画像により示される仮想人物を選定する。また、仮想人物選定装置1は、端末4を使用するユーザの性格診断データに基づいて、ユーザごとに仮想人物の特性情報を取得する。そして、仮想人物選定装置1は、案内や提案等のユーザに対する接客相手(対話相手)として、選定した仮想人物を端末4に表示させる。また、仮想人物選定装置1は、仮想人物の口調や言い回し等を、ユーザに適したものにする。その結果として、仮想人物選定装置1は、ユーザごとに異なる対応を、異なる仮想人物によって行うものである。
仮想人物選定装置1と、端末4とは、通信ネットワークNを介して通信可能に接続されている。通信ネットワークNは、例えば、インターネット回線等であり、有線であるか無線であるかを問わない。
<仮想人物選定装置1>
仮想人物選定装置1は、ユーザの性格診断データと、マッチングDB(データベース)の性格情報とをマッチングし、マッチングした結果として得られた性格情報に対応付けられた特性情報を、特性DBから抽出する。そして、仮想人物選定装置1は、抽出した特定情報を適用した発話を、仮想人物に対して行わせる装置である。
仮想人物選定装置1は、例えば、サーバである。仮想人物選定装置1は、その他、パーソナルコンピュータ(PC)等であってもよい。
図1に示すように、仮想人物選定装置1は、制御部10と、記憶部20と、通信インタフェース部29とを備える。
制御部10は、仮想人物選定装置1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、仮想人物選定部11と、発話処理部17とを備える。
仮想人物選定部11は、ユーザの性格に適した仮想人物を選定する制御部である。
仮想人物選定部11は、性格取得部12(性格取得手段、感情取得手段)と、マッチング部13(マッチング手段)と、特性抽出部14(特性抽出手段)と、キャラクタ抽出部15(キャラクタ抽出手段)と、キャラクタ出力部16(キャラクタ出力手段)とを備える。
性格取得部12は、ユーザの性格を示す性格診断データを取得する。
性格取得部12は、例えば、ユーザに対して提示した設問に対するユーザからの回答に基づいて、性格診断データを取得してもよい。ここで、性格取得部12は、ユーザに対して提示した設問及び回答に基づく性格診断データを、仮想人物選定装置1に対して通信可能に接続された外部のサーバから受信してもよい。例えば、設問は、心理テストのようなものであってもよいし、血液型や出身地、生年月日といったものであってもよい。
また、性格取得部12は、例えば、ユーザの行動をセンシングしたセンシングデータに基づいて、性格診断データを取得してもよい。センシングデータは、例えば、端末4の位置をセンシングしたものであってもよい。その場合には、移動の時間から分析可能な歩行速度や移動に用いた乗り物の割合といったものや、1日に占める移動の割合といったものを、性格診断データとして用いることができる。具体的には、例えば歩行速度が速い場合には、せっかちな性格である、とすることが考えられる。
また、センシングデータは、例えば、端末4を用いて行われた購買情報のデータであってもよい。その場合には、1回あたりの購買金額や、購買商品といったものを、性格診断データとして用いることができる。具体的には、1回の買物でまとめ買いをしたり、安売りのものを多く購入したりしている場合に、性格診断データとして、堅実である、とすることが考えられる。
さらに、性格取得部12は、現在のユーザの感情を示す感情データを取得し、取得した感情データを、上記した性格診断データに適用してもよい。ユーザの感情データは、例えば、端末4に備えるマイク(音声取得手段)により取得した音声データに対して音声認識処理を行った結果データと、端末4に備えるカメラ(顔画像取得手段)により取得した顔画像データに対して画像認識処理を行った結果データとから得ることができる。具体的には、例えば、音声データから早口であれば、焦っている状態であるといった感情データを得ることができる。また、例えば、顔画像データから笑顔であると認識されれば、大らかな状態であるといった感情データを得ることができる。
上述したこれらの性格診断データや、感情データは、種々の公知技術を用いることによって得ることができる。
マッチング部13は、性格取得部12により取得したユーザの性格診断データに対応する性格情報を、後述するマッチングDB25から取得する。
特性抽出部14は、マッチング部13により取得した性格情報に対応付けられた特性情報を、後述する特性DB22から抽出する。
キャラクタ抽出部15は、マッチング部13により取得した性格情報に対応付けられたキャラクタ画像を、後述するキャラクタ画像記憶部23から抽出する。
キャラクタ出力部16は、キャラクタ抽出部15により抽出されたキャラクタ画像を、端末4に出力することで、端末4では、表示部にキャラクタ画像が表示される。また、キャラクタ出力部16は、キャラクタ画像に、特性抽出部14により抽出した特性情報を適用させ、動きのあるキャラクタ画像を出力する。
発話処理部17は、選定した仮想人物による発話に関する処理を行う制御部である。
発話処理部17は、返答取得部18(返答取得手段)と、発話部19(発話手段)とを備える。
返答取得部18は、ユーザの発話内容に応答する返答内容を取得する。返答取得部18は、例えば、ユーザの発話に関する音声データを端末4から受信した場合に、外部の会話学習サーバ(図示せず)に対して音声データを送信することで、会話学習サーバから返答内容を取得してもよい。ここで、会話学習サーバは、例えば、仮想人物選定装置1から受信した音声データに基づいて発話内容を解析し、解析した発話内容を、会話内容を学習させた学習済モデルに適用して返答内容を取得するものであってよい。
発話部19は、返答取得部18で取得した返答内容に、特性抽出部14により抽出した特性情報を適用させた音声データである発話データを生成する。生成された発話データは、端末4に送信され、スピーカ(音声出力装置)から出力される。
なお、各機能部の詳細は、後述する。
記憶部20は、制御部10が各種の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶領域である。
記憶部20は、プログラム記憶部21と、特性DB22と、キャラクタ画像記憶部23と、ユーザ記憶部24と、マッチングDB25とを備える。
プログラム記憶部21は、各種のプログラムを記憶する記憶領域である。プログラム記憶部21は、仮想人物選定プログラム21aを記憶している。仮想人物選定プログラム21aは、仮想人物選定装置1の制御部10が実行する各種機能を行うためのプログラムである。
特性DB22は、仮想人物が有する複数の性格情報と、複数の性格情報の各々に対応する話し方に関する特性情報とを記憶したデータベースである。
特性DB22が有する項目の例を、図2(A)に示す。
図2(A)に示す特性DB22は、性格IDをキーとして、性格情報と、特性情報とを対応付けて記憶する。性格IDは、性格情報を一意に識別するための識別情報である。性格情報は、性格を表すものであり、例えば、「思慮深い」、「落着きがある」、「明るい」等であってよい。特性情報は、話し方に関する特性を示す情報である。特性情報は、口調、言い回し、声のトーン等を含む。また、特性情報は、動作に関する情報を含んでもよい。動作に関する情報として、身振り手振りが激しいとか、ほとんど動かないといった情報がある。
キャラクタ画像記憶部23は、異なる複数のキャラクタ画像を記憶する記憶領域である。
キャラクタ画像記憶部23が有する項目の例を、図2(B)に示す。
図2(B)に示すキャラクタ画像記憶部23は、キャラクタIDをキーとして、画像データと、性格情報とを対応付けて記憶する。キャラクタIDは、キャラクタ画像を一意に識別するための識別情報である。画像データは、キャラクタ画像そのもののデータである。なお、この図2(B)の例では、性格情報が対応づけられているが、1つの性格情報に対して1つのキャラクタ画像が対応づけられている場合には、性格情報に代えて性格IDを対応付けるものであってもよい。
ユーザ記憶部24は、ユーザに関する情報を記憶する記憶領域である。
ユーザ記憶部24が有する項目の例を、図2(C)に示す。
図2(C)に示すユーザ記憶部24は、ユーザIDをキーとして、性格診断データと、性格IDと、キャラクタIDとを対応付けて記憶する。ユーザIDは、ユーザを一意に識別するための識別情報である。性格診断データは、ユーザの性格を示すデータである。性格IDとキャラクタIDとは、性格診断データに基づいてマッチング処理をした結果取得した性格ID及びキャラクタIDを格納する。
マッチングDB25は、性格診断データと、性格診断データにマッチングする性格情報とを対応付けて記憶したデータベースである。
マッチングDB25が有する項目の例を、図2(D)に示す。
ここで、マッチングDB25の性格診断データは、例えば、上述したユーザに対して提示した設問に対するユーザからの回答に基づくものや、センシングデータに基づくもの等、複数の異なる方法で取得した性格診断データを、各レコードとしてもよい。また、性格情報は、特性DB22の性格情報に対応するものである。
図1に示す通信インタフェース部29は、通信ネットワークNを介して、例えば、端末4等との間の通信を行うためのインタフェースである。
<端末4>
端末4は、ユーザが使用する、例えば、タブレットに代表されるコンピュータの機能を併せ持った携帯型の端末である。端末4は、その他、PC等でもよい。また、端末4は、例えば、店舗等に設置されたものであってもよいし、ユーザが所持するものであってもよい。
端末4は、例えば、性格診断のための設問に回答することで、仮想人物選定装置1が選定したキャラクタ画像の仮想人物を出力し、仮想人物を対話相手として会話を行う。
端末4は、図示しないが、制御部と、記憶部と、入力部と、表示部(表示装置)と、通信インタフェース部等の一般的なコンピュータが備える各部の他、マイク及びスピーカを備える。
ここで、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、仮想人物選定装置1及び端末4は、各々制御部、記憶部等を備えた情報処理装置であり、コンピュータの概念に含まれる。
<仮想人物選定システム100の処理>
次に、仮想人物選定システム100における処理について説明する。
図3は、本実施形態に係る仮想人物選定装置1のコミュニケーション処理を示すフローチャートである。
図3に示すコミュニケーション処理は、例えば、ユーザが、仮想店舗で買物をする際に行われるものであり、仮想店舗の店員をユーザの性格に適した仮想人物にし、ユーザが、仮想人物を対話相手として会話をするものである。
例えば、端末4が、仮想店舗のWebページにアクセスした際に、端末4又はWebページから仮想人物選定装置1に通信され、図3に示す処理を開始する。
図3のステップS(以下、単に「S」という。)11において、仮想人物選定装置1の制御部10(性格取得部12)は、性格診断データ取得処理を行う。
ここで、性格診断データ取得処理について、図4に基づき説明する。
図4は、本実施形態に係る仮想人物選定装置1の性格診断データ処理を示すフローチャートである。
ここでは、設問に対するユーザからの回答に基づいて、性格診断データを取得するものを例に説明する。
図4のS21において、制御部10は、設問を端末4に対して送信する。この例では、設問及び回答に基づく性格診断データを、仮想人物選定プログラム21aに有するものとしている。設問としては、例えば、「あなたの血液型は?」といったものであり、制御部10は、回答の選択肢と共に設問を送信してもよい。
S22において、制御部10は、端末4から設問に対する回答を受信する。
S23において、制御部10(性格取得部12)は、受信した回答の内容に応じて、性格診断データを生成(取得)する。その後、制御部10は、処理を図3のS12に移す。
なお、制御部10は、同様の性格診断データ処理を、仮想人物選定装置1に対して通信可能に接続された外部のサーバ(図示せず)によって行わせ、外部のサーバから診断結果データを取得するものであってもよい。また、上述したように、センシングデータを用いて性格診断データを取得する等、設問に対する回答に基づくもの以外によって、性格診断データを取得するものであってもよい。
図3のS12において、制御部10(マッチング部13)は、S11の処理で取得したユーザの性格診断データに対応する性格情報を、マッチングDB25から取得する。なお、性格診断データに一致する性格情報を得られない場合には、制御部10は、性格診断データに類似する性格情報を、マッチング結果として得るようにしてもよい。
S13において、制御部10(特性抽出部14)は、S12の処理で得られた性格情報に対応付けられた特性情報を、特性DB22から抽出する。
S14において、制御部10(キャラクタ抽出部15)は、S12の処理で得られた性格情報に対応付けられたキャラクタ画像を、キャラクタ画像記憶部23から抽出する。
S15において、制御部10(キャラクタ出力部16)は、S14の処理で抽出したキャラクタ画像を、端末4に送信する。そうすることで、端末4には、キャラクタ画像が表示される。
端末4に表示されたキャラクタ画像の一例を、図5に示す。
図5は、本実施形態に係る仮想人物選定装置1により選定されるキャラクタ画像の例を示す図である。
図5(A)に示すキャラクタ画像51は、性格情報が、例えば、負けず嫌い、男気がある等のキャラクタ画像の一例である。キャラクタ画像51は、強気な印象の女性店員である。
他方、図5(B)に示すキャラクタ画像52は、性格情報が、例えば、従順、優しい等のキャラクタ画像の一例である。キャラクタ画像52は、物腰の低い印象の女性店員である。
なお、図5に示す例では、キャラクタ画像が2D(2 Dimension)であるが、3D(3 Dimension)画像であってももちろんよい。
また、図3のS15の処理で出力するキャラクタ画像は、動きがあってももちろんよい。その場合には、制御部10は、特性DB22の特性情報に含まれる動作に関する情報を、キャラクタ画像に反映させたキャラクタ画像を、端末4に送信することで、キャラクタ画像が動きのあるものになる。
さらに、図3のS13の処理と、S14の処理とは、同時に行ってもよいし、S14の処理を先に行い、S13の処理をその後に行うようにしてもよい。
図3のS16において、制御部10(発話処理部17)は、発話処理を行う。
ここで、発話処理について、図6に基づき説明する。
図6は、本実施形態に係る仮想人物選定装置1の発話処理を示すフローチャートである。
図6のS31において、制御部10は、端末4から音声データを受信したか否かを判断する。音声データを受信した場合(S31:YES)には、制御部10は、処理をS32に移す。他方、音声データを受信していない場合(S31:NO)には、制御部10は、処理をS33に移す。
ここで、制御部10は、音声データを受信したか否かを、所定時間(例えば、10秒)の間に音声データを受信したか否かによって判断してもよい。また、端末4で所定の操作(会話ボタンを選択する、キーワードを発音する等)をした場合に端末4が送信した音声データを、制御部10が受信してもよい。
S32において、制御部10(返答取得部18)は、音声データに基づく返答内容を取得する。返答取得部18は、例えば、受信した音声データを、外部の会話学習サーバに対して音声データを送信し、会話学習サーバから返答内容を取得してもよい。なお、外部の会話学習サーバから返答内容を取得できなかった場合には、例えば、「もう一度話してください。」等の仮想人物選定プログラム21aに有する固定の返答内容を取得してもよい。その後、制御部10は、処理をS34に移す。
他方、S33において、制御部10(返答取得部18)は、予め決められた返答内容を取得する。制御部10は、音声データを受信しなかった場合には、例えば、「ご用件をお話しください。」等の仮想人物選定プログラム21aに有する固定の返答内容を取得してもよい。
S34において、制御部10(発話部19)は、取得した返答内容に、図3のS13の処理によって特性DB22から抽出した特性情報を適用させた返答内容の音声データである発話データを生成する。
S35において、制御部10(発話部19)は、特性情報を適用させた返答内容の音声データである発話データを、端末4に出力する。そうすることで、端末4では、音声データは、口調、言い回し、声のトーンといった特性情報が反映された音声データが出力される。また、制御部10(キャラクタ出力部16)は、発話データと同期させた、動きのあるキャラクタ画像を、端末4に出力する。そうすることで、端末4では、あたかもキャラクタ画像が発話をするかのように、キャラクタ画像を見せることができる。そして、キャラクタ画像が示す印象(雰囲気)と、発話の話し方とは、統一感のあるものになる。その後、制御部10は、処理を図3のS17に移す。
ここで、返答内容に性格情報を適用させた発話データの例を説明する。
図7は、本実施形態に係る仮想人物選定装置1での発話についての具体例を示す図である。
図7には、一例として、仮想店舗である宝飾店での会話内容61が示されている。
会話内容61は、ユーザが発した会話の内容として、「イヤリングにしようかな」という音声データを、制御部10が取得した場合である。なお、前提として、この会話の前には、既に、仮想人物との間で会話が行われている。
その場合に、制御部10(返答取得部18)は、この発話の前の会話内容により、イヤリングよりネックレスを勧めるという返答内容を取得している。
また、図7に示す特性DB22には、性格IDごとに異なる性格情報が格納されている。
このような条件の場合、制御部10(発話部19)は、性格情報に基づいて異なる発話データ62を生成する。
例えば、性格情報がレコード22aに示すように思慮深い性格である場合、制御部10は、レコード62aに示すように、思慮深い感じの発話データを生成する。
また、性格情報がレコード22bに示すように遠慮がない性格である場合、制御部10は、レコード62bに示すように、遠慮していない感じの発話データを生成する。
さらに、性格情報がレコード22cに示すように遠慮がちの性格である場合、制御部10は、レコード62cに示すように遠慮がちな発話データを生成する。
このように、制御部10は、返答内容に性格情報を適用させることによって、同じ返答内容であっても発話データを異なるものにする。よって、ユーザに対して、一律ではない発話をさせることができる。その結果、ユーザごとに仮想人物に対する印象を、異なるものにできる。しかも、ユーザごとに異なる仮想人物は、ユーザの性格診断データを反映させたものであるので、ユーザに親和性のあるものにできる。
また、仮想人物が接客に対して用いられる場合には、ユーザの購買意欲の向上や、モチベーションの向上に貢献しうる。
図3のS17において、制御部10は、ユーザとの会話を終了するか否かを判断する。例えば、端末4においてキャラクタ画像を含む画面を閉じる操作等をした場合に、制御部10は、ユーザとの会話を終了すると判断する。会話を終了する場合(S17:YES)には、制御部10は、本処理を終了する。他方、会話を終了しない場合(S17:NO)には、制御部10は、処理をS16に移す。
このように、本実施形態の仮想人物選定装置1によれば、以下のような効果がある。
(1)ユーザの性格に対応する性格情報を決定し、決定された性格情報に対応付けられた特性情報を、特性DB22から抽出する。そして、抽出した特性情報を適用させた発話を、仮想人物に行わせる。よって、同じ返答内容であっても、ユーザごとに異なる発話にすることができ、仮想人物に接客されるユーザの満足度を得られるものにできる。
(2)ユーザの性格を示す性格診断データを取得し、マッチングDB25から取得した性格診断データに対応する性格情報を取得する。よって、マッチングDB25を用いて性格診断データから特性情報を抽出するための性格情報を、簡単に取得できる。
(3)ユーザの性格診断データは、ユーザに対して提示した設問に対する回答に基づくものにする。よって、性格診断データを、ユーザの性格及び嗜好が直接表れたものにできる。
(4)ユーザの性格診断データは、ユーザの行動をセンシングしたセンシングデータに基づくものにする。よって、ユーザの行動からユーザの性格を取得できる。また、ユーザに入力を促すものではなく、センシングデータは、端末4等によって自動的に取得されたものであるため、ユーザの入力に対する負担を軽減できる。
(5)仮想人物のキャラクタ画像を表示させるので、キャラクタ画像が発話をしているように感じさせることができる。
(6)ユーザの性格から決定された性格情報に対応付けられたキャラクタ画像を、キャラクタ画像記憶部23から抽出し、抽出したキャラクタ画像を出力する。よって、キャラクタ画像を、ユーザの性格が反映されたものにできる。よって、仮想人物に接客されるユーザの満足度を得られるものにできる。
(7)キャラクタ画像の動きを、発話に同期させ、動きのあるキャラクタ画像を表示させる。よって、キャラクタ画像が発話をしているように見せることができ、ユーザにとって違和感が少ないものにできる。
(8)発話内容に応答する応答内容を取得し、取得した応答内容に、特性情報を適用させて発話を行う。よって、口調や言い回し、声のトーン等を、ユーザの性格を反映させたものにできる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。
(変形形態)
(1)本実施形態では、端末4から仮想人物選定装置1に対してアクセスして処理を行うものを例に説明したが、これに限定されない。仮想人物選定装置は、入力部、表示部(表示装置)、マイク及びスピーカ(音声出力装置)等を備えたスタンドアロンのパーソナルコンピュータ(PC)や、スマートフォン等であってもよい。
(2)本実施形態では、性格診断データや、性格情報として、思慮深い、遠慮がちといった文言を例に説明したが、これに限定されない。例えば、性格を表す幾つかの指標を予め用意し、指標の中のどの位置に属するかといった点数で表すものであってもよく、性格を表すことが可能な情報であれば、どのようなものであってもよい。
(3)本実施形態では、キャラクタ画像が、ユーザの性格診断データにマッチングしたものであるものを説明したが、これに限定されない。仮想人物選定装置のキャラクタ候補出力手段がキャラクタ画像記憶部23に記憶されたキャラクタ画像を出力し、ユーザに好みのキャラクタ画像を選択させることで、キャラクタ受付手段が受け付けた一のキャラクタ画像を、仮想人物として出力してもよい。そうすることで、ユーザの好みのキャラクタ画像を対話相手として会話をすることができる。
なお、その場合に、キャラクタ画像をある程度のカテゴリ(男性キャラクタ、女性キャラクタ等)に分けておき、仮想人物選定装置は、カテゴリの選択を受け付けて、該当のカテゴリに含まれるキャラクタ画像を出力するようにしてもよい。そうすることで、選択肢を少なくできると共に、ユーザの希望に合ったキャラクタ画像を提示でき、ユーザがより自分の好みのキャラクタ画像を選びやすいものにできる。
(4)本実施形態では、ユーザの性格診断データを用いて仮想人物の性格情報を決定し、決定した特性情報を反映させた仮想人物が発話をするものを例に説明したが、これに限定されない。仮想人物の性格情報を、ユーザの感情に応じて適宜変更することで、仮想人物に反映させる特性情報を変えてもよい。例えば、感情取得手段が、仮想人物による発話後のユーザの感情データを取得し、マッチング手段が、取得した感情データに応じて性格情報を決定してもよい。そうすることで、性格情報を、仮想人物の発話による感情が入ったものにでき、ユーザの性格や状況をより表すものにできる。結果として、仮想人物に接客されるユーザの満足度が、より高いものにできる。
また、現在のユーザの感情データを、ユーザの発声した音声データと、ユーザの表情を示す顔画像データから取得してもよい。そうすることで、感情が表れやすいユーザの声や表情を用いて、ユーザの感情データを取得できる。
(5)本実施形態では、特性DB22と、キャラクタ画像記憶部23と、マッチングDB25とを用いて、ユーザの性格に適する仮想人物の特性情報及びキャラクタ画像を取得するものを例に説明したが、これらのDB及び記憶部は、一例である。例えば、複数のDB及び記憶部を1つにまとめてもよい。
(6)本実施形態では、仮想店舗の店員を仮想人物とするものを例に説明したが、これに限定されない。ユーザの対話相手になる他のシチュエーションにおいても適用できる。
1 仮想人物選定装置
4 端末
10 制御部
11 仮想人物選定部
12 性格取得部
13 マッチング部
14 特性抽出部
15 キャラクタ抽出部
16 キャラクタ出力部
17 発話処理部
18 返答取得部
19 発話部
20 記憶部
21a 仮想人物選定プログラム
22 特性DB
23 キャラクタ画像記憶部
24 ユーザ記憶部
25 マッチングDB
100 仮想人物選定システム

Claims (13)

  1. ユーザの対話相手になる仮想人物を選定する仮想人物選定装置であって、
    前記仮想人物に対応付けられた複数の性格情報と、前記複数の性格情報の各々に対応する話し方に関する特性情報とを記憶した特性データベースと、
    ユーザの性格に対応する前記特性データベースの前記性格情報を決定するマッチング手段と、
    前記マッチング手段により決定された前記性格情報に対応付けられた前記特性情報を、前記特性データベースから抽出する特性抽出手段と、
    前記特性抽出手段により抽出した前記特性情報を適用させた発話を、前記仮想人物が行う発話手段と、
    を備える仮想人物選定装置。
  2. 請求項1に記載の仮想人物選定装置において、
    前記ユーザの性格を示す性格診断データを取得する性格取得手段と、
    前記性格診断データと、マッチングする性格情報とを対応付けたマッチングデータベースと、
    を備え、
    前記マッチング手段は、前記性格取得手段により取得した前記ユーザの前記性格診断データに対応する前記性格情報を、前記マッチングデータベースから取得する、仮想人物選定装置。
  3. 請求項2に記載の仮想人物選定装置において、
    前記性格取得手段は、前記ユーザに対して提示した設問に対する前記ユーザからの回答に基づいて前記性格診断データを取得する、仮想人物選定装置。
  4. 請求項2又は請求項3に記載の仮想人物選定装置において、
    前記性格取得手段は、前記ユーザの行動をセンシングしたセンシングデータに基づいて前記性格診断データを取得する、仮想人物選定装置。
  5. 請求項1から請求項4までのいずれか一項に記載の仮想人物選定装置において、
    前記ユーザの感情データを取得する感情取得手段を備え、
    前記マッチング手段は、前記感情取得手段が取得した前記発話手段による発話後の前記ユーザの感情データに応じて前記性格情報を決定する、仮想人物選定装置。
  6. 請求項5に記載の仮想人物選定装置において、
    前記ユーザの音声データを取得する音声取得手段と、
    前記ユーザの顔画像データを取得する顔画像取得手段と、
    を備え、
    前記感情取得手段は、前記音声取得手段により取得した前記音声データに対して音声認識処理を行った結果データと、前記顔画像取得手段により取得した前記顔画像データに対して画像認識処理を行った結果データとを用いて、前記ユーザの感情データを取得する、仮想人物選定装置。
  7. 請求項1から請求項6までのいずれか一項に記載の仮想人物選定装置において、
    前記仮想人物のキャラクタ画像を、前記ユーザが視認可能な表示装置に出力するキャラクタ出力手段を備える、仮想人物選定装置。
  8. 請求項7に記載の仮想人物選定装置において、
    異なる複数の前記キャラクタ画像と、性格情報とを対応付けて記憶したキャラクタ画像記憶部と、
    前記マッチング手段により決定された前記性格情報に対応付けられた前記キャラクタ画像を、前記キャラクタ画像記憶部から抽出するキャラクタ抽出手段と、
    を備え、
    前記キャラクタ出力手段は、前記キャラクタ抽出手段により抽出された前記キャラクタ画像を、前記表示装置に出力する、仮想人物選定装置。
  9. 請求項7に記載の仮想人物選定装置において、
    異なる複数の前記キャラクタ画像を記憶したキャラクタ画像記憶部と、
    前記キャラクタ画像記憶部に記憶された前記複数のキャラクタ画像を表示装置に出力するキャラクタ候補出力手段と、
    前記キャラクタ候補出力手段により出力された前記複数のキャラクタ画像のうちの一の前記キャラクタ画像を受け付けるキャラクタ受付手段と、
    を備え、
    前記キャラクタ出力手段は、前記キャラクタ受付手段により受け付けた前記一のキャラクタ画像を、前記表示装置に出力する、仮想人物選定装置。
  10. 請求項7から請求項9までのいずれか一項に記載の仮想人物選定装置において、
    前記キャラクタ出力手段は、前記発話手段による発話に同期させて、動きのある前記キャラクタ画像を、前記表示装置に出力する、仮想人物選定装置。
  11. 請求項1から請求項10までのいずれか一項に記載の仮想人物選定装置において、
    前記ユーザの発話内容に応答する返答内容を取得する返答取得手段を備え、
    前記発話手段は、前記返答取得手段により取得した前記返答内容に、前記特性抽出手段により抽出した前記特性情報を適用させて前記発話を行う、仮想人物選定装置。
  12. 請求項1から請求項11までのいずれか一項に記載の仮想人物選定装置と、
    前記仮想人物選定装置に対して通信可能に接続された端末と、
    を備えた仮想人物選定システムであって、
    前記発話手段による前記発話が、前記端末の音声出力装置から出力される、仮想人物選定システム。
  13. 請求項1から請求項11までのいずれか一項に記載の仮想人物選定装置としてコンピュータを機能させるためのプログラム。
JP2019057652A 2019-03-26 2019-03-26 仮想人物選定装置、仮想人物選定システム及びプログラム Pending JP2020160641A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019057652A JP2020160641A (ja) 2019-03-26 2019-03-26 仮想人物選定装置、仮想人物選定システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057652A JP2020160641A (ja) 2019-03-26 2019-03-26 仮想人物選定装置、仮想人物選定システム及びプログラム

Publications (1)

Publication Number Publication Date
JP2020160641A true JP2020160641A (ja) 2020-10-01

Family

ID=72643406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057652A Pending JP2020160641A (ja) 2019-03-26 2019-03-26 仮想人物選定装置、仮想人物選定システム及びプログラム

Country Status (1)

Country Link
JP (1) JP2020160641A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634684A (zh) * 2020-12-11 2021-04-09 深圳市木愚科技有限公司 智能教学方法和装置
KR102555967B1 (ko) * 2022-05-25 2023-07-18 주식회사 투바앤 인공 지능에 기반한 상대방 사용자 성향에 따른 사용자 캐릭터 추천 방법 및 이를 포함하는 디지털 컨텐츠 제공 서버

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634684A (zh) * 2020-12-11 2021-04-09 深圳市木愚科技有限公司 智能教学方法和装置
CN112634684B (zh) * 2020-12-11 2023-05-30 深圳市木愚科技有限公司 智能教学方法和装置
KR102555967B1 (ko) * 2022-05-25 2023-07-18 주식회사 투바앤 인공 지능에 기반한 상대방 사용자 성향에 따른 사용자 캐릭터 추천 방법 및 이를 포함하는 디지털 컨텐츠 제공 서버

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
US20210081056A1 (en) Vpa with integrated object recognition and facial expression recognition
US20220189479A1 (en) Communication system and communication control method
US11900928B2 (en) System and method for adapted interactive experiences
CN110998725B (zh) 在对话中生成响应
US20190026013A1 (en) Method and system for interactive cosmetic enhancements interface
JP7070652B2 (ja) 情報処理システム、情報処理方法、およびプログラム
WO2016080553A1 (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
US20180047030A1 (en) Customer service device, customer service method, and customer service system
KR102532908B1 (ko) 딥러닝 및 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램
WO2014057704A1 (ja) 商品情報提供システム、商品情報提供装置、及び商品情報出力装置
CN111523981A (zh) 虚拟试用方法、装置、电子设备及存储介质
CN108700979A (zh) 产品展示图形用户界面
JP7207425B2 (ja) 対話装置、対話システムおよび対話プログラム
JP2007334732A (ja) ネットワークシステム及びネットワーク情報送受信方法
JP2020160641A (ja) 仮想人物選定装置、仮想人物選定システム及びプログラム
JP2019133451A (ja) 評価方法、評価装置、評価プログラム、および、評価システム
JP2017130170A (ja) 会話連動システム、会話連動装置、会話連動方法、および、会話連動プログラム
JP2019049953A (ja) 顧客分類システム
JP6583754B2 (ja) 情報処理装置、ミラーデバイス、プログラム
KR20220009090A (ko) 감성인지 아바타 서비스 시스템
JP2019212325A (ja) 情報処理装置、ミラーデバイス、プログラム
JP2020013538A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP7496128B2 (ja) 仮想人物対話システム、映像生成方法、映像生成プログラム
CN111464519B (zh) 基于语音交互的账号注册的方法和系统