JP6783469B2 - 返答インタフェースおよび対話訓練システム - Google Patents

返答インタフェースおよび対話訓練システム Download PDF

Info

Publication number
JP6783469B2
JP6783469B2 JP2017080214A JP2017080214A JP6783469B2 JP 6783469 B2 JP6783469 B2 JP 6783469B2 JP 2017080214 A JP2017080214 A JP 2017080214A JP 2017080214 A JP2017080214 A JP 2017080214A JP 6783469 B2 JP6783469 B2 JP 6783469B2
Authority
JP
Japan
Prior art keywords
response
user
interface
dialogue
hug
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017080214A
Other languages
English (en)
Other versions
JP2018175461A (ja
Inventor
隆史 港
隆史 港
英信 住岡
英信 住岡
石黒 浩
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2017080214A priority Critical patent/JP6783469B2/ja
Publication of JP2018175461A publication Critical patent/JP2018175461A/ja
Application granted granted Critical
Publication of JP6783469B2 publication Critical patent/JP6783469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、返答インタフェースおよび対話訓練システムに関し、特にたとえば、無自覚的にユーザの感情的意味を伴った返答を入力できる、返答インタフェース、およびそれを用いる対話訓練システムに関する。
背景技術の一例が特許文献1に開示されている。この特許文献1では、プレーヤが緊張したり興奮したりすることによって無意識に声の大きさが変化することを利用して、プレーヤの無意識な感情を実行されているゲームに対して指示コマンドとして与えることができる。
特開2002‐85834[A63F 13/00]
ところが、引用文献1では、音声入力なので、周囲への騒音になり、特に大きな声を出すときは周りの者が迷惑する。
それゆえに、この発明の主たる目的は、新規な、返答インタフェースおよび対話訓練システムを提供することである。
この発明の他の目的は、周囲に影響なく、無自覚的にユーザの感情的意味を伴う返答を入力できる、返答インタフェースおよび対話訓練システムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、人型の抱擁体、抱擁体の所定の第1部位に配置される第1触覚センサ、抱擁体の所定の第2部位に配置される第2触覚センサ、および第1触覚センサまたは第2触覚センサの圧力変化信号に基づいて、ポジティブな返答を出力し、またはネガティブな返答を出力する出力部を備える、返答インタフェースである。
第1の発明では、返答インタフェース(10:実施例で相当する部分を例示する参照符号。以下同様。)は、たとえばぬいぐるみのような人型抱擁体(18)を含む。第1触覚センサ(22)は、その抱擁体の第1部位に配置され、第2触覚センサ(24)は、抱擁体の第2部位に配置される。たとえばコンピュータ(26)のような出力部は、第1触覚センサまたは第2触覚センサの圧力変化信号に基づいて、たとえば第1部位が優しく撫でられたと判断したときポジティブな返答を出力し、または第2部位がたとえば叩かれたと判断したときネガティブな返答を出力する。
第1の発明によれば、人型抱擁体の第1部位をたとえば撫でることによって無自覚的にユーザの肯定的な感情を増強でき、第2部位をたとえば叩くことによって無自覚的にユーザの否定定的な感情を増強できる。
第2の発明は、第1の発明に従属し、第1部位は人型の頭部であり、第2部位は人型の臀部である、返答インタフェースである。
第2の発明では、第1部位および第2部位は人型の具体的部位であり、肯定的な返答ときには頭部を撫で、否定的な返答のときには臀部を叩くという、ごく自然な態様で返答することができる。
第2の発明によれば、人型抱擁体の頭部をたとえば撫でることによって無自覚的にユーザの肯定的な感情を増強でき、臀部をたとえば叩くことによって無自覚的にユーザの否定定的な感情を増強できる。
第1部位および第2部位は人型の具体的部位であり、肯定的な返答ときには頭部を撫で、否定的な返答のときには臀部を叩くという、ごく自然な態様で返答することができる。
第3の発明は、第1または第2の発明に従属し、抱擁体に設けられたスピーカをさらに備える、返答インタフェースである。
第3の発明では、人型抱擁体のたとえば頭部側面にポケット(20)を形成し、そのポケットにスピーカ(64)を収納する。
第3の発明では、抱擁体を抱擁しているユーザの耳の近くにスピーカを配置することができ、そのスピーカを通してユーザに発話音声を聞かせることができる。
第4の発明は、第3の発明の返答インタフェースを用いる対話訓練システムであって、2択選択肢のある対話スクリプトデータを予め設定するスクリプトデータベース、および返答インタフェースからのポジティブな返答またはネガティブな返答に適合する発話をスクリプトデータベースから選択して発話する発話部を備える、対話訓練システムである。
第4の発明では、対話訓練システム(60)においては、ユーザ(12A、12B)は相手の発話に対して、返答インタフェース(10A、10B)を用いて、ポジティブかネガティブに返答することを選択する。ユーザの選択に応じて、発話部として機能するたとえば訓練コンピュータ(62)がポジティブな返答に適合した応答発話あるいはネガティブな返答に適合した応答音声をスクリプトデータベース(74)に従って人工的に生成して、スピーカ(64A、64B)から出力してユーザに聞かせる。
第4の発明によれば、対話が苦手なユーザであっても、場面にあった適切な対話を学習(訓練)することができる。
この発明によれば、返答インタフェースにおいて、人型抱擁体の第1部位をたとえば撫でることによって無自覚的にユーザの肯定的な感情を増強でき、第2部位をたとえば叩くことによって無自覚的にユーザの否定定的な感情を増強できる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例のゲームシステムの一例を示す図解図である。 図2は図1実施例の構成を示すブロック図である。 図3は図1実施例における動作の一例を示すフロー図である。 図4は図2に示す返答インタフェースを用いる対話訓練システムの一例を示す図解図である。 図5は図4実施例の訓練コンピュータの一例を示すブロック図である。 図6は図4実施例の動作の一例を示すフロー図である。 図7は図2に示す返答インタフェースを用いる対話訓練システムの他の例を示す図解図である。
図1を参照して、この実施例のゲームシステムは、返答インタフェース10を用い、ユーザ12はその返答インタフェース10を抱擁して、モニタ14に表示されるゲームキャラクタ16と対話する。
図2を参照して、この実施例の返答インタフェース10は、一例として、人間のミニマルデザインに基づく外観、形状を有するぬいぐるみとして作られる。つまり、返答インタフェース10は、外被18とその中に詰められる内蔵物(図示せず)を有するぬいぐるみとして形成され、人間の頭に相当してかつ頭と見える頭部18aと、その下の、人間の胴体に相当してかつ胴体と見える胴体部18bと、胴体部18bから左右に延びる、人間の手および腕に相当して手および腕と見える腕部18cと、胴体部18bの下部であって人間の足に相当しかつ足と見える足部18dとを含む。返答インタフェース10のサイズは、全体として約40cmの背の高さを有し、太さはユーザが腕を回して抱擁できる程度の大きさ、たとえば胴体部18bの直径はおよそ60cm±20cm程度に設定される。
外被22は任意の材料からなる生地、たとえば布状の生地、網状の生地、膜またはシート状の生地などで作ることができるが、実施例では、たとえばサテンのような布を縫製して作っている。ただし、外被22の材料としては、返答インタフェース10はユーザに抱擁して使われるものであるので、外被22としては、肌触りのよい素材であって、できるだけ抗菌性や防汚性があるものが好ましい。
このような返答インタフェース10の、人間の頭に相当する部分すなわち頭部18aの側面、実施例では右側面には、ポケット20が形成される。このポケット20には、必要に応じて携帯端末(図示せず)をその中に収納することができる。ただし、このポケット20には、携帯端末の他、後述のような無線(Bluetooth(商品名))スピーカなど任意のものを収納することができる。
図2に示すように、頭部18aの後ろ側および臀部(足部18dの上方)の後ろ側には、それぞれ触覚センサ22および24が配置される。これらの触覚センサ22および24は、感圧センサとも呼ばれ、好ましくは外被18の内側のできるだけ表面に近い部分に内蔵される。触覚センサ22および24はそれぞれ、それにユーザが加えた圧力を
検知することができる。
そして、触覚センサ22および24のそれぞれの検知信号が同じく返答インタフェース10に内蔵されるコンピュータ26に与えられる。
コンピュータ26は、CPU28を含み、CPU28には、内部バス30を介して、メモリ32および通信モジュール34が接続される。メモリ32はROMやRAMを含む。メモリ32には、触覚センサ22および24から与えられる、加えられた圧力に応じて変化するアナログ信号に基づいて、触覚センサ22および24に対するユーザの接触態様を判別するためのプログラムが少なくとも設定される
通信モジュール34は、たとえばネットワークインタフェースなどを含み、CPU28はこの通信モジュール34を介して外部のコンピュータなどと通信でき、それらの間でデータの授受を行うことができる。
つまり、コンピュータ26はインターネットのようなネットワーク36を通して、ゲームコンソール38と通信可能に接続される。
ゲームコンソール38は、ゲーム処理の結果図1に示すモニタ14にゲーム画面を表示するもので、CPU40を含み、CPU40はバス44を介してGPU(Graphics Processing Unit:グラフィックス プロセッシング ユニット)42、メモリ46および通信モジュール48に接続される。
GPU42は、画像処理を担当する専用ユニットであり、メモリ46に含まれるVRAM上にモデル14に表示すべき画像を生成する。
メモリ46はまた、OSの他、ゲームアプリケーションプログラムを記憶していて、ゲームコンソール38(CPU40およびGPU42など)は、このゲームアプリケーションプログラムに従ってゲーム処理を実行する。
通信モジュール48は、たとえばネットワークインタフェースなどを含み、CPU40はこの通信モジュール48を介して上述のコンピュータ36など、外部のコンピュータなどと通信でき、それらの間でデータの授受を行うことができる。
返答インタフェース10は、実施例では、他者の質問に対して返事を返すためのインタフェースであり、上述のように、返答インタフェース10の形状は人型のぬいぐるみであり、これをユーザ12が図1に示すように抱擁して用いる。そして、第1の触覚センサとして機能する頭部18aの触覚センサ22を優しく触ると、コンピュータ26のCPU28がその状態を検出し、第2の触覚センサとして機能する臀部(足部18dの上)の触覚センサ24を叩くとCPU28がその状態を検出する。
つまり、触覚センサ22および24の検知信号は、それぞれコンピュータ26に入力され、コンピュータ26は、各触覚センサ22および24からの圧力変化信号に基づいて、頭を撫でるというポジティブな返答か、臀部を叩くというネガティブな返答を入力(出力)する。具体的には、圧力変化信号の大きさおよび持続時間に基づいて、ポジティブかネガティブかを判断する。そして、コンピュータ26は、この第1触覚センサ(触覚センサ22)または第2触覚センサ(触覚センサ24)の圧力変化信号に基づいて、ポジティブな返答を出力し、またはネガティブな返答を出力する出力部として機能する。
この実施例の返答インタフェース10では、第1部位および第2部位は人型の具体的部位(頭部および臀部)であり、肯定的な返答ときには頭部を撫で、否定的な返答のときには臀部を叩くという、ごく自然な態様で返答することができる。
そして、ユーザ14(図1)はポジティブな答えかネガティブな答えを要求する質問をされた場合に、頭部18a(の触覚センサ22)を優しくさわることでポジティブな返答、臀部(の触覚センサ24)をたたくことでネガティブな返答を行う。このような返答内容を表す信号は、質問を提示したシステム、実施例ではゲームコンソール38に入力される。
心理学では、自分の感情が自分の行動から誘発される効果があることが知られている。そこで、頭部18aを優しく触るポジティブな行為を伴って返答することにより、無自覚的にユーザの相手(ゲームコンソール38)に対するポジティブな感情を増強させる。反対に、臀部(足部18dの上)をたたくネガティブな行為を伴って返答することにより、無自覚的にユーザの相手に対するネガティブな感情を増強させる。
一例として、図3のステップS1に示すように、図1のようにユーザ12が見ているモニタ14の画面内のキャラクタ16が、「はい」または「いいえ」で答えることができる「私の服は似合ってる?」のような質問50を出すと、ユーザ12はそのキャラクタ16を見て、返答インタフェース10の頭部18aを優しく触るか、または臀部を叩くかで返答する。頭部18aを優しく触ったとき、CPU28(図2)が、入力された圧力の大きさと接触持続時間に基づいて、ユーザ12は頭部18aを優しく触った、と判断し、ポジティブな返答信号を通信モジュール34からネットワーク36を介して、ゲームコンソール38のCPU40に送信する。
したがって、上の質問50に対してユーザ12から肯定的な返答があったと判断し、CPU40は、ステップS3で“YES”と判断する。そこで、CPU40は、GPU42を制御して、図3の次のステップS5で、「うれしいありがとう!!」と言って喜ぶキャラクタ16をモニタ14に表示させる。
逆に、ユーザ12は図3のステップS1のキャラクタ16を見て、返答インタフェース10の臀部を叩いたとき、CPU28(図2)が、入力された圧力の大きさと接触持続時間に基づいて、ユーザ12は臀部を叩いた、と判断し、ネガティブな返答信号を通信モジュール34からネットワーク36を介して、ゲームコンソール38のCPU40に送信する。
したがって、上の質問50に対してユーザ12から否定的な返答があったと判断し、CPU40は、ステップS3で“NO”を判断する。そこで、CPU40は、GPU42を制御して、図3の次のステップS7で、「どこがおかしい?」と反発するキャラクタ16をモニタ14に表示させる。
ただし、図3では、キャラクタ16の表情には具体的な変化を表現していないが、実際には、ステップS5ではキャラクタ16は喜び、ステップS7ではキャラクタ16はちょっと怒った表情をするものとする。
このように、キャラクタ16と対話するゲームなどで、キャラクタの質問に対して上記返答インタフェース10を用いれば、通常の押しボタンで選択結果を入力するインタフェースと比較して、入力操作から無自覚的に感情を増強させることができ、キャラクタ16とのやりとりを楽しむことができる、より感情移入できる、などの効果をもたらす。
図4はこの発明の他の実施例である対話訓練システム60を示す。この実施例の対話訓練システム60は、対話が苦手な人間が、場面にあった適切な対話を学習するために上述の返答インタフェース10を使用する。そのため、この実施例では、返答インタフェース10の頭部18aの側面に形成したポケット20(図2)に無線(たとえば、Bluetooth(商標))スピーカ64A(64B)を装着し、訓練コンピュータ62を介して、対話訓練を行う。
ただし、スピーカ64Aおよび64Bは、無線スピーカでなく、有線で訓練コンピュータ62に接続されるスピーカであってもよい。
この実施例では、スピーカ64A、64Bは、頭部18aの側面に形成したポケット20A、20Bに収納したので、抱擁体18を抱擁しているユーザ12A、12Bの耳の近くにスピーカ64A、64Bを配置することができ、そのスピーカ64A、64Bを通してユーザ12A、12Bに発話音声を聞かせることができる。
訓練コンピュータ62は図5に示すように、CPU66を含み、CPU66は、バス68を介してメモリ70および通信モジュール72に接続される。メモリ70はROMやRAMを含み、スクリプトデータベース74から読み出したスクリプトデータを一時的に記憶する。通信モジュール72は、たとえばネットワークインタフェースなどを含み、CPU66はこの通信モジュール72を介して、外部のコンピュータなどと通信でき、それらの間でデータの授受を行うことができる。
また、訓練コンピュータ62として必要なプログラム(OSや対話制御プログラムなど)は、メモリ70に記憶され、CPU66はメモリ70に記憶されたプログラムに従って対話動作を制御する。
この実施例の対話訓練システム60においては、発話内容は訓練コンピュータ62が、スクリプトデータベース74に予め設定しているスクリプト(ダイアログ)に従って生成する。
概略的に説明すると、この対話訓練システム60においては、ユーザは相手の発話に対して、返答インタフェース10A、10Bを用いて、ポジティブかネガティブに返答することを選択する。ユーザの選択に応じて、訓練コンピュータ62がポジティブな応答発話あるいはネガティブな応答音声をスクリプトデータベース74に従って人工的に生成して、スピーカ64Aおよび64Bから出力して両者に聞かせる。ただし、このとき自身の発話か他者の発話かを区別できるように、スピーカ64Aおよび64Bから出力される発話の音量は異なるものにする。たとえば、ユーザ12Aについては自身のスピーカ64Aからの音声の音量は小さく、ユーザ12Bのスピーカ64Bからの音声の音量は大きく聞こえるようにする。
この実施例での対話訓練においては、スクリプトデータベース74に、2択選択肢のある対話スクリプトデータを予め設定しておき、ユーザ12AのアバタをCとして、ユーザBのアバタをDとし、アバタCおよびDが交互に発話し、返答インタフェース10Aおよび10Bからの、ホジティブ応答またはネガティブ応答に従って対話が進むように設定している。
図6を参照して、この実施例の訓練コンピュータ62のCPU66は、最初に、モニタ14(図4)の画面上に、ユーザ12Aおよびユーザ12B(図4)のそれぞれのアバタCおよびD(ともに図示せず)を登場させる。
その後、ステップS101で、たとえばユーザ12Aが自身の返答インタフェース10Aから、頭部18aを撫でることによってポジティブな返答をするか、臀部を叩くことによってネガティブな返答を入力する。この返答が、先に説明したようにコンピュータ26(図2)の通信モジュール34から訓練コンピュータ62の通信モジュール72を通してCPU66に入力される。
応じて、ステップS103で、CPU66は、返答インタフェース10Aからの肯定的返答または否定的返答のいずれかに応じて発話すべきスクリプトを、スクリプトデータベース74から読み出す。そして、たとえばBluetoothによって、2人のユーザ12Aおよび12Bのインタフェース10Aおよび10Bのポケット20Aおよび20Bに挿入されている、スピーカ64Aおよび64Bの両方から発話させる。
その後、ステップS105で、ユーザ12Bが自身の返答インタフェース10Bから、頭部18aを撫でることによってポジティブな返答をするか、臀部を叩くことによってネガティブな返答をする。
応じて、ステップS107で、CPU66は、返答インタフェース10Bからの肯定的返答または否定的返答のいずれかに応じて発話すべきスクリプトを、スクリプトデータベース74から読み出す。そして、たとえばBluetoothによって、2人のユーザ12Aおよび12Bのスピーカ64Aおよび64Bの両方から発話させる。
以後、ステップS109、S111、…でステップS101、S103、…と同様の動作を繰り返す。
具体的に説明すると、まず、発話部として機能する訓練コンピュータ62がユーザ12AのアバタCに、「私のことどう思う?」と発話させる。ユーザ12Bが、返答インタフェース10Bを用いてポジティブな返答を入力すると、訓練コンピュータ62がユーザ12BのアバタDに、「格好良いと思う」とポジティブな応答を発話させる。それに対し、ユーザ12Aが返答インタフェース10Aでネガティブな返答を入力すると、訓練コンピュータ62が、ユーザ12AのアバタCに、たとえば「お世辞はいいよ。そんな風に思ってないでしょ。」にネガティブな返答を発話させる。
このように、互いに返答インタフェース10A、10Bを用いたポジティブまたはネガティブな返答だけで、訓練コンピュータ62がそのポジティブまたはネガティブな返答に適合する発話を自動的に生成しながら、対話が進む。つまり、訓練コンピュータ62は、返答インタフェース10A、10Bからのポジティブまたはネガティブな返答に適合した、次にユーザ12A、12Bに提示すべき内容をスクリプトデータベース74から選択して自動的に発話する。
両ユーザ12A、12Bは、自身の音声を発することはないが、訓練コンピュータ62が生成した音声を聞きながら対話を行うことができる。押しボタン等で選択結果を入力するインタフェースと比較して、入力操作から無自覚的に感情を増強させることができ、相手とのやりとりを楽しむことができる、相手との関係を深化させることができる、などの効果をもたらす。
なお、一方が訓練者(ユーザ)であり、他方が教師の場合、訓練者は訓練コンピュータ62を使用して対話するが、教師は訓練コンピュータ62を使用せずに対話を行なうことも考えられる。教師の場合は、必ずしも訓練者と同じ返答インタフェース(ハグビー)を使用する必要はなく、音声入力や訓練コンピュータへの直接キー入力、あるいは外部ボタンにより入力するようにしても構わない。
なお、図4の対話訓練システム60では、同室に存在する2人のユーザ12Aおよび12Bが、訓練コンピュータ62の発話機能を利用して対話を進行させた。しかしながら、対話訓練を行うユーザ12Aおよび12Bは、遠隔地に居住していてもかまわない。
その場合には、図7に示すように、訓練コンピュータ62および各返答インタフェース10Aおよび10Bの、図2に示すようなコンピュータ26Aおよび26Bを、ネットワーク36で繋いで、上で説明したと同様の、ユーザ12Aおよび12Bの交互の、スクリプトに従った発話を行わせればよい。
上で説明した、返答インタフェース10において、人型のぬいぐるみに対する感情的な行為を伴う操作行為を入力操作とすれば、実施例で説明した頭部を優しく触る、臀部をたたく、以外の入力操作(例:背中をさする、たたく、つねる)を検出することも可能である。そして、触覚センサを配置するべき人型インタフェースの部位は、頭部や臀部に限られるものではなく、背中、胸、肩、腕などの部位が考えられる。
さらに、返答インタフェースの人型は、実施例のような人間のミニマルデザインに基づく形状に限るものではなく、他の人型形状であってもよい。
返答インタフェースとして人型以外の形状を想定することも可能である。たとえば、単なる球状のインタフェースで、包み込むと賛成、殴ると反対の返答を行うようなセンサを内蔵したものが考えられる。通常の押しボタンと比べて、より質問に対する賛同度合いや反対度合いを高めることができる。
10、10A、10B …返答インタフェース
18 …外被
22、24 …触覚センサ
26 …コンピュータ
38 …ゲームコンソール
60 …対話訓練システム
62 …訓練コンピュータ
64A、64B …無線スピーカ
74 …スクリプトデータベース

Claims (4)

  1. 人型の抱擁体、
    前記抱擁体の所定の第1部位に配置される第1触覚センサ、
    前記抱擁体の所定の第2部位に配置される第2触覚センサ、および
    前記第1触覚センサまたは前記第2触覚センサの圧力変化信号に基づいて、ポジティブな返答を出力し、またはネガティブな返答を出力する出力部を備える、返答インタフェース。
  2. 前記第1部位は前記人型の頭部であり、前記第2部位は前記人型の臀部である、請求項1記載の返答インタフェース。
  3. 前記抱擁体に設けられたスピーカをさらに備える、請求項1または2記載の返答インタフェース。
  4. 請求項3の返答インタフェースを用いる対話訓練システムであって、
    2択選択肢のある対話スクリプトデータを予め設定するスクリプトデータベース、および
    前記返答インタフェースからのポジティブな返答またはネガティブな返答に適合する発話を前記スクリプトデータベースから選択して発話する発話部を備える、対話訓練システム。
JP2017080214A 2017-04-14 2017-04-14 返答インタフェースおよび対話訓練システム Active JP6783469B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017080214A JP6783469B2 (ja) 2017-04-14 2017-04-14 返答インタフェースおよび対話訓練システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017080214A JP6783469B2 (ja) 2017-04-14 2017-04-14 返答インタフェースおよび対話訓練システム

Publications (2)

Publication Number Publication Date
JP2018175461A JP2018175461A (ja) 2018-11-15
JP6783469B2 true JP6783469B2 (ja) 2020-11-11

Family

ID=64280028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017080214A Active JP6783469B2 (ja) 2017-04-14 2017-04-14 返答インタフェースおよび対話訓練システム

Country Status (1)

Country Link
JP (1) JP6783469B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023166209A (ja) * 2022-05-09 2023-11-21 ユニ・チャーム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2023219041A1 (ja) * 2022-05-13 2023-11-16 株式会社ソニー・インタラクティブエンタテインメント インタラクション装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6468624B2 (ja) * 2013-07-08 2019-02-13 株式会社国際電気通信基礎技術研究所 抱擁体および携帯電話機の通話補助装置

Also Published As

Publication number Publication date
JP2018175461A (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
WO2016068262A1 (ja) コミュニケーションロボット
JP6719741B2 (ja) 対話方法、対話装置、及びプログラム
KR20170087416A (ko) 음성 정동 변조
JP5982840B2 (ja) 対話装置、対話プログラムおよび対話方法
JP7121330B2 (ja) 電子機器、音響機器、電子機器の制御方法及び制御プログラム
WO2019133698A1 (en) System and method for personalizing dialogue based on user's appearances
JP7012953B2 (ja) 感覚刺激提示システム、プログラムおよび方法
JP6699010B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2013086226A (ja) コミュニケーションロボット
JP6783469B2 (ja) 返答インタフェースおよび対話訓練システム
JP2016133557A (ja) エージェント対話システムおよびプログラム
JP2017173546A (ja) 学習支援装置、ロボット、学習支援システム、学習支援方法及びプログラム
KR20160051020A (ko) 사용자와의 상호작용이 가능한 완구 및 그 완구의 사용자와의 상호작용 수행 방법
JP2020198065A (ja) 拡張現実のバーチャルエージェントとのコミュニケーション
JP6992957B2 (ja) エージェント対話システム
WO2021185600A1 (en) System, game console and method for adjusting a virtual environment
CN116188642A (zh) 交互方法、装置、机器人和存储介质
JP2006068489A (ja) 対話型ペットロボット
JP2017162268A (ja) 対話システムおよび制御プログラム
JP2003345727A (ja) 感情伝達装置
JP2003108502A (ja) 身体性メディア通信システム
KR20130139137A (ko) 센서입력에 반응하는 대화인형 및 그 운용 방법
JP7324470B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム
CN109078334B (zh) 一种基于虚拟机器人的vr操作引导及陪练方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201015

R150 Certificate of patent or registration of utility model

Ref document number: 6783469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250