JP2019053351A - 応対装置、コンピュータプログラム及び応対方法 - Google Patents

応対装置、コンピュータプログラム及び応対方法 Download PDF

Info

Publication number
JP2019053351A
JP2019053351A JP2017175121A JP2017175121A JP2019053351A JP 2019053351 A JP2019053351 A JP 2019053351A JP 2017175121 A JP2017175121 A JP 2017175121A JP 2017175121 A JP2017175121 A JP 2017175121A JP 2019053351 A JP2019053351 A JP 2019053351A
Authority
JP
Japan
Prior art keywords
response
cpu
unit
conversation
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017175121A
Other languages
English (en)
Inventor
昌希 内田
Masaki Uchida
昌希 内田
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017175121A priority Critical patent/JP2019053351A/ja
Publication of JP2019053351A publication Critical patent/JP2019053351A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人との対話を自然な形で終了することが可能な応対装置等を提供すること。【解決手段】応対装置は、動画像又は音声を取得する取得部と、取得部で取得した動画像又は音声に基づいて、別れの行動を検知する検知部と、別れの行動を検知した場合、所定の応答動作を行う応答部とを備える。【選択図】図1

Description

本発明は、ジェスチャー又は発話に対する応対を行う応対装置等に関する。
従来、ロボットが人のジェスチャーを認識すると、予めジェスチャーと対応付けた命令を実行するというマンマシンインタラクション技術が提案されている(特許文献1等)。
特開2011−65652号公報
しかし、ジェスチャーは単なる命令の代替である。人と対話を行うシステムにおいて、人が対話を打ち切るジェスチャーをしても、対話を自然な形で終了することは困難である。
本発明は、このような事情に鑑みてなされたものである。本発明の目的は対話を自然な形で終了することが可能な応対装置等を提供することである。
本発明に係る応対装置は、動画像又は音声を取得する取得部と、取得部にて取得した動画又は音声に基づいて、別れの行動を検知する検知部と、別れの行動を検知した場合、所定の応答動作を行う応答部とを備えることを特徴とする。
本発明にあっては、人が対話を打ち切るジェスチャーに対応して、対話を自然な形で終了することが可能となる。
対話装置のハードウェア構成例を示すブロック図である。 対話処理の手順例を示すフローチャートである。 動作履歴テーブルの一例を示す説明図である。 ジェスチャー認識処理の手順例を示すフローチャートである。 終了処理の手順例を示すフローチャートである。 終了処理の手順の他の例を示すフローチャートである。 対話ロボットのハードウェア構成例を示すブロック図である。 終了処理の手順の他の例を示すフローチャートである。 対話処理の手順の他の例を示すフローチャートである。 終了処理の手順の他の例を示すフローチャートである。 対話処理の手順の他の例を示すフローチャートである。 終了処理の手順の他の例を示すフローチャートである。
以下実施の形態を、図面を参照して説明する。
まず、以下の説明で用いる用語について説明する。「表示」とは「何かを示すこと」をいう。表示は視覚表示又は聴覚表示を想定している。しかしそれに限らず、「表示」には触覚などの他の感覚を利用したものも含む。表示の際、例えば視覚表示のみのように単一の表示ではなく、視覚表示及び聴覚表示のように複合表示でもよい。「別れの行動」とは、人が別れる際に行われる定型的な動作や発話をいう。別れの行動の動作(ジェスチャー、身振り)例は手を挙げる、手を左右に振るなどである。別れの行動の発話例は「さようなら」、「またね」、「バイバイ」、「では、これで」、「ご機嫌よう」などである。「応答」とは、対話相手の発話や身振りに対して、何らかの返答を行うことをいう。応答は例えば、表示装置などに文字を表示したり、スピーカから音声を発したりすることにより行う。応答はそれに限らない。人型ロボットではアーム(腕)を使った手振りや身振りをと応答としてもよい。複数の応答を組み合わせてもよい。例えば、アームを振りながら、「バイバイ」という音声を発する。
(実施の形態1)
図1は対話装置(応対装置)1のハードウェア構成例を示すブロック図である。対話装置1は近傍にいる人と対話を行うものである。対話装置1は接客や案内を行うサービスロボットに組み込まれている。それに限らず、広告や売り場案内などを表示するデジタルサイネージと一体化してもよい。
対話装置1はCPU(検知部、シナリオ取得部、属性取得部、履歴取得部)(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、撮像部14、マイク15、応答部16、大容量記憶部17及び読み取り部18を含む。各構成はバスBで接続されている。
CPU11はROM12に記憶された制御プログラム(コンピュータプログラム)1Pにしたがい、ハードウェア各部を制御する。RAM13は例えばSRAM(Static RAM)、DRAM(Dynamic RAM)又はフラッシュメモリである。RAM13はCPU11によるプログラムの実行時に発生するデータを一時的に記憶する。
撮像部14は例えばCCD(Charge−Coupled Device)カメラ又はCMOS(Complementary MOS)カメラ等である。撮像部14はCCD又はCMOS等を介して入力された光信号を光電変換することにより画像データ(動画像を含む)を取得する。撮像部14は対話装置1近傍の様子を撮影する。マイク15はダイナミックマイク、コンデンサーマイク、圧電マイクなどのマイクロフォンである。マイク15は音波を音声データに変換する。マイク15は対話装置1近傍の音を収集する。
応答部16は応答を行うための構成を含む。応答部16は例えば、表示パネル161、スピーカ162を含む。表示パネル161はLCD(Liquid Crystal Display)パネル又はEL(Electro Luminescence)パネル等である。表示パネル161は対話に係るメッセージなどを表示する。スピーカ162は表示パネル161に表示した文字メッセージを音声出力する。また、スピーカ162は表示パネル161に表示したメッセージなどに関する説明音声や、対話相手に表示パネル161を見るように促す音声などを出力する。
大容量記憶部17は、例えばハードディスク又はSSD(Solid State Drive)などである。大容量記憶部17は対話用のシナリオや対話装置1が設置されている施設の情報などの各種データを記憶する。
シナリオは、対話装置1からの発話と当該発話に対して想定される対話相手の複数の応答とを対応付け、さらに各応答に対する対話装置1からの発話を、各応答に対応付けたデータである。発話−応答、応答−発話の組を複数組み合わせることで、まとまりのある対話のシナリオが構成される。
施設の情報は、施設内の案内図や施設の利用案内などである。小売店舗の場合は、店舗内の売り場の案内図やお買い得情報などである。
また、制御プログラム1Pを大容量記憶部17に記憶してもよい。読み取り部18はCD(Compact Disc)−ROM及びDVD(Digital Versatile Disc)−ROMを含む可搬型記憶媒体1aを読み取る。CPU11が読み取り部18を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部17に記憶してもよい。また、半導体メモリ1bから、CPU11が制御プログラム1Pを読み込んでもよい。
次に、対話装置1が行う処理について説明する。図2は対話処理の手順例を示すフローチャートである。対話装置1のCPU11は、撮像部14を介して画像を取得する(ステップS1)。CPU11は取得した画像を解析する(ステップS2)。CPU11はテンプレートマッチング等により、取得した画像に写り込んでいる物体を抽出する。CPU11は解析により人体を検知したか否かを判定する(ステップS3)。CPU11は人体を検知していないと判定した場合(ステップS3でNO)、対話中であるか否かを判定する(ステップS4)。CPU11は対話中でないと判定した場合(ステップS4でNO)、処理をステップS1へ戻す。CPU11は対話中であると判定した場合(ステップS4でYES)、処理をステップS9へ移す。対話中に人体を検知しなくなるのは、対話相手が別れの行動をせずにいなくなった場合である。CPU11は人体を検知したと判定した場合(ステップS3でYES)、対話中であるか否かを判定する(ステップS5)。CPU11は対話中でないと判定した場合(ステップS5でNO)、対話を開始する(ステップS6)。対話は大容量記憶部17に記憶されたシナリオを用いて行う。CPU11は処理をステップS1へ戻す。CPU11は対話中であると判定した場合(ステップS5でYES)、ジェスチャー認識を行う(ステップS7)。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしているか否かを判定する(ステップS8)。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしていないと判定した場合(ステップS8でNO)、処理をステップS1へ戻す。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしていると判定した場合(ステップS8でYES)、終了処理を行う(ステップS9)。CPU11は対話処理を終了する。
画像解析による人体の検知は公知の技術で実現可能であるので、説明を省略する。人体の検知にあたっては、写り込んでいる人の状態も判定してもよい。そして、画像に写り込んでいる人がいたとしても、その人が対話装置1から所定距離以上離れている場合など、対話が不可能と推測されるときは、人体を検知してないと判定してもよい。
次に、図2のステップS7のジェスチャー認識処理について、説明する。図3は動作履歴テーブル171の一例を示す説明図である。動作履歴テーブル171はRAM13又は大容量記憶部17に記憶する。動作履歴テーブル171に記憶するデータは、ジェスチャー認識処理において使用される一時的なものである。動作履歴テーブル171は座標値列、count列及び検知時刻列を含む。座標値列は手のひらの位置を示す座標値を記憶する。ここでいう手のひらは対話相手の手のひらである。count列は手のひらを検知した回数を記憶する。検知時刻列は直近に手のひらを検知した時刻を記憶する。
図4はジェスチャー認識処理の手順例を示すフローチャートである。CPU11は手のひらを検知したか否かを判定する(ステップS21)。CPU11は手のひらを検知したと判定した場合(ステップS21でYES)、手のひらの位置の座標、検知時刻及びcountの値を動作履歴テーブル171に保存する(ステップS22)。countの値は0を設定する。CPU11は撮像部14を介して画像を取得する(ステップS23)。CPU11は画像の解析を行い、その結果、手のひらを検出したか否かを判定する(ステップS24)。CPU11は手のひらを検出したと判定した場合(ステップS24でYES)、所定時間経過したか否かを判定する(ステップS25)。CPU11は所定時間経過したと判定した場合(ステップS25でYES)、処理をステップS22に戻す。CPU11は所定時間経過していないと判定した場合(ステップS25でNO)、手のひらの移動距離が閾値以下であるか否かを判定する(ステップS26)。手のひらの移動距離は、ステップS23で取得した画像における手のひらの位置の座標と、動作履歴テーブル171に保存している手のひらの位置の座標とから求める。CPU11は手のひらの移動距離が閾値を超えていると判定した場合(ステップS26でNO)、処理をステップS22に戻す。ステップS25でYES又はステップS26でNOと判定した場合は、別の手のひらが検知されたと判定すべきだからである。CPU11は手のひらの移動距離が閾値以下であると判定した場合(ステップS26でYES)、動作履歴テーブル171に保存している手のひらの位置の座標と検知時刻とを最新の値に更新するとともに、countの値を1増加させる(ステップS27)。CPU11はcountの値が閾値を超えたか否かを判定する(ステップS28)。CPU11はcountの値が閾値を超えていないと判定した場合(ステップS28でNO)、処理をステップS23に戻す。CPU11はcountの値が閾値を超えたと判定した場合(ステップS28でYES)、戻り値に「別れの行動」を設定する(ステップS29)。CPU11はジェスチャー認識処理を終了し、処理を呼び出し元に戻す。CPU11は手のひらを検出していないと判定した場合(ステップS24でNO)、所定時間経過したか否かを判定する(ステップS30)。CPU11は所定時間経過していないと判定した場合(ステップS30でNO)、処理をステップS23に戻す。CPU11は所定時間経過したと判定した場合(ステップS30でYES)、戻り値に「別れの行動でない」を設定する(ステップS31)。CPU11はジェスチャー認識処理を終了し、処理を呼び出し元に戻す。CPU11は手のひらを検出していないと判定した場合(ステップS21でNO)、ジェスチャーの意味判定を行う(ステップS32)。CPU11はジェスチャーの意味が別れの行動であるか否かを判定する(ステップS33)。CPU11はジェスチャーの意味が別れの行動であると判定した場合(ステップS33でYES)、処理をステップS29に移す。CPU11はジェスチャーの意味が別れの行動でないと判定した場合(ステップS33でNO)、処理をステップS31に移す。
ステップS33で別れの行動であると判定されるジェスチャーは手を振る動作(いわゆるバイバイ)以外の動作である。例えば、1回手を挙げて下ろす動作、相手に手の平側を向けて軽いグー・パーを2〜3回素早く繰り返す動作である。別れの行動を示すジェスチャーは、国、地域、性別などにより異なる場合もある。どのようなジェスチャーを別れの行動と判定するかは、対話装置1の設置場所により定める。
図4のステップS22以降はバイバイの動作を検出する。バイバイの動作では、数秒間に手のひらを複数回検知のされるはずである。また、手のひらの位置はある範囲内を往復運動するはずである。このような前提のもと、ステップS25及びステップS30の所定時間、ステップS26の閾値及びステップS28の閾値を、実験等により定める。
ステップS21、S24で行う手のひらの検知は、例えば、HOG(Histograms of Oriented Gradients)特徴量を用いてSVM(Support Vector Machine)で識別する。
続いて、終了処理について説明する。終了処理は対話相手が別れのジェスチャーをして対話終了を望んだとき、対話中に突然対話相手がいなくなったときに実行される処理である。図5は終了処理の手順例を示すフローチャートである。CPU11は別れの行動を認識したか否かを判定する(ステップS41)。別れの行動を認識したか否かは終了処理が開始前に判定している。ここでは、引数又はグローバル変数で渡されたフラグの値で判定可能であるとする。CPU11は別れの行動を認識していないと判定した場合(ステップS41でNO)、応答をクリアする(ステップS42)。この場合、対話相手は突然いなくなったので、対話を終了し、応答部16の表示パネル161の表示内容をクリアしたり、スピーカから発する音声メッセージを停止したりする。CPU11は別れの行動を認識したと判定した場合(ステップS41でYES)、別れのメッセージを表示する(ステップS43)。例えば、「さようなら。また遊んで下さいね。」、「困ったことがあったら話しかけて下さいね。」などである。別れのメッセージの表示に関しては、対話の終了シナリオが大容量記憶部17に記憶してある。CPU11は終了シナリオに基づいて、別れのメッセージを表示する。CPU11は終了処理を終了し、処理を呼び出し元に戻す。
本実施の形態では、対話相手がバイバイなどの別れの行動を示すジェスチャーをした場合、それを検出して、対話の終了する表示を行う。それにより、対話を自然な形で終了することが可能となる。
(実施の形態2)
本実施の形態は終了処理を実施の形態1から変更した形態に関する。その他の構成は実施の形態1と同様である。本実施の形態では、別れの行動をした対話相手に対して、いわゆるオウム返しのように、応答として、同様な別れの行動を行う。図6は終了処理の手順の他の例を示すフローチャートである。CPU11は別れの行動を認識したか否かを判定する(ステップS51)。CPU11は別れの行動を認識していないと判定した場合(ステップS51でNO)、応答をクリアする(ステップS52)。CPU11は終了処理を終了し、処理を呼び出し元に戻す。ステップS51、ステップS52は、それぞれ図5のステップS41、ステップS42と同様である。CPU11は別れの行動を認識したと判定した場合(ステップS51でYES)、認識した行動を表示する(ステップS53)。例えば、対話相手が手を振るバイバイの挨拶をした場合、対話装置1は手を振る映像を表示パネル161に表示する。この際、対話相手が手を振った回数と同じ回数分の映像を表示してもよい。「バイバイ」という文字を表示パネル161に表示してもよい。「バイバイ」という音声をスピーカ162から発してもよい。対話相手が手を振る身振りのみで、「バイバイ」という声を発しなかった場合には、表示パネル161に手を振る映像のみを表示し、スピーカからの出力をしなくてもよい。
本実施の形態において、対話装置1はオウム返しのように対話相手と同じ別れの行動をするので、対話相手に親しみを感じさせることが可能となる。それにより、次回以降、対話装置1は対話相手との対話がより円滑に行うことが可能となる。その結果、アンケートなどの情報収集が容易に行える。
(実施の形態3)
本実施の形態は終了処理を実施の形態1から変更した形態に関する。その他の構成は実施の形態1と同様である。但し、本実施の形態において、対話装置1は移動可能な対話ロボット(応答装置)に組み込まれているものとする。そして、当該対話ロボットはショッピングモールや百貨店など比較的大きな小売店舗に配置されているものとする。当該対話ロボットは対話相手と対話を行いながら、行動をともにしている。
図7は対話ロボット100のハードウェア構成例を示すブロック図である。図7において、図1に示した対話装置1と同様な構成は同一の符合を付し、詳しい説明を省略する。対話ロボット100は、CPU11、ROM12、RAM13、撮像部14、マイク15、応答部16、大容量記憶部17、位置検出部19及び移動機構20を含む。各構成はバスBで接続されている。応答部16は表示パネル161、スピーカ162及びアーム163を含む。アーム163は人間の腕を模した構成である。アーム163は人間と同様な手振りが可能である。大容量記憶部17は地図情報や案内情報などを記憶する。地図情報は対話ロボット100が配置されている店舗内の地図である。案内情報は当該店舗の売り場、トイレ、出入口に関する情報などである。位置検出部19は対話ロボット自身の位置を検出する。位置検出部19はGPS(Global Positioning System)受信機により得られる緯度、経度を検出する。また、位置検出部19は各所に設置されたビーコンから送信されている位置情報を含むビーコン電波を受信機で受信し、ビーコン電波に含まれる位置情報に基づいて、位置を検出する。これらの方法に限らず、他の位置検出方法を採用してもよい。移動機構20は車輪及びモータ等を含み、対話ロボット100を移動させる。
図8は終了処理の手順の他の例を示すフローチャートである。CPU11は別れの行動を認識したか否かを判定する(ステップS61)。CPU11は別れの行動を認識していないと判定した場合(ステップS61でNO)、応答をクリアする(ステップS62)。CPU11は終了処理を終了し、処理を呼び出し元に戻す。ステップS61、ステップS62は、それぞれ図5のステップS41、ステップS42と同様である。CPU11は別れの行動を認識したと判定した場合(ステップS61でYES)、CPU11は現地位置を、位置検出部19を介して取得する(ステップS63)。CPU11は対話相手の行動判定を行う(ステップS64)。行動判定は、現在位置や向かっている方向などにより行う。CPU11は行動判定の結果、対話相手が退店しようとしているか否か判定する(ステップS65)。CPU11は対話相手が退店しようとしていると判定した場合(ステップS65でYES)、出口案内を出力する(ステップS66)。出口案内は現在位置から出口までの経路地図を表示パネル161に表示する。経路の説明をスピーカ162で音声表示してもよい。CPU11は対話相手が退店しようとしていないと判定した場合(ステップS65でNO)、店舗案内を出力する(ステップS67)。店舗案内は例えば近くの売り場の案内や本日のセール情報などである。店舗案内は出口案内と同様に、表示パネル161やスピーカ162で表示する。CPU11は終了処理を終了し、処理を呼び出し元に戻す。
本実施の形態では、対話の終了時に退店しようとしている対話相手に対しては出口案内を行い、まだ在店している対話相手に対しては店舗案内をする。それにより対話相手に対話装置1の有用性を感じさせることが可能となる。その結果、対話相手は次回の来店時にも、対話装置1と対話する確率が高まるので、対話ロボット100の稼働率を高めることが可能となる。
(実施の形態4)
本実施の形態は、対話相手の属性により別れの行動への応答を変化させる形態に関する。ここでは属性の一例として年齢を取り上げる。また、対話ロボット100が行う処理が異なるのみで、ハードウェアの構成は上述の実施の形態と同様である。本実施の形態において、対話相手の年齢が8歳以下の場合、バイバイなどの別れの行動は、対話ロボット100の気を引くためのものであり、別れを意味していないことがあり得る。また、対話相手が複数人で、9歳以上の対話相手及び8歳以下の対話相手が含まれる場合、別れの行動をしたのが8歳以下の対話相手であるときは、対話を終了させないものとする。ここで、対話相手の年齢が8歳以下の場合、対話ロボット100の気を引くために、バイバイなどの別れの行動をすると考えるからである。なお、9歳以上8歳以下というのは一例であり、他の年齢が適切な場合は変更してもよい。
図9は対話処理の手順の他の例を示すフローチャートである。対話ロボット100のCPU11は、撮像部14を介して画像を取得する(ステップS71)。CPU11は取得した画像を解析する(ステップS72)。CPU11はテンプレートマッチング等により、取得した画像に写り込んでいる物体を抽出する。CPU11は解析により人体を検知したか否かを判定する(ステップS73)。CPU11は人体を検知していないと判定した場合(ステップS73でNO)、対話中であるか否かを判定する(ステップS74)。CPU11は対話中でないと判定した場合(ステップS74でNO)、処理をステップS71へ戻す。CPU11は対話中であると判定した場合(ステップS74でYES)、処理をステップS83へ移す。CPU11は人体を検知したと判定した場合(ステップS73でYES)、対話中であるか否かを判定する(ステップS75)。CPU11は対話中でないと判定した場合(ステップS75でNO)、対話を開始する(ステップS76)。CPU11は処理をステップS71へ戻す。CPU11は対話中であると判定した場合(ステップS75でYES)、対話相手が複数人であるか否かを判定する(ステップS77)。CPU11は対話相手が複数人であると判定した場合(ステップS77でYES)、対話相手それぞれの年齢判定を行う(ステップS78)。年齢の判定は、例えば、画像中から人物の顔を検出・解析することにより行う。年齢の判定は公知の技術により実現可能であるので、説明を省略する。CPU11は対話相手の中に9歳以上の人がいるか否かを判定する(ステップS79)。CPU11は対話相手の中に9歳以上の人がいると判定した場合(ステップS79でYES)、ジェスチャー認識を行う(ステップS80)。ジェスチャー認識処理については、実施の形態1と同様で、図4に示したとおりである。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしているか否かを判定する(ステップS81)。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしていないと判定した場合(ステップS81でNO)、処理をステップS71へ戻す。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしていると判定した場合(ステップS81でYES)、別れの行動をしている対話相手が8歳以下であるか否かを判定する(ステップS82)。CPU11は別れの行動をしている対話相手が8歳以下であると判定した場合(ステップS82でYES)、対話を継続すべきと判定し、処理をステップS71に戻す。
CPU11は別れの行動をしている対話相手が8歳以下でないと判定した場合(ステップS82でNO)、終了処理を行う(ステップS83)。CPU11は対話相手が複数人でないと判定した場合(ステップS77でNO)、対話相手の年齢の判定を行う(ステップS84)。年齢の判定は上述したように公知の技術で実現可能である。CPU11はジェスチャー認識を行う(ステップS85)。ジェスチャー認識処理については、上述したように実施の形態1と同様で、図4に示したとおりである。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしているか否かを判定する(ステップS86)。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしていないと判定した場合(ステップS86でNO)、処理をステップS71へ戻す。CPU11はジェスチャー認識の結果、対話相手が別れの行動をしていると判定した場合(ステップS86でYES)、処理をステップS83に移す。CPU11はステップS83を実行後、対話処理を終了する。CPU11は対話相手の中に9歳以上の人がいないと判定した場合(ステップS79でNO)、ステップS85以降を実行する。
図10は終了処理の手順の他の例を示すフローチャートである。CPU11は別れの行動を認識したか否かを判定する(ステップS91)。CPU11は別れの行動を認識していないと判定した場合(ステップS91でNO)、応答をクリアする(ステップS92)。CPU11は終了処理を終了し、処理を呼び出し元に戻す。ステップS91、ステップS92は、それぞれ図5のステップS41、ステップS42と同様である。CPU11は別れの行動を認識したと判定した場合(ステップS91でYES)、CPU11は別れの行動をしている対話相手が8歳以下であるか否かを判定する(ステップS93)。CPU11は別れの行動をしている対話相手が8歳以下であると判定した場合(ステップS93でYES)、認識した行動を表示する(ステップS94)。具体例は上述したステップS53と同様である。それらに加えてアーム163を用いた行動を行ってもよい。対話相手が手を振っている場合は、アーム163を振る。その際、振り幅や振り速度を対話相手に合わせるようにしてもよい。CPU11は終了処理を終了し、処理を呼び出し元に戻す。CPU11は別れの行動をしている対話相手が8歳以下でないと判定した場合(ステップS93でNO)、現地位置を取得する(ステップS95)。CPU11は対話相手の行動判定を行う(ステップS96)。CPU11は行動判定の結果、対話相手が退店しようとしているか否か判定する(ステップS97)。CPU11は対話相手が退店しようとしていると判定した場合(ステップS97でYES)、出口案内を出力する(ステップS98)。CPU11は対話相手が退店しようとしていないと判定した場合(ステップS97でNO)、店舗案内を出力する(ステップS99)。ステップS95からステップS99の処理は、それぞれ図8のステップS63からステップS67の処理と同様である。CPU11は終了処理を終了し、処理を呼び出し元に戻す。
本実施の形態では、対話ロボット100は、年齢判定により別れの行動をしている対話相手がある年齢(8歳)以下の場合、別れの意図ではなく、気を引くため動作と判定する。そして、対話ロボット100は、対話相手と同様な行動を返す。それにより、ある年齢以下の対話相手にも親しみを感じさせることが可能となる。また、対話相手が複数であって、親子のように大人とある年齢以下の子ども場合、子どもの対話相手が行った別れの行動では対話を終了しない。それにより、大人の対話相手が対話を継続する意思があるにも関わらず、対話を終了してしまうという不具合を避けることが可能となる。
(実施の形態5)
本実施の形態は、対話相手が別れの行動した場合に、対話の継続を試みる形態に関する。それまでと異なる対話内容を提示する。例えば、対話履歴に基づく、インセンティブを表示する。対話履歴は例えば、対話時間の長さ、アンケートの質問に対する回答数などである。対話履歴は対話中に随時、大容量記憶部(履歴記憶部)17などに記憶する。本実施の形態は、対話装置1が行う処理が異なるのみで、ハードウェアの構成は実施の形態1と同様である。
図11は対話処理の手順の他の例を示すフローチャートである。図11において、ステップS1からステップS8は、図2に示したステップS1からステップS8と同様なので、説明を省略する。ステップS9で行う終了処理の詳細は後述するが、終了処理において、対話相手の引き止めを試みる。終了処理の後、CPU11は対話相手の引き止めに成功したか否かを判定する(ステップS10)。CPU11は対話相手の引き止めに成功したと判定した場合(ステップS10でYES)、対話を再開し(ステップS11)、処理をステップS1に戻す。CPU11は対話相手の引き止めに失敗したと判定した場合(ステップS10でNO)、対話処理を終了する。
図12は終了処理の手順の他の例を示すフローチャートである。CPU11は別れの行動を認識したか否かを判定する(ステップS111)。CPU11は別れの行動を認識していないと判定した場合(ステップS111でNO)、応答をクリアする(ステップS120)。CPU11は処理をステップS119に移す。ステップS111、ステップS120は、それぞれ図5のステップS41、ステップS42と同様である。CPU11は別れの行動を認識したと判定した場合(ステップS111でYES)、CPU11は別れの行動をしている対話相手が8歳以下であるか否かを判定する(ステップS112)。CPU11は別れの行動をしている対話相手が8歳以下であると判定した場合(ステップS112でYES)、認識した行動を表示する(ステップS121)。CPU11は処理をステップS119に移す。CPU11は別れの行動をしている対話相手が8歳以下でないと判定した場合(ステップS112でNO)、対話時間を取得する(ステップS113)。対話時間は例えば、対話開始してからの経過時間(応対時間)である。CPU11は取得した対話時間をもとに対話相手に付与可能なインセンティブを取得する(ステップS114)。インセンティブは例えば、金銭的価値を持つポイントや割引券である。CPU11はインセンティブを出力する(ステップS115)。例えば、CPU11は、スピーカ162で次のような音声表示を行う。CPU11は、「お話ししてくれたお礼にプレゼントをあげるね。もっとお話ししてくれたら、プレゼントはもっとよいものになるかもよ。」と表示する。CPU11は引き止めに成功したか否かを判定する(ステップS116)。CPU11は、表示パネル161にインセンティブの内容と、話しを続けるか否かを入力するための、「はい」/「いいえ」ボタンを表示する。対話相手が「はい」を選択した場合は対話を続ける意思があり、引き止めに成功したと、CPU11は判定する。対話相手が「いいえ」を選択した場合は、対話を続ける意思がなく、引き止めに失敗したと、CPU11は判定する。CPU11は引き止めに成功したと判定した場合(ステップS116でYES)、戻り値に「成功」を設定する(ステップS117)。CPU11は引き止めに失敗したと判定した場合(ステップS116でNO)、別れのメッセージを表示する(ステップS118)。別れのメッセージには、インセンティブの取得方法を含める。例えば、インセンティブを付与するインターネットサイトのURL(uniform resource locator)を含む2次元コードを表示する。対話相手は2次元コードにより、インセンティブ付与サイトにアクセスし、インセンティブ(例えば、割引券の画像)を取得する。CPU11は戻り値に「失敗」を設定する(ステップS119)。CPU11は終了処理を終了し、処理を呼び出し元に戻す。
本実施の形態では、対話相手が別れの行動をした場合、対話装置1は引き止めを行う。それにより、対話相手と十分な対話が可能となる。例えば、対話の内容がアンケートであって、対話相手についての情報を収集している場合、十分な情報を収集することが可能となる。この場合、上述の説明では、対話装置1は必ず引き止めをするが、対話が十分なときは引き止めはしなくてもよい。上述の説明では対話装置1として説明したが、本実施の形態は対話ロボット100でも実現可能である。上述では、対話時間でインセンティブを定めるとしたが、それに限らない。対話内容で定めてよい。例えば、アンケートを行っている場合は、回答をした質問の数や、回答の長さなどにより、インセンティブを定めてもよい。
上述の対話処理では、別れの行動の判定を対話している人のジェスチャーのみで行ったが、それに限らない。対話相手の発話をマイク15で収集し、音声認識により別れの行動の発話がされているかを判定してもよい。さらに、ジェスチャー及び発話の両方の認識を行い、別れの行動がされているかを判定してもよい。
各実施の形態で記載されている技術的特徴(構成要件)はお互いに組み合わせ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 対話装置
11 CPU
12 ROM
13 RAM
14 撮像部
15 マイク
16 応答部
161 表示パネル
162 スピーカ
163 アーム
17 大容量記憶部
171 動作履歴テーブル
18 読み取り部
1P 制御プログラム
1a 可搬型記憶媒体
1b 半導体メモリ

Claims (11)

  1. 動画像又は音声を取得する取得部と、
    前記取得部にて取得した動画像又は音声に基づいて、別れの行動を検知する検知部と、
    別れの行動を検知した場合、所定の応答動作を行う応答部と
    を備えることを特徴とする応対装置。
  2. 前記検知部は、手を振る動作を検知する
    ことを特徴とする請求項1に記載の応対装置。
  3. 記憶部から対話のシナリオを取得するシナリオ取得部を備え、
    該シナリオ取得部は、前記検知部が別れの行動を検知した場合、前記記憶部から終了シナリオを取得し、
    前記応答部は取得した前記終了シナリオに基づいた応答を行う
    ことを特徴とする請求項1又は請求項2に記載の応対装置。
  4. 前記応答部は前記検知部が検知した別れの行動を応答動作して行う
    ことを特徴とする請求項1から請求項3のいずれか一項に記載の応対装置。
  5. 位置情報を取得する位置検出部を備え、
    前記位置検出部の取得した位置に基づいて、前記応答部による所定の応答動作を行うか否かの判定を行う
    ことを特徴とする請求項3に記載の応対装置。
  6. 前記検知部が検知した前記別れの行動を発した人の属性を取得する属性取得部を備え、
    前記シナリオ取得部は、前記属性取得部の取得した属性に基づいて、前記属性に対応付けられた前記終了シナリオを取得する
    ことを特徴とする請求項3に記載の応対装置。
  7. 別れの行動までの応対時間に応じたインセンティブを提示する
    ことを特徴とする請求項3に記載の応対装置。
  8. 対話履歴を記憶する履歴記憶部より前記別れの行動を取得するまでの履歴を取得し、対話内容に基づいて、前記インセンティブの内容を定める
    ことを特徴とする請求項7に記載の応対装置。
  9. 前記所定の応答動作は、それまでと異なる対話内容を提示する
    ことを特徴とする請求項3に記載の応対装置。
  10. コンピュータに、
    動画像又は音声を取得し、
    取得した動画像又は音声に基づいて、別れの行動を検知し、
    別れの行動を検知した場合、所定の応答を行わせる命令を出力する
    処理を行わせることを特徴とするコンピュータプログラム。
  11. コンピュータが、
    動画像又は音声を取得し、
    取得した動画像又は音声に基づいて、別れの行動を検知し、
    別れの行動を検知した場合、所定の応答を行う
    ことを特徴とする応対方法。
JP2017175121A 2017-09-12 2017-09-12 応対装置、コンピュータプログラム及び応対方法 Pending JP2019053351A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017175121A JP2019053351A (ja) 2017-09-12 2017-09-12 応対装置、コンピュータプログラム及び応対方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175121A JP2019053351A (ja) 2017-09-12 2017-09-12 応対装置、コンピュータプログラム及び応対方法

Publications (1)

Publication Number Publication Date
JP2019053351A true JP2019053351A (ja) 2019-04-04

Family

ID=66015007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175121A Pending JP2019053351A (ja) 2017-09-12 2017-09-12 応対装置、コンピュータプログラム及び応対方法

Country Status (1)

Country Link
JP (1) JP2019053351A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175081A (ja) * 1997-12-11 1999-07-02 Toshiba Corp 発話装置及び発話方法
JP2003039365A (ja) * 2001-03-28 2003-02-13 Honda Motor Co Ltd ジェスチャを認識するコンピュータシステム、歩行ロボット及び方法
JP2005196134A (ja) * 2003-12-12 2005-07-21 Toyota Central Res & Dev Lab Inc 音声対話システム及び方法並びに音声対話プログラム
JP2005335053A (ja) * 2004-04-28 2005-12-08 Nec Corp ロボット、ロボット制御装置およびロボットの制御方法
US20060282317A1 (en) * 2005-06-10 2006-12-14 Outland Research Methods and apparatus for conversational advertising
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2017517028A (ja) * 2014-04-17 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ロボットとの対話を取り扱う方法とシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175081A (ja) * 1997-12-11 1999-07-02 Toshiba Corp 発話装置及び発話方法
JP2003039365A (ja) * 2001-03-28 2003-02-13 Honda Motor Co Ltd ジェスチャを認識するコンピュータシステム、歩行ロボット及び方法
JP2005196134A (ja) * 2003-12-12 2005-07-21 Toyota Central Res & Dev Lab Inc 音声対話システム及び方法並びに音声対話プログラム
JP2005335053A (ja) * 2004-04-28 2005-12-08 Nec Corp ロボット、ロボット制御装置およびロボットの制御方法
US20060282317A1 (en) * 2005-06-10 2006-12-14 Outland Research Methods and apparatus for conversational advertising
JP2011000681A (ja) * 2009-06-19 2011-01-06 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2017517028A (ja) * 2014-04-17 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ロボットとの対話を取り扱う方法とシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
齋藤 千夏: "無意識的同調がロボットへの親和性に与える影響", 2012年度人工知能学会全国大会(第26回)論文集 [CD−ROM] 2012年度 人工知能学会全国, JPN6021019655, 12 June 2012 (2012-06-12), ISSN: 0004571855 *

Similar Documents

Publication Publication Date Title
CN110998725B (zh) 在对话中生成响应
US9875740B1 (en) Using voice information to influence importance of search result categories
CN110780707B (zh) 信息处理设备、信息处理方法与计算机可读介质
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
KR101832693B1 (ko) 직관적 컴퓨팅 방법들 및 시스템들
EP3655863A1 (en) Automatic integration of image capture and recognition in a voice-based query to understand intent
JP4839838B2 (ja) 情報処理システム、情報処理方法および情報処理用プログラム
JP2019197499A (ja) プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
US11580970B2 (en) System and method for context-enriched attentive memory network with global and local encoding for dialogue breakdown detection
CN105320726A (zh) 降低对手动开始/结束点和触发短语的需求
CN108292203A (zh) 基于设备间对话通信的主动协助
TWI775134B (zh) 互動方法、裝置、設備以及記錄媒體
CN104508597A (zh) 用于控制扩增实境的方法及设备
TWI775135B (zh) 互動方法、裝置、設備以及記錄媒體
Chernova et al. Crowdsourcing HRI through online multiplayer games
US20220301251A1 (en) Ai avatar-based interaction service method and apparatus
KR20120127655A (ko) 직관적 컴퓨팅 방법들 및 시스템들
JP2003050559A (ja) 自律移動ロボット
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
TW201909166A (zh) 主動聊天裝置
JP2023120130A (ja) 抽出質問応答を利用する会話型aiプラットフォーム
JP2017064853A (ja) ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム
JP2019051568A (ja) 案内装置、案内システム、案内方法及びプログラム
WO2021174102A1 (en) Systems and methods for short- and long-term dialog management between a robot computing device/digital companion and a user
JP2019053351A (ja) 応対装置、コンピュータプログラム及び応対方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210817