JP2013054698A - 会話検出システム、会話検出装置、会話検出方法およびプログラム - Google Patents

会話検出システム、会話検出装置、会話検出方法およびプログラム Download PDF

Info

Publication number
JP2013054698A
JP2013054698A JP2011194262A JP2011194262A JP2013054698A JP 2013054698 A JP2013054698 A JP 2013054698A JP 2011194262 A JP2011194262 A JP 2011194262A JP 2011194262 A JP2011194262 A JP 2011194262A JP 2013054698 A JP2013054698 A JP 2013054698A
Authority
JP
Japan
Prior art keywords
conversation
accidental
information
user
occurrence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011194262A
Other languages
English (en)
Inventor
Hirohiko Ito
宏比古 伊藤
Hidenori Kawai
英紀 河合
Kazuo Kunieda
和雄 國枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011194262A priority Critical patent/JP2013054698A/ja
Publication of JP2013054698A publication Critical patent/JP2013054698A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】テレワーカがオフィスなどの所定の空間内で発生する偶発的会話に参加する際の負荷を減らす。
【解決手段】会話検出装置20は、位置発信機10から位置情報を取得し、会話検出対象空間の映像および/または音声を取得する。会話検出装置20は、位置情報、会話検出対象空間の映像および/または音声に基づき、所定の基準に適合する会話を偶発的会話として検出し、会話発生情報を生成する。会話発生情報および会話検出対象空間の地図情報を含む会話詳細情報をロボット30に送信する。ロボット30は、周辺の映像および音声を取得する。そして、会話発生情報および周辺の映像および音声をユーザ端末40に送信する。ユーザ端末40は、ユーザから参加する偶発的会話の選択を受け付け、参加受付情報を生成し、ロボット30に送信する。ロボット30は、選択された偶発的会話の発生位置に移動するよう制御を行う。
【選択図】図1

Description

本発明は、会話検出システム、会話検出装置、会話検出方法およびプログラムに関する。
近年働き方の多様化に伴い、オフィス以外の場所で勤務するテレワークの需要が高まっている。テレワークを行うテレワーカは電話やメールなどでオフィスワーカとコミュニケーションをとる。
また、偶発的に発生し発生場所や時間が予め定められていないインフォーマルコミュニケーション(以下、偶発的会話と記す)は、アイデアを得るためや人間関係の構築・維持のために重要であると認識されている。しかし、テレワーカはオフィス内の偶発的会話の発生を認識することが難しく参加が困難である。
そこでテレワーカがオフィス内で発生する偶発的会話に参加することを支援する技術として、テレワーカの遠隔操作によりオフィス内を移動する遠隔操作ロボットが注目されている。また周囲の状況の変化や人間の指示に対応した動作を行うロボットが開発されている。
特許文献1には、観測対象の環境内に設置される周囲状況観測装置および人間に装着される人間用観測装置が観測して逐次記憶する人間の行動履歴に基づいて、対話相手に提示すべき案内や推薦などの行動を決定し実行するロボットが開示されている。
特許文献2には、話者の音声および話者の位置を考慮して対応を決定する対応決定システムと対応決定システムの決定に基づき、例えば話者に近づくなどの対応をとる、ロボットが開示されている。
特許文献3には、耳などの特徴的な構成部品を含む特徴部、胴体部、および頭部とを備え、音声入力手段を介して入力される音声を認識して、認識した音声の指示に対応する動作を行い、特徴部を屈曲させる関節および胴体部と頭部とを接続する関節を制御することで感情を表現する、動作表出装置が開示されている。
特許文献4には、人の指示に応じてまたは自発的に任意の位置で任意の日常用物品を預かり任意の空きスペースに日常用物品を片付ける、片づけロボットが開示されている。
特許文献5に開示されるロボットは、外部からの指示情報から単語を抽出し、抽出した単語によりネットワークを構築し、単語間の重みを更新する。そして、ネットワーク上で単語の関係性に重み付けをした単語ネットワークに基づき行動を決定する。
特許文献6に開示されるロボットは、ゲームの各参加者の参加度を常時観察し、所定の条件に基づき直接的な参加者間の対話のきっかけを提供し、参加者間の対話を活性化させるために好適な発話内容を発する。
特開2005−131713号公報 特開2006−243555号公報 特開2007−069302号公報 特開2007−152443号公報 特開2009−140348号公報 特開2010−128281号公報
テレワーカが、オフィスで発生する偶発的会話に参加することを支援する技術として遠隔操作ロボットが注目されている。テレワーカがロボットを遠隔操作し、オフィス内を移動させて偶発的会話を発見すれば、例えばロボットに設けられたビデオカメラとユーザ端末を介して偶発的会話に参加することができる。しかし、偶発的会話の発生場所および時間は不特定であるから、偶発的会話の探索中はテレワーカはロボットを操作する必要がある。テレワーカはロボット操作とは別に業務を行っているため、偶発的会話の探索中にロボットを操作することはテレワーカが偶発的会話に参加する際の負荷を増大させる。
特許文献1および2に開示されるロボットは、所定の空間の人間の行動や音声情報に基づき対応する行動を決定し、行動を実行する。特許文献3、4、および5のロボットは、外部からの指示を認識し、対応する行動をとることができる。特許文献6のロボットは、会話の活性度を検出し、参加者間の対話を活性化させるために好適な発話内容を発する。しかし、これらの技術では所定の空間で発生した偶発的会話を検出し、偶発的会話の発生をユーザに通知することはできない。
本発明は、上述のような事情に鑑みてなされたもので、テレワーカが、オフィスなどの所定の空間で発生する偶発的会話に参加する際の負荷を減らすことを目的とする。
上記目的を達成するため、本発明の第1の観点に係る会話検出システムは、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得手段と、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出手段と、
ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得手段と、
前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力手段と、
前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付手段と、
前記参加受付手段で選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御手段と、
を備えることを特徴とする。
本発明の第2の観点に係る会話検出装置は、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得手段と、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出手段と、
ユーザに前記偶発的会話の発生を通知する、会話情報出力手段と、
を備えることを特徴とする。
本発明の第3の観点に係る会話検出方法は、
ユーザが偶発的会話に参加することを支援する、会話検出システムが行う会話検出方法であって、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を前記偶発的会話として検出する、会話検出ステップと、
前記ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得ステップと、
前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力ステップと、
前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付ステップと、
前記参加受付ステップで選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御ステップと、
を備えることを特徴とする。
本発明の第4の観点に係る会話検出方法は、
ユーザが偶発的会話に参加することを支援する、会話検出装置が行う会話検出方法であって、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を前記偶発的会話として検出する、会話検出ステップと、
前記ユーザに前記偶発的会話の発生を通知する、会話情報出力ステップと、
を備えることを特徴とする。
本発明の第5の観点に係るプログラムは、コンピュータに、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出ステップと、
ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得ステップと、
前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力ステップと、
前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付ステップと、
前記参加受付ステップで選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御ステップと、
を実行させることを特徴とする。
本発明によれば、テレワーカがオフィスなどの所定の空間で発生する偶発的会話に参加する際の負荷を減らすことが可能となる。
本発明の実施の形態1に係る会話検出システムの構成例を示すブロック図である。 実施の形態1における位置情報の例を示す図である。 実施の形態1における会話発生情報の例を示す図である。 実施の形態1に係る情報出力部における表示例を示す図である。 実施の形態1に係る会話検出システムの会話検出・移動制御の動作の一例を示すフローチャートである。 本発明の実施の形態2に係る会話検出システムの構成例を示すブロック図である。 実施の形態2における嗜好情報の例を示す図である。 実施の形態2に係る会話検出システムの会話検出・移動制御の動作の一例を示すフローチャートである。 本発明の実施の形態3に係る会話検出システムの会話検出・移動制御の動作の一例を示すフローチャートである。 本発明の実施の形態に係る会話検出装置、ロボット、およびユーザ端末の物理的構成例を示すブロック図である。
以下、本発明の実施の形態について図面を参照して詳細に説明する。なお図中、同一または同等の部分には同一の符号を付す。
(実施の形態1)
図1は、本発明の実施の形態1に係る会話検出システムの構成例を示すブロック図である。会話検出システム1は、位置発信機10、会話検出装置20、ロボット30、およびユーザ端末40から構成される。位置発信機10、会話検出装置20、ロボット30、およびユーザ端末40が協働することにより、会話検出対象空間で発生した偶発的会話を検出し、ユーザに偶発的会話の発生を通知し、ユーザが偶発的会話に参加することが可能となる。位置発信機10、会話検出装置20、ロボット30、およびユーザ端末40の間の通信は、例えば、Bluetooth(登録商標)、赤外線通信、微弱無線、無線LAN、USB(Universal Serial Bus)などにより行うことができる。会話検出システム1の各部について、以下に説明する。
位置発信機10は、移動物体に備えられる。移動物体とは、人や移動機械を意味する。例えば、オフィスなどの会話検出対象空間に存在する人が位置発信機10を保持し、会話検出対象空間に存在する移動機械であるロボット30に位置発信機10が備えられる。なお位置発信機10は、会話検出対象空間に存在するロボット以外の移動機械や動物に備えつけてもよい。ユーザ端末40は、会話検出対象空間の外部に存在するテレワーカを含むユーザが、操作する端末である。
位置発信機10は、自身の位置を測定し、位置発信機10の、識別情報、位置、および位置取得時刻を含む、位置情報を発信する。位置情報取得部201は、位置情報を受信する。図2は、実施の形態1における位置情報の例を示す図である。図2の例では、位置発信機10の識別情報として発信機IDが含まれている。また図2の例では、位置発信機10の位置を三次元の座標で表している。この場合には、z成分は位置発信機10が存在するフロアを示す。またその他に位置を特定できる情報で位置を表すよう構成してもよい。位置発信機10は、例えばGPS(Global Positioning System)を用いて、自身の位置を測定する。その他に位置発信機10が自身の位置を測定するのではなく、無線LAN、RFID(Radio Frequency IDentification)、超音波計測、ミリ波レーダ、レーザ光計測、画像解析などを用いて、位置発信機10の位置または会話検出対象空間に存在する移動物体の位置を測定するよう構成してもよい。
図1の会話検出装置20は、位置情報取得部201、環境情報取得部202、会話検出部203、空間情報記憶部206、および会話送信部207から構成される。なお環境情報取得部202は必ずしも必要ではない。会話検出装置20が行う会話検出について以下に説明する。位置情報取得部201は位置発信機10から位置情報を受信し、位置情報を会話検出部203に送る。環境情報取得部202は、例えば会話検出対象空間に設けられたビデオカメラやマイクなどを介して会話検出対象空間の映像および/または音声を取得し、会話検出部203に送る。
図1の空間情報記憶部206には、発生位置の名称と、例えば3次元の座標などの位置を特定できる情報との対応付けである、空間情報が記憶されている。また、ロボット30の制御に用いられる、会話検出対象空間の地図情報が格納されている。
会話検出部203は、例えば以下のように、偶発的会話を検出する。会話検出部203は、位置発信機10から送信された位置情報に基づき、複数の移動物体が一定時間以上、所定の距離以内に接近していれば、複数の移動物体が参加している会話として検出する。また、例えば共有スペースなどの所定の空間に複数の移動物体が存在する場合に、複数の移動物体が参加している会話として検出するよう構成してもよい。なお、位置発信機10を備える移動物体を特定するため、位置発信機IDと移動物体の識別情報との対応付けを示す情報が、会話検出部203から参照可能となっている。
会話検出部203は、位置情報に基づき、会話の発生位置を算出する。発生位置は、例えば、三次元の座標のように、位置を特定できる情報で表される。発生位置は、例えば参加者の重心などの所定の基準に基づいて算出される。会話検出部203は、現在時刻が所定の時間帯であり、発生位置が所定の場所である場合には、その会話を偶発的会話として検出する。発生位置が所定の場所であるか否かの判定には、空間情報記憶部206に格納されている空間情報を用いるよう構成してもよい。会話検出部203は、例えば全時間帯における食堂での会話や休憩時間中の共有スペースでの会話を偶発的会話として検出する。
会話検出部203は、時間帯と位置情報に加え、会話検出対象空間の映像および/または音声から取得される会話の参加者の動作や発話音量を含む、会話の状態を表すデータが所定の基準に適合する会話を偶発的会話として検出するよう構成してもよい。会話検出部203は、例えば休憩時間中の共有スペースでの発話音量が所定の値以上の会話を偶発的会話として検出する。
会話検出部203は、検出された偶発的会話の発生位置を含む会話発生情報を生成し、会話送信部207に送る。図3は、実施の形態1における会話発生情報の例を示す図である。図3の例では、会話の状態を表すデータとして、参加者の動作の程度や発話音量の程度が含まれている。
会話送信部207は、送られた会話発生情報および空間情報記憶部206に格納されている地図情報を含む会話詳細情報を生成し、ユーザに対応するロボット30内の会話受信部301に送信する。なお送信先のロボット30を特定するため、ユーザIDとロボット30の識別情報の対応づけを示す情報が会話送信部207から参照可能となっている。
ロボット30は、位置発信機10、会話受信部301、周辺情報取得部302、情報送信部303、動作制御部304、および参加情報受信部305から構成される。ロボット30が行う移動制御について、以下に説明する。会話受信部301は、会話詳細情報を受信し、会話詳細情報に含まれる会話発生情報を情報送信部303に、会話詳細情報を動作制御部304に送る。
周辺情報取得部302は、例えばロボット30に設けられた、またはロボット30の外部に設けられロボット30に接続された、ビデオカメラやマイクなどを介して、ロボット30の周辺の映像および音声を取得し、情報送信部303に送る。情報送信部303は、会話発生情報およびロボット30の周辺の映像および音声をユーザ端末40に送信する。
ロボット30の参加情報受信部305は、ユーザ端末40から参加受付情報を受信し、動作制御部304に送る。動作制御部304は、参加受付情報からユーザが参加する選択をした偶発的会話を認識すると、ロボット30がユーザが参加する選択をした偶発的会話の発生位置に移動するよう制御を行う。
ユーザ端末40は、情報出力部401および参加受付部402から構成される。情報出力部401は、情報送信部303から会話発生情報およびロボット30の周辺の映像および音声を受信する。そして、偶発的会話の発生を通知し、ロボット30の周辺の映像および音声を出力する。参加受付部402は、ユーザから参加する偶発的会話の選択またはいずれの偶発的会話にも参加しないことの選択を受け付ける。そして、参加受付情報を生成し、ロボット30に参加受付情報を送信する。
図4は、実施の形態に係る情報出力部における表示例を示す図である。ロボット30の周辺の映像および音声が周辺情報エリアに、会話発生情報が会話発生情報エリアに出力される。参加受付エリアでは、ユーザから参加する偶発的会話の選択またはいずれの偶発的会話にも参加しないことの選択を受け付ける。
上述の処理の結果、図1のロボット30が偶発的会話の発生位置に移動すると、ユーザはユーザ端末40およびロボット30に備えられた、入出力装置、例えばビデオカメラやマイクを介して偶発的会話に参加することが可能となる。
図5は、実施の形態1に係る会話検出システムの会話検出・移動制御の動作の一例を示すフローチャートである。会話検出装置20は、位置情報を取得し(ステップS110)、会話検出対象の空間の映像および/または音声の取得を行う(ステップS120)。会話検出装置20は、位置情報に基づき、複数の移動物体が参加している会話を検出する(ステップS130)。会話検出装置20は、現在時刻が所定の時間帯であり、発生位置が所定の場所であり、会話の状態を表すデータが所定の基準に適合する会話を、偶発的会話として検出する(ステップS140)。なおステップS120は必ずしも必要ではない。ステップS120を実行しない場合には、ステップS140において、現在時刻が所定の時間帯であり、発生位置が所定の場所である会話を、偶発的会話として検出する。
所定の基準に適合する偶発的会話が検出されなかった場合は(ステップS150:NO)、ステップS110に戻る。検出された場合は(ステップS150:YES)、会話検出装置20は、会話発生情報を生成する(ステップS160)。そして、会話発生情報および地図情報を含む、会話詳細情報を生成し、ロボット30に会話詳細情報を送信する(ステップS170)。会話詳細情報の送信(ステップS170)が完了すると、ステップS110に戻る。会話検出装置20は、上述の処理を繰り返し行う。
ロボット30は、会話検出装置20から会話詳細情報を受信する(ステップS210)。ロボット30は、ロボット30の周辺の映像および音声を取得する(ステップS220)。ロボット30は、会話発生情報およびロボット30の周辺の映像および音声をユーザ端末40に送信する(ステップS230)。
ユーザ端末40は、ロボット30から、会話発生情報およびロボット30の周辺の映像および音声を受信する(ステップS310)。ユーザ端末40は、偶発的会話の発生を通知し、ロボット30の周辺の映像および音声を出力する(ステップS320)。ユーザから参加する偶発的会話の選択またはいずれの偶発的会話にも参加しないことの選択を受け付ける(ステップS330)。そして、参加受付情報を生成し(ステップS340)、参加受付情報をロボット30に送信する(ステップS350)。ユーザ端末40は、上述の処理を繰り返し行う。
ロボット30は、ユーザ端末40から参加受付情報を受信する(ステップS240)。ロボット30は、参加受付情報からユーザがいずれの偶発的会話にも参加しない選択をしたことを認識すると(ステップS250:NO)、ステップS210に戻る。ロボット30は、参加受付情報からユーザが参加する選択をした偶発的会話を認識すると(ステップS250:YES)、選択された偶発的会話の発生位置に移動するよう制御を行う(ステップS260)。発生位置への移動(ステップS260)が完了すると、ステップS210に戻る。ロボット30は、上述の処理を繰り返し行う。
以上説明したとおり、実施の形態1に係る会話検出システム1は、オフィスなどの所定の空間の内部で発生する偶発的会話を検出し、所定の空間の外部に存在するテレワーカを含む、ユーザに偶発的会話の発生を通知する。そのため、ユーザが偶発的会話に参加する際の、負荷を減らすことが可能となる。
(実施の形態2)
図6は、本発明の実施の形態2に係る会話検出システムの構成例を示すブロック図である。実施の形態2に係る会話検出システム1は、実施の形態1に係る会話検出システム1の構成に加え、嗜好抽出部204および嗜好記憶部205を備える。そのため、ユーザの嗜好にあう偶発的会話を検出し、ユーザに通知することが可能となる。実施の形態1と異なる、実施の形態2に係る会話検出システム1の各部について以下に説明する。
会話検出部203は、会話発生情報を嗜好抽出部204に送る。嗜好抽出部204は、嗜好記憶部205に格納されている嗜好情報に基づき、送られた会話発生情報から、所定の基準に適合する偶発的会話を抽出し、抽出された会話発生情報を会話送信部207に送る。図7は、実施の形態2における嗜好情報の例を示す図である。図7の例では、嗜好情報として、ユーザID、偶発的会話の参加者ID、映像、音声、および偶発的会話の発生位置名称が含まれている。その他に、例えば、音声から取得される会話中のキーワードや、参加者の表情や音声から所定の条件に基づいて判断される、参加者の感情などを嗜好情報に含めるよう構成してもよい。また、図7の例では、偶発的会話を特定するための嗜好パターンが4つ記憶されている。図中の空欄は、その嗜好パターンにおいて偶発的会話を特定するための条件の指定が無いことを意味する。
所定の基準としては、例えば図7に示す嗜好情報のいずれかの嗜好パターンについて全ての項目に適合することや、いずれかの嗜好パターンについて嗜好情報の少なくとも1つの項目に適合すること、などがあげられる。なお嗜好抽出部204が、嗜好情報に適合する程度を示す情報を会話発生情報に追加するよう構成してもよい。例えば、いずれかの嗜好パターンについて全項目に適合するものを「A」、全項目は適合しないが少なくとも1つの項目に適合するものを「B」、1項目も適合しないものを「C」として、嗜好情報への適合の程度を示す嗜好合致の項目を会話発生情報に追加してもよい。図7の例のように、発生位置名称を嗜好情報の項目として用いる場合には、図6の嗜好抽出部204は、空間情報記憶部206に格納されている空間情報に基づき、偶発的会話の発生場所が発生位置名称の項目に適合するか否かを判定する。
会話送信部207は、嗜好抽出部204から送られた会話発生情報および地図情報を含む会話詳細情報を生成し、ユーザに対応するロボット30に送信する。ロボット30およびユーザ端末40の動作は、実施の形態1と同様である。
図8は、実施の形態2に係る会話検出システムの会話検出・移動制御の動作の一例を示すフローチャートである。会話検出装置20が行うステップS110〜S160は、実施の形態1と同様である。会話検出装置20は、嗜好情報に基づき、会話発生情報の内、所定の基準に適合する偶発的会話を抽出する(ステップS161)。所定の基準に適合する偶発的会話が抽出されなかった場合は(ステップS162:NO)、ステップS110に戻る。抽出された場合は(ステップS162:YES)、会話発生情報および地図情報を含む、会話詳細情報を生成し、ロボット30に会話詳細情報を送信する(ステップS170)。会話検出装置20は、上述の処理を繰り返し行う。ロボット30およびユーザ端末40の動作は、実施の形態1と同様である。
以上説明したとおり、実施の形態2に係る会話検出システム1は、オフィスなどの所定の空間の内部で発生する偶発的会話を検出し、さらに嗜好情報に基づき、所定の基準に適合する偶発的会話を抽出して、ユーザに通知する。そのため、ユーザが自身の嗜好にあう偶発的会話に参加することが可能となる。
(実施の形態3)
本発明の実施の形態3に係る会話検出システム1の構成は、図6と同様である。実施の形態3に係るロボット30は、実施の形態1、2に係るロボット30と異なる移動制御を行う。実施の形態1、2と異なる、実施の形態3に係るロボット30内の動作制御部304の動作について以下に説明する。
図6の動作制御部304は、会話受信部301から会話詳細情報が送られると、会話詳細情報に含まれる地図情報に基づき、会話詳細情報に含まれる会話発生情報の内、移動先を決めるための所定の基準に適合する1の偶発的会話の発生位置から所定の範囲内に位置するように、ロボット30を移動させる。位置を決めるための所定の基準としては、例えばロボット30の現在の位置から最も近いことなどがあげられる。所定の範囲としては、例えば偶発的会話の参加者がロボット30を視認できる程度に近い範囲などがあげられる。そして、実施の形態1と同様に、参加受付情報からユーザが参加する選択をした偶発的会話を認識すると、ロボット30がユーザが参加する選択をした偶発的会話の発生位置に移動するよう制御を行う。
図9は、本発明の実施の形態3に係る会話検出システムの会話検出・移動制御の動作の一例を示すフローチャートである。会話検出装置20およびユーザ端末40の動作は、実施の形態1、2と同様である。ロボット30は、会話検出装置20から会話詳細情報を受信する(ステップS210)。そして、会話発生情報に含まれる偶発的会話の内、所定の基準に適合する1の偶発的会話の発生位置から所定の範囲内に移動するよう、制御を行う(ステップS211)。ステップS220以降の動作は、実施の形態1と同様である。
以上説明したとおり、実施の形態3に係る会話検出システム1は、オフィスなどの所定の空間の内部で発生する偶発的会話を検出し、さらに嗜好情報に基づき、所定の基準に適合する偶発的会話を抽出する。そして、偶発的会話の内、所定の基準に適合する1の偶発的会話の発生位置から所定の範囲内にロボット30が位置するよう制御を行う。ユーザから参加の選択を受け付ける前に移動を開始するので、ユーザがより速く偶発的会話に参加することが可能となる。
図10は、本発明の実施の形態に係る会話検出装置、ロボットおよびユーザ端末の物理的構成例を示すブロック図である。会話検出装置20、ロボット30およびユーザ端末40は、図10に示すように、制御部51、主記憶部52、外部記憶部53、操作部54、表示部55、入出力部56、および送受信部57を備える。主記憶部52、外部記憶部53、操作部54、表示部55、入出力部56および送受信部57はいずれも内部バス50を介して制御部51に接続されている。
制御部51はCPU(Central Processing Unit)などから構成され、外部記憶部53に記憶されている制御プログラム58に従って、会話検出装置20、ロボット30およびユーザ端末40が行う会話検出、移動制御、などを実行する。
主記憶部52はRAM(Random-Access Memory)などから構成され、外部記憶部53に記憶されている制御プログラム58をロードし、制御部51の作業領域として用いられる。
外部記憶部53は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)などの不揮発性メモリから構成され、上述の処理を制御部51に行わせるための制御プログラム58を予め記憶し、また、制御部51の指示に従って、この制御プログラム58が記憶するデータを制御部51に供給し、制御部51から供給されたデータを記憶する。
操作部54はキーボードおよびマウスまたはタッチパネルなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス50に接続するインタフェース装置から構成されている。操作部54を介して、参加する偶発的会話の選択などを受け付ける。
表示部55は、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)もしくは有機ELディスプレイ、およびスピーカなどから構成され、例えば、偶発的会話の発生の通知や周辺情報の出力などを行う。
入出力部56は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部56に、例えば、ビデオカメラやマイクなどが接続され、会話検出対象の空間の映像および/または音声、ロボット30の周辺の映像および音声などを取得する。
送受信部57は、無線送受信機、無線モデムまたは網終端装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部57を介して、ネットワークに接続し、会話検出装置20、ロボット30およびユーザ端末40の相互の通信を行う。また、会話検出装置20は、送受信部57を介して、位置発信機10から位置情報を取得する。
会話検出装置20、ロボット30およびユーザ端末40の処理は、制御プログラム58が、制御部51、主記憶部52、外部記憶部53、操作部54、表示部55、入出力部56、送受信部57などを資源として用いて処理することによって実行する。
その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
制御部51、主記憶部52、外部記憶部53、内部バス50などから構成される制御処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する会話検出装置20、ロボット30およびユーザ端末40を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで会話検出装置20、ロボット30およびユーザ端末40を構成してもよい。
また、会話検出装置20、ロボット30およびユーザ端末40の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得手段と、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出手段と、
ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得手段と、
前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力手段と、
前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付手段と、
前記参加受付手段で選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御手段と、
を備えることを特徴とする会話検出システム。
(付記2)
前記会話検出対象の空間の映像および/または音声を取得する、環境情報取得手段をさらに備え、
前記会話検出手段は、前記位置情報に加えて前記会話検出対象の空間の映像および/または音声から取得される、前記移動物体の動作および/または発話音量を含む、前記会話の状態を表すデータが所定の基準に適合する場合に、前記会話を偶発的会話として検出する、
ことを特徴とする付記1に記載の会話検出システム。
(付記3)
前記ユーザの嗜好情報を記憶する、嗜好記憶手段と、
前記嗜好情報に基づき、前記会話検出手段で検出された前記偶発的会話の内、所定の基準に適合する前記偶発的会話を抽出する、会話抽出手段とをさらに備え、
前記会話情報出力手段は、前記ユーザに前記会話抽出手段で抽出された前記偶発的会話の発生を通知する、
ことを特徴とする付記1または2に記載の会話検出システム。
(付記4)
前記制御手段は、前記会話検出手段で検出した前記偶発的会話または前記会話抽出手段で抽出した前記偶発的会話の内、移動先を決めるための所定の基準に適合する1の前記偶発的会話の発生位置から所定の範囲内に位置するように、前記ユーザに対応づけられた移動機械を移動させ、前記参加受付手段で前記偶発的会話の選択を受け付けると、選択された前記偶発的会話の発生位置に前記ユーザに対応づけられた移動機械を移動させる、
ことを特徴とする付記1ないし3のいずれかに記載の会話検出システム。
(付記5)
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得手段と、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出手段と、
ユーザに前記偶発的会話の発生を通知する、会話情報出力手段と、
を備えることを特徴とする会話検出装置。
(付記6)
前記会話検出対象の空間の映像および/または音声を取得する、環境情報取得手段をさらに備え、
前記会話検出手段は、前記位置情報に加えて前記会話検出対象の空間の映像および/または音声から取得される、前記移動物体の動作および/または発話音量を含む、前記会話の状態を表すデータが所定の基準に適合する場合に、前記会話を偶発的会話として検出する、
ことを特徴とする付記5に記載の会話検出装置。
(付記7)
前記ユーザの嗜好情報を記憶する、嗜好記憶手段と、
前記嗜好情報に基づき、前記会話検出手段で検出された前記偶発的会話の内、所定の基準に適合する前記偶発的会話を抽出する、会話抽出手段とをさらに備え、
前記会話情報出力手段は、前記ユーザに前記会話抽出手段で抽出された前記偶発的会話の発生を通知する、
ことを特徴とする付記5または6に記載の会話検出装置。
(付記8)
ユーザが偶発的会話に参加することを支援する、会話検出システムが行う会話検出方法であって、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を前記偶発的会話として検出する、会話検出ステップと、
前記ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得ステップと、
前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力ステップと、
前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付ステップと、
前記参加受付ステップで選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御ステップと、
を備えることを特徴とする会話検出方法。
(付記9)
前記会話検出対象の空間の映像および/または音声を取得する、環境情報取得ステップをさらに備え、
前記会話検出ステップにおいて、前記位置情報に加えて前記会話検出対象の空間の映像および/または音声から取得される、前記移動物体の動作および/または発話音量を含む、前記会話の状態を表すデータが所定の基準に適合する場合に、前記会話を偶発的会話として検出する、
ことを特徴とする付記8に記載の会話検出方法。
(付記10)
前記ユーザの嗜好情報を取得する、嗜好取得ステップと、
前記嗜好情報に基づき、前記会話検出ステップで検出された前記偶発的会話の内、所定の基準に適合する前記偶発的会話を抽出する、会話抽出ステップとをさらに備え、
前記会話情報出力ステップにおいて、前記ユーザに前記会話抽出ステップで抽出された前記偶発的会話の発生を通知する、
ことを特徴とする付記8または9に記載の会話検出方法。
(付記11)
前記制御ステップにおいて、前記会話検出ステップで検出した前記偶発的会話または前記会話抽出ステップで抽出した前記偶発的会話の内、移動先を決めるための所定の基準に適合する1の前記偶発的会話の発生位置から所定の範囲内に位置するように、前記ユーザに対応づけられた移動機械を移動させ、前記参加受付ステップで前記偶発的会話の選択を受け付けると、選択された前記偶発的会話の発生位置に前記ユーザに対応づけられた移動機械を移動させる、
ことを特徴とする付記8ないし10のいずれかに記載の会話検出方法。
(付記12)
ユーザが偶発的会話に参加することを支援する、会話検出装置が行う会話検出方法であって、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を前記偶発的会話として検出する、会話検出ステップと、
前記ユーザに前記偶発的会話の発生を通知する、会話情報出力ステップと、
を備えることを特徴とする会話検出方法。
(付記13)
前記会話検出対象の空間の映像および/または音声を取得する、環境情報取得ステップをさらに備え、
前記会話検出ステップにおいて、前記位置情報に加えて前記会話検出対象の空間の映像および/または音声から取得される、前記移動物体の動作および/または発話音量を含む、前記会話の状態を表すデータが所定の基準に適合する場合に、前記会話を偶発的会話として検出する、
ことを特徴とする付記12に記載の会話検出方法。
(付記14)
前記ユーザの嗜好情報を取得する、嗜好取得ステップと、
前記嗜好情報に基づき、前記会話検出ステップで検出された前記偶発的会話の内、所定の基準に適合する前記偶発的会話を抽出する、会話抽出ステップとをさらに備え、
前記会話情報出力ステップにおいて、前記ユーザに前記会話抽出ステップで抽出された前記偶発的会話の発生を通知する、
ことを特徴とする付記12または13に記載の会話検出方法。
(付記15)
コンピュータに、
会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出ステップと、
ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得ステップと、
前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力ステップと、
前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付ステップと、
前記参加受付ステップで選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御ステップと、
を実行させることを特徴とするプログラム。
1 会話検出システム
10 位置発信機
20 会話検出装置
30 ロボット
40 ユーザ端末
50 内部バス
51 制御部
52 主記憶部
53 外部記憶部
54 操作部
55 表示部
56 入出力部
57 送受信部
58 制御プログラム
201 位置情報取得部
202 環境情報取得部
203 会話検出部
204 嗜好抽出部
205 嗜好記憶部
206 空間情報記憶部
207 会話送信部
301 会話受信部
302 周辺情報取得部
303 情報送信部
304 動作制御部
305 参加情報受信部
401 情報出力部
402 参加受付部

Claims (10)

  1. 会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得手段と、
    前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出手段と、
    ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得手段と、
    前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力手段と、
    前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付手段と、
    前記参加受付手段で選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御手段と、
    を備えることを特徴とする会話検出システム。
  2. 前記会話検出対象の空間の映像および/または音声を取得する、環境情報取得手段をさらに備え、
    前記会話検出手段は、前記位置情報に加えて前記会話検出対象の空間の映像および/または音声から取得される、前記移動物体の動作および/または発話音量を含む、前記会話の状態を表すデータが所定の基準に適合する場合に、前記会話を偶発的会話として検出する、
    ことを特徴とする請求項1に記載の会話検出システム。
  3. 前記ユーザの嗜好情報を記憶する、嗜好記憶手段と、
    前記嗜好情報に基づき、前記会話検出手段で検出された前記偶発的会話の内、所定の基準に適合する前記偶発的会話を抽出する、会話抽出手段とをさらに備え、
    前記会話情報出力手段は、前記ユーザに前記会話抽出手段で抽出された前記偶発的会話の発生を通知する、
    ことを特徴とする請求項1または2に記載の会話検出システム。
  4. 前記制御手段は、前記会話検出手段で検出した前記偶発的会話または前記会話抽出手段で抽出した前記偶発的会話の内、移動先を決めるための所定の基準に適合する1の前記偶発的会話の発生位置から所定の範囲内に位置するように、前記ユーザに対応づけられた移動機械を移動させ、前記参加受付手段で前記偶発的会話の選択を受け付けると、選択された前記偶発的会話の発生位置に前記ユーザに対応づけられた移動機械を移動させる、
    ことを特徴とする請求項1ないし3のいずれか1項に記載の会話検出システム。
  5. 会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得手段と、
    前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出手段と、
    ユーザに前記偶発的会話の発生を通知する、会話情報出力手段と、
    を備えることを特徴とする会話検出装置。
  6. 前記会話検出対象の空間の映像および/または音声を取得する、環境情報取得手段をさらに備え、
    前記会話検出手段は、前記位置情報に加えて前記会話検出対象の空間の映像および/または音声から取得される、前記移動物体の動作および/または発話音量を含む、前記会話の状態を表すデータが所定の基準に適合する場合に、前記会話を偶発的会話として検出する、
    ことを特徴とする請求項5に記載の会話検出装置。
  7. 前記ユーザの嗜好情報を記憶する、嗜好記憶手段と、
    前記嗜好情報に基づき、前記会話検出手段で検出された前記偶発的会話の内、所定の基準に適合する前記偶発的会話を抽出する、会話抽出手段とをさらに備え、
    前記会話情報出力手段は、前記ユーザに前記会話抽出手段で抽出された前記偶発的会話の発生を通知する、
    ことを特徴とする請求項5または6に記載の会話検出装置。
  8. ユーザが偶発的会話に参加することを支援する、会話検出システムが行う会話検出方法であって、
    会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
    前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を前記偶発的会話として検出する、会話検出ステップと、
    前記ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得ステップと、
    前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力ステップと、
    前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付ステップと、
    前記参加受付ステップで選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御ステップと、
    を備えることを特徴とする会話検出方法。
  9. ユーザが偶発的会話に参加することを支援する、会話検出装置が行う会話検出方法であって、
    会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
    前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を前記偶発的会話として検出する、会話検出ステップと、
    前記ユーザに前記偶発的会話の発生を通知する、会話情報出力ステップと、
    を備えることを特徴とする会話検出方法。
  10. コンピュータに、
    会話検出対象の空間に存在する人を含む移動物体の位置および識別情報を含む、位置情報を取得する、位置情報取得ステップと、
    前記位置情報に基づき、複数の前記移動物体が参加している会話を検出し、現在時刻が所定の時間帯に該当し、前記会話に参加している前記移動物体の直近の位置が所定の場所にある場合に、前記会話を偶発的会話として検出する、会話検出ステップと、
    ユーザに対応づけられた移動機械の周辺の映像および音声を取得する、周辺情報取得ステップと、
    前記ユーザに前記偶発的会話の発生を通知し、前記移動機械の周辺の映像および音声を出力する、会話情報出力ステップと、
    前記ユーザから前記偶発的会話の内、参加する前記偶発的会話の選択を受け付ける、参加受付ステップと、
    前記参加受付ステップで選択された前記偶発的会話の発生位置に、前記ユーザに対応づけられた移動機械を移動させる、制御ステップと、
    を実行させることを特徴とするプログラム。
JP2011194262A 2011-09-06 2011-09-06 会話検出システム、会話検出装置、会話検出方法およびプログラム Withdrawn JP2013054698A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011194262A JP2013054698A (ja) 2011-09-06 2011-09-06 会話検出システム、会話検出装置、会話検出方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011194262A JP2013054698A (ja) 2011-09-06 2011-09-06 会話検出システム、会話検出装置、会話検出方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2013054698A true JP2013054698A (ja) 2013-03-21

Family

ID=48131598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011194262A Withdrawn JP2013054698A (ja) 2011-09-06 2011-09-06 会話検出システム、会話検出装置、会話検出方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2013054698A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077599A (ja) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 情報処理装置
JP2020053917A (ja) * 2018-09-28 2020-04-02 沖電気工業株式会社 情報処理システム、情報処理装置、及びプログラム
CN112288026A (zh) * 2020-11-04 2021-01-29 南京理工大学 一种基于类激活图的红外弱小目标检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018077599A (ja) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 情報処理装置
JP2020053917A (ja) * 2018-09-28 2020-04-02 沖電気工業株式会社 情報処理システム、情報処理装置、及びプログラム
JP7192361B2 (ja) 2018-09-28 2022-12-20 沖電気工業株式会社 情報処理システム、情報処理装置、及びプログラム
CN112288026A (zh) * 2020-11-04 2021-01-29 南京理工大学 一种基于类激活图的红外弱小目标检测方法

Similar Documents

Publication Publication Date Title
US11004451B2 (en) System for processing sound data and method of controlling system
US11443744B2 (en) Electronic device and voice recognition control method of electronic device
KR102426704B1 (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
US11646022B2 (en) Electronic device for chatting with chatbot and operation method thereof
WO2019042244A1 (zh) 图像描述生成方法、模型训练方法、设备和存储介质
EP2705444B1 (en) Cross-language communication between proximate mobile devices
JP2020505626A (ja) 近くのコンピューティングデバイスのバーチャルアシスタントの識別
WO2017041664A1 (zh) 一种征信评分确定方法、装置及存储介质
EP3614628B1 (en) Electronic apparatus and control method thereof
US20200051560A1 (en) System for processing user voice utterance and method for operating same
JP6719072B2 (ja) 接客装置、接客方法及び接客システム
JP2018054866A (ja) 音声対話装置および音声対話方法
KR102472010B1 (ko) 전자 장치 및 전자 장치의 기능 실행 방법
US20210151052A1 (en) System for processing user utterance and control method thereof
JP6040745B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンテンツ提供システム
US20200135205A1 (en) Input method, device, apparatus, and storage medium
US20210295835A1 (en) Method for controlling external device based on voice and electronic device thereof
JP2013054698A (ja) 会話検出システム、会話検出装置、会話検出方法およびプログラム
CN110399474B (zh) 一种智能对话方法、装置、设备及存储介质
JP6359935B2 (ja) 対話装置および対話方法
KR20200101221A (ko) 사용자 입력 처리 방법 및 이를 지원하는 전자 장치
JP2015132878A (ja) 情報処理装置、情報処理方法およびプログラム
US11145290B2 (en) System including electronic device of processing user's speech and method of controlling speech recognition on electronic device
CN110597973B (zh) 一种人机对话的方法、装置、终端设备和可读存储介质
JP2017211430A (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202