JP7202836B2 - コミュニケーションシステム - Google Patents

コミュニケーションシステム Download PDF

Info

Publication number
JP7202836B2
JP7202836B2 JP2018193087A JP2018193087A JP7202836B2 JP 7202836 B2 JP7202836 B2 JP 7202836B2 JP 2018193087 A JP2018193087 A JP 2018193087A JP 2018193087 A JP2018193087 A JP 2018193087A JP 7202836 B2 JP7202836 B2 JP 7202836B2
Authority
JP
Japan
Prior art keywords
user
communication
car navigation
interactive
interactive terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018193087A
Other languages
English (en)
Other versions
JP2020061050A (ja
JP2020061050A5 (ja
Inventor
建太 築地新
桂史 笹尾
洋樹 中野
浩嗣 大窪
崇 中西
良祐 岡井
有人 塚田
吉隆 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Global Life Solutions Inc
Original Assignee
Hitachi Global Life Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Global Life Solutions Inc filed Critical Hitachi Global Life Solutions Inc
Priority to JP2018193087A priority Critical patent/JP7202836B2/ja
Priority to PCT/JP2019/033440 priority patent/WO2020075403A1/ja
Publication of JP2020061050A publication Critical patent/JP2020061050A/ja
Publication of JP2020061050A5 publication Critical patent/JP2020061050A5/ja
Application granted granted Critical
Publication of JP7202836B2 publication Critical patent/JP7202836B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Information Transfer Between Computers (AREA)
  • Navigation (AREA)

Description

本発明は、コミュニケーションシステムに関する。
本技術分野の背景技術として、以下の先行技術がある。特許文献1(特開2018-152810号公報)には、主に宅内において利用者の近くに設置されており、主に音声によって利用者とコミュニケーションをする、コミュニケーションロボットが開示されている。
特開2018-152810号公報
しかし、特許文献1に記載された技術では、宅内においてのコミュニケーションを想定しているため、利用者が宅外や宅内であってもコミュニケーションロボットと離れた場所に移動した場合、コミュニケーションロボットとコミュニケーションすることができない。
本発明は、利用者が宅外や宅内であってもコミュニケーションロボットと離れた場所に移動した場合でも、コミュニケーションロボットとコミュニケーションを行うことができることを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである
利用者と少なくとも映像を通じてコミュニケーションを行うコミュニケーション装置を備えたコミュニケーションシステムにおいて、
第1利用者と前記コミュニケーション装置とがコミュニケーションを実施している際に、前記第1利用者の存在を認識できなくなった場合に、前記第1利用者が所有している表示装置付きの第1携帯端末に対して、前記第1利用者とコミュニケーションを行うことを指示し、前記第1利用者と前記コミュニケーション装置とのコミュニケーションを停止し、
前記第1利用者とは異なる第2利用者が、停止中の前記コミュニケーション装置に対して起動命令を行った場合、前記第1携帯端末に対して、対話モード停止を指示し、
前記第1携帯端末から対話モード停止が了承された場合、前記第1利用者と前記第1携帯端末とのコミュニケーションを停止するとともに、前記第2利用者と前記コミュニケーション装置とのコミュニケーションを許可し、
前記第1携帯端末から対話モード停止が了承されない場合、前記第1利用者と前記第1携帯端末とのコミュニケーションを継続させるとともに、前記第2利用者と前記コミュニケーション装置とのコミュニケーションを不許可とすることを特徴とする。
本発明の一態様によれば、利用者が宅外や宅内であってもコミュニケーションロボットと離れた場所に移動した場合でも、コミュニケーションロボットとコミュニケーションを行うことができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
本発明の一実施例であるコミュニケーションシステムの構成図である。 対話端末の使用状態を示す図である。 消灯状態の対話端末の外観を示す正面図である。 点灯状態の対話端末の外観を示す正面図である。 表示状態の対話端末の外観を示す正面図である。 対話端末の表情の例を示す図である。 対話端末の構成を示すブロック図である。 利用者情報制御・管理装置の構成を示す図である。 ロボット情報の一例を示す図である。 スマートフォンの使用状態を示す図である。 カーナビゲーションの使用状態を示す図である。 本発明の一実施例である対話端末のコミュニケーション処理を示すフローチャート図である。 本発明の一実施例である利用者が所有するスマートフォンのコミュニケーション処理に関するフローチャート図である。 本発明の一実施例である利用者が保有するカーナビゲーションにおけるコミュニケーション処理を示すフローチャート図である。 本発明の一実施例である対話端末のコミュニケーション処理を示すフローチャート図である。 本発明の一実施例である利用者が所有するスマートフォンのコミュニケーション処理に関するフローチャート図である。 本発明の一実施例である利用者が保有するカーナビゲーションにおけるコミュニケーション処理を示すフローチャート図である。
以下、図面等を用いて、本発明の実施例について説明する。以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではない。本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能であり、下記の実施例の構成を適宜組み合わせることも当初から予定している。また、本発明を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。
図1は、本発明の一実施例であるコミュニケーションシステムの構成を示す図である。
本実施例のコミュニケーションシステムは、コミュニケーションロボットである対話端末1、その他対話端末50及びリモートブレイン2によって構成される。対話端末1は、対話端末1からの情報に基づいてリモートブレイン2が生成した指示に従って動作し、主に音声によって利用者とコミュニケーションする。対話端末1は、一人の利用者が複数を利用しても、一つを利用してもよい。対話端末1は常に利用者とコミュニケーションできるように、利用者が最も長く使用する居住スペースに配置することが望ましい。このため、利用者が複数の部屋を利用する場合は、部屋毎に対話端末1が設置されるとよい。
そして、この対話端末1は、後述する特定の利用者により予め決められた短文を音声入力すると起動して、この利用者と会話を行う。
対話端末1、その他対話端末50とリモートブレイン2とは、通信回線3を介して接続される。通信回線3は、有線ネットワーク(例えば、イーサネット(登録商標))でも無線ネットワーク(例えば、近距離無線通信や無線LAN)でも、その組み合わせでもよい。その他対話端末50のうち携帯端末であるスマートフォン51およびカーナビゲーション52とリモートブレイン2との通信は無線ネットワークが望ましい。
リモートブレイン2は、対話端末1から周囲の情報(音声、画像など)を収集し、利用者とのコミュニケーションに関する指示を対話端末1に送信する利用者情報制御・管理装置20で構成される。リモートブレイン2は、クラウド上の計算機によって構成されている。利用者情報制御・管理装置20の詳細な構成は、図8を用いて後述する。
その他対話端末50は、例えば後述するこのコミュニケーションシステムに係るアプリケーションをインストールしたスマートフォン51やカーナビゲーション52が含まれる。利用者はスマートフォン51を常に携帯することから、例えば宅外といった対話端末1が設けられていない場所でも、利用者とコミュニケーションすることができる。カーナビゲーション52は利用者が保有する車の中に配置されていることから、利用者が車を運転中または乗車中に、主に音声によって利用者とコミュニケーションすることができる。本実施例ではその他対話端末50としてスマートフォン51やカーナビゲーション52を挙げたがこれに限定されず、例えばテレビといった利用者50とコミュニケーションを取ることが可能な電子機器であればよい。
図2は、対話端末1の使用状態を示す図である。対話端末1は、利用者がよく利用する居室内に設置され、利用者とコミュニケーションする。
図3から図5は、対話端末1の外観を示す図である。図3は、消灯時の対話端末1の正面図である。図4は、点灯時の対話端末1の正面図である。図5は、表示状態の対話端末1の外観を示す正面図である。
対話端末1は、基部12と、基部12の上方に設けられる球体部11とで構成される。なお、対話端末1の外観は一例であり、他の形状(例えば、動物の形状)でもよい。
球体部11は、光を透過する材料(樹脂やガラス)で構成されており、球体部11の内部に設けられた後述する発光装置105を点灯することによって、図3に示す消灯状態から図4に示す点灯状態に切り替えることができる。点灯状態の対話端末1は、ルームライトとして使用できる。基部12内の発光装置105からは上方に光が放射され、球体部11の内面を照射する。
基部12は、後述する制御部101、記憶部102、画像生成部103、通信インターフェース104、発光装置105、入力部106、カメラ107、センサ108、マイクロホン109、出力部110、スピーカ111及び表示装置112を収容する。基部12の正面には、カメラ107が周囲を撮影するための光を導入する穴13が設けられており、穴13には透明の樹脂材料が取り付けられている。なお、穴13からセンサ108が周囲の人を検出してもよく、マイクロホン109が周囲の音を収集してもよい。
また、球体部11の内面には、表示装置112によって画像が投影され、利用者が、投影された画像を対話端末1の外部から視認できる。例えば、図5に示すように、目を模した模様19を球体部11に表示することによって、球体部11を顔に模して表情を作ることができる。対話端末1は、利用者からの呼びかけや利用者への問いかけに伴って、模様19を表示し、表情を作る。この模様19は球体部11上を移動して、また形を変えて表示される。また、模様19として、目の他に口を表示してもよい。
図6は、対話端末1の表情の例を示す図である。
[A]は、対話端末1が、周囲の人を検出した待機モードから、対話端末に呼びかけがあった、または対話端末からの発話をするモードに移行した状態の対話端末1の表情を示す。[A]に示す状態では、目の周りの模様が短時間で様々に(例えば、ランダムに)変化する。その後[F]に示すように、起動音と共に目が表示され、[D]の定常状態となる。[D]定常状態からは、[B]挨拶をする表情、[C]お礼を言う表情、[E]了解の表情、[G]考え中の表情、[H]お願いする表情、[I]眠い表情、[J]対話が終了し、待機モードに移行する無表情などを、利用者や対話端末1の状態に応じて切り替えて表示する。例えば、[G]考え中の表情は、対話端末1が受けた利用者からの問いかけに対して、リモートブレイン2から応答を受けるまでの間に表示される。このように、対話端末1は、目の周りの模様を様々に変化して利用者とコミュニケーションする。
図7は、対話端末1の構成を示すブロック図である。
対話端末1は、制御部101、記憶部102、通信インターフェース104、入力部106、マイクロホン109、出力部110及びスピーカ111を有する。対話端末1は、画像生成部103及び表示装置112を有してもよい。さらに、対話端末1は、発光装置105、カメラ107、センサ108の少なくとも一つを有してもよい。
制御部101は、プログラムを実行するプロセッサによって構成される。記憶部102は、プログラムやデータを格納するメモリによって構成される。メモリは、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、OS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサが実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。メモリに格納されたプログラムをプロセッサが実行することによって、対話端末1が諸機能を発揮する。
画像生成部103は、表示装置112に表示する画像を生成する。すなわち、リモートブレイン2からの指示や各種入力デバイス(カメラ107、センサ108、マイクロホン109等)に入力された周囲の状況に従って、記憶部102に格納された画像パターンから表示装置112に表示する画像を選択する。例えば、対話端末1の球体部11(図5参照)表示される目を模した模様19を選択する。
通信インターフェース104は、所定のプロトコルを用いて、他の装置(例えば、リモートブレイン2を構成する利用者情報制御・管理装置20)やスマートフォン51およびカーナビゲーション52と通信する。
発光装置105は、図4に示すように、対話端末1の上方に設けられる球体部11を光らせるための可視光を放射する光源である。発光装置105は、後述する表示装置112として機能する投影装置(図示せず)の光源と共用してもよいし、表示装置112と別に設けてもよい。
入力部106は、カメラ107、センサ108、マイクロホン109などの入力デバイスからの信号を制御部101に送るインターフェースである。
カメラ107は、対話端末1の周囲の画像を撮影する。カメラ107が撮影する画像は、動画像でも、静止画像(例えば、1秒に1枚)でもよい。カメラ107が撮影した画像は、通信インターフェース104を介してリモートブレイン2に送られ、顔認識技術を用いて利用者を識別するために用いられる。カメラ107は、周囲の画像を撮影するために、半球を撮影できる魚眼カメラでも、2以上のカメラによって全球を撮影できるものでもよい。
センサ108は、対話端末1の周囲に人がいるかを検出する人感センサであり、赤外線や超音波や可視光画像などを用いて人を検知する。対話端末1は、対話端末1の周囲の環境を計測するセンサを有してもよい。例えば、温度、湿度などを測定し、測定結果を制御部101に送る。対話端末1が測定した温度が高温(例えば、35度以上)になった場合、利用者が熱中症になる恐れがあるとして、利用者にエアコンをつけるよう促すようにしてもよい。
マイクロホン109は、周囲の音(例えば、利用者が発した音声)を収集して、電気信号に変換するデバイスである。マイクロホン109は、無指向性でも、指向性を有してもよい。指向性マイクロホンを使用すると、音の到来方向から話者の位置を特定でき、話者の方向に、所定の画像を表示することによって、対話端末1が話者と向き合ってコミュニケーションするように制御できる。なお、利用者が発した音声を分析して利用者が登録された利用者であることを認証する。
出力部110は、スピーカ111、制御部101からの信号を表示装置112など各種出力デバイスに送るインターフェースである。
スピーカ111は、制御部101が発生した電気信号から変換した音(例えば、利用者にかける言葉、アラーム音など)を発生するデバイスである。
表示装置112は、対話端末1の一部(又は全部)の表面に所定の画像を映す装置であり、利用者と、より密なコミュニケーションをとるために使用される。例えば、対話端末1の表面を光透過型(例えば、半透明)の樹脂材料で形成し、対話端末1の内部に投影装置を設ける。そして、投影装置が対話端末1の内表面に画像を投影することによって、利用者が対話端末1の表面に表わされた画像を視認できる。また、対話端末1の表面の一部に液晶表示装置を設け、当該液晶表示装置に所定の画像を表示してもよい。なお、表示装置112は液晶表示装置ではなく、対話端末1の表面に画像を表示できるものであればよい。
例えば、対話端末1の球体部11(図5参照)に目を模した模様19を表示する。また、対話端末1は、利用者が所望する画像を通信回線3を経由して取得し、表示装置112に出力するプロジェクション機能を有してもよい。
図8は、リモートブレイン2を構成する利用者情報制御・管理装置20の構成を示す図である。
利用者情報制御・管理装置20は、制御部201、分析部211、記憶部221及び通信インターフェース231を有し、プロセッサ、メモリ及び記憶装置を有する計算機によって構成される。メモリに格納されたプログラムをプロセッサ(例えば、主制御プログラム、人工知能プログラム、対話プログラム等)が実行することによって、制御部201及び分析部211の機能を発揮する。
メモリは、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサが実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
制御部201は、主制御部202を含む。主制御部202は、利用者情報制御・管理装置20の全体の動作を制御する。例えば、利用者毎のイベントを検出し、外部サービスとのインターフェースを起動する。
分析部211は、人工知能212、対話エンジン213及び行動判定部214を含む。
人工知能212は、入力されたデータを学習し、学習結果に基づいた推論によって結果を導出する。本実施例では、人工知能212は、対話エンジン213の一部を構成し、利用者の発話を分析し、応答を作成する。また、人工知能212は、行動判定部214の一部を構成し、過去と異なる発言や行動を検出したりする。
対話エンジン213は、利用者との対話を制御する。すなわち、対話エンジン213は、利用者の発話を分析し、応答を作成する。対話エンジン213は、複数のレベルの対話パターンを含むとよい。例えば、通常のレベル、利用者が悲しいと感じているレベル、利用者が嬉しいと感じているレベルなどである。
行動判定部214は、利用者の対話や行動、画像を分析し、利用者の行動レベルを判定する。
記憶部221は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置である。記憶部221は、プログラムの実行時にアクセスされるデータを格納する。また、記憶部221は、分析部211が実行するプログラムを格納してもよい。この場合、プログラムは、記憶部221から読み出されて、メモリにロードされて、プロセッサによって実行される。
記憶部221は、利用者毎の対話端末1の情報が記録されるロボット情報保有部222、対話情報保有部223および利用者情報保有部224を含む。ロボット情報保有部222には、図9で後述するロボット情報280が保有されている。対話情報保有部223には、利用者との対話のログが保有されている。利用者情報保有部224は、利用者情報、登録サービス情報及びアイデンティティ情報を含む。利用者情報は、利用者を特定可能な個人情報を記録する。登録サービス情報は、利用者が利用の登録をしているサービスの情報を記録する。アイデンティティ情報は、利用者の個人的な属性を記録する。
通信インターフェース231は、所定のプロトコルに従って、他の装置(例えば、対話端末1)との通信を制御するネットワークインターフェースデバイスである。
利用者情報制御・管理装置20は、入力インターフェース及び出力インターフェースを有してもよい。入力インターフェースには、例えば、キーボードやマウスなどが接続され、オペレータからの入力を受ける。出力インターフェースには、ディスプレイ装置やプリンタなどが接続され、プログラムの実行結果をオペレータが視認可能な形式で出力する。
利用者情報制御・管理装置20のプロセッサが実行するプログラムは、リムーバブルメディア(CD-ROM、フラッシュメモリなど)又はネットワークを介して利用者情報制御・管理装置20に提供され、非一時的記憶媒体である不揮発性の記憶部221に格納される。このため、利用者情報制御・管理装置20は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
利用者情報制御・管理装置20は、複数の物理的計算機資源上に構築されたクラウド上の仮想計算機であり、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムで動作するものでもよい。
図9は、ロボット情報280の一例を示す図である。
ロボット情報280は、利用者毎の対話端末1の情報を記録し、個体ID、利用者ID、利用者名、スマホID、カーナビID、対話履歴、及び分析履歴のデータフィールドを含む。
個体IDは、対話端末1に一意に付与された識別情報である。利用者は、当該対話端末1の利用者である。
利用者IDは、対話端末1を利用する利用者ごとに割り振られたIDである。
スマホIDは、利用者が所有するスマートフォン51といった携帯端末ごとに割り振られたIDである。
カーナビIDは、利用者が所有するカーナビゲーション52ごとに割り振られたIDである。
対話履歴は当該対話端末との対話の履歴であり、最後に会話した日(又は日時)が記録される。対話記録は、対話の時系列の履歴でもよい。対話履歴に対応する対話の詳細データ(会話のログ)は、対話情報保有部223にて保有されており、マイクロホン109が収集した音データや話者の表情を写した動画像データ(音声付き)でもよい。また、音データを解析したテキストデータでもよい。テキストデータから当該会話を特徴付ける単語(例えば、いちご、ストロベリーパイ、バター等)を抽出して、会話の詳細データをタグ付けするとよい。
分析履歴は、当該対話端末1の利用者の状態を分析した日である。
以上が、対話端末1の説明である。このような対話端末1は、利用者がよく使用して長時間過ごす部屋におかれるため、図2に示すようにコミュニケーションを利用者と取ることが可能であるが、利用者が外出する場合、宅内にいるとしても他の部屋に移動した場合、利用者を認識することができなくなるので利用者とコミュニケーションをとることができなくなる。
本実施例では、対話端末1の表情が映像であること、およびコミュニケーションツールが音声であること、さらに利用者の多くはスマートフォンを携帯していることに着目して、利用者が対話端末を離れたことを検出して表情を本利用者が所有するスマートフォンに映すこととした。これにより、利用者は、コミュニケーションロボットが寄り添ってくれていることを実感するのである。
また、特に、利用者が自動車の運転を行う場合、利用者所有のスマートフォンを使用することができない。このような場合、利用者とのコミュニケーションをスマートフォンからカーナビゲーションに取らせるようにする。表情はスマートフォンからカーナビゲーションに移動し、カーナビゲーションのディスプレイに表情が映し出される。これにより、利用者は、コミュニケーションロボットが利用者に寄り添ってくれていると感じることができる。
図10は、利用者が所有するスマートフォン51の使用状態を示す図である。利用者はスマートフォン51を常に携帯することから、例えば宅外であっても利用者とコミュニケーション可能である。なお、スマートフォン51に表情が映し出されている(スマートフォン51が利用者とコミュニケーションを行う権利がある状態)では、対話端末1は消灯され、表情は映し出されない。この機能によって、1台のコミュニケーションロボットが利用者に寄り添ってついてくる感を演出することができる。
図11は、カーナビゲーション52の使用状態を示す図である。カーナビゲーション52は利用者が保有する車の中に配置されていることから、利用者が車を運転中または乗車中に、主に音声によって利用者とコミュニケーションすることが可能である。最近のカーナビゲーション52は、利用者のスマートフォンを検出する機能が充実しており、スマートフォンが検出されると利用者とコミュニケーションを行う権利をスマートフォンからカーナビゲーションに移行させることで、より寄り添い感を演出することができる。
利用者がスマートフォン51やカーナビゲーション52を用いてコミュニケーションシステムとコミュニケーションをする場合は、図6に示す模様19と同様の模様が、スマートフォン51やカーナビゲーション52の画面に映すこととする。これにより、利用者は対話端末1と会話する場合と同様に、愛着を持ってスマートフォン51やカーナビゲーション52を介してコミュニケーションシステムとコミュニケーションできる。
なお、詳しくは後述するが、利用者が対話端末1とコミュニケーションを取っていた直後に対話端末1ではなくスマートフォン51とコミュニケーションを取る場合は、切替直後のスマートフォン51の画面に映る模様19は[D]定常状態が考えられる。利用者はリモートブレイン2を介して対話端末1とコミュニケーションすることから、利用者が発話してから対話端末1が回答するまで時間差がある。この時間差の間にコミュニケーションを取る相手を対話端末1からスマートフォン51に切り替えた場合に、スマートフォンに[A]や[F]を映すと、利用者とコミュニケーションシステムの円滑なコミュニケーションが阻害されてしまう。よって、スマートフォン51に切り替えた場合に最初にスマートフォン51に映る模様19として[D]定常状態が考えられる。また、[D]ではなく、直前まで対話端末1に映っていた模様19でも良い。この場合、対話端末1とのコミュニケーションが模様19を含めてスマートフォン51に引き継がれることから、利用者とコミュニケーションシステムの円滑なコミュニケーションが可能となる。これは、スマートフォン51とコミュニケーションを取っていた直後にカーナビゲーション52とコミュニケーションを取る場合も、同様である。
なお、図7は対話装置1のブロック図として説明したが、スマートフォン51やカーナビゲーション52のブロック図も図7と同様である。スマートフォン51における表示装置112はスマートフォン51のディスプレイ、カーナビゲーション52における表示装置112はカーナビゲーション52のディスプレイが該当する。また、カーナビゲーション52におけるカメラ107は、カーナビゲーション52自身が備えるカメラや、後付でカーナビゲーション52に備えられたカメラが該当する。
図1に戻って、その他対話端末50であるスマートフォン51やカーナビゲーション52には、予めリモートブレイン2と通信を行ってリモートブレイン2から送られてくる指示に従って、表情や音声によって利用者とコミュニケーションを行うことを可能とするアプリケーションがインストールされている。そして、リモートブレイン2と通信を行いながら利用者とコミュニケーションをとることができるのは、対話端末1、スマートフォン51、カーナビゲーション52のうちいずれか一つである。
図12は、本発明の一実施例である対話端末1のコミュニケーション処理を示すフローチャート図である。
<S100>対話端末1の初期状態は、図3に示す消灯状態である。
<S101>対話端末1に対して利用者が対話モードの起動命令を出したか否かを判断する。具体的には、利用者が対話端末に例えば「ロボットさん起きて」と声を掛けると、その声を対話端末1のマイクロホン109が拾い、入力部106を介して制御部101に送られる。そして、その声の情報は通信回線3を介してリモートブレイン2に送られ、リモートブレイン2の分析部211によって対話端末1の起動命令であると分析される。また、対話装置1が備えるカメラ107の視野に利用者が入ったことを自動的に認識することで、対話端末1の起動命令であると分析しても良い。
<S102>起動命令でないと判断された場合は、対話端末1は消灯状態を保持する。
<S103>起動命令であると判断された場合は、リモートブレイン2からスマートフォン51、カーナビゲーション52、起動命令を受け取っていない他の対話端末に対して、後述する対話モードの停止の指令が送られる。そして、図13及び図14で示すように、スマートフォン51、カーナビゲーション52、起動命令を受け取っていない他の対話端末50は対話モードを停止する。
<S104>リモートブレイン2から対話端末1に対して、図3の消灯状態から図5の状態に移行するように指示が出され、対話端末1は点灯されて表情である模様19が映る。なお、対話端末1が図5の状態に移行する場合の模様19は、図6で説明した通りである。
<S105>利用者は対話端末1とコミュニケーションをする。リモートブレイン2と通信を行うことで対話端末1は利用者とコミュニケーションを行う。対話装置1の表情の変化である模様19の変化は、図6で説明した通りである。前述したとおり、このリモートブレイン2と通信を行いながら利用者とコミュニケーションを行うことができるのは、対話端末1、スマートフォン51、カーナビゲーション52のうちいずれか一つである。本ステップの場合、対話端末1がその権限(対話モード)を有している。
<S106>対話端末1が利用者の存在を認識出来るか否かを判断する。具体的には、対話端末1に備えられているカメラ107の視界から利用者が居なくなった場合、マイクロホン109に利用者の声が入力されなくなった場合、または前述の状態から所定の時間を経過したか等に基づいて判断する。
<S107>S106にてYesと判断された場合、引き続き利用者とコミュニケーションを継続可能な状態を維持する。
<S108>S106にてNoと判断された場合、リモートブレイン2からスマートフォン51に対して、対話モードに移行するように指示を送る。これにより、利用者が対話端末1とコミュニケーション不可な位置に移動した場合であっても、利用者はスマートフォン51と引き続きコミュニケーション可能であり、利用者に寄り添ったコミュニケーションシステムが実現される。そして、対話端末1は図3の消灯状態に移行する。つまり、対話端末1は対話モードを停止する。
図13は、本発明の一実施例である利用者が所有するスマートフォン51のコミュニケーション処理に関するフローチャート図である。
<S200>S108により対話モードに移行するように命令が送られてきたか否かを判断する。
<S201>S200にてNoと判断された場合、対話モード移行受付状態を維持する。
<S202>S200にてYesと判断された場合、スマートフォン51の表示装置112に、コミュニケーションシステムの初期表情を画面に映す。具体的には、対話端末1に表示される模様19と同様の模様が、スマートフォン51の表示装置112に表示される。
<S203>利用者はスマートフォン51とコミュニケーションをする。スマートフォン51に映し出される表情の変化である模様19の変化は、図6を用いて説明した通りである。このステップにおいては、スマートフォン51が対話モードとなる権限を有している。
<S204>S103にて対話モードの停止の命令が送られてきたか否かを判断する。
<S205>S204にてNoと判断された場合、引き続き利用者とコミュニケーションを継続可能な状態を維持する。
<S206>S204にてYesと判断された場合、スマートフォン51は対話モードを停止する。
S206にて対話モードが停止された場合は、S104に示す通り利用者は対話端末1とコミュニケーション可能である。
図14は、本発明の一実施例である利用者が保有するカーナビゲーション52におけるコミュニケーション処理を示すフローチャート図である。
<S300>利用者のスマートフォン51とカーナビゲーション52との間で通信が開始されたか否かを判断する。この通信の開始は、スマートフォン52を携帯した利用者がこのカーナビゲーションが搭載された自動車に利用者が乗車したかどうかを判断することに利用している。
<S301>S300にてNoと判断された場合、対話モード移行受付状態を維持する。
<S302>S300にてYesと判断された場合、利用者のスマートフォン51に対して、対話モードの停止の指示を送信する。この実施例ではこの指示を近距離無線通信を使用して行っているが、図1に示された通信回線3を介して行ってもよい。
<S303>カーナビゲーション52の表示装置112に、模様19の初期表情が映し出される。この表情は、図6を用いて説明した通りである。
<S304>利用者はカーナビゲーション52とコミュニケーションをする。カーナビゲーション52に映し出される表情の変化である模様19の変化は、図6を用いて説明した通りである。このステップでは、カーナビゲーションに対話モードの権限がある。
<S305>利用者のスマホとの近距離無線通信等による通信が切断されたか否かを判断する。具体的には、利用者が運転手の場合、イグニッションキーを切って自動車の動力源を切り、自動車から降りた場合(カーナビゲーションはバッテリと常時接続されている必要がある)である。利用者が運転手ではない場合、利用者がその自動車から降りた場合である。
<S306>S305にてNoと判断された場合、引き続き利用者とコミュニケーションを継続可能な状態を維持する。
<S307>S305にてNoと判断された場合、カーナビゲーション52の対話モードを停止する。
<S308>利用者のスマートフォン51に対して、対話モードの起動を指示する。
上記フローチャートにより、利用者とのコミュニケーションをスマートフォン51からカーナビゲーション52に取らせることができる。表情(模様19)はスマートフォン51からカーナビゲーション52に移動し、カーナビゲーション52のディスプレイに表情が映し出される。これにより、利用者は、コミュニケーションロボットが利用者に寄り添ってくれていると感じることができる。また、利用者が車から降りた場合は、利用者とのコミュニケーションをカーナビゲーション52からスマートフォン51に取らせることができる。そして、模様19はカーナビゲーション52からスマートフォン51に移動し、スマートフォン51の画面に表情が映し出される。
図15は、本発明の一実施例である対話端末1のコミュニケーション処理を示すフローチャート図である。図15~17を用いて説明する一実施例では、対話端末1を2名以上の利用者が共有しており、1名の利用者(以下、利用者A)が宅外においてスマートフォン51やカーナビゲーション52を用いてコミュニケーションシステムとコミュニケーションを取っている場合に、宅内にいる別の利用者(以下、利用者B)が対話端末1の起動命令を行った場合を例として説明する。
<S400>利用者Aのスマートフォン51やカーナビゲーション52から対話モード停止NGの連絡があるか否かを判断する。このフローにより、宅外でスマートフォン51等を利用してコミュニケーションシステムとコミュニケーションを取っている利用者Aのスマートフォン51等の対話モードが強制的に切断されるのを防ぐことができる。なお、対話モード停止NGの連絡がなく一定時間が経過した場合や、対話モード停止OKの連絡が有った場合は、S104に移行する。
<S401>S400にてYesと判断された場合は、対話端末1は消灯状態を保持する。つまり、利用者Aがコミュニケーションシステムとコミュニケーションをしていることから、利用者Bがコミュニケーションシステムとコミュニケーションを開始するのを防ぐことができる。
<S402>S106にてNoと判断された場合、対話端末1自身の対話モードを停止する。これにより、宅内にて利用者が対話端末1が設置されている部屋から別の対話端末1が設置されている部屋へ移動をする際に、対話端末1とのコミュニケーションから自動的にスマートフォン51とのコミュニケーションへ移行し、すぐに別の対話端末1とのコミュニケーションに移行することを防止することができる。よって、宅内におけるコミュニケーションシステムとの円滑なコミュニケーションを実現できる。
なお、宅内に居てスマートフォン51とコミュニケーション中の利用者Aが、スマートフォン51を置いて宅内を移動し、対話端末1の視野に入ることで起動命令がなされた場合は、S400にて利用者Aのスマホから一定時間対話モード停止NGの連絡が無いことによって、自動的にS104に移行し、対話端末1とコミュニケーション可能である。
図16は、本発明の一実施例である利用者が所有するスマートフォンのコミュニケーション処理に関するフローチャート図である。
<S500>スマートフォン51に対して対話モードの起動命令があったか否かを判断する。起動命令としては、例えばスマートフォン51にインストールされているアプリケーションの立ち上げが考えられる。
<S501>S204にてYesと判断された場合、スマートフォン51の利用者Aが、スマートフォン51の対話モード停止を了承するか否かを判断する。これにより、S103における対話モードの停止命令によってスマートフォン51とのコミュニケーションが突然切断されるという事態を防ぐことができる。
<S502>S501にてNoと判断された場合、対話モード停止NGを送信する。
図17は、本発明の一実施例である利用者が保有するカーナビゲーションにおけるコミュニケーション処理を示すフローチャート図である。前述の通り本実施例ではS500でスマートフォン51に対して対話モードの起動命令があったか否かに基づいて対話モードを開始することから、図14のS308は削除している。
<S600>S400と同様のフローである。このフローにより、宅外でスマートフォン51を利用してコミュニケーションシステムとコミュニケーションを取っている利用者Aのスマートフォン51等の対話モードが強制的に切断されるのを防ぐことができる。
<S601>S204とS501を合わせたフローである。利用者Bのスマホまたはロボットから送られる対話モード停止指令を了承するか否かを判断する。これにより、S103における対話モードの停止命令によってカーナビゲーション52とのコミュニケーションが突然切断されるという事態を防ぐことができる。
<S602>S601にてNoと判断された場合、対話モード停止NGを送信する。
図12~17のフローチャートにおける各判断は、リモートブレイン2の制御部201で行っても良いし、対話端末1やスマートフォン51、カーナビゲーション52の制御部101で行っても良い。
フローチャートの順番は疑義が生じない範囲で前後してもよい。また、疑義が生じない範囲で、図12~17のフローチャートを組合せても良い。
対話モードとは、利用者とコミュニケーション可能な状態である。すなわち、コミュニケーションツールの一つであるリモートブレイン2と端末等が接続可能な状態をいう。
端末等を対話モードにするためのアプリは、対話端末1、スマートフォン51及びカーナビゲーション52にインストール済みである。または、リモートブレイン2やネット上のサーバからダウンロード可能である。
1 対話端末、2 リモートブレイン、3 通信回線(ネットワーク)、11 球体部、12 基部、13 穴、19 模様、20 利用者情報制御・管理装置、50 その他対話端末、51 スマートフォン、52 カーナビゲーション、101 制御部、102 記憶部、103 画像生成部、104 通信インターフェース、105 発光装置、106 入力部、107 カメラ、108 センサ、109 マイクロホン、110 出力部、111 スピーカ、112 表示装置、201 制御部、202 主制御部、211 分析部、212 人工知能、213 対話エンジン、214 行動判定部、221 記憶部、222 ロボット情報保有部、223 対話情報保有部、224 利用者情報保有部、231 通信インターフェース、280 ロボット情報

Claims (4)

  1. 利用者と少なくとも映像を通じてコミュニケーションを行うコミュニケーション装置を備えたコミュニケーションシステムにおいて、
    第1利用者と前記コミュニケーション装置とがコミュニケーションを実施している際に、前記第1利用者の存在を認識できなくなった場合に、前記第1利用者が所有している表示装置付きの第1携帯端末に対して、前記第1利用者とコミュニケーションを行うことを指示し、前記第1利用者と前記コミュニケーション装置とのコミュニケーションを停止し、
    前記第1利用者とは異なる第2利用者が、停止中の前記コミュニケーション装置に対して起動命令を行った場合、前記第1携帯端末に対して、対話モード停止を指示し、
    前記第1携帯端末から対話モード停止が了承された場合、前記第1利用者と前記第1携帯端末とのコミュニケーションを停止するとともに、前記第2利用者と前記コミュニケーション装置とのコミュニケーションを許可し、
    前記第1携帯端末から対話モード停止が了承されない場合、前記第1利用者と前記第1携帯端末とのコミュニケーションを継続させるとともに、前記第2利用者と前記コミュニケーション装置とのコミュニケーションを不許可とすることを特徴とするコミュニケーションシステム。
  2. 前記コミュニケーション装置および前記第1携帯端末に表示される模様は、起動命令を受けた時に表示される待機状態の模様、および、その待機状態の模様から時間経過により遷移する定常状態の模様を含めて複数存在し、
    前記第1利用者の存在を認識できなくなった場合に、前記第1携帯端末に対して前記第1利用者とコミュニケーションを行うことを指示する際に、前記定常状態の模様を表示することを特徴とする請求項1に記載のコミュニケーションシステム。
  3. 利用者と少なくとも映像を通じてコミュニケーションを行うコミュニケーション装置を備えたコミュニケーションシステムにおいて、
    第1利用者が、前記第1利用者が所有している表示装置付きの第1携帯端末とコミュニケーションを実施している際に、前記第1携帯端末とカーナビゲーションとが通信可能となった場合に、前記カーナビゲーションに対して、前記第1利用者とコミュニケーションを行うことを指示し、前記第1利用者と前記第1携帯端末とのコミュニケーションを停止し、
    前記第1利用者とは異なる第2利用者が、停止中の前記コミュニケーション装置に対して起動命令を行った場合、前記カーナビゲーションに対して、対話モード停止を指示し、
    前記カーナビゲーションから対話モード停止が了承された場合、前記第1利用者と前記カーナビゲーションとのコミュニケーションを停止するとともに、前記第2利用者と前記コミュニケーション装置とのコミュニケーションを許可し、
    前記カーナビゲーションから対話モード停止が了承されない場合、前記第1利用者と前記カーナビゲーションとのコミュニケーションを継続させるとともに、前記第2利用者と前記コミュニケーション装置とのコミュニケーションを不許可とすることを特徴とするコミュニケーションシステム。
  4. 前記コミュニケーション装置および前記カーナビゲーションに表示される模様は、起動命令を受けた時に表示される待機状態の模様、および、その待機状態の模様から時間経過により遷移する定常状態の模様を含めて複数存在し、
    前記第1携帯端末とカーナビゲーションとが通信可能となった場合に、前記カーナビゲーションに対して、前記第1利用者とコミュニケーションを行うことを指示する際に、前記定常状態の模様を表示することを特徴とする請求項3に記載のコミュニケーションシステム。
JP2018193087A 2018-10-12 2018-10-12 コミュニケーションシステム Active JP7202836B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018193087A JP7202836B2 (ja) 2018-10-12 2018-10-12 コミュニケーションシステム
PCT/JP2019/033440 WO2020075403A1 (ja) 2018-10-12 2019-08-27 コミュニケーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018193087A JP7202836B2 (ja) 2018-10-12 2018-10-12 コミュニケーションシステム

Publications (3)

Publication Number Publication Date
JP2020061050A JP2020061050A (ja) 2020-04-16
JP2020061050A5 JP2020061050A5 (ja) 2022-01-27
JP7202836B2 true JP7202836B2 (ja) 2023-01-12

Family

ID=70164715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193087A Active JP7202836B2 (ja) 2018-10-12 2018-10-12 コミュニケーションシステム

Country Status (2)

Country Link
JP (1) JP7202836B2 (ja)
WO (1) WO2020075403A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154926A (ja) 2004-11-25 2006-06-15 Denso Corp キャラクタ表示を利用した電子機器操作システム及び電子機器

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4622170B2 (ja) * 2001-06-26 2011-02-02 日本精機株式会社 アバータの表示方法
JP6767206B2 (ja) * 2016-08-30 2020-10-14 シャープ株式会社 応答システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006154926A (ja) 2004-11-25 2006-06-15 Denso Corp キャラクタ表示を利用した電子機器操作システム及び電子機器

Also Published As

Publication number Publication date
JP2020061050A (ja) 2020-04-16
WO2020075403A1 (ja) 2020-04-16

Similar Documents

Publication Publication Date Title
KR102374910B1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
KR102445382B1 (ko) 음성 처리 방법 및 이를 지원하는 시스템
KR102389625B1 (ko) 사용자 발화를 처리하는 전자 장치 및 이 전자 장치의 제어 방법
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
KR20190084789A (ko) 전자 장치 및 그 제어 방법
JP2019536150A (ja) 環境制御機能を有する社会ロボット
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
KR20190008663A (ko) 음성 데이터 처리 방법 및 이를 지원하는 시스템
KR102508677B1 (ko) 사용자 발화를 처리하는 시스템 및 그 시스템의 제어 방법
JPWO2019087484A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230266767A1 (en) Information processing apparatus, information processing method, and program
KR102369083B1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
JP6891601B2 (ja) ロボットの制御プログラム、ロボット装置、及びロボットの制御方法
KR102419374B1 (ko) 사용자 발화를 처리하는 전자 장치 및 그 전자 장치의 제어 방법
KR102369309B1 (ko) 파셜 랜딩 후 사용자 입력에 따른 동작을 수행하는 전자 장치
JP2005313308A (ja) ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置
KR102511517B1 (ko) 음성 입력 처리 방법 및 이를 지원하는 전자 장치
KR20190106925A (ko) 인공지능 로봇 및 그의 제어 방법
US20220288791A1 (en) Information processing device, information processing method, and program
JP7202836B2 (ja) コミュニケーションシステム
US11938625B2 (en) Information processing apparatus, information processing method, and program
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
JP2005059186A (ja) ロボット装置及びその制御方法
KR102661381B1 (ko) 액세서리의 장착이 가능한 로봇의 동작 제어 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210909

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7202836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150