JP6997585B2 - 音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム - Google Patents

音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム Download PDF

Info

Publication number
JP6997585B2
JP6997585B2 JP2017203652A JP2017203652A JP6997585B2 JP 6997585 B2 JP6997585 B2 JP 6997585B2 JP 2017203652 A JP2017203652 A JP 2017203652A JP 2017203652 A JP2017203652 A JP 2017203652A JP 6997585 B2 JP6997585 B2 JP 6997585B2
Authority
JP
Japan
Prior art keywords
terminal device
server
unit
cleaning robot
related information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017203652A
Other languages
English (en)
Other versions
JP2019079122A (ja
Inventor
剛生 土田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017203652A priority Critical patent/JP6997585B2/ja
Publication of JP2019079122A publication Critical patent/JP2019079122A/ja
Application granted granted Critical
Publication of JP6997585B2 publication Critical patent/JP6997585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、音声を出力する端末装置、サーバ、音声出力システム、音声出力方法、及び、そのような端末装置のプログラムに関する。
近年、自発的に床面上を移動しながら床面を掃除する自走式の掃除ロボットが普及している(例えば、特許文献1参照)。自走式の掃除ロボットは、ユーザが操作をし続けなくても掃除を実施してくれるため、ユーザにとって便利である。
特開2004-195215号公報(2004年7月15日公開)
その一方で、掃除ロボットは、床面上をユーザの思惑とは無関係に移動しながら掃除を実施する。そのため、ユーザが掃除ロボットからしばらく目を離したときに、ユーザは、掃除ロボットを見失うことがあった。
本発明は、上記の課題に鑑みなされたものであり、その目的は、自発的に移動を繰り返す端末装置を含む音声出力システムであっても、その端末装置の位置をユーザに報知することができる音声出力システムを提供することである。また、その目的は、自発的に移動を繰り返す端末装置の位置をユーザに報知することができるサーバ、端末装置、音声出力方法、及び、プログラムを提供することである。
上記の課題を解決するために、本発明の一態様に係る音声出力システムは、(1)第1の端末制御部と、第1の端末通信部と、センサ部とを含む第1の端末装置と、(2)サーバ制御部と、サーバ通信部とを含むサーバと、(3)第2の端末制御部と、第2の端末通信部と、音声出力部とを含む第2の端末装置と、を備え、上記第1の端末装置と、上記サーバと、上記第2の端末装置とがネットワーク接続された音声出力システムである。上記第1の端末装置の上記第1の端末制御部は、上記センサ部を介して取得したセンサ情報から上記第1の端末装置の位置に関連する位置関連情報を生成し、且つ、上記第2の端末装置の上記第2の端末制御部は、当該位置関連情報に関連付けられた所定の音声データが表す音声を、上記音声出力部を介して出力し、上記サーバ制御部は、上記第1の端末装置の位置に関連する上記位置関連情報を、上記サーバ通信部を介して上記第1の端末装置から受信し、上記位置関連情報に関連付けられた音声データを所定の音声データとして選択し、上記所定の音声データを第2の端末装置に送信する、ことを特徴とする。
上記の課題を解決するために、本発明の一態様に係るサーバは、サーバ制御部と、サーバ通信部と、を備えたサーバである。上記サーバ制御部は、第1の端末装置の位置に関連する位置関連情報を、上記サーバ通信部を介して上記第1の端末装置から受信し、上記位置関連情報に関連付けられた音声データを所定の音声データとして選択し、上記所定の音声データを第2の端末装置に送信する、ことを特徴とする。
上記の課題を解決するために、本発明の一態様に係る端末装置は、制御部と、センサ部と、音声出力部と、当該端末装置を移動するための移動部とを備えた端末装置である。上記制御部は、上記センサ部を介して取得したセンサ情報から当該端末装置の位置に関連する位置関連情報を生成し、且つ、当該位置関連情報に関連付けられた所定の音声データが表す音声を、上記音声出力部を介して出力する。上記端末装置は通信部を更に備え、上記制御部は、上記位置関連情報を、上記通信部を介してサーバに送信し、上記サーバから上記通信部を介して受信した上記所定の音声データが表す音声を出力する、ことを特徴とする。
上記の課題を解決するために、本発明の一態様に係る音声出力方法は、センサ部を含む第1の端末装置と、サーバと、音声出力部を含む第2の端末装置とを備え、上記第1の端末装置と、上記サーバと、上記第2の端末装置とがネットワーク接続された音声出力システムが音声を出力する音声出力方法である。本音声出力方法は、上記第1の端末装置において、上記センサ部を介して取得したセンサ情報から上記第1の端末装置の位置に関連する位置関連情報を生成する位置関連情報生成工程と、上記サーバにおいて、上記第1の端末装置の位置に関連する位置関連情報を、上記第1の端末装置から受信する受信工程と、上記位置関連情報に関連付けられた音声データを所定の音声データとして選択する選択工程と、上記所定の音声データを上記第2の端末装置に送信する工程と、上記第2の端末装置において、上記所定の音声データが表す音声を、上記音声出力部を介して出力する音声出力工程と、を含むことを特徴とする。
なお、本発明の一態様において、第1の端末装置及び第2の端末装置の各々は、文字通り別個の端末装置として実現することもできるし、単一の端末装置として実現することもできる。
本発明の一態様に係る音声出力システムによれば、自発的に移動を繰り返す端末装置を含む場合であっても、その端末装置の位置をユーザに報知することができる。また、本発明の一態様に係るサーバ、端末装置、音声出力方法、及び、プログラムによれば、端末装置が自発的に移動を繰り返す場合であっても、端末装置の位置をユーザに報知することができる。
本発明の第1の実施形態に係る音声出力システムのブロック図である。 図1に示した音声出力システムの機能を説明する概略図である。 図1に示した音声出力システムにおいて実行される処理を表すシーケンス図である。 図1に示した音声出力システムにおいて実行される処理を表すフローチャートである。 (a)~(g)は、図1に示した音声出力システムに含まれる掃除ロボットが音楽を再生する例を示す概略図である。 (a)は、本発明の第1の変形例である音声出力システムのブロック図である。(b)は、本発明の第2の変形例である音声出力システムのブロック図である。 本発明の第2の実施形態に係る掃除ロボットのブロック図である。 本発明の第3の実施形態に係る音声出力システムのブロック図である。 図8に示した音声出力システムにおいて実行される処理を表すシーケンス図である。 (a)~(d)は、図8に示した音声出力システムが有する間取り情報データベース及び選曲ルールデータベースを、スマートフォンを用いて更新する場合における当該スマートフォンのスクリーンショットである。 本発明の第4の実施形態に係る音声出力システムのブロック図である。 図10に示した音声出力システムの機能を説明する概略図である。 本発明の一実施形態に係る端末装置又はサーバとして利用可能なコンピュータのブロック図である。
〔第1の実施形態〕
本発明の一態様に係る音声出力システムは、(1)第1の端末制御部と、第1の端末通信部と、センサ部とを含む第1の端末装置と、(2)サーバ制御部と、サーバ通信部とを含むサーバと、(3)第2の端末制御部と、第2の端末通信部と、音声出力部とを含む第2の端末装置と、を備え、上記第1の端末装置と、上記サーバと、上記第2の端末装置とがネットワーク接続された音声出力システムである。本音声出力システムは、上記センサ部を介して取得したセンサ情報から上記第1の端末装置の位置に関連する位置関連情報を生成し、且つ、当該位置関連情報に関連付けられた所定の音声データが表す音声を、上記音声出力部を介して出力する。
ここで、第1の端末装置及び第2の端末装置の各々は、文字通り別個の端末装置として実現することもできるし、単一の端末装置として実現することもできる。本発明の第1の実施形態においては、第1の端末装置及び第2の端末装置の各々が単一の端末装置である掃除ロボット11として実現されている。
すなわち、本実施形態に係る音声出力システム10は、(1)端末制御部と、端末通信部と、センサ部と、音声出力部とを含む端末装置である掃除ロボット11と、(2)サーバ制御部と、サーバ通信部とを含むサーバ21と、を備え、上記端末通信部及び上記サーバ通信部を介して掃除ロボット11とサーバ21とがネットワーク接続された音声出力システムである。音声出力システム10は、上記センサ部を介して取得したセンサ情報から掃除ロボット11の位置に関連する位置関連情報を生成し、且つ、当該位置関連情報に関連付けられた所定の音声データが表す音声を、上記音声出力部を介して出力する。
以下では、本実施形態に係る音声出力システム10について、図1及び図2を参照して説明する。図1は、音声出力システム10のブロック図である。図2は、音声出力システムの機能を説明する概略図である。
(音声出力システム10の構成)
図1に示すように、音声出力システム10は、掃除ロボット11とサーバ21とを備えている。掃除ロボット11は、特許請求の範囲に記載の第1の端末装置の構成と、第2の端末装置の構成とを併せもつ端末装置の一態様である。掃除ロボット11とサーバ21とは、ネットワーク1を介して互いにネットワーク接続されている。
(掃除ロボット11の構成)
掃除ロボット11は、自発的に床面上を移動しながら床面を掃除する自走式の掃除ロボットである。したがって、掃除ロボット11は、床面上を移動するための移動機構と、床面を掃除するための掃除機構とを備えている。しかし、本明細書では、これらの移動機構及び掃除機構に関する具体的な説明を省略し、掃除ロボット11の位置に関連する音声を出力する構成について説明する。
図1に示すように、掃除ロボット11は、制御部12と、通信部13と、センサ部14と、音声出力部15とを備えている。また、図1への図示は省略しているが、掃除ロボット11は、記憶部を備えている。
制御部12は、特許請求の範囲に記載の第1の端末制御部の機能と、第2の端末制御部の機能とを併せもつ。通信部13は、特許請求の範囲に記載の第1の端末通信部の機能と、第2の端末通信部の機能とを併せもつ。
制御部12は、掃除ロボット11の各部を統括して制御する。制御部12がどのように掃除ロボット11の各部を制御するのか、換言すれば制御部12が有する機能については、図3及び図4を参照して後述する。
通信部13は、例えばインターネットなどのネットワーク1に接続されており、同様にネットワーク1に接続された掃除ロボット11とは別の機器と通信する。本実施形態では、通信部13は、ネットワーク1を介して、後述するサーバ21の通信部23とネットワーク接続されている。
センサ部14は、掃除ロボット11が位置する領域の特徴を検出するために設けられた1又は複数のセンサにより構成されている。掃除ロボット11は、センサ部14を構成する複数のセンサとして、障害物センサ、床面センサ、人感センサ、カメラモジュール、GPS(Global Positioning System)受信機、移動量検出器、及びドッグ検知センサを採用している。
障害物センサは、掃除ロボット11の近傍に、掃除ロボット11の移動を妨げうる物体があるか否かを判定する接触式のセンサである。障害物センサは、例えば、掃除ロボット11の本体から外側に向かって突出したアームを備え、アームの状態をセンサ情報の1つとして制御部12へ出力する。
床面センサは、床面の表面がどのような材質、すなわち床材により構成されているのかを判別する接触式のセンサである。床面センサは、例えば、掃除ロボット11の本体から床面の方向(すなわち下方向)に向かって突出したアームを備え、アームの状態をセンサ情報の1つとして制御部12へ出力する。
人感センサは、赤外線や超音波などを用いて、掃除ロボット11の近傍にいる人を検知するセンサである。本実施形態の人感センサは、赤外線を用いるものとする。この場合、人感センサは、赤外線を照射する発光ダイオードと、所定の波長範囲に含まれる赤外線を受光し、受光した赤外線のパワーを電気信号に変換するフォトダイオードとを備えている。人感センサは、発光ダイオードから所定のパワーの赤外線を掃除ロボット11の外側に向かって照射しつつ、フォトダイオードが赤外線から変換した電気信号をセンサ情報の1つとして制御部12へ出力する。
なお、掃除ロボット11の近傍にいる人は、後述するカメラモジュールが生成した動画像を解析することによっても検知することができる。上述した人感センサと、カメラモジュールとを併用して掃除ロボット11の近傍にいる人を検知することによって、人を検知するときの精度を高めることができる。
カメラモジュールは、動画像を撮影可能なデジタルカメラを含む。デジタルカメラは、掃除ロボット11の周囲を撮影可能なように、掃除ロボット11の本体に設けられている。カメラモジュールは、デジタルカメラが撮影した動画像を表す動画像データをセンサ情報の1つとして制御部12へ出力する。
GPS受信機は、複数のGPS衛生から信号を受信することによって、掃除ロボット11の位置を表す位置情報を取得し、その位置情報をセンサ情報の1つとして制御部12へ出力する。
移動量検出器は、掃除ロボット11が備える車輪の回転数や、掃除ロボット11が床面に照射したレーザー光などの床面による反射の状況、移動機構の動作状況などをモニタすることにより、掃除ロボット11が、動作を開始した場所を起点として、どちらの方向にどれだけ移動したかを表す移動量情報を取得し、その移動量情報をセンサ情報の1つとして制御部12へ出力する。
ドッグ検知センサは、ドッグと無線通信することによって、掃除ロボット11とドッグとの距離を検知するセンサである。なお、ここで、ドッグとは、掃除ロボット11を充電する充電ドッグのことである。ドッグ検知センサは、検知したドッグとの距離をセンサ情報の1つとして制御部12へ出力する。なお、ドッグ検知センサは、GPS受信機によって取得された位置情報を用いて実現することもできる。例えば、ドッグ検知センサは、掃除ロボット11が前回充電を行ったときに取得された位置情報と、現在の掃除ロボット11の位置情報とをセンサ情報の1つとして制御部12へ出力するように構成されていてもよい。このように、ドッグ検知センサと、GPS受信機とを併用してドッグとの距離を見積もることによって、ドッグとの距離を見積もるときの精度を高めることができる。
以上のように、センサ部14が制御部12へ出力するセンサ情報には、障害物センサのアームの状態と、床面センサのアームの状態と、人感センサのフォトダイオードが変換した電気信号と、動画像データと、掃除ロボット11の位置情報と、掃除ロボット11の移動量情報と、掃除ロボット11とドッグとの距離とを含みうる。あるタイミングにおいてセンサ部14が生成するセンサ情報は、これら複数のセンサ情報のうち何れか1つのセンサ情報により構成されていてもよいし、複数のセンサ情報により構成されていてもよい。
制御部12は、以上のように複数のセンサ情報を、通信部13を介してサーバ21へ送信する。なお、制御部12は、センサ情報の1つである動画像データをサーバ21へ送信する場合に、動画像データを符号化することによってその容量を圧縮しておくことが好ましい。
なお、掃除ロボット11が備えているセンサ部14を構成する各センサ、すなわち、障害物センサ、床面センサ、人感センサ、カメラモジュール、GPS受信機、移動量検出器、及びドッグ受信機の各々の数は、1つでもよいし、複数でもよい。また、本実施形態では、掃除ロボット11が障害物センサ、床面センサ、人感センサ、カメラモジュール、GPS受信機、移動量検出器、及びドッグ受信機の各々を全て備えているものとして説明する。しかし、掃除ロボット11は、障害物センサ、床面センサ、人感センサ、カメラモジュール、GPS受信機、移動量検出器、及びドッグ受信機のうち任意のセンサを省略してもよい。
詳しくは、図3及び図4を参照しながら後述するが、制御部12は、楽曲選択部222によって選択された所定の音声データを、通信部13を介してサーバ21から受信する。そのうえで、制御部12は、所定の音声データが表す音声を音声出力部15であるスピーカから出力させる。
なお、掃除ロボット11は、図13を参照して後述するように、コンピュータ910を用いて実現可能である。この場合、制御部12は、演算装置912により実現可能であり、通信部13は、通信インターフェース916により実現可能であり、記憶部(図1には不図示)は、主記憶装置913及び補助記憶装置914により実現可能である。なお、通信部13は、無線信号を用いてネットワーク1に接続可能な無線通信部であることが好ましい。これは、掃除ロボット11が自走式の掃除ロボットであるためである。また、センサ部14は、コンピュータ910に接続された入力装置920に対応し、音声出力部15は、コンピュータ910に接続された出力装置930に対応する。
なお、本実施形態では、特許請求の範囲に記載の端末装置の一例として掃除ロボット11を用いている。しかし、本実施形態に係る発明を適用する端末装置は、掃除ロボットに限定されるものではない。
(サーバ21の構成)
サーバ21は、掃除ロボット11のセンサ情報を掃除ロボット11から受信し、このセンサ情報から位置関連情報を生成し、この位置関連情報に関連付けられた音声データを所定の音声データとして選択し、この所定の音声データを掃除ロボット11に送信する。本明細書では、サーバ21が掃除ロボット11に所定の音声データが表す音声を出力させる構成について説明する。
図1に示すように、サーバ21は、サーバ制御部である制御部22と、サーバ通信部である通信部23と、記憶部24とを備えている。
制御部22は、サーバ21の各部を統括して制御する。制御部22は、機能ブロックであるセンサ情報判別部221と、楽曲選択部222とを備えている。制御部22がどのようにサーバ21の各部を制御するのか、換言すれば、センサ情報判別部221及び楽曲選択部222の機能については、図3及び図4を参照して後述する。
通信部23は、例えばインターネットなどのネットワーク1に接続されており、同様にネットワーク1に接続されたサーバ21とは別の機器と通信する。本実施形態では、通信部23は、ネットワーク1を介して、掃除ロボット11の通信部13とネットワーク接続されている。
記憶部24は、様々な情報を不揮発的に格納可能な記憶装置である。本実施形態では、記憶部24として、不揮発的な記憶装置の一例であるHDD(Hard Disk Drive)を採用している。記憶部24は、端末情報データベース(DB)241と、選曲ルールデータベース(DB)242と、プレイリスト243とを格納している。なお、端末状態DB241、選曲ルールDB242、及びプレイリスト243については、表を参照しながら後述する。
制御部22は、通信部23を介して、掃除ロボット11から送信されたセンサ情報を受信する。制御部22は、動画像データが符号化されている場合、その動画像データを予め復号化しておく。そのうえで、制御部22は、センサ情報をセンサ情報判別部221へ提供する。
センサ情報判別部221は、複数のセンサ情報に含まれる各センサ(障害物センサ、床面センサ、人感センサ、カメラモジュール、GPS受信機、移動量検出器、及びドッグ受信機)のセンサ情報を解析し、掃除ロボット11の位置に関する情報である位置関連情報を生成する。
センサ情報判別部221は、障害物センサの生成したセンサ情報(すなわちアームの状態を表す情報)を制御部22から提供された場合、そのアームの状態に応じてアームが物体に接触しているか否か、すなわち掃除ロボット11の近傍に障害物があるか否かを判別する。また、センサ情報判別部221は、掃除ロボット11の近傍に障害物があると判別した場合に、掃除ロボット11と障害物との距離をアームの状態に応じて推定する。
センサ情報判別部221は、床面センサの生成したセンサ情報(すなわちアームの状態を表す情報)を制御部22から提供された場合、そのアームの状態に応じて床材がフローリング、畳、及び絨毯の何れなのかを判別する。
センサ情報判別部221は、人感センサの生成したセンサ情報(すなわちフォトダイオードが赤外線から変換した電気信号)を制御部22から提供された場合、その電気信号の大きさが所定の値を超えている場合に、掃除ロボット11の近傍に人がいるものと判別する。
センサ情報判別部221は、カメラモジュールの生成したセンサ情報(すなわち動画像データ)を制御部22から提供された場合、その動画像データが表す動画像を解析することによって、掃除ロボット11と壁(又は大きな物体)との距離を推定したり、掃除ロボット11が位置する床面の表面を構成する床材を推定したり、掃除ロボット11の近傍にいる人を検知したりする。
センサ情報判別部221は、GPS受信機の生成したセンサ情報(すなわち掃除ロボット11の位置情報)と、移動量検出器の生成したセンサ情報(すなわち掃除ロボット11の移動量情報)とを制御部22から提供された場合、掃除ロボット11の位置を最新のものに更新する。なお、本実施形態において、センサ情報判別部221は、掃除ロボット11の位置情報及び移動量情報を用いて掃除ロボット11の位置を特定する構成を採用している。この構成によれば、より正確に掃除ロボット11の位置を特定することができる。一方、より簡易な構成を採用する場合、センサ情報判別部221は、掃除ロボット11の位置情報、または移動量情報の、いずれか1つのみを用いて掃除ロボット11の位置を特定するように構成されていてもよい。この点については、他の実施形態においても同様である。
センサ情報判別部221は、ドッグ検知センサの生成したセンサ情報として掃除ロボット11とドッグとの距離を制御部22から提供された場合、掃除ロボット11とドッグとの距離を最新のものに更新する。また、センサ情報判別部221は、ドッグ検知センサの生成したセンサ情報として掃除ロボット11が前回充電を行ったときに取得された位置情報と、現在の掃除ロボット11の位置情報とを制御部22から提供された場合、これら2つの位置情報が表す2つの位置の差分から掃除ロボット11とドッグとの距離を算出し、掃除ロボット11とドッグとの距離を最新のものに更新する。
なお、上述したように、センサ情報判別部221は、床面センサの生成したセンサ情報に基づいても床材を判別することができるし、カメラモジュールの生成したセンサ情報に基づいても床材を判別することができる。このような場合に、センサ情報判別部221は、これら2つのセンサ情報のうち、何れか1つのセンサ情報を用いて床材を判別するように構成されていてもよいし、2つのセンサ情報を用いて床材を判別するように構成されていてもよい。
同様に、センサ情報判別部221は、掃除ロボット11の近傍に人がいるか否かを判別する場合に、人感センサの生成したセンサ情報及びカメラモジュールの生成したセンサ情報のうち、何れか1つのセンサ情報を用いて床材を判別するように構成されていてもよいし、2つのセンサ情報を用いて床材を判別するように構成されていてもよい。
センサ情報判別部221が生成する位置関連情報は、以上のように、掃除ロボット11の近傍に障害物があるか否かを表す情報と、掃除ロボット11が位置する床面の床材を表す情報と、掃除ロボット11の近傍に人がいるか否かを表す情報と、掃除ロボット11と壁との距離を表す情報と、掃除ロボット11の位置情報と、掃除ロボット11の移動量情報と、掃除ロボット11とドッグとの距離を表す情報と、を含みうる。
楽曲選択部222は、センサ情報判別部221から位置関連情報を取得し、位置関連情報に関連付けられた所定の音声データを選択する。
制御部22は、楽曲選択部222によって選択された所定の音声データを、通信部23を介して掃除ロボット11に送信する。
なお、サーバ21は、図13を参照して後述するように、コンピュータ910を用いて実現可能である。この場合、制御部22は、演算装置912により実現可能であり、通信部23は、通信インターフェース916により実現可能である。なお、通信部23は、有線信号を用いた有線通信部でもよいし、無線信号を用いた無線通信部でもよい。記憶部24としては、上述したように例えばHDDを採用可能である。記憶部24は、コンピュータ910の補助記憶装置914に対応する。
(音声出力システム10の概要)
図2を参照しながら、音声出力システム10の概要について説明する。図2に示すように、掃除ロボット11は、ユーザ111の家100に設置されている。本実施形態において、家100は、洋室101と、和室102と、キッチン103とを備えている。洋室101の床面は、フローリングにより構成されており、和室102の床面は、畳により構成されている。なお、本実施形態において、ユーザ111は、キッチン103で料理をしているものとする。
掃除ロボット11は、サーバ21が送信する音声データを受信し、その音声データが表す音声を音声出力部15から出力することができる。本実施形態では、サーバ21は、音声データの一態様である音楽データを掃除ロボット11に送信する。したがって、掃除ロボット11が出力する音声は、音楽データが表す音楽である。音楽は、音声の一態様である。そこで、本明細書では、掃除ロボット11が、音楽データが表す音楽を音声出力部15から出力することを、掃除ロボット11が音楽を再生するとも表現する。
まず、掃除ロボット11は、洋室101に位置し、フローリングの上を移動しながらその床面を掃除しているものとする。このとき、制御部12は、センサ部14によって生成されたセンサ情報をサーバ21へ送信する。サーバ21のセンサ情報判別部221は、掃除ロボット11から受信したセンサ情報から位置関連情報を生成する。この位置関連情報には、床材がフローリングであることを表す情報が含まれている。このとき、掃除ロボット11は、音楽を再生していない無音の状態であってもよいし、なんらかの音楽を再生していてもよい。本実施形態では、無音であるものとする。
洋室101のフローリングの上を一通り掃除したと判断した掃除ロボット11は、次に、洋室101から和室102へ移動する。上述したように、和室102の床面は、畳により構成されている。
このとき、制御部12は、センサ部14によって生成されたセンサ情報をサーバ21へ送信する。サーバ21のセンサ情報判別部221は、掃除ロボット11から受信したセンサ情報から位置関連情報を生成する。この位置関連情報には、床材が畳であることを表す情報が含まれている。
楽曲選択部222は、位置関連情報に含まれる床材を表す情報がフローリングから畳に変化したことを検知したことに伴い、床材が畳である状態に関連付けられた音楽データである「和風な音楽」というファイル名の音楽データを所定の音楽データとして選択する。
制御部22は、ファイル名が「和風な音楽」である音楽データを掃除ロボット11へ送信する。
制御部12は、サーバ21から受信したファイル名が「和風な音楽」である音楽データが表す音楽を再生し、音声出力部15から出力する。
ユーザ111は、キッチンにて料理をしているため、掃除ロボット11を目視することはできない。したがって、掃除ロボット11の代わりに特許文献1に記載されたような自走式の掃除ロボットが家100に設置されていた場合、ユーザ111は、掃除ロボットの位置を把握することができない。
それに対して、音声出力システム10の掃除ロボット11は、洋室101から和室102へ移動したときに、サーバ21からファイル名が「和風な音楽」である音楽データを受信し、この音楽データが表す音楽を再生する。したがって、ユーザ111は、この音楽を聴くことによって、掃除ロボット11が和室102にいることを知ることができる。換言すれば、掃除ロボット11は、自発的に移動を繰り返す自走式の掃除ロボットであり、そのうえで、自身の位置をユーザ111に報知することができる。
同様に、音声出力システム10及び音声出力システム10を構成するサーバ21の各々は、掃除ロボット11が自発的に移動を繰り返す場合であっても、掃除ロボット11の位置をユーザ111に報知することができる。
(音声出力システム10が実施する音声出力方法)
音声出力システム10において実行される音声出力方法について、図3及び図4を参照して説明する。図3は、当該音声出力方法を表すシーケンス図である。図4は、当該音声出力方法を表すフローチャートである。
図3及び図4に示すように、音声出力システム10において実行される音声出力方法は、センサ情報取得工程S11と、位置関連情報生成工程S12と、位置関連情報更新工程S13と、選曲ルール取得工程S14と、音楽データ選択工程S15と、音楽再生工程S16とを含んでいる。
センサ情報取得工程S11は、掃除ロボット11のセンサ部14がセンサ情報を生成する工程である。制御部22は、センサ情報をセンサ部14から取得し、そのセンサ情報を、通信部13を介してサーバ21へ送信する。上述したように、センサ情報は、障害物センサのアームの状態と、床面センサのアームの状態と、人感センサのフォトダイオードが変換した電気信号と、動画像データと、掃除ロボット11の位置情報と、掃除ロボット11の移動量情報と、掃除ロボット11とドッグとの距離とを含みうる。あるタイミングにおいてセンサ部14が生成するセンサ情報は、これら複数のセンサ情報のうち何れか1つのセンサ情報により構成されていてもよいし、複数のセンサ情報により構成されていてもよい。
制御部22は、センサ情報を掃除ロボット11から受信したうえで、そのセンサ情報をセンサ情報判別部221へ提供する。
位置関連情報生成工程S12は、センサ情報判別部221がセンサ情報から位置関連情報を生成する工程である。位置関連情報は、上述したように、掃除ロボット11の近傍に障害物があるか否かを表す情報と、掃除ロボット11が位置する床面の床材を表す情報と、掃除ロボット11の近傍に人がいるか否かを表す情報と、掃除ロボット11と壁との距離を表す情報と、掃除ロボット11の位置情報と、掃除ロボット11の移動量情報と、掃除ロボット11とドッグとの距離を表す情報と、を含みうる。
制御部22は、センサ情報判別部221が生成した位置関連情報を楽曲選択部222へ提供する。
位置関連情報更新工程S13は、端末状態データベース(DB)241を最新の状態に更新する工程である。端末状態DB241は、以下の表1に示すように、センサ情報を生成したセンサと、そのセンサ情報に基づいて生成された位置関連情報と、その更新時刻とを関連付けた状態で格納している。
Figure 0006997585000001
位置関連情報更新工程S13は、図3に示すように、センサ情報判別部221から供給された位置関連情報を用いて端末状態DB241を更新する工程S131と、端末状態DB241から更新済の端末状態DB241をセンサ情報判別部221が取得する工程S132とにより構成されている。
選曲ルール取得工程S14は、楽曲選択部222が選曲ルールデータベース(DB)242を参照し(工程S141)、位置関連情報が適合する条件に関連付けられた音楽データを選択する選曲条件を取得する工程(工程S142)である。選曲ルールDB242は、以下の表2に示すように、位置関連情報のカテゴリと、各カテゴリの位置関連情報を場合分けした条件と、各カテゴリの各条件に音楽データを関連付ける選曲条件とを関連付けた状態で格納している。
Figure 0006997585000002
例えば、楽曲選択部222が「床面を構成する床材が畳である」という位置関連情報を取得した場合、楽曲選択部222は、選曲ルールDB242の「床面の状態」というカテゴリを参照し、畳に関連付けられた「楽曲H」を選曲条件として取得する。
なお、表2に示した選曲ルールDB242の選曲条件の欄においては、1つの条件に対して何れも1つの音楽データのファイル名のみが関連付けられている。しかし、1つの条件に対しては、複数の音楽データのファイル名を関連付けることもできるし、後述するプレイリストにおいて定められたジャンルを関連付けることもできる。
音楽データ選択工程S15は、楽曲選択部222がプレイリストを参照し(工程S151)、選曲ルール取得工程S14において取得した選曲条件に関連付けられた音楽データ(請求の範囲に記載の所定の音声データ)を掃除ロボット11に送信する工程(工程S152)である。プレイリストは、以下の表3に示すように、音楽データが表す音楽の楽曲名と、その音楽のジャンルと、音楽データのファイル名とを関連付けた状態で格納している。
Figure 0006997585000003
なお、選曲ルールDB242において、1つの条件に対して複数の音楽データのファイル名が関連付けられている場合、楽曲選択部222は、その複数の音楽データの中から1つの音楽データを選択して掃除ロボット11に送信するように構成されていてもよいし、その複数の音楽データを順番に選択して掃除ロボット11に送信するように構成されていてもよいし、その複数の音楽データをランダムに選択して掃除ロボット11に送信するように構成されていてもよい。選曲ルールDB242において、1つの条件に対してプレイリストにおいて定められたジャンルが関連付けられている場合についても同様である。すなわち、あるジャンルに複数の音楽データが関連付けられている場合、楽曲選択部222は、その複数の音楽データの中から1つの音楽データを選択して掃除ロボット11に送信するように構成されていてもよいし、その複数の音楽データを順番に選択して掃除ロボット11に送信するように構成されていてもよいし、その複数の音楽データをランダムに選択して掃除ロボット11に送信するように構成されていてもよい。
音楽再生工程S16は、通信部13を介してサーバ21から受信した音楽データが表す音楽を再生し、その音楽を音声出力部15から出力する工程である。
以上のように構成された音声出力方法は、音声出力システム10と同様に、掃除ロボット11が自発的に移動を繰り返す場合であっても、掃除ロボット11の位置をユーザ111に報知することができる。
<選曲ルールDB242の変形例>
上述した選曲ルールDB242は、以下の表4に示すように、位置関連情報のカテゴリと、各カテゴリの位置関連情報を場合分けした条件と、各カテゴリの各条件に音楽データを関連付ける選曲条件と、音声を再生するときのパラメータ変化(特許請求の範囲に記載の出力パラメータ)とを関連付けるように構成されていてもよい。楽曲選択部222は、所定の音声データと共にこのパラメータ変化の内容を掃除ロボット11へ送信する。
所定の音声データと共にこのパラメータ変化の内容を受信した掃除ロボット11は、所定の音声データが表す音声を制御部12が再生するときに、パラメータ変化の内容にしたがって当該音声を再生する。
Figure 0006997585000004
上記の構成によれば、掃除ロボット11は、再生する音声に加えて、音声の再生の仕方(例えばリズムや音量など)を出力パラメータにしたがって変化させることができる。この変化を聞いたユーザは、音声の種類に加えて、音声の再生の仕方を判別の材料として掃除ロボット11の所在地を判別することができる。
また、上記の構成によれば、各カテゴリに対して1つの選択条件を関連付けておき、1つのカテゴリ内の各条件の違いに応じてパラメータ変化を異ならせることができる。したがって、記憶部24に格納する音楽データの数を抑制することができる。
なお、本変形例では、(1)サーバ21は、楽曲選択部222が所定の音声データと共に上述したパラメータ変化の内容を掃除ロボット11へ送信するように構成されており、且つ、(2)掃除ロボット11は、音声を再生するときに音声の再生の仕方(例えばリズムや音量など)をパラメータ変化の内容にしたがって変化させるように構成されているものとして説明した。しかし、音声出力システム10の一態様において、(1)サーバ21は、楽曲選択部222が上述したパラメータ変化の内容に基づき所定の音声データを変更する(すなわち出力パラメータを所定の音声データに反映する)ように構成されており、且つ、(2)掃除ロボット11は、上述したパラメータ変化の内容(すなわち出力パラメータ)が反映された所定の音声データが表す音声を制御部12が再生するように構成されていてもよい。
(音楽再生の例)
音声出力システム10において、掃除ロボット11が音楽を再生する例について、図5を参照して説明する。図5の(a)~(g)は、音声出力システム10に含まれる掃除ロボット11が音声を出力する態様を示す概略図である。図5の(a)~(g)には、洋室101、和室102、キッチン103、及び廊下104を備えた家100の間取りと、充電ドッグ11dと、掃除ロボット11の所在地を示す位置P11が示されている。
洋室101及び和室102は長方形であり、その長辺の方向は廊下104が延伸されている方向と交わる方向に沿っている。洋室101及び和室102は、何れも、長さが1m以上である長辺と、長さが1m以上である短辺とを有する。また、洋室101及び和室102の床材は、それぞれ、フローリング及び畳である。
キッチン103は、洋室101よりも小さな長方形を2つ連通させることによって得られる。これらの2つの長方形は、互いに大きさが異なる。ここで、大きい方の長方形を第1の長方形と呼び、小さい方の長方形を第2の長方形と呼ぶ。第1の長方形は、洋室101の廊下104と逆側の長辺に連通しており、第2の長方形は、第1の長方形の洋室101と逆側の長辺に連通している。充電ドッグ11dは、第2の長方形の部分に配置されている。また、キッチン103の床材は、フローリングである。
廊下104は、洋室101と和室102とを接続する廊下である。廊下は、洋室101から和室102へ向かう方向に沿って細長くに延伸されている。本実施形態において、廊下104の幅Wは、W=90cmであり、廊下104の長さLは、L=2m70cmである(図5の(b)参照)。また、廊下104の床材は、フローリングである。
なお、ユーザ111は、キッチン103において夕食の準備をしているものとする。すなわち、ユーザ111は、掃除ロボット11を目視することが難しい、又は、目視できない状態である。
<床面の状態>
図5の(a)に示す例は、表2に示した選曲ルールDB242の「床面の状態」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、掃除ロボット11は、洋室101から和室102に向かう方向に廊下104を移動している。このとき、センサ情報判別部221は、床面センサが生成したセンサ情報を解析した結果、「床材がフローリングである」という位置関連情報を生成する(位置関連情報生成工程S12)。この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、選曲ルールDB242から「床面の状態」というカテゴリの「床材:フローリング」という条件に関連付けられた「楽曲I」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Iを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Iを再生する(音楽再生工程S16)。
その後、掃除ロボット11は、廊下104から和室102へ移動する。このとき、センサ情報判別部221は、床面センサが生成したセンサ情報を解析した結果、「床材が畳である」という位置関連情報を生成する(位置関連情報生成工程S12)。この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、表2に示した選曲ルールDB242から「床面の状態」というカテゴリの「床材:畳」という条件に関連付けられた「和風な音楽」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、和風な音楽を表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、和風な音楽を再生する(音楽再生工程S16)。
このように、掃除ロボット11が廊下104から和室102へ移動した場合に、ユーザ111は、楽曲Iと和風な音楽とを連続して聞くことになる。したがって、ユーザ111は、床材がフローリングである空間から床材が畳である空間に掃除ロボット11が移動したことを認知することができる。ユーザ111は、家100の間取りを理解している。したがって、ユーザ111は、掃除ロボット11が廊下104から和室102へ移動したのだろうと推測することができる。
<空間の形状>
図5の(b)に示す例は、選曲ルールDB242の「空間の形状」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、掃除ロボット11は、洋室101から廊下104に向かって移動しようとしている。上述したように、廊下104の幅Wは、W=90cmであり、廊下104の長さLは、L=2m70cmである。したがって、掃除ロボット11が廊下104へ移動した場合、センサ情報判別部221は、障害物センサが生成したセンサ情報と、カメラモジュールが生成したセンサ情報(動画像)とを解析した結果、掃除ロボット11が「道幅:1m未満の道が1m以上続いている」という位置関連情報を生成する(位置関連情報生成工程S12)。
この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、表2に示した選曲ルールDB242から「空間形状」カテゴリの「道幅:1m未満、障害物との距離/道幅の長さ:1m以上」という条件に関連付けられた楽曲Aを選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Aを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Aを再生する(音楽再生工程S16)。
楽曲Aを聞いたユーザ111は、掃除ロボット11が廊下104にいるのだろうと推測することができる。
<充電ドッグとの距離>
図5の(c)に示す例は、選曲ルールDB242の「ドッグとの距離」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、掃除ロボット11は、洋室101から和室102に向かう方向に廊下104を移動している。なお、図5の(c)に示した二点鎖線L1及び二点鎖線L2の各々は、それぞれ、充電ドッグ11dからの距離が5mである地点の集合、及び、充電ドッグ11dからの距離が10mである地点の集合を示す。
図5の(c)に示した状態において、センサ情報判別部221は、ドッグ検知センサが生成したセンサ情報を解析した結果、掃除ロボット11が「充電ドッグとの距離:6m」という位置関連情報を生成する(位置関連情報生成工程S12)。
この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、選曲ルールDB242から「充電ドッグとの距離」というカテゴリの「充電ドッグとの距離:5m以上10m未満」という条件に関連付けられた「楽曲D」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Dを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Dを再生する(音楽再生工程S16)。
楽曲Dを聞いたユーザ111は、掃除ロボット11が家100のなかの充電ドッグ11dから比較的遠い位置、すなわち、廊下104及び和室102の何れかにいるのだろうと推測することができる。
<人との距離>
図5の(d)に示す例は、選曲ルールDB242の「人との距離」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、掃除ロボット11は、和室102から洋室101に向かう方向に廊下104を移動している。なお、図5の(d)に示した二点鎖線L3及び二点鎖線L4の各々は、それぞれ、掃除ロボット11からの距離が1mである地点の集合、及び、掃除ロボット11からの距離が2mである地点の集合を示す。
図5の(d)に示した状態において、センサ情報判別部221は、人感センサが生成したセンサ情報を解析した結果、「人との距離:2.5m」という位置関連情報を生成する(位置関連情報生成工程S12)。
この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、選曲ルールDB242から「人との距離」というカテゴリの「人との距離:2m以上」という条件に関連付けられた「楽曲M」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Mを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Mを再生する(音楽再生工程S16)。
楽曲Mを聞いたユーザ111は、掃除ロボット11が自分から比較的遠い位置にいるのだろうと推測することができる。
なお、掃除ロボット11が和室102から洋室101へ向かう方向へ更に移動してくると、掃除ロボット11と人との距離が徐々に縮まる。たとえば、掃除ロボット11が更に移動するに伴い、掃除ロボット11と人との距離は、まず1m以上2m未満になり、次に1m未満になる。このような場合、掃除ロボット11は、楽曲Mに続いて楽曲Lを再生し、更に楽曲Lに続いて楽曲Kを再生する。これらの音楽を聴いたユーザ111は、掃除ロボット11が自分に近づくように移動しているのだろうと推測することができる。
<壁際又は中央>
図5の(e)に示す例は、選曲ルールDB242の「壁際又は中央」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、掃除ロボット11は、洋室101の壁際に位置している。なお、図5の(e)に示した二点鎖線L5は、家100を構成する壁からの距離が50cmである地点の集合を示す。
図5の(e)に示した状態において、センサ情報判別部221は、障害物センサが生成したセンサ情報及びカメラモジュールが生成したセンサ情報を解析した結果、「障害物との距離:50cm未満」という位置関連情報を生成する(位置関連情報生成工程S12)。
この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、選曲ルールDB242から「壁際又は中央」というカテゴリの「障害物との距離:50cm未満」という条件に関連付けられた「楽曲F」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Fを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Fを再生する(音楽再生工程S16)。
楽曲Fを聞いたユーザ111は、掃除ロボット11が壁際にいるのだろうと推測することができる。
<積算移動距離>
図5の(f)に示す例は、選曲ルールDB242の「積算移動距離」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、サーバ21のセンサ情報判別部221は、掃除ロボット11が前回充電を行ったときからの移動距離を積算していくように構成されている。センサ情報判別部221は、GPS受信機が生成するセンサ情報である位置情報と、移動量検出器が生成するセンサ情報である移動量情報とから掃除ロボット11の軌跡を記録し、掃除ロボット11が前回充電を行ったときからの移動距離を位置関連情報として生成する。なお、図5の(f)に示した二点鎖線T6は、掃除ロボット11が前回充電を行ったときからの軌跡を示す。
図5の(f)に示した状態において、センサ情報判別部221は、GPS受信機が生成したセンサ情報を解析した結果、「積算移動距離:4.5m」という位置関連情報を生成する(位置関連情報生成工程S12)。
この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、選曲ルールDB242から「積算移動距離」というカテゴリの「積算移動距離:5m未満」という条件に関連付けられた「楽曲R」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Rを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Rを再生する(音楽再生工程S16)。
楽曲Rを聞いたユーザ111は、掃除ロボット11が充電を終えてから間もない状態であり、バッテリ切れを心配する必要はないな、といったことを推測することができる。
<障害物の量>
図5の(g)に示す例は、選曲ルールDB242の「障害物の量」というカテゴリの条件を用いて楽曲選択部222が選択条件を選択する場合の一例である。
この例において、洋室101には、パソコンテーブル101aと、食卓101bとが配置されている。また、掃除ロボット11は、食卓101bの近くに位置している。
図5の(g)に示した状態において、センサ情報判別部221は、障害物センサが生成したセンサ情報と、カメラモジュールが生成したセンサ情報(動画像)とを解析した結果、掃除ロボット11が「障害物の量:多い」という位置関連情報を生成する(位置関連情報生成工程S12)。
この位置関連情報をセンサ情報判別部221から供給された楽曲選択部222は、選曲ルールDB242から「障害物の量」というカテゴリの「障害物:多い」という条件に関連付けられた「楽曲Q」を選択条件として選択する(選曲ルール取得工程S14)。したがって、サーバ21は、楽曲Qを表す音楽データを掃除ロボット11に送信し、掃除ロボット11は、楽曲Qを再生する(音楽再生工程S16)。
楽曲Qを聞いたユーザ111は、掃除ロボット11が障害物の多い場所にいるということを知ることができ、家100の場合であるからパソコンテーブル101aあるいは食卓101bの近くにいるのだろうと推測することができる。
(第1の実施形態のまとめ)
以上のように、音声出力システム10において、センサ部14は、センサ情報を生成し、センサ情報判別部221は、センサ情報から当該端末装置の位置に関連する位置関連情報を生成し、且つ、当該位置関連情報に関連付けられた所定の音声データを掃除ロボット11に送信し、制御部12は、所定の音声データが表す音声を音声出力部15から出力する。
したがって、音声出力システム10、サーバ21、及び掃除ロボット11は、掃除ロボット11が自発的に移動を繰り返す場合であってもその位置をユーザに報知することができる。
また、楽曲選択部222は、センサ情報判別部221から取得した位置関連情報のカテゴリと、当該カテゴリを場合分けする条件と、音声データとが関連付けられた選曲ルールデータベースを参照し、上記位置関連情報が適合する条件に関連付けられた音声データのうち何れか1つの音声データを上記所定の音声データとして選択し、当該所定の音声データを掃除ロボット11に送信する、ように構成されていることが好ましい。
上記の構成によれば、選曲ルールデータベースにおいて位置関連情報のカテゴリと、当該カテゴリを場合分けする条件と、音声データとが関連付けられているため、本端末装置は、位置関連情報の様々なカテゴリにきめ細かく対応した音声を出力することができる。したがって、音声出力システム10、サーバ21、及び掃除ロボット11は、掃除ロボット11の位置をユーザに報知する場合の精度を高めることができる。
掃除ロボット11は、通信部13を更に備え、制御部12は、センサ情報を通信部13を介してサーバ21に送信したうえで、サーバ21から通信部13を介して受信した所定の音声データが表す音声を出力する、ことが好ましい。
掃除ロボット11は、サーバ21とネットワーク接続されており、サーバ21と共に音声出力システム10を構成することによって音声出力可能なように構成されている。この構成によれば、センサ情報判別部221及び楽曲選択部222を制御部22の機能ブロックとして実現すればよいため、掃除ロボット11をシンプルに構成することができる。また、サーバ21は、掃除ロボット11と比較して莫大な量の音声データを格納することができる。したがって、掃除ロボット11は、スタンドアローン型の掃除ロボット11C(図7を参照して後述する)と比較して、バリエーション豊かな音声を出力することができる。
なお、本実施形態に係る掃除ロボット11の効果は、音声出力システム10の効果であるとも言えるし、音声出力システム10の音声出力方法の効果であるとも言えるし、サーバ21の効果であるとも言える。
〔変形例〕
図1に示した音声出力システム10の、第1の変形例である音声出力システム10Aと、第2の変形例である音声出力システム10Bとについて、図6を参照して説明する。図6の(a)は、音声出力システム10Aのブロック図である。図6の(b)は、音声出力システム10Bのブロック図である。なお、図6の(a),(b)においては、音声出力システム10A,10Bの掃除ロボット11A,11Bが備えている通信部13と、音声出力システム10A,10Bのサーバ21A,21Bが備えている通信部23とを省略し、図示していない。
音声出力システム10A,10Bの掃除ロボット11A,11Bが備えている通信部13は、音声出力システム10の掃除ロボット11が備えている通信部13と同一である。また、音声出力システム10A,10Bのサーバ21A,21Bが備えている通信部23は、音声出力システム10のサーバ21が備えている通信部23と同一である。
音声出力システム10において、センサ情報判別部221と楽曲選択部222とは、何れもサーバ21の制御部22の機能ブロックとして実現されていた。
しかし、音声出力システム10Aのように、センサ情報判別部121Aは、掃除ロボット11Aの制御部12Aの機能ブロックとして実現されており、楽曲選択部222Aは、サーバ21Aの制御部22Aの機能ブロックとして実現されていてもよい。
また、音声出力システム10Bのように、センサ情報判別部121Bと楽曲選択部122Bとは、何れも掃除ロボット11Bの機能ブロックとして実現されていてもよい。
音声出力システム10A,10Bは、音声出力システム10と同様の効果を奏する。
〔第2の実施形態〕
本発明の第2の実施形態に係る掃除ロボット11Cついて、図7を参照して説明する。図7は、掃除ロボット11Cのブロック図である。なお、説明の便宜上、第1の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態では、掃除ロボット11Cが第1の実施形態に係る音声出力システム10、掃除ロボット11、及びサーバ21と異なる点についてのみ説明する。
図7に示すように、掃除ロボット11Cは、制御部12Cと、センサ部14と、音声出力部15と、記憶部14Cとを備えている。制御部12Cは、掃除ロボット11の制御部12を変形することによって得られる。センサ部14及び音声出力部15は、それぞれ、掃除ロボット11のセンサ部14及び音声出力部15と同一に構成されている。記憶部14Cは、掃除ロボット11において図1への図示を省略した記憶部に対応する。なお、記憶部14Cに格納されている情報は、後述するように音声出力システム10を構成するサーバ21の記憶部24に格納されている情報に対応する。
掃除ロボット11Cにおいて、制御部12Cは、センサ情報判別部121C及び楽曲選択部122Cの2つの機能ブロックを備えている。センサ情報判別部121C及び楽曲選択部122Cは、それぞれ、音声出力システム10においてサーバ21の制御部22が備えていたセンサ情報判別部221及び楽曲選択部222に対応する。
また、掃除ロボット11Cにおいて、記憶部14Cは、端末状態データベース(DB)141Cと、選曲ルールデータベース(DB)142Cと、プレイリスト143Cとを格納している。端末状態DB141C、選曲ルールDB142C、及びプレイリスト143Cは、それぞれ、音声出力システム10においてサーバ21の記憶部24に格納されていた端末状態DB241、選曲ルールDB242、及びプレイリスト243に対応する。
掃除ロボット11Cが所定の音声データが表す音声を出力するための構成及び方法は、音声出力システム10が所定の音声データが表す音声を出力するための構成及び方法と同じである。したがって、本実施形態では、これらの説明を省略する。
なお、掃除ロボット11Cは、図13を参照して後述するように、コンピュータ910を用いて実現可能である。この場合、制御部12Cは、演算装置912により実現可能である。記憶部14Cとしては、図1に示した記憶部24の場合と同様に例えばHDDを採用可能である。記憶部14Cは、コンピュータ910の補助記憶装置914に対応する。また、センサ部14は、コンピュータ910に接続された入力装置920に対応し、音声出力部15は、コンピュータ910に接続された出力装置930に対応する。
(第2の実施形態のまとめ)
以上のように、掃除ロボット11Cは、自身が、センサ情報判別部121C及び楽曲選択部122Cを備え、且つ、端末状態DB141C、選曲ルールDB142C、及びプレイリスト143Cを記憶部14Cに格納するように構成されていてもよい。このように構成された掃除ロボット11Cは、図1に示した掃除ロボット11とは異なりサーバ21とネットワーク接続することなく、所定の音声データが表す音声を出力することができる。すなわち、掃除ロボット11Cは、スタンドアローン型の掃除ロボットである。したがって、図1に示したネットワーク1が存在しない環境においても、図1に示した音声出力システム10と同じ効果を得ることができる。
なお、掃除ロボット11Cは、掃除ロボット11の場合と同様に通信部13を更に備えていてもよい。この構成によれば、必要に応じて、掃除ロボット11Cを他の外部サーバとネットワーク接続することができる。
掃除ロボット11Cと外部サーバとをネットワーク接続することによって、端末状態DB141C、選曲ルールDB142C、及びプレイリスト143Cの内容を更新したり、センサ情報判別部121C及び楽曲選択部122Cの機能を更新したりすることができる。
〔第3の実施形態〕
本発明の第3の実施形態に係る音声出力システム10Dについて、図8を参照して説明する。図8は、音声出力システム10Dのブロック図である。なお、説明の便宜上、第1の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態では、音声出力システム10Dが第1の実施形態に係る音声出力システム10と異なる点についてのみ説明する。なお、本実施形態においても、音声出力システム10Dに含まれる掃除ロボット11Dは、図5に示したユーザ111の家100に配置されているものとする。
(音声出力システム10Dの構成)
図8に示すように、音声出力システム10Dは、掃除ロボット11Dとサーバ21Dとを備えている。図8においては、ネットワークの図示を省略しているが、掃除ロボット11Dとサーバ21Dとは、ネットワークを介して互いにネットワーク接続されている。
ハードウェア構成に着目した場合、掃除ロボット11D及びサーバ21Dは、それぞれ、音声出力システム10(図1参照)を構成する掃除ロボット11及びサーバ21と同一である。したがって、本実施形態では、掃除ロボット11D及びサーバ21Dのハードウェア構成に関する説明を省略する。
機能ブロックに着目した場合、掃除ロボット11Dの制御部12Dは、掃除ロボット11の制御部12と同一である。したがって、本実施形態では、掃除ロボット11の機能ブロックに関する説明を省略する。
機能ブロックに着目した場合、サーバ21Dの制御部22Dは、センサ情報判別部221Dと、地図情報処理部222Dと、楽曲選択部223Dとを備えている。センサ情報判別部221Dは、サーバ21の制御部22が備えているセンサ情報判別部221に対応する。また、楽曲選択部223Dは、制御部22が備えている楽曲選択部222に対応する。したがって、制御部22Dは、制御部22に対して地図情報処理部222Dを追加することによって得られる。
また、サーバ21Dの記憶部24Dには、端末状態DB241D、選曲ルールDB242D、及びプレイリスト243Dに加えて、間取り情報DB244Dが格納されている。間取り情報DB244Dについては、後述する。
(音声出力システム10Dが実施する音声出力方法)
音声出力システム10Dにおいて実行される音声出力方法について、図9を参照して説明する。図9は、音声出力システム10Dにおいて実行される音声出力方法を表すシーケンス図である。本音声出力方法のフローチャートは、図4に示したフローチャートと同じになるため、その図示を省略する。
図4及び図9に示すように、音声出力システム10Dにおいて実行される音声出力方法は、センサ情報取得工程S11と、位置関連情報生成工程S12と、位置関連情報更新工程S13と、選曲ルール取得工程S14と、音楽データ選択工程S15と、音楽再生工程S16とを含んでいる。
音声出力システム10Dにおいて実行される音声出力方法のセンサ情報取得工程S11、位置関連情報更新工程S13、選曲ルール取得工程S14、音楽データ選択工程S15、及び音楽再生工程S16は、それぞれ、音声出力システム10において実行される音声出力方法(図3及び図4参照)のセンサ情報取得工程S11、位置関連情報更新工程S13、選曲ルール取得工程S14、音楽データ選択工程S15、及び音楽再生工程S16と同様である。したがって、本実施形態では、これらの各工程の説明を省略する。
音声出力システム10Dにおいて実行される音声出力方法の位置関連情報生成工程S12は、第1工程S121と第2工程S122とを含んでいる点が、音声出力システム10において実行される音声出力方法の位置関連情報生成工程S12と異なる。
第1工程S121は、掃除ロボット11Dのセンサ部14Dが生成したセンサ情報を供給されたセンサ情報判別部221Dが、センサ情報から位置関連情報を生成する工程である。すなわち、第1工程S121は、音声出力システム10において実行される音声出力方法における位置関連情報生成工程S12(図3参照)に対応する。
センサ情報判別部221Dは、生成した位置関連情報を地図情報処理部222Dに提供する。
地図情報処理部222Dは、予め、家100の間取り(洋室101、和室102、キッチン103、及び廊下104のサイズや配置など)と各部屋における境界の位置情報とを関連付けた間取り情報を取得しており、その間取り情報を記憶部24Dの間取り情報DB244Dに格納している。したがって、地図情報処理部222Dは、位置情報を与えられた場合に、間取り情報DB244Dを参照することによって、掃除ロボット11Dの所在地がどの部屋のどの辺りであるのか判別することができる。地図情報処理部222Dが判別可能な所在地の例としては、洋室101の障害物が多い部分とか、和室102の壁際とか、廊下104の洋室101との境界近傍とかである。
このように構成された地図情報処理部222Dは、センサ情報判別部221Dから位置情報を含む位置関連情報を取得した場合に、以下の表5に示すように、掃除ロボット11Dの所在地を表す所在地情報を加える。すなわち、第2工程S122は、取得した位置情報に基づいて、地図情報処理部222Dが間取り情報DB244Dを参照し、位置関連情報に所在地情報を加える工程である。
Figure 0006997585000005
なお、表5の位置関連情報では、掃除ロボット11Dの所在地の例として「和室102の壁際」を挙げている。また、地図情報処理部222Dが間取り情報DB244Dを参照しているため、表5の位置関連情報においては、掃除ロボット11Dの所在地に関連付けられるセンサの項目を「間取り情報」としている。
そのうえで、地図情報処理部222Dは、所在地情報をふくむ位置関連情報を楽曲選択部223Dに供給する。
また、以下の表6に示すように、選曲ルールDB242Dには、表2に示した選曲ルールDB242Dに対して、掃除ロボット11Dの所在地に関する「所在地」というカテゴリが追加されている。
Figure 0006997585000006
なお、掃除ロボット11Dは、掃除ロボット11の場合と同様に、図13に示すコンピュータ910を用いて実現可能である。また、サーバ21Dは、サーバ21の場合と同様に、図13に示すコンピュータ910を用いて実現可能である。
(間取り情報DB244D及び選曲ルールDB242Dの更新例)
ユーザ111が自身のスマートフォン41を用いて間取り情報DB244D及び選曲ルールDB242Dを更新する更新例について、図10を参照して説明する。図10の(a)~(d)は、音声出力システム10Dが記憶部24Dに格納している間取り情報DB244D及び選曲ルールDB242Dを、スマートフォン41を用いて更新する場合におけるスマートフォン41のスクリーンショットである。
図10の(a)~(d)に示すように、スマートフォン41は、タッチパネル42を備えている。タッチパネル42は、スマートフォン41の表示部でもあり、入力部でもある。また、スマートフォン41は、通信部を備えており、その通信部は、図8に図示しないネットワークを介してサーバ21Dとネットワーク接続されている。
図10の(a)に示した状態において、タッチパネル42には、家100の間取りが示されている。また、間取りの下側には、「区切る」と記されたボタンB1と、「選択」と記されたボタンB2と、「削除」と記されたボタンB3とが表示されている。
図10の(a)に示した状態において、ユーザ111は、ボタンB1「区切る」をタッチしたうえで、図5に示した和室102と廊下104との境界部分を指でドラッグする。
すると、図10の(b)に示すように、スマートフォン41の制御部は、タッチパネル42に、和室102と廊下104との境界部分に、ユーザ111が指でドラッグした軌跡を表す線L1を表示する。
ユーザ111は、ボタンB2「選択」を選択したうえで、タッチパネル42に表示された間取りの和室102に対応する部分をタップする。
スマートフォン41の制御部は、タッチパネル42を介してユーザ111から入力されたこれらの操作を、通信部を介してサーバ21Dへ送信する。
サーバ21Dの制御部22Dは、タップした部分に対して割り当てる名称を入力するように表示する旨の指示をスマートフォン41に対して送信する。
ユーザ111は、タップした部分に対して割り当てる名称(例えば「和室」)をスマートフォン41に対して入力する。
スマートフォン41の制御部は、ユーザ111から入力された上記名称を、通信部を介してサーバ21Dへ送信する。
制御部22Dは、「和室」という名称を部屋100の間取りのうちユーザにタップされた部分に関連付けるように間取り情報DB244Dを更新する。
次に、図10の(c)に示すように、スマートフォン41の制御部は、「和室」と名付けられた部分に関連付ける音楽を指定するようにユーザ111に促す旨をタッチパネル42に表示する。ここで、スマートフォン41にて用いられるユーザ111のプレイリストは、サーバ21の記憶部24Dに格納されているプレイリスト243Dと同じものである。
ユーザ111は、「和室」と名付けた部分に関連付ける音楽を指定する。
この操作を受け付けたサーバ21Dの制御部22Dは、「和室」と名付けた部分と、ユーザ111が指定した音楽とを関連付けるように選曲ルールDB242Dを更新する。
スマートフォン41は、図10の(d)に示すように、「和室」と名付けた部分に音符マークを表示することによって、選曲ルールDB242Dの更新が完了したことをユーザ111に通知する。
以上の方法は、スマートフォン41の記憶部に格納されたアプリケーションをスマートフォン41の制御部が実行することによって実現できる。このようなアプリケーションを採用することによって、サーバ21Dは、間取り情報DB244D及び選曲ルールDB242Dをユーザ111の位置に基づき更新することができる。
(間取り情報の作成方法)
本実施形態においてサーバ21が利用する間取り情報は、上述したアプリケーションを用いてユーザ111から提供された間取り情報であってもよいし、掃除ロボット11Dが家100の中を移動(又は掃除)しながら学習することによって、制御部12Dにより作成された間取り情報であってもよい。
制御部12Dが間取り情報を作成するために利用可能な手法としては、Slam(Simultaneous Localization & Mapping)と、移動(又は掃除)した軌跡を用いたマッピングとが挙げられる。
Slamは、掃除ロボット11Dのセンサ部14Dの1つである超音波センサやカメラモジュールなどを用いて、家100の間取りを制御部12Dが推定する手法である。この推定された間取りは、掃除ロボット11Dが移動(又は掃除)を繰り返す過程において、制御部12Dによって更新される。すなわち、掃除ロボット11Dは、移動(又は掃除)を繰り返しながら間取りを学習することによって、間取り情報の精度を高める。
掃除ロボット11Dが移動(又は掃除)した軌跡を用いたマッピングでは、GPS受信機が生成するセンサ情報(位置情報)と、移動量検出器が生成するセンサ情報(移動量情報)とを用いて、制御部12Dは、掃除ロボット11Dが移動(又は掃除)した軌跡を蓄積していく。ある程度の軌跡が蓄積されると、制御部12Dは、軌跡の集合から家100の間取りを推定することができる。
(第3の実施形態のまとめ)
このように、第1工程S121及び第2工程S122を含む位置関連情報生成工程S12を含むことによって、音声出力システム10Dにおいて実行される音声出力方法は、掃除ロボット11Dの所在地をより高い精度で特定することができる。したがって、本音声出力方法は、図3に示した音声出力方法と比較して、掃除ロボット11Dの位置をユーザに報知するときの精度を高めることができる。
〔第4の実施形態〕
本発明の第1~第3の実施形態に係る音声出力システム10,10A,10B,10C,10Dにおいては、第1の端末装置及び第2の端末装置の各々が単一の端末装置として実現されていた。本発明の第4の実施形態に係る音声出力システム10Eにおいて、第1の端末装置及び第2の端末装置の各々は、別個の端末装置である掃除ロボット11E及び調理家電31Eとして実現されている。
以下では、本実施形態に係る音声出力システム10Eについて、図11及び図12を参照して説明する。図11は、音声出力システム10Eのブロック図である。図12は、音声出力システム10Eの機能を説明する概略図である。
なお、説明の便宜上、第1の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態では、音声出力システム10Eが第1の実施形態に係る音声出力システム10と異なる点についてのみ説明する。
(音声出力システム10Eの構成)
図11に示すように、音声出力システム10Eは、掃除ロボット11Eと、サーバ21Eと、調理家電31Eとを備えている。掃除ロボット11E及び調理家電31Eは、それぞれ、特許請求の範囲に記載の第1の端末装置及び第2の端末装置に対応する。掃除ロボット11Eとサーバ21Eと調理家電31Eとは、ネットワーク1を介して互いにネットワーク接続されている。
図11に示すように、掃除ロボット11Eは、第1の端末制御部である制御部12Eと、第1の端末通信部である通信部13Eと、センサ部14とを備えている。したがって、掃除ロボット11Eは、図1に示した掃除ロボット11から音声出力部15を省略した端末装置である。
また、調理家電31Eは、第2の端末制御部である制御部32と、第2の端末通信部である通信部33と、音声出力部35とを備えている。調理家電31Eは、掃除ロボット11から省略した音声出力部15を、音声出力部35として備えた端末装置である。
換言すれば、音声出力システム10Eは、音声出力システム10において掃除ロボット11が備えていたセンサ部14及び音声出力部15を、2つの端末装置である掃除ロボット11Eと調理家電31Eとに別個に搭載したものである。
サーバ21Eは、図1に示したサーバ21と同じハードウェア構成を有する。サーバ21Eがサーバ21と比較して異なる点は、以下の通りである。サーバ21Eの制御部22が備える楽曲選択部222は、所定の音楽データを選択(図3に示した工程S151に対応する)したうえで、所定の音楽データを掃除ロボット11Eではなく調理家電31Eに送信する(図3に示した工程S152に代わる工程)。
楽曲選択部222から、通信部33を介して所定の音楽データを受信した調理家電31Eの制御部32は、所定の音楽データが表す音楽を再生し、音声出力部35から出力する。
なお、調理家電31Eは、上述した所定の音楽データが表す音楽を再生する機能の他に、食品を調理するための電子レンジ機能及びオーブンレンジ機能を備えている。しかし、これらの機能を実現するための構成については、音声を出力するための構成とは無関係であるため、その説明を省略する。
(音声出力システム10Eの概要)
図12を参照しながら、音声出力システム10Eの概要について説明する。なお、本実施形態で用いる家100は、図2に示した家100と同じである。
図12に示すように、掃除ロボット11Eは、ユーザ111の家100に配置されている。また、調理家電31Eは、家100のキッチン103に配置されている。なお、本実施形態において、ユーザ111は、キッチン103で料理をしているものとする。
音声出力システム10Eにおいて、掃除ロボット11Eが洋室101から和室102へ移動した場合、サーバ21Eの楽曲選択部22Eは、ファイル名が「和風な音楽」である音楽データを調理家電31Eへ送信する。
調理家電31Eの制御部32は、サーバ21Eから受信したファイル名が「和風な音楽」である音楽データが表す音楽を再生し音声出力部35から出力する。
したがって、ユーザ111は、目視によって掃除ロボット11Eの位置を把握できない場合であっても、制御部32が再生する音楽を聴くことによって、掃除ロボット11が和室102にいることを知ることができる。換言すれば、掃除ロボット11Eは、自発的に移動を繰り返す自走式の掃除ロボットであり、そのうえで、自身の位置を、調理家電31Eを介してユーザ111に報知することができる。
同様に、音声出力システム10E及び音声出力システム10Eを構成するサーバ21Eの各々は、掃除ロボット11が自発的に移動を繰り返す場合であっても、掃除ロボット11の位置を、調理家電31Eを介してユーザ111に報知することができる。
なお、掃除ロボット11Eは、掃除ロボット11の場合と同様に、図13に示すコンピュータ910を用いて実現可能である。また、サーバ32Eは、サーバ21の場合と同様に、図13に示すコンピュータ910を用いて実現可能である。また、調理家電31Eは、掃除ロボット11の場合と同様に、図13に示すコンピュータ910を用いて実現可能である。
(音声出力システム10Eが実施する音声出力方法)
音声出力システム10Eが実施する音声出力方法は、サーバ21Eの楽曲選択部22Eが所定の音楽データを調理家電31Eに送信し、所定の音楽データが表す音楽を調理家電31Eの制御部32が再生する点を除いて、図3及び図4に示した音声出力システム10が実施する音声出力方法と同様である。
具体的には、図3に記載の工程S152に対応する工程において、楽曲選択部22Eが所定の音楽データを調理家電31Eに送信し、且つ、図3に記載の音楽再生工程S16に対応する工程において、所定の音楽データが表す音楽を制御部32が再生する。したがって、本実施形態では、音声出力システム10Eが実施する音声出力方法の詳細な説明と、シーケンス図及びフローチャートの図示を省略する。
<選曲ルールDB242の変形例>
なお、サーバ21Eの記憶部24に格納されている選曲ルールDB242は、表2に示すように構成されていてもよいし、表4に示すように構成されていてもよい。この点についても、サーバ21Eは、第1の実施形態に係る音声出力システム10(図1参照)を構成するサーバ21と同様である。
選曲ルールDB242が表4に示すように構成されている場合、選曲ルールDB242は、音声を再生するときのパラメータ変化の一例として、制御部32が所定の音楽データが表す音楽を再生するタイミングである報知タイミングを含んでいてもよい。
選曲ルールDB242において報知タイミングが設定されていない場合、制御部32は、所定の音楽データが表す音楽をサーバ21Eから受信したタイミングで即時に再生する。一方、選曲ルールDB242において報知タイミングが設定されている場合、制御部32は、設定された報知タイミングに基づいて所定の音楽データが表す音楽を再生する。なお、選曲ルールDB242が含む報知タイミングは、任意に設定可能である。例えば、報知タイミングは、調理家電31Eがユーザ111により操作されたこと(例えば調理家電31Eの扉が開けられたなど)を検出したタイミングで音声を再生するように設定することができる。この構成によれば、調理家電31Eは、ユーザが確実に聞き取ることができるタイミングで音声を再生することができる。
〔第5の実施形態〕
上述した第1の実施形態では、図1に示すように1つのサーバ21を用いる例を説明したが、サーバ21の有する各機能が、複数の個別のサーバにて実現されていてもよい。そして、複数のサーバをサーバ21として適用する場合においては、複数のサーバの各々は、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
これらの点に関して、図6の(a)に示したサーバ21A、図6の(b)に示したサーバ21B、図8に示したサーバ21D、及び図11に示したサーバ21Eについてもサーバ21と同様である。
〔第6の実施形態〕
上述した第1の実施形態において、掃除ロボット11及びサーバ21の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、掃除ロボット11及びサーバ21のそれぞれを、図13に示すようなコンピュータ(電子計算機)910を用いて構成することができる。
図13は、掃除ロボット11及びサーバ21として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばプロセッサ(例えばCPU:Central Processing Unit等)、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
補助記憶装置914には、コンピュータ910を掃除ロボット11及びサーバ21として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、掃除ロボット11及びサーバ21が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。また、記録媒体に記録されているプログラムを、主記憶装置913上に展開することなく実行可能なコンピュータであれば、主記憶装置913を省略してもよい。なお、上記各装置(演算装置912、主記憶装置913、補助記憶装置914、入出力インターフェース915、通信インターフェース916、入力装置920、および出力装置930)は、それぞれ1つであってもよいし、複数であってもよい。
また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
掃除ロボット11A及びサーバ21A(図6の(a)参照)、掃除ロボット11B及びサーバ21B(図6の(b)参照)、掃除ロボット11C(図7参照)、掃除ロボット11D及びサーバ21D(図8参照)、並びに、掃除ロボット11E、サーバ21E、及び調理家電31E(図11参照)の各ブロックについても、上述した掃除ロボット11及びサーバ21の各ブロックの場合と同様に、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、掃除ロボット11A及びサーバ21A(図6の(a)参照)、掃除ロボット11B及びサーバ21B(図6の(b)参照)、掃除ロボット11C(図7参照)、掃除ロボット11D及びサーバ21D(図8参照)、並びに、掃除ロボット11E、サーバ21E、及び調理家電31E(図11参照)のそれぞれを、図13に示すようなコンピュータ(電子計算機)910を用いて構成することができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
10,10A,10B,10D,10E 音声出力システム
11,11A,11B,11C,11D 掃除ロボット(第1及び第2の端末装置)
11E 掃除ロボット(第1の端末装置)
12,12A,12B,12C,12D 制御部(第1及び第2の端末制御部)
12E 制御部(第1の端末制御部)
121A,121B,121C センサ情報判別部
122B,122C 楽曲選択部
13,13D 通信部(第1及び第2の端末通信部)
13E 通信部(第1の端末通信部)
14,14D センサ部
15,15D 音声出力部
21,21A,21B,21D,21E サーバ
22,22A,22B,22D 制御部
221,221D センサ情報判別部
222D 地図情報処理部
222,222A,223D 楽曲選択部
23,23D 通信部
24,14C,24D 記憶部
241,141C,241D 端末状態データベース
242,142C,242D 選曲ルールデータベース
243,143C,243D プレイリスト
31E 調理家電(第2の端末装置)
32 制御部(第2の端末制御部)
33 通信部(第2の端末通信部)
35 音声出力部

Claims (7)

  1. (1)第1の端末制御部と、第1の端末通信部と、センサ部とを含む第1の端末装置と、(2)サーバ制御部と、サーバ通信部とを含むサーバと、(3)第2の端末制御部と、第2の端末通信部と、音声出力部とを含む第2の端末装置と、を備え、上記第1の端末装置と、上記サーバと、上記第2の端末装置とがネットワーク接続された音声出力システムであって、
    上記第1の端末装置の上記第1の端末制御部は、上記センサ部を介して取得したセンサ情報から上記第1の端末装置の位置に関連する位置関連情報を生成し、且つ、上記第2の端末装置の上記第2の端末制御部は、当該位置関連情報に関連付けられた所定の音声データが表す音声を、上記音声出力部を介して出力し、
    上記サーバ制御部は、
    上記第1の端末装置の位置に関連する上記位置関連情報を、上記サーバ通信部を介して上記第1の端末装置から受信し、
    上記位置関連情報に関連付けられた音声データを所定の音声データとして選択し、
    上記所定の音声データを第2の端末装置に送信する、
    ことを特徴とするシステム。
  2. サーバ制御部と、サーバ通信部と、を備えたサーバであって、
    上記サーバ制御部は、
    第1の端末装置の位置に関連する位置関連情報を、上記サーバ通信部を介して上記第1の端末装置から受信し、
    上記位置関連情報に関連付けられた音声データを所定の音声データとして選択し、
    上記所定の音声データを第2の端末装置に送信する、
    ことを特徴とするサーバ。
  3. 上記サーバ制御部は、
    位置関連情報のカテゴリと、当該カテゴリを場合分けする条件と、音声データとが関連付けられた選曲ルールデータベースを参照し、
    上記位置関連情報が適合する条件に関連付けられた音声データのうち何れか1つの音声データを上記所定の音声データとして選択し、
    当該所定の音声データを第2の端末装置に送信する、
    ことを特徴とする請求項2に記載のサーバ。
  4. 上記サーバ制御部は、
    位置関連情報のカテゴリと、当該カテゴリを場合分けする条件と、音声データと、当該音声データが表す音声を出力するときの出力パラメータとが関連付けられた選曲ルールデータベースを参照し、
    上記位置関連情報が適合する条件に関連付けられた音声データのうち何れか1つの音声データを上記所定の音声データとして選択し、
    (1)当該所定の音声データを上記位置関連情報が適合する条件に関連付けられた出力パラメータと共に上記第2の端末装置に送信する、又は、(2)上記位置関連情報が適合する条件に関連付けられた出力パラメータを上記所定の音声データに反映させ、上記出力パラメータを反映させた音声データを上記第2の端末装置に送信する、
    ことを特徴とする請求項2又は3に記載のサーバ。
  5. 制御部と、センサ部と、音声出力部と、を備えた端末装置であって、
    当該端末装置を移動するための移動部を備え、
    上記制御部は、上記センサ部を介して取得したセンサ情報から当該端末装置の位置に関連する位置関連情報を生成し、且つ、当該位置関連情報に関連付けられた所定の音声データが表す音声を、上記音声出力部を介して出力し、
    前記端末装置は通信部を更に備え、
    上記制御部は、上記位置関連情報を、上記通信部を介してサーバに送信し、上記サーバから上記通信部を介して受信した上記所定の音声データが表す音声を出力する、
    ことを特徴とする端末装置。
  6. センサ部を含む第1の端末装置と、サーバと、音声出力部を含む第2の端末装置とを備え、上記第1の端末装置と、上記サーバと、上記第2の端末装置とがネットワーク接続された音声出力システムが音声を出力する音声出力方法であって、
    上記第1の端末装置において、上記センサ部を介して取得したセンサ情報から上記第1の端末装置の位置に関連する位置関連情報を生成する位置関連情報生成工程と、
    上記サーバにおいて、
    上記第1の端末装置の位置に関連する位置関連情報を、上記第1の端末装置から受信する受信工程と、
    上記位置関連情報に関連付けられた音声データを所定の音声データとして選択する選択工程と、
    上記所定の音声データを上記第2の端末装置に送信する工程と、
    上記第2の端末装置において、上記所定の音声データが表す音声を、上記音声出力部を介して出力する音声出力工程と、を含む
    ことを特徴とする音声出力方法。
  7. 請求項に記載の端末装置としてコンピュータを機能させるためのプログラムであって、上記制御部としてコンピュータを機能させるためのプログラム。
JP2017203652A 2017-10-20 2017-10-20 音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム Active JP6997585B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017203652A JP6997585B2 (ja) 2017-10-20 2017-10-20 音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017203652A JP6997585B2 (ja) 2017-10-20 2017-10-20 音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019079122A JP2019079122A (ja) 2019-05-23
JP6997585B2 true JP6997585B2 (ja) 2022-01-17

Family

ID=66628384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017203652A Active JP6997585B2 (ja) 2017-10-20 2017-10-20 音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6997585B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001217789A (ja) 2000-02-03 2001-08-10 Pioneer Electronic Corp 携帯端末機への情報配信システム
JP2006050414A (ja) 2004-08-06 2006-02-16 Omron Corp 情報配信システム、携帯端末、および情報配信サーバ装置
JP2006238357A (ja) 2005-02-28 2006-09-07 Fuji Photo Film Co Ltd 出力装置、出力方法、プログラム、及び音声提供システム
JP2012181081A (ja) 2011-03-01 2012-09-20 Advanced Telecommunication Research Institute International ルートパースペクティブモデル構築方法およびロボット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001217789A (ja) 2000-02-03 2001-08-10 Pioneer Electronic Corp 携帯端末機への情報配信システム
JP2006050414A (ja) 2004-08-06 2006-02-16 Omron Corp 情報配信システム、携帯端末、および情報配信サーバ装置
JP2006238357A (ja) 2005-02-28 2006-09-07 Fuji Photo Film Co Ltd 出力装置、出力方法、プログラム、及び音声提供システム
JP2012181081A (ja) 2011-03-01 2012-09-20 Advanced Telecommunication Research Institute International ルートパースペクティブモデル構築方法およびロボット

Also Published As

Publication number Publication date
JP2019079122A (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6585205B2 (ja) 見通し外レーダ型ジェスチャ認識
US10560810B2 (en) Proactive actions on mobile device using uniquely-identifiable and unlabeled locations
US20200234716A1 (en) Determining a target device for voice command interaction
US20180348783A1 (en) Asynchronous image classification
KR102338899B1 (ko) 홈 디바이스를 제어하는 방법 및 디바이스
US20090259648A1 (en) Automated avatar creation and interaction in a virtual world
CN106415509A (zh) 集线器到集线器外设发现
KR20160127737A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2016502192A (ja) 応答エンドポイント選択
CN103503503A (zh) 使用音频信号编码和识别进行的音频定位
CN105960596B (zh) 使用音频映射设备的位置
US9874977B1 (en) Gesture based virtual devices
JP2007094743A (ja) 自律移動型ロボットとそのシステム
US20230091104A1 (en) Electronic device and operating method thereof
JP6767322B2 (ja) 出力制御装置、出力制御方法及び出力制御プログラム
JP6997585B2 (ja) 音声出力システム、サーバ、端末装置、音声出力方法、及びプログラム
CN107667383A (zh) 推断用于与数字助理一起使用的提示
US11870563B2 (en) Microlocations using tagged data
CN107860381A (zh) 导航信息获取方法及装置、计算机可读存储介质
WO2016189905A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR102083466B1 (ko) 음악을 추천하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
WO2021199284A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP4023806B2 (ja) コンテンツ再生システム及びコンテンツ再生プログラム
JP2006013928A (ja) 操作端末
EP4261793A1 (en) Obstacle avoidance using fused depth and intensity for nnt training

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211217

R150 Certificate of patent or registration of utility model

Ref document number: 6997585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150