以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態にかかるスマートフォン100の利用環境の一例を示す。本例において、スマートフォン100は、電車内で使用される。スマートフォン100は、スマートフォン100を持つユーザ10の手から生体情報を検出する。例えば、スマートフォン100は、ユーザ10の脈拍、発汗量、血圧、圧力等を検出する。スマートフォン100は、生体情報の検出結果に応じてユーザ10に適した情報を、外部と通信することにより取得する。スマートフォン100は、取得した情報を表示してユーザ10に提示する。
スマートフォン100は、周囲の音を検出する機能を有する。また、スマートフォン100は、位置を検出する機能を有する。スマートフォン100は、予め定められた閾値より大きい音量の音が検出された場合に、生体情報が変化したか否かを判断する。予め定められた閾値より大きい音量の音が検出された場合に生体情報が変化したときは、ユーザ10が緊急の運行情報等の車内放送等を聞き逃した可能性がある。このため、スマートフォン100は、予め定められた閾値より大きい音量の音の検出に応じて生体情報の変化を検出した場合には、現在位置に対応する運行情報等の情報を取得して、ユーザ10に提示する。例えば、現在位置が電車の路線内に該当する場合には、現在位置に対応する路線や近隣の路線における電車の運行情報を取得して、ユーザ10に提示する。
一方、予め定められた閾値より大きい音量の音が検出されていない場合に生体情報の変化が検出されたときには、ユーザ10が乗り過ごしに気付いた可能性や、体調不良を起こした可能性がある。この場合、スマートフォン100は、生体情報に基づいてユーザ10の状況を解析して、ユーザ10が乗り過ごしたと判断した場合は、折り返しの時刻情報等を取得して、ユーザ10に提示する。また、スマートフォン100は、ユーザ10が体調不良を起こしたと判断した場合は、症状に関する情報等を取得して、ユーザ10に提示する。
スマートフォン100によれば、電車内での放送内容がある種の要因でユーザ10に聞こえなかったりユーザ10が聞き逃したりしても、情報のリクエストを自動的に行うことができる。また、ユーザ10が乗り過ごしてしまったり、体調不良を起こしたりしても、情報のリクエストを自動的に行うことができる。このため、ユーザ10の利便性を高めることができる。
図2は、スマートフォン100の概要の一例を示す。スマートフォン100は、縦長の略矩の形状を持つ。スマートフォン100は、表示部260、撮像部210、マイク294、生体センサ220、集音マイク250およびスピーカ292を備える。
表示部260の表面は、ユーザ10がタッチすることにより種々の指示を受け付けるタッチパネルが設けられる。撮像部210は、表示部260が設けられた側に設けられる。撮像部210は、レンズおよび撮像素子を有する。レンズの光軸の方向は、表示部260の表示面の垂直方向に略一致する。したがって、撮像部210は、ユーザ10がスマートフォン100を操作している場合に、ユーザ10の顔を撮像することができる。例えば、スマートフォン100は、ユーザ10の顔から、ユーザ10の表情等を検出することができる。なお、撮像部210は、ユーザ10の生体情報を非接触で検出する生体情報検出部の一例である。
ユーザ10がスマートフォン100を保持したときに、マイク294がユーザ10の口と対向し、スピーカ292がユーザ10の耳と対向するように、マイク294がスマートフォン100の下方に設けられ、スピーカ292がスマートフォン100の上方に設けられる。
生体センサ220は、ユーザ10に接触する生体センサの一例である。すなわち、生体センサ220は、ユーザ10の生体情報を検出する生体情報検出部の一例である。生体センサ220は、ユーザ10がスマートフォン100を手で保持するときに、ユーザ10の手に触れるように長辺側の側面に設けられる。生体センサ220としては、脈拍センサを例示することができる。脈拍センサとしては、LEDにより生体に向けて照射光を照射し、当該照射光に対して生体から反射した光を受光することにより、脈拍を検出するセンサを適用できる。生体センサ220は、脈拍センサの他にも、発汗量を検出する発汗量センサを有してよい。発汗量センサとしては、複数の電極を配した発汗センサを設けることによりユーザの発汗量を検出する構成を適用できる。生体センサ220として更に、体温を測る温度センサ、血圧を測る血圧センサ等が設けられる。
なお、本例においては、生体センサ220は、スマートフォン100の本体に設けられる。しかし、スマートフォン100とは分離した生体センサを適用することもできる。例えば、腕時計型の生体センサを適用することもできる。ユーザの生体に接触して設けられた生体センサを、スマートフォン100における制御に適用できる。例えば、スマートフォン100が、当該生体センサの検出結果を通信により取得して、取得した検出結果を制御に利用してよい。
また、生体センサ220は、圧力センサを有してもよい。圧力センサによりユーザ10がスマートフォン100を保持したことを検出して、上述した生体情報の検出を開始するようにしてもよい。すなわち、スマートフォン100の電源がオンになっている場合には、圧力センサはオンにしておき、他の生体センサや各種センサ、スマートフォン100内の各種解析を行う各種の解析部はオフの状態にしてもよい。また、当該圧力センサの出力に基づいてユーザ10がスマートフォン100を通常よりも強く握っているかどうかを判別することもできる。生体センサ220により検出された生体情報は、スマートフォン100内のフラッシュメモリ(後述のROM202)に記憶される。この場合、フラッシュメモリ(後述のROM202)に記憶される生体情報は、検出された値に加えて、ユーザ10の各種生体情報の平均値も記憶される。
図3は、スマートフォン100のブロック構成の一例を示す。本ブロック図を用いてスマートフォン100の構成要素を説明する。スマートフォン100は、図2に関連して説明した構成要件に加えて、操作入力部290、通信部270、ROM202、CPU200、タイマ280、GPSモジュール282、画像解析部230および音解析部240を有する。
タイマ280は、年月日、時刻等の時間情報をCPU200に出力する。また、タイマ280は、計時機能を有する。ROM202は、例えばフラッシュメモリなどの不揮発性メモリである。ROM202は、スマートフォン100を制御するプログラム、各種パラメータなどを記憶する。また、ROM202は、顔表情に関する顔表情データ等を記憶する。顔表情データとしては、笑顔、驚き顔、眉間に皺を寄せている顔、苦しんでいる顔等の画像データを例示することができる。当該画像データは、テンプレート画像のデータであってよい。
音解析部240は、集音マイク250から取り込まれた音声を解析する。音解析部240は、集音マイク250から出力された音声データの音量、音の周波数等を解析する。集音マイク250は、音を検出する音検出部の一例である。
画像解析部230は、撮像部210が撮像した画像を分析する。画像解析部230は、撮像部210が撮像した画像から顔を検出する。画像解析部230は、検出された顔領域の画像と、ROM202に記憶されている顔表情データとを比較することにより、撮像部210が撮像した人の表情を検出する。画像解析部230は、検出した顔領域の画像とテンプレート画像データとのパターンマッチングにより、顔の比較を行う。
GPSモジュール282は、GPS衛星から発信されるGPS信号を受信して、受信したGSP信号から緯度情報および経度情報を算出することにより、ユーザ10の現在位置を検出する。GPSモジュール282は、算出した緯度情報および経度情報を、CPU200へ出力する。
通信部270は、外部と通信して情報を取得する。具体的には、通信部270は、無線通信を行う。例えば、通信部270は、IEEE 802.11規格に従って無線通信を行う。なお、通信部270は、電車に設けられた中継サーバ等と通信を行うことにより、中継サーバを介して無線通信を行ってもよい。スマートフォン100は、Bluetooth(登録商標)等の近距離無線通信を有しており、近距離無線通信により中継サーバから情報を取得してもよい。
操作入力部290は、スマートフォン100に設けられたキーを含む。また、操作入力部290は、表示部260にタッチパネルの一部として設けられた入力部材を含む。操作入力部290は、受け付けたユーザ操作を示す情報をCPU200へ出力する。
CPU200は、スマートフォン100全体を制御する。本実施形態においては、CPU200は、予め定められた値(電車内の場合例えば80dB)以上の音量の音声の検出に応じて、生体情報が変化したか否かを判断する。また、CPU200は、当該判断に応じて、上述したような現在位置に基づく運行情報等、通信部270を通じて取得するべき情報の種類を決定する。CPU200は、通信部270を制御して、決定した種類の情報を外部から取得する。CPU200は、取得した情報を表示部260に表示させる。このように、CPU200は、集音マイク250が予め定められた値以上の音量の音の検出に応じて生体情報の変化が検出された場合に、現在位置に基づく情報を取得してユーザへ提示する。
図4は、スマートフォン100における制御フローの一例を示す。本フローにかかる処理は、CPU200が主体となって各部を制御することにより実行される。本フローは、生体情報の監視を開始するタイミングで開始される。例えば、ユーザ10がスマートフォン100を握ったタイミングで開始される。
本フローが開始されると、ステップS402で、生体情報の変化があったかを検出する。具体的には、CPU200が、生体センサ220で検出された情報、撮像部210で検出された顔情報等から得られた情報を元に、生体情報の変化の有無を検出する。生体情報の変化は、生体センサ220により継続的にユーザ10の生体情報を検出する中で検出してもよく、また、ROM202に記憶されているユーザ10の平均的な生体情報との差異から検出してもよい。生体情報に変化がない場合に、CPU200は、生体情報の変化を監視すべく、本判断を繰り返す。
CPU200は、生体情報に変化があった場合、ステップS404で、直前に社内放送があったか確認する。具体的には、CPU200は、集音マイク250で検出された音声に基づいて、直前に社内放送があったか否かを判断する。例えば、CPU200は、予め定められた閾値を超える音量の音声が検出された場合に、車内放送があった旨を判断する。また、車内放送に特有の予め定められた周波数(例えば2000〜4000Hz)の音声が検出された場合に、車内放送があった旨を判断する。
直前に車内放送があった場合に、CPU200は、ステップS406で、位置および時刻を検出する。車内放送があった直後に生体情報が変化したことから、CPU200は、車内放送の内容をユーザ10が聞き逃したと判定する。聞き逃しと判定されると、CPU200は、GPSモジュール282から現在の位置を取得するとともに、現在の時刻をタイマ280から取得する。
CPU200は、ステップS408で、取得した現在時刻および現在位置を元に、通信部270を利用して、ユーザをガイドするガイド情報の一例としての運行中の電車に関連する情報を、インターネットを通じて取得する。例えば、CPU200は、次駅での乗り換え案内情報や、現在における交通トラブルの発生情報等を取得する。またスマートフォン100のROM202内に定期券情報が登録されていれば、CPU200は、自動的に迂回経路および迂回時間等の情報も先取りして取得することができる。CPU200は、ステップS410で、得られた情報を表示部260に表示して、ユーザ10へ情報の提供を行い、処理を終了する。このように、CPU200は、現在位置および現在時刻の組み合わせに基づく情報を取得してユーザへ提示する。
CPU200は、ステップS404で、車内放送がないと判断された場合、ユーザ10自身に対して変化があったと判断することができる。そのため、ステップS412で、CPU200は生体情報を解析する。ステップS402では生体情報の検出を行ったのに対して、本ステップでは生体センサ220で検出された情報を解析する。例えば、CPU200は、生体センサ220および生体センサ220で検出された情報から、次に記載するような判定を行う。
例えば、CPU200は、撮像部210で撮像されたユーザ10の顔情報から、集中度を検出する。例えば、ユーザ10の目線が大きく変化した場合に、集中力が切れたことを検出する。また、CPU200は、ユーザ10の目線の変化量が大きいほど、低い集中力を検出する。また、CPU200は、生体センサ220の一部としての圧力センサから、イライラ度を検出する。検出した圧力が高いほど、高いイライラ度を検出する。また、生体センサ220の一部としての発汗センサから、冷や汗等の発汗量を検出する。
ステップS414で、CPU200は、生体情報の解析結果を組み合わせることにより、ユーザ10の状態を判定する。例えば、CPU200は、圧力センサおよび発汗センサの出力から、痛みを伴う体調不良が生じたと判定する。例えば、圧力センサで検出された圧力が予め定められた値を超え、かつ、発汗センサで検出された発汗量が予め定められた値を超える場合に、痛みを伴う体調不良が生じたと判断する。また、発汗センサおよび顔の検出結果に基づいて、居眠りまたは集中等による乗り過ごしの有無を判定する。例えば、CPU200は、発汗センサで検出された発汗量が予め定められた値を超え、かつ、驚いた表情の顔が検出された場合に、乗り過ごしと判定する。
ステップS414を経てステップS408に進んだ場合、ステップS408では、CPU200は通信部270を制御して、ステップS414で判定したユーザ10の状態等にふさわしい情報を、インターネットから取得する。具体的には、ステップS414で、痛みを伴う体調不良と判定された場合、痛みに関する情報を取得する。例えば、痛みの症状に関する情報や、痛みに効くツボ等の情報を取得する。また、現在位置から最寄りの病院等の情報を取得してもよい。また、乗り過ごしと判断した場合は、折り返しをする駅の時刻表情報や最速で乗り換え情報を取得する。また、単にユーザ10のイライラ度が高い状態と判断された場合は、エンターテイメント情報等を取得してよい。
このように、撮像部210、生体センサ220は、異なる種類の生体情報を検出する。そして、CPU200は、生体情報の検出結果の組み合わせに基づく情報を取得して、ユーザへ提示する。
図5は、表示部260に表示される画面500の一例を示す。本画面500は、ユーザ10が車内放送を聞き逃したと判定された場合に表示される画面の一例である。本画面500に示すように、CPU200は、電車の運行情報を提供するサイトから、現在位置に対応する路線の運行情報510を取得して、表示部260へ表示させる。
また、CPU200は、現在からの乗り換え案内情報530を取得して、表示部260へ表示させる。乗り換え案内情報530は、各乗り換え駅の駅名および各駅の発車時刻を含むコンテンツ520と、時刻表情報のアイコン540とを含む。CPU200は、ROM202に格納された定期情報等から、終点の駅を特定してよい。また、CPU200は、ユーザ10がアイコン540をタッチすることで時刻表情報へのアクセスが指示されると、指示された駅の時刻表情報を表示部260に表示する。
以上に説明したスマートフォン100によれば、ユーザ10の状態に応じて適切な情報をユーザへ提供することができる。このため、ユーザ10の利便性を高めることができる。
図6は、一実施形態にかかるシステム600の利用場面の一例を模式的に示す。システム600は、電車等の車内において情報のリクエストを行う。具体的には、スピーカに撮像装置が付いた構成にて、スピーカから出力される音声の聞き逃しの検出を行い、聞き逃し検出に応じて情報のリクエストを行う。
システム600は、本実施形態では電車610内で適用され、制御装置700、マイク680、出力ユニット710aおよび710bを備える。システム600の説明において、出力ユニット710aおよび710bを出力ユニット710と総称する場合がある。制御装置700は、例えば電車610の車掌室に設けられる。マイク680は、車掌690が発した音声を入力して、制御装置700に出力する。制御装置700は、入力された音声を出力ユニット710へ供給して、車内放送を行う。
出力ユニット710aは、撮像装置740a、指向性スピーカ720aおよび無指向性スピーカ730aを有する。出力ユニット710bは、撮像装置740b、指向性スピーカ720bおよび無指向性スピーカ730bを有する。システム600の説明において、指向性スピーカ720aおよび指向性スピーカ720bを、指向性スピーカ720と総称する場合がある。また、無指向性スピーカ730aおよび無指向性スピーカ730bを、無指向性スピーカ730と総称する場合がある。また、撮像装置740aおよび撮像装置740bを、撮像装置740と総称する場合がある。なお、出力ユニット710の数や配置場所は、各車両の面積や、撮像装置740の撮像範囲から適宜設定することができる。
指向性スピーカ720および無指向性スピーカ730は、それぞれ音出力部の一例である。指向性スピーカ720は、例えば、超音波トランスデューサを備えており、これにより限られた方向のみに音声を伝達するスピーカであり、無指向性スピーカ730は、指向性スピーカ720よりも広域な方向に音声を伝達するスピーカである。なお、不図示の駆動部により指向性スピーカ720が音を伝達する方向を調節するようになっている。
撮像装置740は、指向性スピーカ720および無指向性スピーカ730の周囲を撮像するようなレンズ(例えば広角レンズ)および撮像素子などを有している。撮像装置740は、図6に示してあるように車内の天井に設けられているので、通常は乗客の頭部の画像や、額や目など顔の一部しか撮像していない。すなわち、撮像装置740は、乗客が乗客の上部に設けられた出力ユニット710に注目したときに、乗客の顔を撮像することになる。制御装置700は、撮像装置740が撮像した画像から顔が検出された場合に、音出力部から音を出力させる制御部の一例である。具体的には、制御装置700は、無指向性スピーカ730からの音の出力に応じて当該画像から顔が検出された場合に、指向性スピーカ720または無指向性スピーカ730から再度音を出力させる。
より具体的には、システム600において、制御装置700が、車内放送の音声を出力ユニット710から出力させた場合に、制御装置700は、撮像装置740で撮像された画像から、出力ユニット710の方向を向く顔を検出する。出力ユニット710の方向を向いた顔が検出された場合には、制御装置700は、再度同じ音声を出力ユニット710から出力させる。
乗客が車内放送を聞き逃した場合等のように、人が音を聞くことができなかった場合、行動心理により、音が出る方向すなわち出力ユニット710を見る習性がある。このため、車内放送をした後に出力ユニット710へ向いた顔が検出された場合、聞き逃した乗客がいる可能性が高い。このような場合に、制御装置700は、再度車内放送をすることができるので、乗客に適切に情報を提供することができる。例えば、制御装置700は、出力ユニット710へ向く顔が複数検出された場合、無指向性スピーカ730から音声を出力させる。一方、制御装置700は、出力ユニット710へ向く顔が一つしか検出されなかった場合、指向性スピーカ720から、検出された顔の位置に対応する客車内の位置に向けて音声を出力させる。このため、聞き逃した人が一人しかいない場合に、多くの乗客に同じ車内放送を再度聞かせてしまうことを防ぐことができる。
図7は、システム600のブロック構成の一例を示す。本ブロック図を用いてシステム600の構成要素を説明する。システム600は、図6に関連して説明した構成要件に加えて、CPU770、顔検出部780、表示部750、入出力部790、RAM774およびROM772を有する。これらの機能ブロックは、制御装置700が有する。
ROM202は、例えばフラッシュメモリなどの不揮発性メモリである。ROM772は、制御装置700を制御するプログラム、各種パラメータなどを記憶する。また、ROM772は、人間の顔に関する顔データ等を記憶する。顔データとしては、人間の顔のテンプレート画像のデータ等であってよい。例えば、ROM772は、指向性スピーカ720および無指向性スピーカ730が設けられた方向を向いた場合に、撮像装置740で撮像される向きの顔の顔データを記憶してよい。
入出力部790は、情報の入出力を制御する。入出力部790は、マイク680から音声情報を取得して、CPU770に出力する。また、入出力部790は、車掌690へ通知する情報を出力する。入出力部790は、音、光等により、車掌690へ通知(報知)してよい。表示部750は、車掌690へ通知する情報を表示する。車掌690へ通知する情報としては、車内放送を再度行うべき旨の情報を例示することができる。
顔検出部780は、ROM772に記憶されている顔の主要なパーツ(目、眉毛、鼻、口)を参照パターンとして、撮像装置740により撮像された画像とのパターンマッチングにより顔の検出を行なっている。本実施の形態においては、上を見たとき(向いたとき)の顔の主要パーツ(目、眉毛、鼻、口)を参照パターンとしてROM772に記憶している。また、顔検出部780は、車内放送前後の顔や頭の向きの変化を検出するようにしてもよい。
RAM774は、CPU770の動作に使用する情報を一時的に記憶する。RAM774は、入出力部790を通じて入力された情報を一時的に記憶してよい。例えば、RAM774は、入出力部790を通じて入力された音声データを一時的に記憶してよい。RAM774に記憶された音声データは、車内放送を再度行う場合に使用されてよい。
CPU770は、制御装置700および出力ユニット710の全体を制御する。本実施形態においては、CPU770は、出力ユニット710への音声の出力に応じて、顔検出部780で顔が検出されたか否かを判断する。例えば、CPU770は、出力ユニット710から音声の出力を開始してから予め定められた時間が経過するまでの間に、顔が検出されたか否かを判断する。また、CPU770は、当該判断に応じて、車掌690に再度の車内放送をするよう通知する。CPU770は、RAM774に記憶されている音声データを再度出力ユニット710に出力することにより、自動的に再度の車内放送をさせることもできる。
システム600によれば、乗客等のユーザの動作を検出して情報を的確に伝えることが可能となる。このため、ユーザの動作から予測されるユーザの状態に応じて、ユーザへ情報を的確に提供することができる。
図8は、システム600における制御フローの一例を示す。本フローにかかる処理は、CPU770が主体となって各部を制御することにより実行される。本フローが開始されると、ステップS802で、CPU770は、車内放送があったかどうかを判定する。例えば、CPU770は、マイク680から入力される音声を出力ユニット710へ出力すべき旨の指示が入出力部790に対してなされたか否かを判断する。車内放送がない場合は、車内放送の出力を監視すべく、本ステップを繰り返す。
車内放送があった場合、ステップS804で、CPU770は、車内放送の直後に、出力ユニット710を見た人がいるかどうかを判定する。具体的には、CPU770は、スピーカ内に取り付けられた撮像装置740で撮像された画像から顔検出部780で顔が検出されたか否かを判定する。出力ユニット710を見た人がいない場合は、動作を終了する。
CPU770は、出力ユニット710を見た人物が検出された場合、スピーカを見た人がいると判断することができ、これにより、検出された人物が、車内放送を聞き逃したと判定することができる。CPU770は、ステップS806で、出力ユニット710を見た人の位置を確認する。例えば、CPU770は、検出した人物の方向に関する位置情報を得る。例えば、撮像装置740が設けられた位置および撮像装置740の方向ならびに画角内の顔の位置から、当該位置情報を得る。
ステップS808で、CPU770は、検出した人物が複数かどうかを判定する。具体的には、CPU770は、顔検出部780にて検出された顔の数をカウントする。
CPU770は、検出した人物が複数でない場合、その人物に向けて指向性スピーカ720にて再度車内放送を実行する。この時、CPU770は、1回目の車内放送をRAM774に自動録音しておき、再放送に使用しても良い。また、ステップS806で確認した人物に向けて、指向性スピーカ720から車内放送を実行してよい。CPU770は、指向性スピーカ720の指向性の向きを調節することにより、ステップS806で確認した人物に向けて車内放送を実行してよい。このように、CPU770は、指向性スピーカ720により出力される音声の向きを調節する。
検出された人物が複数であった場合、ステップS812で、CPU770は、車掌690に状況を伝え、車掌690より再度の車内放送を指示する。例えば、CPU770は、1回目の車内放送を解析して、声が小さかったか否か、周囲の雑音が大きい状態でタイミングが悪かったか否か等の分析を行い、車掌690に伝える。また、CPU770は、車両毎の出力ユニット710の検出結果から、特定の車両での現象か、電車全体での減少かを分析することができる。CPU770は、分析結果を表示部750に表示することにより、車掌690に通知する。
なお、ステップS808では、検出された人物が複数であるか否かを判断するとした。しかし、CPU770は、検出された人物が予め定められた数より多いか否かを判断してもよい。そして、検出された人物が予め定められた数より少ない場合に、ステップS810に進み、検出された人物が予め定められた数より多い場合に、ステップS812に進んでよい。すなわち、制御装置700は、検出された顔の数が予め定められた数よりも多い場合(例えば、1つの出力ユニット710に対して3つ以上)に、無指向性スピーカ730から音を出力させる。また、制御装置700は、検出された顔の数が予め定められた数よりも少ない場合に、指向性スピーカ720から音を出力させる。更に、CPU770は、上述したように車両毎の出力ユニット710の検出結果に応じて、指向性スピーカ720と無指向性スピーカ730とを使い分けるようにしてもよい。
システム600において、出力ユニット710は指向性スピーカ720および無指向性スピーカ730を有するとした。しかし、出力ユニット710は、指向性を変化させることができる一のスピーカを有してよい。CPU770は、検出された人数に応じて当該スピーカの指向性を変化させてよい。例えば、CPU770は、1回目の放送時や、ステップS808の判断で検出された人数が複数と判断された場合は、当該スピーカを無指向性に制御して、車内放送を実行させてよい。また、ステップS808の判断で検出された人数が複数でないと判断された場合は、当該スピーカを有指向性に制御して、車内放送を実行させてよい。
システム600において、出力装置としての、指向性スピーカ720および無指向性スピーカ730を例示した。しかし、出力装置としては、スピーカの他に、ディスプレイを適用することができる。システム600においては、電車の運行情報等を表示するディスプレイを、出力装置の一例として適用できる。
システム600によれば、乗客としてのユーザの動作を検出して情報をユーザに的確に伝えることが可能となる。このため、ユーザの動作に基づくユーザの状態に応じて、適切な情報をユーザへ提供することができる。
上記の説明において、CPU200の動作として説明した処理は、CPU200がプログラムに従ってスマートフォン100が有する各ハードウェアを制御することにより実現される。また、CPU770の動作として説明した処理は、CPU770がプログラムに従ってシステム600が有する各ハードウェアを制御することにより実現される。このように、上記実施形態のスマートフォン100およびシステム600に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。
なお、図1から図5に関連して説明した実施形態では、通話装置の一例としてのスマートフォン100を取り上げて説明した。しかし、通話装置としては、スマートフォンに限らず、種々の形態の携帯電話機を適用できる。また、通話装置に限らず、携帯情報端末、タブレット等の小型コンピュータ等、通信機能およびユーザへの提示機能を有する種々の電子機器を、当該実施形態の適用の対象とすることができる。
また、当該実施形態では、電車においてスマートフォン100を使用する場面を主として説明した。また、図6から図8に関連して説明した実施形態では、制御装置700、出力ユニット710およびマイク680を電車に適用する場面を主として説明した。しかし、スマートフォン100や、制御装置700、出力ユニット710およびマイク680等の電子機器を使用する場面としては、電車に限らず、電車以外の列車やバス等の車両等に適用することができる。また、店舗等の建物や、建物外も適用の対象とすることができる。例えば、建物内の館内放送や公衆の放送が行われる場所に適用することができる。更に、図1から図8を用いて説明した実施形態を適宜組合せて使用することも可能である。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。