JP2015069443A - 電子機器および支援方法 - Google Patents

電子機器および支援方法 Download PDF

Info

Publication number
JP2015069443A
JP2015069443A JP2013203421A JP2013203421A JP2015069443A JP 2015069443 A JP2015069443 A JP 2015069443A JP 2013203421 A JP2013203421 A JP 2013203421A JP 2013203421 A JP2013203421 A JP 2013203421A JP 2015069443 A JP2015069443 A JP 2015069443A
Authority
JP
Japan
Prior art keywords
user
data
program
watched
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013203421A
Other languages
English (en)
Inventor
隆 須藤
Takashi Sudo
隆 須藤
康裕 鹿仁島
Yasuhiro Kanishima
康裕 鹿仁島
鈴木 真吾
Shingo Suzuki
真吾 鈴木
豊和 板倉
Toyokazu Itakura
豊和 板倉
健太郎 竹田
Kentaro Takeda
健太郎 竹田
孝也 松野
Takaya Matsuno
孝也 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013203421A priority Critical patent/JP2015069443A/ja
Priority to US14/185,694 priority patent/US8978055B1/en
Publication of JP2015069443A publication Critical patent/JP2015069443A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • H04N21/44224Monitoring of user activity on external systems, e.g. Internet browsing
    • H04N21/44226Monitoring of user activity on external systems, e.g. Internet browsing on social networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザを見守るための情報が提供される場合に、見守られるユーザまたは見守るユーザに課される負担を軽減できる電子機器を実現する。【解決手段】実施形態によれば、電子機器は、受信手段、生成手段および送信手段を具備する。受信手段は、第1ユーザが使用する1以上の電子機器の各々から、動作した時間帯を示す動作データを受信し、前記1以上の電子機器の内の第1電子機器から、前記第1ユーザが視聴した番組を示す視聴データを受信する。生成手段は、前記動作データと前記視聴データとを用いて、前記第1ユーザの生活パターンを示す生活パターンデータを生成する。送信手段は、前記生活パターンデータを、第2ユーザが使用する電子機器に送信する。【選択図】図6

Description

本発明の実施形態は、遠隔地での見守りを支援する電子機器および該機器に適用される支援方法に関する。
高齢者とその家族とが離れて住んでいる場合に、家族が高齢者の健康状態を確認するために、その生活の様子を見守りたいと云う要求がある。例えば、ビデオカメラで高齢者の生活の様子を撮影し、撮影された映像を家族が使用するパーソナルコンピュータ等の電子機器に伝送するシステムによって、家族は、高齢者の生活の様子を見守ることができる。
特開2013−54595号公報 特開2012−55471号公報 特開2007−58404号公報 特開2012−226780号公報 特開2012−105353号公報 特開2003−44960号公報
しかし、このようなシステムは、高齢者(見守られるユーザ)に他者に見られているという精神的負担を課し、また家族(見守るユーザ)にとっても、高齢者を始終監視することは気が引けることであり、プライバシーに関する課題を有するものであった。
本発明は、ユーザを見守るための情報が提供される場合に、見守られるユーザまたは見守るユーザに課される負担を軽減できる電子機器および支援方法を提供することを目的とする。
実施形態によれば、電子機器は、受信手段、生成手段および送信手段を具備する。受信手段は、第1ユーザが使用する1以上の電子機器の各々から、動作した時間帯を示す動作データを受信し、前記1以上の電子機器の内の第1電子機器から、前記第1ユーザが視聴した番組を示す視聴データを受信する。生成手段は、前記動作データと前記視聴データとを用いて、前記第1ユーザの生活パターンを示す生活パターンデータを生成する。送信手段は、前記生活パターンデータを、第2ユーザが使用する電子機器に送信する。
実施形態に係る電子機器(クラウドサーバ)を備える見守りシステムを説明するための概念図。 同実施形態の電子機器によって、見守られるユーザの生活リズムを、見守るユーザに通知する例を説明するための概念図。 同実施形態の電子機器によって通知される生活リズムを用いて、見守るユーザが使用する電子機器(TV)に表示される画面の例を示す図。 同実施形態の電子機器のシステム構成の例を示すブロック図。 図2の見守るユーザが使用する電子機器のシステム構成の例を示すブロック図。 同実施形態の電子機器の機能構成の第1の例を示すブロック図。 同実施形態の電子機器によって用いられる家電の動作データの一構成例を示す図。 同実施形態の電子機器によって用いられる視聴履歴データの一構成例を示す図。 図2の見守られるユーザが使用する電子機器(家電)による処理の手順の例を示すフローチャート。 同実施形態の電子機器による処理の手順の第1の例を示すフローチャート。 図2の見守るユーザが使用する電子機器(TV)による処理の手順の例を示すフローチャート。 同実施形態の電子機器によって、見守られるユーザのバイオリズムを見守るユーザに通知する例を説明するための概念図。 同実施形態の電子機器によって通知されるバイオリズムを用いて、見守るユーザが使用する電子機器(TV)に表示される画面の例を示す図。 同実施形態の電子機器の機能構成の第2の例を示すブロック図。 図12の見守られるユーザが使用する電子機器(家電)による処理の手順の例を示すフローチャート。 同実施形態の電子機器による処理の手順の第2の例を示すフローチャート。 図12の見守るユーザが使用する電子機器(TV)による処理の手順の例を示すフローチャート。 同実施形態の電子機器によって、見守られるユーザの会話支援データを見守るユーザに提供する例を説明するための概念図。 同実施形態の電子機器の機能構成の第3の例を示すブロック図。 図18の見守られるユーザが使用する電子機器(TV)による処理の手順の例を示すフローチャート。 同実施形態の電子機器による処理の手順の第3の例を示すフローチャート。 図18の見守るユーザが使用する電子機器による処理の手順の例を示すフローチャート。 同実施形態の電子機器によって、見守られるユーザの健康状態データを見守るユーザに提供する例を説明するための概念図。 同実施形態の電子機器の機能構成の第4の例を示すブロック図。 図23の見守られるユーザが使用する電子機器(TV)による処理の手順の例を示すフローチャート。 同実施形態の電子機器による処理の手順の第4の例を示すフローチャート。 図23の見守るユーザが使用する電子機器による処理の手順の例を示すフローチャート。
以下、実施の形態について図面を参照して説明する。
まず、図1を参照して、一実施形態に係る電子機器を備える見守りシステムの概要について説明する。この電子機器は、見守られるユーザ(例えば、高齢者)に関するデータを用いて、遠隔地で見守るユーザ(例えば、高齢者の家族、医師や介護士のような専門家、地域コミュニティ、等)に、高齢者を見守るための情報(見守りデータ)を提供するクラウドサーバ1Aである。このクラウドサーバ1Aは、例えば、サーバコンピュータとして実現される。
クラウドサーバ1Aは、見守られるユーザが使用する各種の電子機器から、動作データや生体データを受信し、また、TV視聴履歴データベース1Bを介して、見守られるユーザが視聴したTV番組の視聴データを受信する。なお、このTV視聴履歴データベース1Bはクラウドサーバ1A内に設けられてもよい。クラウドサーバ1Aは、受信したデータを解析することによって、例えば、家族に高齢者の生活の様子を示す情報やアラームを提供し、専門家に高齢者の安否確認や健康サポートのための情報を提供し、また地域コミュニティに高齢者との会話を支援するための情報を提供する。なお、クラウドサーバ1Aは、このような情報の提供を、見守られるユーザの交友関係、趣味、嗜好等の情報を有するソーシャルネットワーキングサービス(SNS)1Cと連携して行うこともできる。
本実施形態の見守りシステムは、TVのような家電を利用してデータを収集して、そのデータに基づいて見守られるユーザに関する情報を提供するので、さりげない見守りを実現し、見守られるユーザと見守るユーザとに課される負担を軽減することができる。
図2は、クラウドサーバ1Aによって、見守られるユーザ(高齢者)の生活リズムが見守るユーザ(家族)に通知される例を示す。見守られるユーザが使用する電子機器(家電)2A,2B,2Cは、動作データ等をネットワーク4を介してクラウドサーバ1Aに送信する。
より具体的には、照明2Bは、当該照明2Bのオン/オフに基づく動作時間帯を示す照明動作データを、クラウドサーバ1Aに送信する。エアコン2Cは、当該エアコン2Cのオン/オフに基づく動作時間帯を示すエアコン動作データと、当該エアコン2Cによって検出される、室内の温度および湿度を示す温度・湿度データをクラウドサーバ1Aに送信する。
テレビジョン受信機(TV)2Aは、当該テレビのオン/オフに基づく動作時間帯を示すTV動作データをクラウドサーバ1Aに送信する。また、TV2Aは、見守られるユーザが視聴した番組を示す視聴データを、ネットワーク4を介してTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bは、例えば、任意の期間の電子番組ガイド(EPG)データと見守られるユーザの視聴データとを蓄積する。クラウドサーバ1Aは、ネットワーク4を介してTV視聴履歴データベース1Bにアクセスすることによって、TV視聴履歴データベース1Bから、見守られるユーザが視聴した番組を示す視聴データを受信することができる。
クラウドサーバ1Aは、受信された各種家電のデータを用いて、見守られるユーザの生活リズム(生活パターン)を推定する。この生活リズムは、例えば、見守られるユーザが寝ているか起きているかの判定に基づく睡眠時間帯、見守られるユーザによるTV番組の視聴パターン、等を含む。クラウドサーバ1Aは、推定された見守られるユーザの生活リズムを示すデータを、ネットワーク4を介して見守るユーザが使用するクライアント3Aに送信する。
このクライアント3Aは、例えば、テレビジョン受信機によって実現され得る。なお、クライアント3Aは、携帯電話機やスマートフォンといった携帯情報端末、パーソナルコンピュータ(PC)、または各種電子機器に内蔵される組み込みシステムとして実現されてもよい。クライアント3Aは、見守られるユーザの生活リズムを示すデータを受信し、そのデータを用いて、見守られるユーザの生活リズムを示す情報を画面に表示する。
図3は、クライアント3Aによって、見守られるユーザ(遠隔のユーザ)の生活リズムを示す情報が番組表上に表示される例を示す。ここでは、クライアント3Aが、見守るユーザが現在視聴している番組61を、他の番組とは識別可能な表示形態で含む番組表60Aを画面に表示している場合を想定する。この番組61の領域は、例えば、他の番組とは異なる色やパターン、枠線、等で表示される。クライアント3Aは、この番組表60Aが表示されているときに、見守られるユーザの情報の表示する“見守りモード”への移行が指示されたことを検出する。クライアント3Aは、例えば、リモートコントローラを用いたユーザ操作によって“見守りモード”への移行が指示されたことを検出する。
クライアント3Aは、検出された“見守りモード”への移行の指示に応じて、見守られるユーザの生活リズムを示すデータを用いて番組表60Bを表示する(すなわち、番組表60Aから番組表60Bに変更する)。番組表60Bでは、見守るユーザが現在視聴している番組61に加えて、現在の時間帯に見守られるユーザによって視聴される頻度が高い番組62(図3では、見守るユーザが現在視聴している番組61と同一の番組)と、見守られるユーザが現在視聴している番組63とが、他の番組とは識別可能な表示形態で含まれている。番組61,62,63の領域は、色、パターン、枠線、マーク、等を用いて、見守るユーザによって各々が判別できるように表示される。
なお、この“見守りモード”の番組表60Bでは、見守られるユーザの生活リズムを示すデータを用いて、見守られるユーザの睡眠時間帯を示すこともできる。例えば、番組表60Bでは、見守られるユーザが起きている時間帯65と寝ている時間帯66とが識別可能に表示されている。番組表60Bにはさらに、見守られるユーザが現在起きているか否かを示す情報(マーク等)が表示されてもよい。
これにより、見守るユーザは、映像等を用いて見守られるユーザを直接的に監視することなく、その生活の様子を窺い知ることができる。見守るユーザは、この番組表60Bを見て、例えば、見守られるユーザがこれまでの生活リズムに準じた行動をしているかどうかを確認することによって、見守られるユーザの異変の有無をチェックすることができる。また、見守るユーザが“見守りモード”への移行を指示したことに応じて、番組表60Bが表示されるので、見守るユーザは、見守られるユーザの様子が気になったときにだけ情報を確認することができる。
次いで、図4は、クラウドサーバ1Aのシステム構成の例を示す。
本クラウドサーバ1Aは、CPU101、システムコントローラ102、主メモリ103、グラフィクスプロセッシングユニット(GPU)104、ビデオメモリ(VRAM)104A、BIOS−ROM105、HDD106、LANコントローラ107、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)108、サウンドコントローラ109、EEPROM113、キーボード114、ポインティングデバイス115、スピーカ116、表示装置(LCD)117等を備える。クラウドサーバ1A内の各部は、内部バスを介して相互に接続されている。
CPU101は、本クラウドサーバ1A内の各種コンポーネントの動作を制御するプロセッサである。CPU101は、ストレージデバイスであるHDD106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)111、および各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、例えば、見守りサーバプログラム112が含まれている。この見守りサーバプログラム112は、見守られるユーザが使用する各種の家電2A,2B,2Cの動作データ等を管理し、これら動作データ等に基づく見守りデータを、見守るユーザが使用するクライアント3Aに提供するためのプログラムである。
CPU101には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
GPU104は、本コンピュータのディスプレイとして使用されるLCD117を制御する表示コントローラである。このGPU104によって生成される表示信号はLCD117に送られる。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102は、PCI EXPRESS規格やUSB規格のシリアルバスなどを介して接続された各種コンポーネントとの通信を実行する機能も有している。
サウンドコントローラ109は音源デバイスであり、再生対象のオーディオデータをスピーカ116に出力する。LANコントローラ107は、例えば、Ethernet(登録商標)規格の有線通信や、IEEE 802.11規格の無線通信等を実行するように構成されたデバイスである。
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)108は、電力管理のためのエンベデッドコントローラと、キーボード(KB)114、ポインティングデバイス115等を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC108は、ユーザによるパワーボタンの操作に応じて本クラウドサーバ1Aを電源オンまたは電源オフする機能を有している。
また、図5は、見守るユーザが使用するクライアント3Aのシステム構成の例を示す。以下では、このクライアント3Aが、デジタルテレビジョン受信機として実現されていることを想定する。
このクライアント(デジタルテレビジョン受信機)3Aは、制御部201、チューナ203、復調器204、信号処理部205、グラフィック処理部206、OSD信号生成部207、映像処理部208、ディスプレイ(LCD)209、音声処理部210、スピーカ211、リモコン信号受信部216、LANコントローラ218等を備える。このデジタルテレビジョン受信機3Aは、カメラモジュール219およびマイク220をさらに備えていてもよい。
制御部201は、デジタルテレビジョン受信機3A内の各部の動作を制御する。制御部201は、CPU215、ROM212、RAM213、及び不揮発性メモリ214を備える。ROM212は、CPU215によって実行される制御プログラムを格納する。不揮発性メモリ214は、各種の設定情報及び制御情報を格納する。CPU215は、処理に必要な命令群及びデータをRAM213にロードし、処理を実行する。CPU215は、例えば、RAM213にロードされた見守りクライアントプログラム213Aを実行する。見守りクライアントプログラム213Aは、例えば、クラウドサーバ1Aから見守りデータを受信し、見守りデータに基づく情報をユーザに通知する機能を有する。
放送信号受信用アンテナ202は、デジタルテレビジョン放送信号(例えば、地上デジタルテレビジョン放送信号、衛星デジタルテレビジョン放送信号、等)を受信する。放送信号受信用アンテナ202は、受信したデジタルテレビジョン放送信号を、入力端子を介してチューナ203に出力する。チューナ203は、この放送信号からユーザが選択しているチャンネルの放送信号を選局する。チューナ203は、選局した放送信号を復調器204(例えば、OFDM(Orthogonal Frequency Division Multiplexing)復調器、PSK(Phase Shift Keying)復調器、等)に出力する。復調器204は、チューナ203により選局された放送信号をデジタルの映像信号及び音声信号に復調する。復調器204は、復調したデジタルの映像信号及び音声信号を信号処理部205に出力する。
信号処理部205は、復調器204によって出力されたデジタルの映像信号及び音声信号に対して所定のデジタル信号処理を施す。信号処理部205は、所定のデジタル信号処理を施した映像信号及び音声信号を、グラフィック処理部206及び音声処理部210に出力する。
音声処理部210は、入力されたデジタル音声信号を、スピーカ211で再生可能なアナログ音声信号に変換する。音声処理部210は、このアナログ音声信号をスピーカ211に出力する。スピーカ211は、入力されたアナログ音声信号に基づいて音声を再生する。
グラフィック処理部206は、信号処理部205から出力されるデジタル映像信号に、OSD(On Screen Display)信号生成部207で生成されるメニュー等のOSD信号を重畳する。OSD信号生成部207は、見守りデータに基づく情報を表示するためのOSD信号を生成することができる。グラフィック処理部206は、OSD信号が重畳された映像信号を映像処理部208に出力する。また、グラフィック処理部206は、信号処理部205の出力である映像信号と、OSD信号生成部207の出力であるOSD信号のいずれかを映像処理部208に出力してもよい。
映像処理部208は、入力されたデジタル映像信号に所定の処理を施す。この所定の処理は、例えば、入力されたデジタル映像信号を鮮鋭化するための鮮鋭化処理である。映像処理部208は、所定の処理が施されたデジタル映像信号を、ディスプレイ209で表示可能なアナログ映像信号に変換する。映像処理部208は、このアナログ映像信号をディスプレイ209に出力する。ディスプレイ209は、入力されたアナログ映像信号に基づいて映像を表示する。
LANコントローラ218は、例えば、Ethernet規格の有線通信や、IEEE 802.11規格の無線通信等を実行するように構成されたデバイスである。
リモコン信号受信部216は、リモートコントローラ217によって送信されたリモコン信号(例えば、赤外線による信号)を受信(受光)する。リモコン信号受信部216は、受信したリモコン信号を制御部201に出力する。リモコン信号受信部216は、例えば、“通常モード”から“見守りモード”への移行を示すリモコン信号や、“見守りモード”から“通常モード”への移行を示すリモコン信号を受信する。制御部201内のCPU215上で実行される見守りクライアントプログラム213Aは、このリモコン信号に応じて、例えば、“通常モード”で表示される番組表60Aと、“見守りモード”で表示される番組表60Bとを切り替えるための処理を行う。
なお、クライアント3Aは、テレビジョン放送信号を受信する構成(チューナ203等)を有しない電子機器(例えば、PC)であってもよい。例えば、クライアント3Aは、インターネット上のサーバから受信した番組データ(コンテンツデータ)を用いて番組を表示することもできる。
また、見守られるユーザが使用するテレビジョン受信機2Aは、見守るユーザが使用するクライアント3Aと同様のシステム構成を有してもよい。そして、このテレビジョン受信機2Aは、カメラモジュール219およびマイク220をさらに備えてもよい。カメラモジュール219は、例えば、超小型カメラ(ピンホールカメラ)であり、見守られるユーザを撮影した画像を当該ユーザに意識させることなく取得できる。マイク220は、例えば、見守られるユーザと見守るユーザとの間の会話や、見守られるユーザとアバターとの会話に用いられる。
次いで、図6を参照して、クラウドサーバ1A上で実行される見守りサーバプログラム112の機能構成の第1の例について説明する。見守りサーバプログラム112は、上述したように、見守られるユーザ(第1ユーザ)が使用する各種の家電2A,2B,2Cの動作データ等を管理し、これら動作データ等に基づく見守りデータを、見守るユーザ(第2ユーザ)が使用するクライアント3Aに提供する。見守りサーバプログラム112は、例えば、受信部151、睡眠時間推定部152、パターン推定部153、および送信部154を備える。
受信部151は、見守られるユーザが使用する各種家電からデータを収集する。より具体的には、受信部151は、TV2Aに設けられた送信部252が送信した動作データと視聴データとを受信する。TV2Aの動作データは、TV2Aで番組が視聴された動作時間帯(例えば、6時から8時)を含む。TV2Aの視聴データは、見守られるユーザによって視聴された番組に対応する放送日時、番組名、チャンネル、カテゴリ(ジャンル)、等を含む。この視聴データは、例えば、見守られるユーザによって番組が視聴されたことに応じて、TV2Aに設けられた視聴データ生成部251によって生成される。
また、受信部151は、照明2Bに設けられた送信部261が送信した動作データを受信する。照明2Bの動作データは、照明2Bが点灯した動作時間帯(例えば、6時から22時)を含む。さらに、受信部151は、エアコン2Cに設けられた送信部273が送信した動作データと温度・湿度データとを受信する。エアコン2Cの動作データは、エアコン2Cが使用された動作時間帯(例えば、10時から20時)を含む。エアコン2Cの温度・湿度データは、エアコン2Cに設けられた温度センサ271および湿度センサ272が、例えば所定時間毎に検出した温度と湿度とを含む。
そして、受信部151は、受信したTV2Aの動作データと、照明2Bの動作データと、エアコン2Cの動作データおよび温度・湿度データとを記憶媒体等に保存する。また、受信部151は、受信した視聴データをTV視聴履歴データベース1Bに保存する。
図7は、クラウドサーバ1Aによって用いられる家電の動作データの一構成例を示す。クラウドサーバ1Aは、複数の見守られるユーザの各々が使用する家電によって送信される動作データを扱うことができる。動作データは、見守られるユーザが使用する家電によって送信される動作データを用いて生成される複数のエントリを含む。各エントリは、例えば、ユーザID、日付、照明動作時間帯、エアコン動作時間帯、温度、湿度、TV動作時間帯を含む。以下では、説明を簡単にするために、エントリが、見守られるユーザ毎に、毎日作成される場合を想定する。
ある見守られるユーザの、ある日付に対応するエントリにおいて、「ユーザID」はそのユーザの識別情報を示す。「日付」はその日付を示す。「照明動作時間帯」は、そのユーザが使用している照明2Bの、その日付における動作時間帯を示す。「エアコン動作時間帯」は、そのユーザが使用しているエアコン2Cの、その日付における動作時間帯を示す。「温度」は、そのユーザが使用しているエアコン2Cによって検出された、その日付における温度(見守られるユーザの部屋の温度)を示す。「湿度」は、そのユーザが使用しているエアコン2Cによって検出された、その日付における湿度(見守られるユーザの部屋の湿度)を示す。「TV動作時間帯」は、そのユーザが使用しているTV2Aの、その日付における動作時間帯を示す。
また、図8は、クラウドサーバ1Aによって用いられる視聴データの一構成例を示す。視聴データは、見守られるユーザが視聴した複数の番組に対応する複数のエントリを含む。各エントリは、例えば、ユーザID、日付、時刻、チャンネル、番組名、視聴状況、カテゴリ、笑顔度、バイオリズムを含む。
ある番組に対応するエントリにおいて、「ユーザID」は、その番組を視聴したユーザ(見守られるユーザ)の識別情報を示す。「日付」は、その番組が放送された日付を示す。「時刻」は、その番組が放送された時刻を示す。「チャンネル」は、その番組が放送されたチャンネルを示す。「番組名」は、その番組の名称を示す。「視聴状況」は、その番組の視聴状況を示し、例えば、“視聴済み”、“録画(未視聴)”、“録画予約”、等の値が設定される。「カテゴリ」は、その番組のカテゴリ(ジャンル)を示し、例えば、“ニュース”、“コメディ”、“教育”、“ドキュメンタリー”、“アニメ”、等の値が設定される。「笑顔度」は、その番組を視聴した際にユーザが笑顔であった度合いを示す。「笑顔度」は、その番組を視聴している間に、ユーザが笑顔であった頻度を示してもよい。「バイオリズム」は、その番組を視聴した際のユーザのバイオリズムを示す。なお、「笑顔度」と「バイオリズム」とには、例えば、見守りサーバプログラム112によって算出された、その番組に対応する値が設定される。
次いで、睡眠時間推定部152およびパターン推定部153は、所定時間毎(例えば、1日毎)に、または見守るユーザが使用するクライアント3Aによる要求に応じて、見守られるユーザに関する見守りデータを生成する。より具体的には、睡眠時間推定部152は、見守られるユーザが使用する家電2A,2B,2Cの動作データを用いて、見守られるユーザの睡眠時間帯を推定する。睡眠時間推定部152は、例えば、家電2A,2B,2Cが動作している(オンになっている)時間帯では、ユーザが起きている可能性が高く、家電2A,2B,2Cが動作していない(オフになっている)時間帯では、ユーザが寝ている可能性が高いことに基づいて、見守られるユーザの睡眠時間帯(すなわち、寝ている、または起きている)を推定する。
そして、パターン推定部153は、推定された見守られるユーザの睡眠時間帯と、TV視聴履歴データベース1Bに保存されている視聴データとを用いて、見守られるユーザの生活パターン(生活リズム)を推定する。用いられる視聴データは、例えば、見守られるユーザが過去に視聴した番組、録画した番組、現在視聴している番組、等を示すデータである。パターン推定部153は、視聴データを用いて、現在の時間帯に、見守られるユーザによって視聴される頻度が高い第1番組を、見守られるユーザの生活パターンとして検出する。より具体的には、パターン推定部153は、例えば、現在の時間帯が日曜日の午後8時である場合に、その日曜日の午後8時に対応する過去の視聴データを用いて、見守られるユーザによって、日曜日の午後8時に視聴される頻度が高い“XXX”という番組を、見守られるユーザの生活パターンとして検出する。
パターン推定部153は、推定された生活パターンと、見守られるユーザの現在の状況(例えば、現在視聴している番組、寝ているか起きているか、等)とを示す見守りデータ(生活パターンデータ)を生成する。この生活パターンデータは、例えば、見守られるユーザの睡眠時間帯と、現在の時間帯に見守られるユーザによって視聴される頻度が高い第1番組と、見守られるユーザが現在視聴している番組とを示すデータを含む。
送信部154は、生成された見守りデータ(生活パターンデータ)を見守るユーザが使用するクライアント3Aに送信する。
見守るユーザが使用するクライアント3Aでは、クラウドサーバ1Aから見守りデータを受信し、見守りデータに基づく情報をユーザに通知する見守りクライアントプログラム213Aが実行される。この見守りクライアントプログラム213Aは、例えば、番組表データ受信部311、番組表生成部312、見守りデータ受信部313、見守り情報生成部314、および表示処理部315を備える。なお、以下では、クライアント3Aが、見守られるユーザに関する情報を表示する“見守りモード”と、見守られるユーザに関する情報を表示しない“通常モード”のいずれかに設定されている場合を想定する。
まず、番組表データ受信部311は番組表データ(EPGデータ)を受信する。番組表データ受信部311は、アンテナ202等を介して、テレビジョン放送信号に含まれる番組表データを受信してもよいし、ネットワーク4を介して、TV視聴履歴データベース1Bから番組表データを受信してもよい。番組表生成部312は、受信された番組表データを用いて番組表を生成する、すなわち、番組表をディスプレイ209の画面に表示するためのデータを生成する。
次いで、見守りデータ受信部313は、クラウドサーバ1A(送信部154)から見守りデータを受信する。見守りデータ受信部313は、例えば、クライアント3Aが“見守りモード”に設定されている場合に見守りデータを受信する。
見守り情報生成部314は、受信された見守りデータを用いて、番組表生成部312によって生成された番組表上に、見守られるユーザの情報を重畳する。見守られるユーザの情報には、例えば、見守られるユーザが現在視聴している番組、視聴する頻度が高い番組(過去によく視聴していた番組)、寝ているか起きているか、等が含まれる。見守り情報生成部314は、例えば、番組に対応する番組表上の領域の色、模様、領域を囲む枠線、等を変更したり、その領域に所定のマーク(画像)を描画することによって、見守られるユーザが視聴している番組や視聴する頻度が高い番組が識別されるように表示する。また、見守り情報生成部314は、番組表上の時刻を示す領域を、色、模様、枠線、等を用いて、見守られるユーザが起きている時間帯と寝ている時間帯とが識別されるように表示する。
表示処理部315は、図3に示したように、クライアント3Aが“見守りモード”である場合、見守られるユーザの情報が重畳された番組表60Bを画面に表示する。また、表示処理部315は、クライアント3Aが“通常モード”である場合には、番組表60Aを画面に表示する。
図9から図11を参照して、クラウドサーバ1Aから見守るユーザが使用するクライアント3Aに、見守られるユーザの生活リズム(生活パターン)を示すデータが送信される場合の処理について説明する。
まず、図9のフローチャートを参照して、見守られるユーザ側の処理の手順について説明する。
まず、見守られるユーザによって使用される家電2A,2B,2Cは、データを送信するタイミングであるか否かを判定する(ブロックB101)。データを送信するタイミングでない場合(ブロックB101のNO)、ブロックB101に戻り、再度、データを送信するタイミングであるか否かが判定される。
データを送信するタイミングである場合(ブロックB101のYES)、照明2Bの送信部261は動作データをクラウドサーバ1Aに送信する(ブロックB102)。エアコン2Cの送信部273は動作データをクラウドサーバ1Aに送信する(ブロックB103)。TV2Aの送信部252は動作データをクラウドサーバ1Aに送信する(ブロックB104)。また、TV2Aの送信部252は視聴データをクラウドサーバ1Aに送信する(ブロックB105)。
図10のフローチャートは、クラウドサーバ1Aによる見守り処理の手順を示す。
クラウドサーバ1Aの受信部151は、見守られるユーザが使用するTV2Aの視聴データを受信する(ブロックB111)。受信部151は、受信されたTV2Aの視聴データをTV視聴履歴データベース1Bに保存する(ブロックB112)。また、受信部151は、見守られるユーザが使用する家電、すなわち、TV2A、照明2Bおよびエアコン2Cの動作データを受信し(ブロックB113)、当該動作データを記憶媒体等に保存する(ブロックB114)。
次いで、睡眠時間推定部152は、見守るユーザが使用するクライアント3Aによって、見守りデータの送信が要求されたか否かを判定する(ブロックB115)。見守りデータの送信が要求されていない場合(ブロックB115のNO)、ブロックB111に戻り、見守られるユーザが使用する家電2A,2B,2Cからデータを受信する処理等を続行する。
見守りデータの送信が要求されている場合(ブロックB115のYES)、睡眠時間推定部152は、保存されている家電2A,2B,2Cの動作データを用いて、見守られるユーザの睡眠時間帯を推定する(ブロックB116)。パターン推定部153は、推定された見守られるユーザの睡眠時間帯と、TV視聴履歴データベース1Bに保存されている視聴データとを用いて、見守られるユーザの生活パターン(生活リズム)を推定する(ブロックB117)。そして、送信部154は、推定された生活パターンと、見守られるユーザの現在の状況(例えば、寝ているか起きているか、視聴中の番組、等)とを示す見守りデータを、見守るユーザが使用するクライアント3Aに送信する(ブロックB118)。
次いで、図11のフローチャートを参照して、見守るユーザ側のクライアント3Aによる表示制御処理の手順について説明する。
まず、番組表データ受信部311は、番組表を表示するか否かを判定する(ブロックB121)。番組表を表示しない場合(ブロックB121のNO)、ブロックB121に戻り、再度、番組表を表示するか否かが判定される。
番組表を表示する場合(ブロックB121のYES)、番組表データ受信部311は、番組表データ(EPGデータ)を受信する(ブロックB122)。そして、番組表生成部312は、受信された番組表データを用いて、番組表を画面に表示するためのデータを生成する(ブロックB123)。
次いで、見守りデータ受信部313は、クライアント3Aが“見守りモード”であるか否かを判定する(ブロックB124)。クライアント3Aが“見守りモード”でない場合(ブロックB124のNO)、表示処理部315は、番組表生成部312によって生成されたデータを用いて番組表を画面に表示する(ブロックB125)。
クライアント3Aが“見守りモード”である場合(ブロックB124のYES)、見守りデータ受信部313は、クラウドサーバ1Aから見守りデータを受信する(ブロックB126)。見守り情報生成部314は、受信された見守りデータを用いて、番組表上に、見守られるユーザの情報(視聴中の番組、過去によく視聴されていた番組、寝ているか起きているか、等)を重畳する(ブロックB127)。そして、表示処理部315は、見守られるユーザの情報が重畳された番組表を画面に表示する(ブロックB128)。
以上の構成により、ユーザを見守るための情報が提供される場合に、見守られるユーザと見守るユーザとに課される負担を軽減することができる。
次いで、図12は、クラウドサーバ1Aによって、見守られるユーザ(高齢者)のバイオリズムが見守るユーザ(家族)に通知される例を示す。見守られるユーザが使用する家電2A,2Bは、動作データ等をネットワーク4を介してクラウドサーバ1Aに送信する。
より具体的には、照明2Bは、当該照明2Bのオン/オフに基づく動作時間帯を示す照明動作データを、クラウドサーバ1Aに送信する。テレビジョン受信機(TV)2Aは、当該テレビのオン/オフに基づく動作時間帯を示すTV動作データをクラウドサーバ1Aに送信する。また、TV2Aは、見守られるユーザが視聴した番組を示す視聴データを、ネットワーク4を介してTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bは、例えば、任意の期間の電子番組ガイド(EPG)データと見守られるユーザの視聴データとを蓄積する。クラウドサーバ1Aは、ネットワーク4を介してTV視聴履歴データベース1Bにアクセスすることによって、TV視聴履歴データベース1Bから、見守られるユーザが視聴した番組を示す視聴データを受信することができる。
さらに、TV2Aは、当該TV2Aに接続または内蔵されたカメラ219を用いて、見守られるユーザの顔画像を含む画像を生成する。TV2Aは、画面に表示された番組を視聴しているユーザの顔画像を生成する。TV2Aは、生成された画像から顔画像を検出し、その顔画像が笑顔である度合いを示す笑顔度を算出する。また、TV2Aは、見守られるユーザの顔画像を含む複数の画像を継続して解析することによって、それら複数の画像の各々に対応する笑顔度を算出し、その結果を用いて笑顔頻度を算出する。そして、TV2Aは、算出された笑顔度と笑顔頻度とを含む笑顔データをクラウドサーバ1Aに送信する。
見守られるユーザが使用するTV2Aは、画像データではなく、画像から取得された笑顔データのようなメタデータをクラウドサーバ1Aに送信するので、見守られるユーザのプライバシーを守ることができる。
クラウドサーバ1Aは、受信されたデータを用いて、見守られるユーザのバイオリズムを推定する。このバイオリズムは、例えば、見守られるユーザが元気であるかどうかを表す値で示される。クラウドサーバ1Aは、推定された見守られるユーザのバイオリズムを示すデータを、ネットワーク4を介して見守るユーザが使用するクライアント3Aに送信する。
図13は、クライアント3Aによって、見守られるユーザのバイオリズムが表示される例を示す。
クライアント3Aは、クラウドサーバ1Aから送信されたバイオリズムのデータを用いて、例えば、クライアント3Aの画面の少なくとも一部の領域に、バイオリズムの変化を示すグラフ67を含む領域(ウィンドウ)65を表示する。クライアント3Aは、この領域65のみを画面に表示してもよいし、当該領域65を視聴中の映像や番組表上に重畳して画面に表示してもよい。グラフ67上には、バイオリズムの値の平常時の範囲68が示されてもよい。図13に示すグラフ67上では、平常時の範囲68を示す線が描画されている。この平常時の範囲68は、例えば、見守られるユーザの過去のバイオリズムのデータや多くのユーザのバイオリズムのデータを解析することによって設定される。
クライアント3Aを使用するユーザ(見守るユーザ)は、このグラフ67を見ることによって、見守られるユーザが元気であるかどうか(元気である度合い)を確認することができる。見守るユーザは、例えば、グラフ67に示されている値66が平常時の範囲68外であるときに、見守られるユーザに元気がないことを認識できるので、見守られるユーザの家を訪問することや見守られるユーザに電話すること等のアクションを、見守るユーザに対して促すことができる。
図14を参照して、クラウドサーバ1A上で実行される見守りサーバプログラム112の機能構成の第2の例について説明する。見守りサーバプログラム112は、例えば、受信部151、送信部154、およびバイオリズム推定部155を備える。
受信部151は、見守られるユーザが使用する各種家電からデータを受信する。より具体的には、受信部151は、TV2Aに設けられた送信部252が送信した笑顔データと視聴データとを受信する。TV2Aの笑顔データは、例えば、見守られるユーザがTV2Aで番組を視聴しているときの笑顔度と笑顔頻度とを含む。これら見守られるユーザの顔画像の笑顔度と笑顔頻度とは、TV2Aに設けられた画像解析部253が、カメラモジュール219を用いて撮影された画像を解析することによって算出される。また、TV2Aの視聴データは、見守られるユーザによって視聴された番組に対応する放送日時、番組名、チャンネル、カテゴリ(ジャンル)、等を含む。この視聴データは、例えば、見守られるユーザによって番組が視聴されたことに応じて、TV2Aに設けられた視聴データ生成部251によって生成される。
また、受信部151は、照明2Bに設けられた送信部261が送信した動作データを受信する。照明2Bの動作データは、照明2Bの動作時間帯(例えば、6時から22時)を含む。そして、受信部151は、受信した照明2Bの動作データを記憶媒体等に保存する。また、受信部151は、受信したTV2Aの笑顔データと視聴データとをTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bに保存される視聴データは、図8に示した構成と同様である。
次いで、バイオリズム推定部155は、所定時間毎(例えば、1日毎)に、または見守るユーザが使用するクライアント3Aによる要求に応じて、見守られるユーザに関する見守りデータを生成する。より具体的には、バイオリズム推定部155は、見守られるユーザが使用する照明2Bの動作データと、TV視聴履歴データベース1Bに保存された視聴データおよび笑顔データとを用いて、見守られるユーザのバイオリズムを推定する。バイオリズム推定部155は、例えば、照明が適切に使用されているかどうか(例えば、暗くなっても照明が使用されていない時間があるかどうか)、視聴される番組のカテゴリが“コメディ”である場合に笑顔度や笑顔頻度が高いかどうか、等に基づいて、ユーザが元気であるかどうかを示す度合いを、見守られるユーザのバイオリズムとして算出する。
送信部154は、推定されたバイオリズムを示す見守りデータを、見守るユーザが使用するクライアント3Aに送信する。
見守るユーザが使用するクライアント3Aでは、クラウドサーバ1Aから見守りデータを受信し、見守りデータに基づく情報をユーザに通知する見守りクライアントプログラム213Aが実行される。この見守りクライアントプログラム213Aは、例えば、見守りデータ受信部313および表示処理部315を備える。
見守りデータ受信部313は、クラウドサーバ1A(送信部154)から見守りデータを受信する。
そして、表示処理部315は、図13に示すように、見守りデータを用いて、見守られるユーザのバイオリズム67を画面に表示する。表示処理部315は、このクライアント3AがTVである場合、例えば、バイオリズムを表示するための専用のチャンネルを設け、そのチャンネルが選択されたことに応じて、またはリモートコントローラ217やクライアント3A本体に設けられた専用のボタンが押されたことに応じて、バイオリズム67を画面に表示する。
表示処理部315は、この画面上に、バイオリズムの平常時の範囲68を示す線等を描画してもよい。また、表示処理部315は、現在のバイオリズムの値66が平常時の範囲68外である場合、現在のバイオリズムの値66が異常値であることを通知することもできる。表示処理部315は、例えば、バイオリズムの異常値を、色、マーク等を描画することによって示す。なお、このバイオリズムの異常値は音声やアラームで通知されてもよい。
図15から図17を参照して、クラウドサーバ1Aから見守るユーザが使用するクライアント3Aに、見守られるユーザのバイオリズムを示すデータが送信される場合の処理について説明する。
まず、図15のフローチャートを参照して、見守られるユーザ側の処理の手順について説明する。
まず、見守られるユーザによって使用される家電2A,2Bは、データを送信するタイミングであるか否かを判定する(ブロックB201)。データを送信するタイミングでない場合(ブロックB201のNO)、ブロックB201に戻り、再度、データを送信するタイミングであるか否かが判定される。
データを送信するタイミングである場合(ブロックB201のYES)、TV2Aの画像解析部253は、カメラモジュール219を用いて撮影された画像を解析することによって、見守られるユーザの顔画像の笑顔度と笑顔頻度とを算出する(ブロックB202)。そして、TV2Aの送信部252は、算出された笑顔度と笑顔頻度とを含む笑顔データとTV2Aの視聴データとをクラウドサーバ1Aに送信する(ブロックB203)。また、照明2Bの送信部261は動作データをクラウドサーバ1Aに送信する(ブロックB204)。
図16のフローチャートは、クラウドサーバ1Aによる見守り処理の手順を示す。
クラウドサーバ1Aの受信部151は、見守られるユーザが使用するTV2Aの視聴データと、見守られるユーザの笑顔データとを受信する(ブロックB211)。受信部151は、受信されたTV2Aの視聴データと笑顔データとをTV視聴履歴データベース1Bに保存する(ブロックB212)。また、受信部151は、見守られるユーザが使用する照明2Bの動作データを受信する(ブロックB213)。そして、受信部151は、受信した動作データを記憶媒体等に保存する(ブロックB214)。
次いで、バイオリズム推定部155は、見守るユーザが使用するクライアント3Aによって、見守りデータの送信が要求されたか否かを判定する(ブロックB215)。見守りデータの送信が要求されていない場合(ブロックB215のNO)、ブロックB211に戻り、見守られるユーザが使用する家電2A,2Bからデータを受信する処理等を続行する。
見守りデータの送信が要求されている場合(ブロックB215のYES)、バイオリズム推定部155は、保存されている照明2Bの動作データと、TV視聴履歴データベース1Bに保存されている視聴データおよび笑顔データとを用いて、見守られるユーザのバイオリズムを推定する(ブロックB216)。そして、送信部154は、推定されたバイオリズムを示す見守りデータを、見守るユーザが使用するクライアント3Aに送信する(ブロックB217)。
図17のフローチャートを参照して、見守るユーザ側のクライアント3Aによる表示制御処理の手順について説明する。
まず、見守りデータ受信部313は、見守られるユーザのバイオリズムを表示するか否かを判定する(ブロックB221)。バイオリズムを表示しない場合(ブロックB221のNO)、ブロックB221に戻り、再度、バイオリズムを表示するか否かが判定される。
バイオリズムを表示する場合(ブロックB221のYES)、見守りデータ受信部313は、クラウドサーバ1Aから見守りデータを受信する(ブロックB222)。そして、表示処理部315は、見守りデータを用いて、見守られるユーザのバイオリズムを画面に表示する(ブロックB223)。
次いで、表示処理部315は、現在のバイオリズムの値が平常時の範囲内であるか否かを判定する(ブロックB224)。現在のバイオリズムの値が平常時の範囲外である場合(ブロックB224のNO)、表示処理部315は、現在のバイオリズムの値が異常値であることを通知する(ブロックB225)。表示処理部315は、例えば、バイオリズムの異常値を、色、マーク等を描画することによって示す。なお、このバイオリズムの異常値は音声によって通知されてもよい。
また、現在のバイオリズムの値が平常時の範囲内である場合(ブロックB224のYES)、処理を終了する。
次いで、図18は、クラウドサーバ1Aによって、見守られるユーザ(高齢者)との会話を支援するための情報が見守るユーザ(専門家、地域コミュニティ、等)に通知される例を示す。見守られるユーザが使用するテレビジョン受信機(TV)2Aは、動作データ等をネットワーク4を介してクラウドサーバ1Aに送信する。
より具体的には、TV2Aは、見守られるユーザが視聴した番組を示す視聴データを、ネットワーク4を介してTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bは、例えば、任意の期間の電子番組ガイド(EPG)データと見守られるユーザの視聴データとを蓄積する。クラウドサーバ1Aは、ネットワーク4を介してTV視聴履歴データベース1Bにアクセスすることによって、TV視聴履歴データベース1Bから、見守られるユーザが視聴した番組を示す視聴データを受信することができる。
クラウドサーバ1Aは、見守られるユーザが、アバター(例えば、介護アバター、バーチャルペット、等)と会話するための機能を提供する。クラウドサーバ1Aは、様々な趣味、嗜好、興味等に対応するための複数のアバターから、見守られるユーザに適したアバターを選択する。
クラウドサーバ1Aは、アバターとの会話を提供する場合、見守られるユーザの発話による音声データをTV2Aから受信し、受信した音声データを解析することによって、ユーザの発話に応じたアバターの発話を決定し、決定された発話に対応する音声データをTV2Aに送信する。TV2Aは、クラウドサーバ1Aからアバターの発話の音声データを受信し、スピーカー211から出力する。このようにして、見守られるユーザとアバターとの会話が行われる。
クラウドサーバ1Aは、アバターとの会話の音声データを用いて、その会話の内容を解析することによって、見守られるユーザの趣味、嗜好、興味、等を検出する。したがって、クラウドサーバ1Aは、例えば、見守られるユーザとアバターとの過去の会話のデータを利用して、複数のアバターから、見守られるユーザに適したアバターを選択することができる。
また、クラウドサーバ1Aは、見守られるユーザと見守るユーザとが会話する場合に、見守るユーザが使用するタブレットコンピュータ3Bやスマートフォン3Cのようなクライアントに、見守られるユーザとの会話を支援するための会話支援データを提供することもできる。なお、この見守るユーザが使用するクライアントは、TV3A、携帯電話機、固定電話機、等であってもよい。
見守られるユーザが使用するTV2Aと見守るユーザが使用するクライアント3B,3Cとは、ネットワーク4を介してユーザ間で会話をするための機能(以下、テレビ電話機能とも称する)を有する。TV2Aとクライアント3B,3Cとは、ネットワーク4を介して、会話のための音声データまたは映像データをリアルタイムで送受信する。見守られるユーザと、地域コミュニティに属するユーザや専門家等の見守るユーザとは、このテレビ電話機能を利用して会話することができる。
このタブレットコンピュータ3Bやスマートフォン3Cには、例えば、カメラおよびマイクが設けられ、音声データまたは映像データをリアルタイムで送受信するためのアプリケーションプログラム(例えば、Skype(登録商標))がインストールされている。また、見守られるユーザも、TV2Aの代わりに、このようなタブレットコンピュータやスマートフォン等を使用することができる。
上述したように、クラウドサーバ1Aは、見守られるユーザと見守るユーザとが会話する場合に、見守るユーザが使用するクライアント3B,3Cに、見守られるユーザとの会話を支援するための会話支援データを提供する。クライアント3B,3Cは、例えば、会話支援データに基づく情報を画面に表示する。表示された情報により、例えば、地域コミュニティに属するユーザ(見守るユーザ)が、見守られるユーザが関心を持ちそうな話題で話しかけること、地域コミュニティに属する複数のユーザの内、見守られるユーザと共通の趣味を有するユーザが話し相手となること等が可能になる。また、専門家(見守るユーザ)は、表示された情報により、見守られるユーザに適した健康サポートを行うことや、会話支援データに含まれる会話パターンに基づいて見守られるユーザの異常(例えば、認知症等)を簡易的に診断すること等が可能になる。
図19を参照して、クラウドサーバ1A上で実行される見守りサーバプログラム112の機能構成の第3の例について説明する。見守りサーバプログラム112は、例えば、受信部151、送信部154、およびインタラクティブ処理部156を備える。
受信部151は、見守られるユーザが使用するTV2Aからデータを受信する。より具体的には、受信部151は、TV2Aに設けられた送信部252が送信した視聴データを受信する。この視聴データは、見守られるユーザによって視聴された番組に対応する放送日時、番組名、チャンネル、カテゴリ(ジャンル)、等を含む。この視聴データは、例えば、見守られるユーザによって番組が視聴されたことに応じて、TV2Aに設けられた視聴データ生成部251によって生成される。受信部151は、受信したTV2Aの視聴データをTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bに保存される視聴データは、図8に示した構成と同様である。
また、インタラクティブ処理部156は、見守られるユーザとアバターとの会話、または見守られるユーザと見守るユーザとの会話のための処理を実行する。インタラクティブ処理部156は、例えば、アバター制御部(会話処理部)157、音声認識・パターン解析部158、および会話支援データ生成部160を備える。
アバター制御部157および音声認識・パターン解析部158は、見守られるユーザとアバターとの会話のための処理を行う。音声認識・パターン解析部158は、見守られるユーザとアバターとの過去の会話の音声データ(会話の履歴)を解析することによって、会話パターンを検出する。音声認識・パターン解析部158は、例えば、会話の音声データに音声認識処理を施すことによって、会話に対応するテキストを生成し、そのテキストに出現する単語やそのパターン(例えば、単語の共起確率)等に基づいて会話パターンを検出する。
アバター制御部(会話処理部)157は、見守られるユーザの会話パターンと視聴データとに基づいて、見守られるユーザとの会話を支援するアバターを選択する。アバター制御部157は、見守られるユーザの会話パターンと視聴データとを用いて、各々が異なる話題を提供する複数のアバターから、例えば、見守られるユーザが興味を持ちやすい(会話を続けやすい)話題を提供するアバターを選択する。また、アバター制御部157は、見守られるユーザが現在視聴している番組に関連する話題を提供するアバターを選択してもよい。さらに、アバター制御部157は、選択されたアバターに対応する画像を、見守られるユーザのクライアント(TV)2Aに送信し、その画像をクライアント2Aの画面に表示させてもよい。
アバター制御部157は、選択されたアバターを用いて見守られるユーザとの会話処理を実行する。アバター制御部157は、例えば、選択されたアバターに対応するプログラムモジュールを実行することによって、会話処理を実行する。アバター制御部157は、見守られるユーザが使用するTV2Aに設けられた会話処理部255から、見守られるユーザの発話による音声データを受信する。音声認識・パターン解析部158は、受信された音声データに音声認識処理を施すことによって、対応するテキストを生成する。そして、アバター制御部157は、生成されたテキストやこれまでの会話パターン等に基づいて、見守られるユーザに適した返答の音声データ(アバターの音声データ)を生成し、その音声データをTV2Aの会話処理部255に送信する。
TV2Aの会話処理部255は、クラウドサーバ1Aからアバターの音声データを受信し、例えば、スピーカ211を用いて、受信した音声データに基づく音声を出力する。これにより、見守られるユーザとアバターとの会話を行うことができる。
また、音声認識・パターン解析部158および会話支援データ生成部160は、見守られるユーザと見守るユーザとの会話のための処理を行う。音声認識・パターン解析部158および会話支援データ生成部160は、所定時間毎(例えば、1日毎)に、または見守るユーザが使用するクライアント3B,3Cによる要求に応じて、見守られるユーザに関する会話支援データを生成する。より具体的には、音声認識・パターン解析部158は、見守られるユーザとアバターとの過去の会話の音声データを解析することによって、会話パターンを検出する。会話支援データ生成部160は、会話パターンと視聴データとに基づいて会話支援データを生成する。この会話支援データは、例えば、見守られるユーザの趣味、嗜好、興味、等を示す情報や、見守られるユーザが視聴している番組を示す情報を含む。
送信部154は、生成された会話支援データを、見守るユーザが使用するクライアント3B,3Cに送信する。
見守るユーザが使用するクライアント3B,3Cでは、クラウドサーバ1Aから会話支援データを受信し、会話支援データに基づく情報をユーザに通知する見守りクライアントプログラム213Aが実行される。この見守りクライアントプログラム213Aは、例えば、見守りデータ受信部313および表示処理部315を備える。
見守りデータ受信部313は、クラウドサーバ1A(送信部154)から会話支援データを受信する。
そして、表示処理部315は、会話支援データを用いて、見守られるユーザとの会話を支援するための情報を画面に表示する。この情報は、例えば、見守られるユーザの趣味、嗜好、興味等や、見守られるユーザが視聴中の番組に関する情報(例えば、番組名、内容)を示す。なお、この情報は、ある話しかけに対して、ユーザがどのように応答したかと云った具体的な会話の内容のテキストデータや会話パターンを示してもよい。
クライアント3B,3Cの会話処理部316とTV2Aの会話処理部255とは、見守るユーザと見守られるユーザとのための会話処理を実行する。すなわち、クライアント3B,3Cの会話処理部316は、見守るユーザの発話による音声データをネットワーク4を介してTV2Aに送信し、TV2Aの会話処理部255はその音声データを受信する。また、TV2Aの会話処理部255は、見守られるユーザの発話による音声データをネットワーク4を介してクライアント3B,3Cに送信し、クライアント3B,3Cの会話処理部316はその音声データを受信する。クライアント3B,3CとTV2Aの各々では、例えば、スピーカ211を用いて、受信した音声データに基づく音声を出力する。
図20から図22を参照して、クラウドサーバ1Aから見守るユーザが使用するクライアント3B,3Cに、見守られるユーザとの会話を支援するデータが送信される場合の処理について説明する。
まず、図20のフローチャートを参照して、見守られるユーザ側の処理の手順について説明する。
まず、見守られるユーザによって使用されるTV2Aは、データを送信するタイミングであるか否かを判定する(ブロックB301)。データを送信するタイミングである場合(ブロックB301のYES)、TV2Aの送信部252は、視聴データをクラウドサーバ1Aに送信する(ブロックB302)。
データを送信するタイミングでない場合(ブロックB301のNO)、会話処理部255は、アバターが要求されたか否かを判定する(ブロックB303)。アバターは、例えば、クラウドサーバ1A上で実行される、見守られるユーザと会話する機能を有するプログラムである。アバターが要求されている場合(ブロックB303のYES)、会話処理部255は、クラウドサーバ1Aとの間の会話処理を実行する、すなわち、見守られるユーザの発話による音声データをクラウドサーバ1Aに送信し、アバターによる発話のための音声データをクラウドサーバ1Aから受信する(ブロックB304)。見守られるユーザの発話による音声データは、例えば、マイク220を用いて生成される。また、受信されたアバターによる発話のための音声データは、例えば、スピーカ211を用いて再生(出力)される。
アバターが要求されていない場合(ブロックB303のNO)、会話処理部255は、見守るユーザとの会話が要求されたか否かを判定する(ブロックB305)。見守るユーザとの会話が要求されている場合(ブロックB305のYES)、会話処理部255は、見守るユーザが使用するクライアント3B,3Cとの間で会話処理を実行する、すなわち、見守られるユーザの発話による音声データをクライアント3B,3Cに送信し、見守るユーザの発話による音声データをクライアント3B,3Cから受信する(ブロックB306)。見守るユーザとの会話が要求されていない場合(ブロックB305のNO)、処理を終了する。
図21のフローチャートは、クラウドサーバ1Aによる見守り処理の手順を示す。
クラウドサーバ1Aの受信部151は、見守られるユーザが使用するTV2Aの視聴データを受信したか否かを判定する(ブロックB311)。視聴データを受信している場合(ブロックB311のYES)、受信部151は、受信されたTV2Aの視聴データをTV視聴履歴データベース1Bに保存する(ブロックB312)。
視聴データを受信していない場合(ブロックB311のNO)、音声認識・パターン解析部158はアバターが要求されたか否かを判定する(ブロックB313)。アバターが要求されている場合(ブロックB313のYES)、音声認識・パターン解析部158は、見守られるユーザとの過去の会話(音声データ)を解析することによって、会話パターンを検出する(ブロックB314)。
そして、アバター制御部(会話処理部)157は、見守られるユーザの会話パターンと視聴データとに基づいて、見守られるユーザとの会話を支援するアバターを選択する(ブロックB315)。アバター制御部157は、選択されたアバターを用いて見守られるユーザとの会話処理を実行する(ブロックB316)。なお、音声認識・パターン解析部158は、ブロックB316での会話処理によって新たに取得された見守られるユーザとの会話の音声データを用いて、会話パターンを更新してもよい。
また、アバターが要求されていない場合(ブロックB313のNO)、音声認識・パターン解析部158は会話支援データが要求されたか否かを判定する(ブロックB317)。音声認識・パターン解析部158は、例えば、見守るユーザが使用するクライアント3B,3Cから会話支援データが要求されたか否かを判定する。
会話支援データが要求されている場合(ブロックB317のYES)、音声認識・パターン解析部158は、見守られるユーザとの過去の会話(音声データ)を解析することによって、会話パターンを検出する(ブロックB318)。会話支援データ生成部160は、会話パターンと視聴データとに基づいて会話支援データを生成する(ブロックB319)。送信部154は、生成された会話支援データを、見守るユーザが使用するクライアント3B,3Cに送信する(ブロックB320)。
図22のフローチャートを参照して、見守るユーザ側のクライアント3Aによる表示制御処理の手順について説明する。
まず、見守りデータ受信部313は、会話が要求されたか否かを判定する(ブロックB321)。見守りデータ受信部313は、見守るユーザによる会話を開始するための操作が検出された場合や、見守られるユーザが使用するTV2Aから会話の開始の要求を受けた場合に、会話が要求されたと判定する。会話が要求されていない場合(ブロックB321のNO)、ブロックB321に戻り、再度、会話が要求されたか否かが判定される。
会話が要求されている場合(ブロックB321のYES)、見守りデータ受信部313は、クラウドサーバ1Aから会話支援データを受信する(ブロックB322)。表示処理部315は、会話支援データを用いて、見守られるユーザとの会話を支援するための情報を画面に表示する(ブロックB323)。そして、会話処理部316は、見守られるユーザが使用するクライアント(TV)2Aとの間で会話処理を実行する、すなわち、見守るユーザの発話による音声データをクライアント(TV)2Aに送信し、見守られるユーザの発話による音声データをクライアント(TV)2Aから受信する(ブロックB324)。
次いで、図23は、クラウドサーバ1Aによって、見守られるユーザ(高齢者)の健康状態が見守るユーザ(家族)に通知される例を示す。
見守られるユーザが使用するTV2Aは、見守られるユーザが視聴した番組を示す視聴データを、ネットワーク4を介してTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bは、例えば、任意の期間の電子番組ガイド(EPG)データと見守られるユーザの視聴データとを蓄積する。クラウドサーバ1Aは、ネットワーク4を介してTV視聴履歴データベース1Bにアクセスすることによって、TV視聴履歴データベース1Bから、見守られるユーザが視聴した番組を示す視聴データを受信することができる。
また、TV2Aは、当該TV2Aに接続または内蔵されたカメラ219を用いて、見守られるユーザの画像を生成する。この画像は、例えば、TV2A内の記憶装置に保存される。TV2Aは、保存された画像を用いて見守られるユーザのアルバムや自分史を作成することができる。TV2Aは、見守られるユーザによって予め作成された連絡先の一覧、家族に向けたメモ、遺言書等を画面に表示することもできる。
さらに、TV2Aは、カメラ219を用いて連続的に撮影された複数の画像(動画像)を用いて、見守られるユーザの動きを検出する。TV2Aは、検出された動きを示す動きデータをクラウドサーバ1Aに送信する。
クラウドサーバ1Aは、受信した視聴データおよび動きデータを用いて、見守られるユーザの健康状態を推定する。この健康状態は、例えば、見守られるユーザの安否を示す。クラウドサーバ1Aは、推定された見守られるユーザの健康状態データを、ネットワーク4を介して見守るユーザが使用するクライアント3B,3Cに送信する。
クライアント3B,3Cは、受信した健康状態データを用いて、見守られるユーザの健康状態を見守るユーザに通知する。クライアント3B,3Cを使用するユーザ(見守るユーザ)は、この通知によって、見守られるユーザの健康状態を確認することができる。
図24を参照して、クラウドサーバ1A上で実行される見守りサーバプログラム112の機能構成の第4の例について説明する。見守りサーバプログラム112は、例えば、受信部151、送信部154、および健康状態推定部161を備える。
受信部151は、見守られるユーザが使用するTV2Aからデータを受信する。より具体的には、受信部151は、TV2Aに設けられた送信部252が送信した動きデータと視聴データとを受信する。TV2Aの動きデータは、見守られるユーザの動きを示す。この見守られるユーザの動きは、TV2Aに設けられた動き検出部256が、カメラモジュール219を用いて連続的に撮影された複数の画像を解析することによって算出する。動き検出部256は、例えば、画像間の差分に基づいて見守られるユーザの動きを検出し、その動きの量(画像間の差分の大きさ)に基づいて、見守られるユーザの活動量を推定する。
また、TV2Aの視聴データは、見守られるユーザによって視聴された番組に対応する放送日時、番組名、チャンネル、カテゴリ(ジャンル)、等を含む。この視聴データは、例えば、見守られるユーザによって番組が視聴されたことに応じて、TV2Aに設けられた視聴データ生成部251によって生成される。
また、受信部151は、受信した動きデータを記憶媒体等に保存する。また、受信部151は、受信したTV2Aの視聴データをTV視聴履歴データベース1Bに保存する。TV視聴履歴データベース1Bに保存される視聴データは、図8に示した構成と同様である。
次いで、健康状態推定部161は、所定時間毎(例えば、1日毎)に、または見守るユーザが使用するクライアント3B,3Cによる要求に応じて、見守られるユーザに関する健康状態データを生成する。より具体的には、健康状態推定部161は、見守られるユーザの動きデータと、TV視聴履歴データベース1Bに保存された視聴データとを用いて、見守られるユーザの健康状態を推定する。健康状態推定部161は、例えば、TV2Aで番組が視聴されているかどうか、見守られるユーザの活動量がしきい値以上であるかどうか、等に基づいて、見守られるユーザの健康状態を推定する。
送信部154は、推定された健康状態を示す健康状態データを、見守るユーザが使用するクライアント3B,3Cに送信する。
見守るユーザが使用するクライアント3B,3Cでは、クラウドサーバ1Aから健康状態データを受信し、健康状態データに基づく情報をユーザに通知する見守りクライアントプログラム213Aが実行される。この見守りクライアントプログラム213Aは、例えば、見守りデータ受信部313および表示処理部315を備える。
見守りデータ受信部313は、クラウドサーバ1A(送信部154)から健康状態データを受信する。
そして、表示処理部315は、健康状態データを用いて、見守られるユーザの健康状態を示す情報を画面に表示する。また、表示処理部315は、現在の健康状態が平常時とは異なる場合(健康状態が悪いと推定される場合)、現在の健康状態に異常があることを通知することもできる。表示処理部315は、健康状態の異常を、例えば、目立ちやすい色、マーク等を描画することによって示す。なお、この健康状態の異常は音声やアラームで通知されてもよい。
図25から図27を参照して、クラウドサーバ1Aから見守るユーザが使用するクライアント3B,3Cに、見守られるユーザの健康状態を示すデータが送信される場合の処理について説明する。
まず、図25のフローチャートを参照して、見守られるユーザ側の処理の手順について説明する。
まず、見守られるユーザによって使用されるTV2Aは、データを送信するタイミングであるか否かを判定する(ブロックB401)。データを送信するタイミングでない場合(ブロックB401のNO)、ブロックB401に戻り、再度、データを送信するタイミングであるか否かが判定される。
データを送信するタイミングである場合(ブロックB401のYES)、TV2Aの動き検出部256は、カメラモジュール219を用いて撮影された画像を解析することによって、見守られるユーザの動きを検出する(ブロックB402)。そして、TV2Aの送信部252は、検出された動きを示す動きデータをクラウドサーバ1Aに送信する(ブロックB403)。また、TV2Aの送信部252は視聴データをクラウドサーバ1Aに送信する(ブロックB404)。
図26のフローチャートは、クラウドサーバ1Aによる見守り処理の手順を示す。
クラウドサーバ1Aの受信部151は、見守られるユーザが使用するTV2Aの視聴データを受信する(ブロックB411)。受信部151は、受信されたTV2Aの視聴データをTV視聴履歴データベース1Bに保存する(ブロックB412)。また、受信部151は、見守られるユーザの動きデータを受信する(ブロックB413)。そして、受信部151は、受信した動きデータを記憶媒体等に保存する(ブロックB414)。
次いで、健康状態推定部161は、見守るユーザが使用するクライアント3B,3Cによって、見守りデータの送信が要求されたか否かを判定する(ブロックB415)。見守りデータの送信が要求されていない場合(ブロックB415のNO)、ブロックB411に戻り、見守られるユーザが使用するTV2Aからデータを受信する処理等を続行する。
見守りデータの送信が要求されている場合(ブロックB415のYES)、健康状態推定部161は、保存されている見守られるユーザの動きデータと、TV視聴履歴データベース1Bに保存されている視聴データとを用いて、見守られるユーザの健康状態を推定する(ブロックB416)。そして、送信部154は、推定された健康状態を示す健康状態データ(見守りデータ)を、見守るユーザが使用するクライアント3B,3Cに送信する(ブロックB417)。
図27のフローチャートを参照して、見守るユーザ側のクライアント3B,3Cによる表示制御処理の手順について説明する。
見守りデータ受信部313は、クラウドサーバ1Aから健康状態データを受信する(ブロックB421)。そして、表示処理部315は、健康状態データを用いて、見守られるユーザの健康状態を通知する(ブロックB422)。表示処理部315は、例えば、健康状態を表すテキスト、画像、等を画面に表示する。なお、この見守られるユーザの健康状態は、音声によって通知されてもよい。
また、クラウドサーバ1Aからクライアント3A,3B,3Cに提供される見守りデータ、会話支援データ、健康状態データは、例えば、ウェブブラウザによって表示可能なHTMLで記述されていてもよい。その場合、クライアント3A,3B,3C上で実行されるウェブブラウザによって、受信されたデータに対応する情報(ウェブページ)が画面に表示される。
以上説明したように、本実施形態によれば、ユーザを見守るための情報が提供される場合に、見守られるユーザまたは見守るユーザに課される負担を軽減することができる。なお、上述した説明では、ユーザを見守るための各種の情報が提供される例を示したが、それら情報の内の一つを見守るユーザに提供してもよいし、情報のいくつかを組み合わせて見守るユーザに提供するようにしてもよい。
また、図9から図11、図15から図17、図20から図22、および図25から図27のフローチャートで説明した本実施形態の処理手順は全てソフトウェアによって実行することができる。このため、この処理手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1A…クラウドサーバ、1B…TV視聴履歴データベース、112…見守りサーバプログラム、151…受信部、152…睡眠時間推定部、153…パターン推定部、154…送信部、2A…TV、251…視聴データ生成部、252…送信部、2B…照明、261…送信部、2C…エアコン、271…温度センサ、272…湿度センサ、273…送信部、3A…クライアント(TV)、213A…見守りクライアントプログラム、311…番組表データ受信部、312…番組表生成部、313…見守りデータ受信部、314…見守り情報生成部、315…表示処理部。

Claims (14)

  1. 第1ユーザが使用する1以上の電子機器の各々から、動作した時間帯を示す動作データを受信し、前記1以上の電子機器の内の第1電子機器から、前記第1ユーザが視聴した番組を示す視聴データを受信する受信手段と、
    前記動作データと前記視聴データとを用いて、前記第1ユーザの生活パターンを示す生活パターンデータを生成する生成手段と、
    前記生活パターンデータを、第2ユーザが使用する電子機器に送信する送信手段とを具備する電子機器。
  2. 前記生成手段は、前記動作データを用いて前記第1ユーザの睡眠時間帯を推定し、前記視聴データを用いて、現在の時間帯に前記第1ユーザによって視聴される頻度が高い第1番組を検出し、
    前記生活パターンデータは、前記睡眠時間帯と前記第1番組と前記第1ユーザが現在視聴している番組とを示すデータを含む請求項1記載の電子機器。
  3. 前記受信手段は、さらに、前記第1電子機器から、前記第1ユーザが放送番組を視聴しているときに笑顔である度合いを示す笑顔度データを受信し、
    前記生成手段は、前記視聴データと前記笑顔度データとを用いて前記第1ユーザのバイオリズムを推定し、
    前記生活パターンデータは、前記バイオリズムを示すデータを含む請求項1記載の電子機器。
  4. 前記第1ユーザと会話するアバターを制御する制御手段をさらに具備し、
    前記生成手段は、さらに、前記第1ユーザとの会話に対応する音声データを解析することによって、前記第1ユーザとの会話を支援するための会話支援データを生成し、
    前記送信手段は、前記会話支援データを前記第2ユーザが使用する電子機器に送信する請求項1記載の電子機器。
  5. 前記受信手段は、さらに、前記第1電子機器から、前記第1ユーザの動きを示す動きデータを受信し、
    前記生成手段は、さらに、前記視聴データと前記動きデータとを用いて前記第1ユーザの健康状態を推定し、
    前記生活パターンデータは、前記健康状態を示すデータを含む請求項1記載の電子機器。
  6. 放送番組の番組表データと、遠隔のユーザの生活パターンを示す生活パターンデータとを受信する受信手段と、
    前記番組表データと前記生活パターンデータとを用いて、前記遠隔のユーザの生活パターンを示す情報を含む番組表を画面に表示する表示処理手段とを具備し、
    前記生活パターンデータは、前記遠隔のユーザが使用する1以上の電子機器の各々が動作した時間帯を示す動作データと、前記1以上の電子機器の内の第1電子機器で前記遠隔のユーザが視聴した番組を示す視聴データとを用いて生成される電子機器。
  7. 前記表示処理手段は、前記番組表上に、前記遠隔のユーザの睡眠時間帯と、現在の時間帯に前記遠隔のユーザによって視聴される頻度が高い第1番組と、前記遠隔のユーザが現在視聴している番組とを示す情報を表示する請求項6記載の電子機器。
  8. 前記生活パターンデータは、前記遠隔のユーザのバイオリズムを示すデータを含み、
    前記表示処理手段は、さらに、前記バイオリズムを画面に表示する請求項6記載の電子機器。
  9. 前記受信手段は、さらに、前記遠隔のユーザとの会話を支援するための会話支援データを受信し、
    前記表示処理手段は、前記会話支援データに基づく情報を画面に表示する請求項6記載の電子機器。
  10. 前記生活パターンデータは、前記遠隔のユーザの健康状態を示すデータを含み、
    前記表示処理手段は、さらに、前記健康状態を画面に表示する請求項6記載の電子機器。
  11. 第1ユーザが使用する1以上の電子機器の各々から、動作した時間帯を示す動作データを受信し、前記1以上の電子機器の内の第1電子機器から、前記第1ユーザが視聴した番組を示す視聴データを受信し、
    前記動作データと前記視聴データとを用いて、前記第1ユーザの生活パターンを示す生活パターンデータを生成し、
    前記生活パターンデータを、第2ユーザが使用する電子機器に送信する支援方法。
  12. 前記生成することは、前記動作データを用いて前記第1ユーザの睡眠時間帯を推定し、前記視聴データを用いて、現在の時間帯に前記第1ユーザによって視聴される頻度が高い第1番組を検出し、
    前記生活パターンデータは、前記睡眠時間帯と前記第1番組と前記第1ユーザが現在視聴している番組とを示すデータを含む請求項11記載の支援方法。
  13. 放送番組の番組表データと、遠隔のユーザの生活パターンを示す生活パターンデータとを受信し、
    前記番組表データと前記生活パターンデータとを用いて、前記遠隔のユーザの生活パターンを示す情報を含む番組表を画面に表示し、
    前記生活パターンデータは、前記遠隔のユーザが使用する1以上の電子機器の各々が動作した時間帯を示す動作データと、前記1以上の電子機器の内の第1電子機器で前記遠隔のユーザが視聴した番組を示す視聴データとを用いて生成される支援方法。
  14. 前記表示することは、前記番組表上に、前記遠隔のユーザの睡眠時間帯と、現在の時間帯に前記遠隔のユーザによって視聴される頻度が高い第1番組と、前記遠隔のユーザが現在視聴している番組とを示す情報を表示する請求項13記載の支援方法。
JP2013203421A 2013-09-30 2013-09-30 電子機器および支援方法 Pending JP2015069443A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013203421A JP2015069443A (ja) 2013-09-30 2013-09-30 電子機器および支援方法
US14/185,694 US8978055B1 (en) 2013-09-30 2014-02-20 Electronic apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203421A JP2015069443A (ja) 2013-09-30 2013-09-30 電子機器および支援方法

Publications (1)

Publication Number Publication Date
JP2015069443A true JP2015069443A (ja) 2015-04-13

Family

ID=52746448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203421A Pending JP2015069443A (ja) 2013-09-30 2013-09-30 電子機器および支援方法

Country Status (2)

Country Link
US (1) US8978055B1 (ja)
JP (1) JP2015069443A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016218969A (ja) * 2015-05-26 2016-12-22 ボクシーズ株式会社 安否確認システム、受信機、安否確認方法及びプログラム
JP2017152939A (ja) * 2016-02-25 2017-08-31 株式会社翠松堂Btl 双方向リアルタイム対話に基づくインターネットショッピングシステム及びその方法
US10223638B2 (en) 2015-06-24 2019-03-05 Baidu Online Network Technology (Beijing) Co., Ltd. Control system, method and device of intelligent robot based on artificial intelligence

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9798144B2 (en) * 2012-09-12 2017-10-24 Sony Corporation Wearable image display device to control display of image
US20200388376A1 (en) * 2019-06-07 2020-12-10 Livongo Health, Inc. Managing visual information for remote health services
US11503090B2 (en) 2020-11-30 2022-11-15 At&T Intellectual Property I, L.P. Remote audience feedback mechanism
US20220174357A1 (en) * 2020-11-30 2022-06-02 At&T Intellectual Property I, L.P. Simulating audience feedback in remote broadcast events
CN113961299A (zh) * 2021-11-17 2022-01-21 拉扎斯网络科技(上海)有限公司 内容显示方法、装置、电子设备、存储介质和程序产品

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1566597A (en) * 1995-12-27 1997-08-11 Gary B. Robinson Automated collaborative filtering in world wide web advertising
JP2003044960A (ja) 2001-07-30 2003-02-14 Matsushita Electric Ind Co Ltd 遠隔監視方法と遠隔監視端末装置
US20030229446A1 (en) * 2002-06-06 2003-12-11 Boscamp Robert L. Mobile education and entertainment system, method and device
US20050289611A1 (en) * 2004-06-25 2005-12-29 Nkb Inc. Subway-car broadcasting system
US20060090180A1 (en) * 2004-10-21 2006-04-27 Lsi Logic Corporation Use of screensaver to mask EPG data capture
AU2006275598B2 (en) * 2005-08-01 2011-04-07 Six Continents Hotels, Inc. Electronic menu and concierge system
US7930722B2 (en) * 2005-08-09 2011-04-19 Touchtown, Inc. Method and system for creating, managing and delivering community information
JP2007058404A (ja) 2005-08-23 2007-03-08 Sanyo Electric Co Ltd テレビジョン受像機および健康状態検出方法
JP5317308B2 (ja) 2006-04-07 2013-10-16 Nl技研株式会社 通信機能を有するテレビ、テレビシステムおよび通信機能を有する機器の操作装置
JP2012055471A (ja) 2010-09-08 2012-03-22 Sharp Corp 生体監視装置、生体監視方法、生体監視システム、制御プログラム、および、該制御プログラムを記録した記録媒体
JP5452558B2 (ja) 2011-09-05 2014-03-26 三菱電機株式会社 見守りシステム、見守り装置及び見守り方法
JP5544593B2 (ja) 2012-02-11 2014-07-09 Nl技研株式会社 通信機能を有するテレビ、テレビシステムおよび通信機能を有する機器の操作装置
JP5441194B2 (ja) 2012-08-08 2014-03-12 Necシステムテクノロジー株式会社 独居者見守りシステム、独居者見守り方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016218969A (ja) * 2015-05-26 2016-12-22 ボクシーズ株式会社 安否確認システム、受信機、安否確認方法及びプログラム
US10223638B2 (en) 2015-06-24 2019-03-05 Baidu Online Network Technology (Beijing) Co., Ltd. Control system, method and device of intelligent robot based on artificial intelligence
JP2017152939A (ja) * 2016-02-25 2017-08-31 株式会社翠松堂Btl 双方向リアルタイム対話に基づくインターネットショッピングシステム及びその方法

Also Published As

Publication number Publication date
US8978055B1 (en) 2015-03-10
US20150095926A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
JP2015069443A (ja) 電子機器および支援方法
US9436279B2 (en) Systems and methods for controlling user devices based on brain activity
WO2016173513A1 (zh) 基于推荐内容的互动方法、终端和服务器
CN109889901A (zh) 播放终端的播放控制方法、装置、设备和存储介质
US11659225B2 (en) Systems and methods for targeted television commercials based on viewer presence
JP2016535351A (ja) 動画情報共有方法、装置、プログラム、及び記録媒体
JP6286616B2 (ja) ホームスマートソケット制御方法、装置、プログラム及び記録媒体
US20160055306A1 (en) User condition checking system, user condition checking method, communication terminal device, user condition notification method, and computer program
CN105812892A (zh) 电视的动态显示画面的截取方法、装置及系统
US11449136B2 (en) Methods, and devices for generating a user experience based on the stored user information
JP6226791B2 (ja) レコメンド装置、レコメンドシステム及びレコメンド方法
JP6633408B2 (ja) 制御方法、制御装置及び機器
JP2013232230A (ja) 表示装置、テレビジョン受像機、表示方法、プログラム及び記録媒体
WO2015196583A1 (zh) 一种进行双向实况共享与智能监控的终端及方法
CN110636378A (zh) 电视远程控制方法、智能电视及可读存储介质
EP3015965A1 (en) Method and apparatus for prompting device connection
WO2014034195A1 (ja) コンテンツ提供装置、コンテンツ提供方法、プログラム、情報記憶媒体、放送局装置およびデータ構造
US20180039836A1 (en) Single call-to-connect live communication terminal, method and tool
CN103905837A (zh) 图像处理方法、装置及终端
JP2015116258A (ja) 制御方法、情報処理装置およびプログラム
JP6133812B2 (ja) 視聴情報取得装置
US9889270B2 (en) Method of controlling relaxation equipment, control system for relaxation equipment, and method of creating user model
US20160366662A1 (en) Information processing apparatus and control program
CN113110911A (zh) 信息显示方法、装置、电子设备和存储介质
JP2015184887A (ja) マッチング装置、マッチングシステム及びマッチング方法