JP2015210797A - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JP2015210797A
JP2015210797A JP2014094206A JP2014094206A JP2015210797A JP 2015210797 A JP2015210797 A JP 2015210797A JP 2014094206 A JP2014094206 A JP 2014094206A JP 2014094206 A JP2014094206 A JP 2014094206A JP 2015210797 A JP2015210797 A JP 2015210797A
Authority
JP
Japan
Prior art keywords
information
person
display device
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014094206A
Other languages
English (en)
Inventor
一則 安田
Kazunori Yasuda
一則 安田
実雄 阪本
Jitsuo Sakamoto
実雄 阪本
司 神之門
Tsukasa Kaminomon
司 神之門
優 西島
Masaru Nishijima
優 西島
光治 酒井
Mitsuharu Sakai
光治 酒井
英満 南田
Hidemitsu Minamida
英満 南田
山崎 幸生
Yukio Yamazaki
幸生 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014094206A priority Critical patent/JP2015210797A/ja
Priority to PCT/JP2015/054590 priority patent/WO2015166691A1/ja
Publication of JP2015210797A publication Critical patent/JP2015210797A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】鏡の設置場所を考慮し、鏡の前に居る人物に対して必要な情報を適切なタイミングで提供する。
【解決手段】表示装置(103)は、表示装置(103)の設置場所と対応付けられた情報から、個人特定部(22)によって特定された人物に応じて生成されたカスタマイズ情報を、音声で出力するための音声認識処理部(27)を備えている。
【選択図】図9

Description

本発明は、表示装置に関し、特に、表示面において、光の一部を透過し、一部を反射する光透過反射機能を有する表示装置に関する。
一般に、表示面において、光の一部を透過し、一部を反射する光透過反射機能を有する表示装置、所謂ミラー機能付き表示装置では、表示装置の表示面に表示された情報(画像も含む)は、鏡像とともに映し出される。
例えば、特許文献1には、鏡像に重ならない位置に、ユーザの行動に関する生活情報映像を表示する情報表示装置が開示されている。
特開2010−16793号公報(2010年1月21日公開)
ところで、ミラー機能付きの表示装置の設置場所として、洗面台、鏡台、クローゼット、玄関などが考えられ、これら設置場所によって、ユーザの鏡を使用する目的や使用する時間が異なる。このため、ユーザが欲する情報も異なる。例えば洗面台では、洗顔、歯磨き、手洗いを目的とし、使用する時間も比較的長いため、ユーザが欲する情報は、天気予報、交通情報に加えて、ニュース、占い、メールなどほとんど全ての情報が該当し、玄関では、身だしなみのチェックを行うことを目的とし、使用する時間はとても短いため、ユーザが欲する情報は、天気予報、交通情報といった外出時に最低限必要な情報が該当する。
しかしながら、特許文献1では、ユーザの取り得る複数の行動と、これらの行動に関連する映像との関係を示す行動情報を、生活情報映像として、鏡の前に居るユーザに提示しているだけである。つまり、特許文献1では、ユーザの一般的な行動パターンから導き出される一般的な生活情報映像を提示しているだけであり、表示装置の設置場所を考慮して、情報の提供を行っていない。
このように、特許文献1では、表示装置の設置場所を考慮して、情報の提供を行っていないため、表示装置の前に居るユーザにとって必要な情報を適切なタイミングで提供でないという問題が生じる。
本発明は、上記の問題点に鑑みなされたものであって、その目的は、鏡の設置場所を考慮し、鏡の前に居る個人に対して必要な情報を適切なタイミングで提供できる表示装置を提供することにある。
上記の課題を解決するために、本発明の一態様に係る表示装置は、光の一部が透過し、一部が反射する光透過反射部材を、表示手段の表示面上に重ねて配置した表示装置において、上記光透過反射部材の光反射面側に存在する人物を特定する人物特定手段と、表示装置の設置場所と対応付けられた情報から、上記人物特定手段によって特定された人物に応じて生成された情報を、カスタマイズ情報として取得する情報取得手段と、上記情報取得手段によって取得されたカスタマイズ情報を、音声で出力する発話手段と、備えていることを特徴としている。
本発明の一態様によれば、ユーザが表示装置の前に立つだけで、表示装置の設置場所に応じた情報であり、かつ、ユーザにとって必要な情報を音声により適切なタイミングで確認できるという効果を奏する。
本発明の実施形態1に係る表示装置の概略図である。 図1に示す表示装置の概略構成ブロック図である。 図1に示す表示装置における情報表示までの処理の流れを示すフローチャートである。 (a)(b)は、図1に示す表示装置が使用するデータベースを示す図である。 図1に示す表示装置における表示された情報の処理の流れを示すフローチャートである。 (a)〜(c)は、図1に示す表示装置における表示された情報の処理を説明する図である。 図1に示す表示装置を備えた表示システムを示す図である。 本実施形態1の変形例に係る表示装置の概略構成ブロック図である。 本発明の実施形態2に係る表示装置の概略構成ブロック図である。 本発明の実施形態2の変形例に係る表示装置の概略構成ブロック図である。 図9,10に示す表示装置において、発話処理を行う前の状態を示す図である。 図9,10に示す表示装置において、発話処理の流れを示すフローチャートである。 図9,10に示す表示装置における表示された情報の処理の流れを示すフローチャートである。 (a)〜(c)は、図9,101に示す表示装置における表示された情報の処理を説明する図である。 本発明の実施形態3に係る表示装置の概略構成ブロック図である。 (a)(b)は、情報表示の前に発話処理の一例を示す図である。 本発明の実施形態4に係る表示装置における、特定された個人の状態検出の一例を示す図である。
〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。本実施形態では、ミラー(鏡)として機能する光透過反射部材として、ハーフミラーを例に説明する。
(表示装置の概要)
図1は、本実施形態に係るミラー機能付き表示装置(以下、表示装置と称する)101の概要を説明するための図である。
表示装置101は、図1に示すように、表示部(表示手段)11と、表示部11の表示面11a上に重ねて配置されたハーフミラー(光透過反射部材)12と、表示部11の周囲に設けられた、カメラ13と、マイク14、スピーカ(発話手段)15とを備えている。
表示部11は、映像を表示する表示手段であり、液晶表示パネルからなり、液晶表示パネル以外の、EL(有機、無機)、PDP(Plasma Display Panel)、SED(Surface−conduction Electron−emitter Display)等のFPD(フラットパネルディスプレイ)であってもよい。
ハーフミラー12は、光の入射率と反射率とが同じになるように、板ガラス、あるいはアクリルなどの有機ガラスに、反射膜をごく薄く形成し、半透明にして形成された光透過反射部材である。ハーフミラー12としては、市販されているものを使用することができる。
ハーフミラー12は、上述のように、表示部11の表示面11a上に重ねて配置されているので、当該表示面11aに表示される映像を透過して映し出し、外部から表示面11aに向かって入射される光の一部を反射して鏡像が生成される。これにより、図1に示すように、ハーフミラー12上で、鏡像16と、上記表示部11の表示面11aに表示された映像17a〜17dとを擬似的に合成することができる。
図1に示す例では、表示部11の表示面11aにおいて、ハーフミラー12を透過した人物の像を表示する人物領域11bと、映像17a〜17dを表示する映像領域11cとが重ならないように設定されている。映像領域11cは、表示面11aにおける人物領域11bに重ならない位置に設定されるが、表示装置101の前に居る人物が認識しやすい位置、すなわち目線の移動量が少ない位置に設定するのが好ましい。つまり、表示面11aには、鏡像16と、各種情報(映像17a〜17d)とが表示される。なお、映像領域11cに表示されている各種情報が視認することができればよいので、映像領域11cと人物領域11bとが多少重なっていてもよい。
また、上記映像領域11cに表示される映像17a〜17dは、表示装置101の前に居る人物、すなわちハーフミラー12に映し出された鏡像16の人物に合わせ、且つ表示装置101を設置している場所に応じた情報となる。図1では、映像17aには「天気予報」が、映像17bには「今日の占い」が、映像17cには「ニュース」が、映像17dには「交通情報」が上記情報として表示されている。なお、上述したように、映像領域11cに表示される情報の選択は、後述するデータベース(図5の(a)(b))を参照して行われる。この情報選択の詳細については後述する。
カメラ13は、表示装置101の前に居る人物を撮影するための撮影手段(第1撮影手段、第2撮影手段)であって、表示部11の表示に寄与しない周縁部の左右に2箇所設けられている。カメラ13を2箇所設けるのは、表示装置101の前に居る人物と表示部11の表示面11aとの間の距離を測定するためである。
また、カメラ13は、撮像素子として、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を用いた一般的な小型のデジタルカメラであり、表示装置101の前に居る人物を撮影できるものであれば、何でもよい。
さらに、カメラ13は、表示装置101の前に居る人物の目線を検出するように、当該人物の眼球に赤外線を照射して得られる角膜反射像を撮影できるようにもなっている。
さらに、本発明では、表示装置101の前に居る人物を特定するための手段(人物特定手段)が必須である。従って、本実施形態では、表示装置101の前に居る人物を撮影して、その撮影映像から個人を特定することを行う。従って、上記カメラ13を用いて、表示装置101の前に居る人物を撮影して、この撮影映像を個人特定に用いる。つまり、カメラ13は、表示装置101の前に居る人物の目線を検出するためと、個人を特定するために用いられる。なお、人物の目線を検出するためのカメラ(第1撮影手段)と、個人を特定するためのカメラ(第2撮影手段)とを別々に設けてもよい。
マイク14は、表示装置101の前に居る人物が発する音声を取り込むための手段であり、スマートフォンや携帯電話等に用いられる一般的なマイクで構成されている。また、マイク14によって取り込まれた音声から個人を特定するようにしてもよい。
スピーカ15は、表示装置101の前に居る人物に対して音声を発する手段であり、スマートフォンや携帯電話等に用いられる一般的なスピーカで構成されている。また、スピーカ15は、表示装置101の前に居る人物に対して必要とされる情報を音声で報知するための手段としても用いられる。例えば、スピーカ15は、表示部11の表示面11aに表示された映像17a〜17dに対応する情報を音声で発して、表示装置101の前に居る人物に報知する。
なお、上記カメラ13は、ハーフミラー12の前に居る人物の動きを検出するために用いてもよい。この動き検出の結果は、制御装置20に入力され、動きに応じたコマンドを実行(ジャスチャ入力処理)するようになっている。例えば、人物の指先を検出し、その動きを検出し、指先が指した位置に表示されているカスタマイズ情報を選択するようにしてもよい。
(表示装置の詳細)
ここで、表示装置101の詳細について図2を参照しながら以下に説明する。
表示装置101は、図2に示すように、ネットワークを介して管理サーバ2に接続されており、表示部11、カメラ13、マイク14、スピーカ15、これらを制御する制御装置20を備えている。
制御装置20は、情報取得部(情報取得手段)21、個人特定部(人物特定手段)22、目線移動先検出部(目線移動先検出手段)23、人物領域検出部(領域検出手段)24、表示制御部(表示制御手段)25、特定部(特定手段)26を含んでいる。
個人特定部22は、表示装置101の前に居る人物を特定する。具体的には、個人特定部22は、カメラ13によって表示装置101の前に居る人物を撮影して得られた撮影映像から、人物を特定する。例えば、予め人物の情報(顔画像)を登録しておき、撮影映像が、登録済みの顔画像であるか否かを判定することで、人物(以下、個人と称する)を特定する。この場合、登録済みの顔画像毎にIDを付しておくことで、特定した個人のIDを、特定した個人の情報として、情報取得部21に送る。
なお、表示装置101の前に居る人物を特定する方法としては、上記のようなカメラ13を用いた撮像画像を利用する方法の他に、個人が身につけるウェアラブル装置からの情報を取得することによって、個人を特定してもよい。この場合、人物が表示装置101の前に居ない状態で当該人物の特定が行われるのを防止するために、表示装置101の前に人物が居ること、すなわち、当該人物の鏡像16がハーフミラー12に映し出されていることを検出してから、当該人物が身につけたウェアラブル装置からの情報が、表示装置101内部の個人特定部22に送られる。ウェアラブル装置と表示装置101との接続は、赤外線通信、WIFI(登録商標)、Bluetooth(登録商標)等の無線通信で行われる。なお、ウェアラブル装置から表示装置101への情報の送信は、上記の無線通信の他、有線通信であってもよいし、ネットワークを介して送るようにしてもよい。
また、表示装置101の前に居る人物を特定する方法については、上記の2通りの個人特定方法に限定されず、例えば、音声による個人特定方法であってもよい。この場合、表示装置101の前に居る人物が、当該表示装置101に搭載されたマイク14に向かって音声を発することにより、マイク14からの音声信号が制御装置20内の個人特定部22に送られ、当該個人特定部22にて予め登録された音声データと照合して個人が特定される。なお、この場合も、人物が表示装置101の前に居ない状態で当該人物の特定が行われるのを防止するために、表示装置101の前に人物が居ることを検出してから、音声による個人の特定を行う。
情報取得部21は、インターネット等の通信ネットワークを介して接続された管理サーバ2から必要な情報を取得する。ここで、必要な情報とは、個人特定部22によって特定された個人に応じたカスタマイズ情報である。カスタマイズ情報は、表示装置101の設置場所毎に予め設定された情報のうち、各個人に応じてカスタマイズされた情報(カスタマイズ情報)である。カスタマズ情報は、例えば図1に示す天気予報、今日の占い、ニュース、交通情報があり、これらのカスタマイズ情報は、表示制御部25に送られる。
カスタマイズ情報は、個人毎に、且つ表示装置101の設置場所毎に設定された情報、例えば図4の(b)に示す「表示する情報」であり、さらに、個人の好みを反映した情報を含んでいてもよい。
人物領域検出部24は、ハーフミラー12を透過した人物の像が上記表示面11aに表示される領域(人物領域11b)を検出する。ここでは、2つのカメラ13により撮影された表示装置101の前に居る人物の撮影映像から、表示装置101と人物との間の距離を求め、この距離からハーフミラー12に映し出された鏡像16の大きさおよび表示位置を求めて、当該表示装置101の表示部11の表示面11aに投影される鏡像16の表示位置を人物領域11bとして検出する方法であってもよい。なお、ハーフミラー12が鏡台や洗面台に設置された時のように、ハーフミラー12と人物との距離が予測されるときには、カメラ13は1つであってもよい。
人物領域検出部24によって検出された人物領域11bは、表示制御部25に送られる。
表示制御部25は、表示部11の表示面11aに表示すべき映像の表示位置を制御する。具体的には、表示制御部25は、人物領域検出部24からの人物領域11bの表示位置を特定し、この人物領域11bに重ならない領域(図1では、映像領域11c)を設定し、この映像領域11cに情報取得部21が取得したカスタマイズ情報を表示するように表示部11を制御している。
また、表示制御部25は、カメラ13からの撮影映像を所望のサイズに変換して、人物の撮影映像として表示部11の表示面11aの所望する位置に表示させることもできる。
目線移動先検出部23は、表示装置101の前に居る人物の目線の移動した先(目線移動先)が表示部11の表示面11a内のどこにあるかを検出する。具体的には、目線移動先検出部23は、カメラ13によって撮影された表示装置101の前に居る人物の眼球の角膜反射像から、当該人物の目線の移動先を検出する。目線移動先検出部23としては、カメラ13によって撮影された角膜反射像を用いるほか、人物の目線の移動先を検出できればどのような検出手段であってもよい。検出された目線移動先の情報は、特定部26に送られる。ここで、検出された目線移動先の情報は、表示面11aの座標位置を示す情報であるが、これに限定されるものではなく、表示面11a内の位置が特定できる情報であればどのような情報であってもよい。
特定部26は、目線移動先検出部23によって検出された目線移動先に対応する位置のカスタマイズ情報が特定され、この特定されたカスタマイズ情報がどのような情報であるかを判定する。例えば、図1に示す映像領域11cの映像17a〜17dのうち、目線移動先に対応する位置に映像17dがあれば、この映像17dがどのような情報であるかを判定する。図1の場合、映像17dは「交通情報」である。従って、表示装置101の前に居る人物の目線移動先は「交通情報」になる。特定部26によって選択された情報は、表示制御部25に送られる。
特定部26は、人物の目線移動先の情報に基づいて情報の特定を行っているが、これに限定されるものではなく、人物の音声やジェスチャに基づいた情報を用いて情報の特定を行ってもよい。
例えば、音声を用いた情報の選択の場合、鏡像16に対応する人物から例えば「交通情報」と発せられたら、マイク14が「交通情報」という音声を取り込んで、特定部26に送る。特定部26では、既存の音声認識処理を行い、表示装置101の前に居る人物によって選択された情報が「交通情報」と判定する。
また、ジェスチャを用いた情報の選択の場合、図示しないジェスチャ認識部にて、鏡像16に対応する人物をカメラ13によって撮影した撮影映像から、例えば手先を認識し、認識した手先が指す表示面11aの座標位置を取得する。この取得した座標位置を特定部26に送る。特定部26では、送られた座標位置から表示面11aに表示されている映像17a〜17dの何れかが選択され、選択された映像17に対応する情報を判定する。例えば、図1に示す映像領域11cの映像17a〜17dのうち、上記座標位置に映像17dがあれば、この映像17dが選択され、この映像17dがどのような情報であるかを判定する。
表示制御部25は、特定部26によって特定された情報(図1の映像領域11cに表示された映像17a〜17dの何れか)を、表示装置101の前に居る人物が見やすい位置に表示させる。この場合、鏡像16の表示位置が見やすい位置であると考えられるため、この位置に選択された情報を表示する。なお、選択された情報を表示する際には、既に表示されている鏡像16を全て覆うような形で表示するのが好ましい。選択された情報の表示処理についての詳細は後述する。
(情報表示までの処理)
表示装置101の前に人物の鏡像が映し出された後、必要な情報(カスタマイズ情報)が表示される前の処理の流れについて、図3に示すフローチャートを参照しながら以下に説明する。
まず、鏡像の表示領域の検出を行う(ステップS11)。ここでは、制御装置20の人物領域検出部24によって、ハーフミラー12に結像される人物の像の表示領域を検出する。具体的には、図1に示す人物領域11bを検出する。鏡像16の表示領域の検出方法については、上述した方法により行う。
次に、個人の特定を行う(ステップS12)。ここでは、制御装置20の個人特定部22によって、表示装置101の前に居る人物を特定する。個人の特定方法については、上述した方法により行う。
続いて、個人に合わせた情報(カスタマイズ情報)の取得を行う(ステップS13)。ここでは、制御装置20の情報取得部21によって、表示装置101の前に居る人物に合わせた情報を、管理サーバ2から取得する。
最後に、取得したカスタマイズ情報の表示を行う(ステップS14)。ここでは、制御装置20の表示制御部25によって、ステップS11において検出された鏡像16の表示位置、すなわち図1の人物領域11bに重ならない位置に、情報の表示位置となる映像領域11cを設定し、この映像領域11cに取得した情報を表示させる。
(データベース)
続いて、上記ステップS13において取得する情報について、図4の(a)(b)に示すデータベースを参照しながら以下に説明する。
取得する情報(表示装置101に表示するカスタマイズ情報)は、表示装置101の設置場所毎に異なる。これは、図4の(a)に示すように、表示装置101を設置した場所によって、目的、時間・シーン、鏡像、鏡の前に居る時間が異なるためである。
例えば表示装置101の設置場所が、洗面台であれば、その目的は洗顔、歯磨き、手洗いである。そして、洗面台を使用する時間・シーンについてもだいたい決まっており、起床時、就寝前となる。また、洗面台に設置された表示装置101の鏡像も胸から上、主に顔であり、鏡の前に居る時間も比較的長い。従って、洗面台に設置された表示装置101には、図4の(b)に示すように、ニュース、天気予報、交通情報、占い、メース、SNS(Social Network Service)等、基本的に全情報が表示される。但し、時間によって、表示しない情報もある。
表示装置101の他の設置場所においても、図4の(a)(b)に示すように、目的、時間・シーン、鏡像、鏡の前に居る時間に応じて、表示する情報が異なる。
図4の(a)(b)に示すデータベースは、個人毎に設定されている。個人を識別するためのIDをデータベースに付すことで、特定した個人のIDから、当該個人に応じたカスタマイズ情報を取得することが可能となる。つまり、表示装置101において、個人特定部22によって個人が特定され、情報取得部21によって特定された個人のIDから、対応するデータベースを管理サーバ2から読み出すことで、個人に応じたカスタマイズ情報を取得することが可能となる。ここで、個人に対応するデータベースとは、個人に関連する情報(性別、生年月日、好きな色、趣味等)に合わせて、例えば図4の(b)に示す「表示する情報」を設定したデータベースである。図4の(b)に示す「表示する情報」だけでなく、図4の(a)に示す項目を個人に関連する情報に合わせて設定してもよい。
このように、表示装置101の設置場所に応じて、特定した個人毎に登録されたデータベースから必要な情報を取得することができるので、表示装置101の前に居る人物に対して、必要とするカスタマイズ情報を適切なタイミングで提供できる。
ここまでの説明では、表示装置101の前に居る人物に対するカスタマイズ情報を表示するまでの処理について説明したが、以下では、表示されたカスタマイズ情報の処理について説明する。
(表示されたカスタマイズ情報の処理)
続いて、図1に示すように、鏡像16と映像17とが表示された状態で、鏡像16に対応する人物による映像17の選択処理について、図5に示すフローチャートおよび図6を参照しながら以下に説明する。ここでは、人物の目線移動先による情報の選択処理について説明する。
まず、表示装置101の前に居る人物の目線移動先検出を行う(ステップS21)。ここでは、目線移動先検出部23によって、表示装置101の前に居る人物の眼球の角膜反射像から、目線移動先を検出する。
次に、検出された目線移動先での目線が同じ位置で所定時間経過か否かを判定する(ステップS22)。ここでは、特定部26によって、検出された目線移動先が移動しない時間(人物が注視している時間)が所定時間経過したか否かを判定する。所定時間経過せずに、目線移動先が移動した場合(ステップS22のNo)には、再度ステップS21にて、目線移動先検出部23による目線移動先検出を行う。一方、所定時間経過した場合(ステップS22のYes)には、人物がある映像を選択したとみなして、ステップS23に移行して、表示制御部25は、特定部26によって選択した映像の表示位置を、鏡像16の表示位置に入替える。
例えば図6の(a)は、目線移動先が映像17dと検出され、当該映像17dが選択された例を示している。この例では、検出先の映像17dを他の映像17a〜17cと区別するために、太枠に変更している。
そして、選択された映像17dから目線移動先が所定時間移動しなかった場合、図6の(b)に示すように、映像17dに表示されている交通情報を見やすい位置、すなわち鏡像16の表示位置に拡大して映像17d’として表示する。このとき、鏡像16の代わりに、表示装置101の前に居る人物をカメラ13で撮影した撮影映像16’を元の映像17dが表示された位置に表示する。
同様にして、他の映像17a〜17cの何れかに目線移動先が移動した場合も、移動先の映像が見やすい位置に表示される。
また、目線移動先を撮影映像16’に移動させると、図6の(c)に示すように、撮影映像16’が選択されたことを示すリング18が表示され、この状態で所定時間経過すると、再び、図6の(a)に示すように、鏡像16が表示される。
上記の処理を繰り返すことで、表示装置101の前に居る人物は、自分の姿を確認しながら、必要な情報を見やすい位置で確認することができる。
(クラウド化による効果)
表示装置101は、上述したように、家庭内の様々な場所に設置される。各設置場所に設置された表示装置101は、それぞれ通信ネットワークを介し管理サーバ2に接続されている。図7は、家庭内の複数の表示装置101と管理サーバ2とで構成される表示システムの概要を示す図である。
表示装置101は、家庭内で使用されることを前提として、洗面台、鏡台、姿見、玄関、お風呂場に設置されるものとする。なお、設置場所についてこれらに限定されるものではない。図7では、設置場所毎の表示装置101を区別するために便宜上、符号a〜eを追加している。すなわち、洗面台では表示装置101a、鏡台では表示装置101b、姿見では表示装置101c、玄関では表示装置101d、お風呂場では表示装置101eとしている。また、各設置場所の表示装置101a〜表示装置101eは、図7に示すように、ネットワークを介して管理サーバ2に接続され、管理サーバ2から必要な情報を取得し、保存すべき情報を送信している。
管理サーバ2には、図1に示す表示装置101に表示されている映像17として表示すべき情報が格納されている。なお、管理サーバ2は、管理している情報のうち、上述したように、天気予報、今日の占い、ニュース、交通情報などの即時性が必要な情報を、ネットワーク(インターネット)を介して外部から定期的に取得するようになっている。取得した情報は、管理サーバ2内のデータベース(図4の(a)(b))の各設置場所の表示装置101に対応する項目に紐付けられ、送信要求のあった設置場所の表示装置101に送信される。
上記構成の表示システムにおいて、各表示装置101は、共通の管理サーバ2に接続されているため、共通の情報を表示することが可能である。この場合の共通の情報とは、例えば図4の(b)に示す「表示する情報」では、表示装置101の設置場所がお風呂場を除いて、天気予報、交通情報である。つまり、起床から出勤までの間に、個人が見ていく表示装置101全てに、天気予報、交通情報を表示しておくことができる。これにより、ユーザは、確認すべき情報を、起床から出勤までの間の何れかで確認することができるので、情報の確認のし忘れを防止することができる。
なお、表示装置101全てに共通の情報が表示されているので、ユーザは、各情報をどの時点で確認したか、あるいは未だ確認していないかを把握することができない。
そこで、表示部11の表示面11aに表示された情報(映像17)が、表示装置101の前に居る人物によって選択されたか否かを示すために、例えば選択された情報の表示色を、選択された情報と異なる表示色(例えばグレー)にすることで、ユーザは、各情報をどの時点で確認したか、あるいは未だ確認していないかを把握することができる。
さらに、未確認の情報のうち、特に、ユーザにとって重要である情報(出勤時であれば「交通情報」)を強調表示する等してユーザが認識しやすいようにしてもよい。
(変形例)
(表示装置の詳細)
図8は、情報取得部21が取得する情報の取得先を装置内部に設けられた管理情報記憶部3とした表示装置102の概略を示すブロック図である。
表示装置102は、基本的に、図3に示す表示装置101と同じ構成であるが、表示部11の表示面11aに表示する情報の取得先を管理サーバ2から管理情報記憶部3に変更されている。
管理情報記憶部3は、管理サーバ2に格納された情報と同じ情報を格納しておけば、表示装置102は、図3に示す表示装置101と同じ機能を実行できる。但し、管理情報記憶部3においては、ほとんどの情報に関しては、予め登録するだけでよいが、即時性のある情報(天気予報、交通情報等)については対応していない。なお、即時性のある情報は、管理情報記憶部3をインターネット等のネットワークに接続することで取得する。
上記構成の表示装置102は、設置場所が1箇所であり、且つ、即時性の情報もほとんど不要である場合に有効である。
〔実施形態2〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(表示装置の詳細)
図9は、本実施形態に係る表示装置103の概略を示すブロック図である。
表示装置103は、図3に示す表示装置101に対して、情報の音声による出力を行うための音声認識処理部(音声認識処理手段、発話手段)27、音声認識データベース28が新たに追加されている。
音声認識処理部27は、特定部26によって特定された情報を音声データに変換し、変換した音声データをスピーカ15に送る。スピーカ15からは、音声により情報が出力される。
音声認識処理部27は、表示制御部25が表示部11の表示面11aに表示されている情報を音声データとしてスピーカ15に出力する。ここで、音声認識処理部27は、表示面11aに情報を表示するタイミングに合わせて音声データをスピーカ15に出力するか、あるいは表示面11aに情報を表示するタイミングよりも遅いタイミングで音声データをスピーカ15に出力する。
音声認識処理部27は、情報を音声で出力するための処理を行うだけでなく、マイク14から入力される音声データを認識し、認識した音声データに対応するコマンドを特定部26に出力する。コマンドは、音声認識データベース28において、音声データに対応付けられて格納されている。ここで、コマンドは情報を選択するためのコマンドである。つまり、マイク14から入力された音声データを認識し、認識した音声データに対応するコマンドを音声認識データベース28から読み出して、特定部26に送ることで、当該特定部26は、送られたコマンドに対応する情報を選択する。なお、音声認識処理部27と音声認識データベース28は、いずれかまたは両方がインターネット等のネットワークに接続することで参照できるように構成してもよい。
図9に示す表示装置103は、特定部26によって選択する情報の取得先は、管理サーバ2である。前記実施形態1と同様に、情報の取得先は、図10に示すように、管理情報記憶部3を用いた表示装置104であってもよい。
(情報発話までの処理)
図11は、表示装置103(104)の前に人物の鏡像が映し出され状態を示す図であり、情報が取得された後もこの状態(情報が表示されず、鏡像16のみが表示されている状態)である。この点が前記実施形態1の図1と異なる点である。
情報が発話される前の処理の流れについて、図12に示すフローチャートを参照しながら以下に説明する。
まず、個人の特定を行う(ステップS31)。ここでは、制御装置20の個人特定部22によって、表示装置103の前に居る人物を特定する。個人の特定方法については、前記実施形態1と同様の方法で行うため、詳細な説明は省略する。
続いて、個人に合わせた情報の取得を行う(ステップS32)。ここでは、制御装置20の情報取得部21によって、表示装置103の前に居る人物に合わせた情報を、管理サーバ2から取得する。
最後に、取得した情報の音声出力を行う(ステップS33)。ここでは、制御装置20の音声認識処理部27によって、ステップS32において取得した情報を音声データに変換して、スピーカ15から発話する。
このように、情報を表示する代わりに発話することで、鏡像16と情報との重なりを考慮するための処理を行う必要がなくなる。また、ユーザは、鏡像16に集中することができるため、本来の目的を達成しながら、必要な情報を聞くことができる。
(表示された情報の処理)
続いて、図11に示すように、鏡像16が表示された状態で、鏡像16に対応する人物による情報の選択処理について、図13に示すフローチャートおよび図14を参照しながら以下に説明する。ここでは、人物の音声による情報の選択処理について説明する。
まず、表示装置103の前に居る人物の音声指示の認識を行う(ステップS41)。ここでは、音声認識処理部27によって、表示装置101の前に居る人物がマイク14に向かって発話した音声データから、音声指示の内容を認識する。この内容は、情報の選択指示である。
次に、認識された指示により情報を表示する(ステップS42)。ここでは、音声認識処理部27によって認識された音声指示の内容を受け取った特定部26によって選択された情報を表示部11の表示面11aに表示する。この情報表示に伴って、鏡像16をカメラ13により撮影された撮影映像16’に変換して、撮影映像16’を情報の表示位置と異なる位置に表示する。
続いて、表示装置103の前に居る人物の目線移動先検出を行う(ステップS43)。ここでは、目線移動先検出部23によって、表示装置103の前に居る人物の眼球の角膜反射像から、目線移動先を検出する。
次に、検出された目線移動先での目線が同じ位置で所定時間経過か否かを判定する(ステップS44)。ここでは、特定部26によって、検出された目線移動先が移動しない時間(人物が注視している時間)が所定時間経過したか否かを判定する。所定時間経過せずに、目線移動先が移動した場合(ステップS44のNo)には、再度ステップS43にて、目線移動先検出部23による目線移動先検出を行う。一方、所定時間経過した場合(ステップS44のYes)には、人物がある映像を選択したとみなして、ステップS45に移行して、表示制御部25は、特定部26によって特定した映像の表示領域を、鏡像16の表示領域と交換する。
例えば図14の(a)に示すように、表示部11に鏡像16のみが表示された状態であり、個人が特定され、情報の取得が終わった状態から、鏡像16に対応する人物、すなわち表示装置103の前に居る人物が「交通情報」とマイク14に向かって発話すると、図14の(b)に示すように、交通情報を示す映像17が鏡像16の表示位置に表示され、代わりに、表示装置103の前に居る人物をカメラ13で撮影した撮影映像16’が、映像17の表示位置と異なる位置に表示される。他の情報を表示させる場合も同様の操作を行う。
図14の(b)の状態で、表示装置103の前に居る人物の目線移動先を撮影映像16’に移動させて、所定時間経過すると、再び、図14の(a)に示すように、鏡像16が表示される。
上記の処理を繰り返すことで、表示装置103の前に居る人物は、自分の姿を確認しながら、必要な情報を見やすい位置で確認することができる。
本実施形態では、表示部11の表示面11aに表示された情報を、音声コマンドにより選択し、表示装置103、104を発話させる例について説明したが、以下の実施形態3では、表示装置の前に居る人物に対して、表示装置側から発話する例について説明する。
〔実施形態3〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(表示装置の詳細)
図15は、本実施形態に係る表示装置105の概略を示すブロック図である。
表示装置105は、前記実施形態2の図9に示す表示装置103とほぼ同じであり、音声認識データベース28の代わりに、発話用データベース29を備えている点で異なる。
本実施形態では、表示装置105の前に人物が立つことをトリガにして、当該人物に表示装置105から発話する点について説明する。具体的には、個人特定部22によって表示装置105の前に居る人物を特定することで、特定した人物に合わせた内容(人物に応じてカスタマイズされた情報)を表示装置105のスピーカ15から発話する。
発話用データベース29には、前記実施形態2で説明した音声データに対応するコマンドが対応付けられて格納されているだけでなく、表示装置105の前に居る人物を特定した状態で、特定した人物に対して発話する発話内容が格納されている。例えば洗面台に設置された表示装置103の場合、時間が7時であれば、表示装置103の前に居る特定された人物に対して「おはようございます。天気は晴れです。」をスピーカ15から発話するようにする。この発話内容は、表示装置103の設置場所、時間、特定された人物等に合わせて、変更できるように、データベース化して発話用データベース29に格納しておく。
また、表示装置105から発話するのではなく、当該表示装置105の前に居る人物が発話した内容に返答するようにしてもよい。例えば、表示装置105の前に居る人物が、「今日の天気は?」と発話すると、この発話内容に対応する「今日は晴れです」という返答を当該表示装置103からスピーカ15から発話するようにしてもよい。この場合、音声認識処理部27は、情報取得部21が取得した天気予報に関する情報を参照することで、「今日は晴れです」という返答を行っている。
なお、表示装置105においても、表示装置103と同様に、特定した個人に合わせた情報を表示部11の表示面11aに表示しているが、これら情報の表示の前に、表示装置105の前に居る人物に対して発話したり、人物から発話したりしてもよい。
(情報表示の前に発話処理の一例)
図16の(a)は、発話前の鏡像を表示した例を示し、図16の(b)は、(a)の鏡像に過去の撮影映像を重ね合わせて表示した例を示している。なお、管理サーバ2には、各個人を撮影した映像を日時に対応付けて保存しており、指定された日時の個人の撮影映像を表示装置105に送信する。
表示装置105は、図16の(a)に示すように、人物が表示部11の前に来ると、個人特定部22によって人物が特定され、このタイミングで、音声認識処理部27によって「最近ふとった?」という内容の音声データがスピーカ15を経て当該人物に「最近ふとった?」と発話する。
これに対して、上記人物が「そうかな?」とマイク14に向かって発話すると、音声認識処理部27は、上記マイク14から「そうかな?」という音声データを受け取り、この音声データに対応するコマンドを発話用データベース29から読み出し、読み出したコマンドを情報取得部21に出力する。情報取得部21は、上記コマンドから管理サーバ2に管理されている当該人物の過去の撮影映像を読み出し、過去の撮影映像を表示制御部25に出力して、表示部11において鏡像16に重ねて表示させる。図16の(b)は、現在の鏡像16に、読み出した過去の撮影映像116を重ねた状態を示す図である。ここで、鏡像16と比較するために読み出す撮影映像116は、現在から1ヶ月以上前の撮影映像であるのが好ましい。これは、1日や2日で体型はそれほど変化しないが、1ヶ月前、あるいはそれ以上前であれば、体型が変化している可能性が高いためである。
また、読み出す過去の撮影映像116は、1時点のものだけでなく、複数の時点(例えば1ヶ月前、3ヶ月前、6ヶ月前、1年前)の撮影映像116を重ねてもよいし、鏡像16と重ならない表示面11aの位置に並べて表示するようにしてもよい。これにより、鏡像16の本人が、過去の自分の撮影映像から自分の体型が変化している様子を容易に確認できる。
以下の実施形態4では、さらに、表示装置105の前に居る人物を特定し、特定した人物の撮影映像から、当該人物の状態、例えば髪型、表情、服の色、帽子の有無等を検出して、この個人の状態に応じた情報を提供する例について説明する。
〔実施形態4〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、本実施形態に係る表示装置として、前記実施形態1の表示装置101(102)、実施形態2の表示装置103(104)の何れも用いることができるため、表示装置101を例に説明する。
(特定された個人の状態検出の一例)
図2に示す個人特定部22は、表示装置101の前に居る人物の特定が完了した時点で、さらに、個人の特定に用いたカメラ13の撮影映像から、当該人物の状態を検出する。ここで人物の状態とは、上述したように、髪型、顔の表情、服の色、帽子の有無等である。
例えば人物の髪型を検出する場合、表示装置101の前の人物に回転してもらい、図17の(a)に示す正面の鏡像16を映し出したときにカメラ13によって撮影し、図17の(b)に示す背面の鏡像16を映し出したときにカメラ13によって撮影する。ここで、人物の正面、背面の判断は、画像認識により実行している。画像認識の結果、顔があれば、正面、顔がなければ、背面であるというように判断している。
このように、表示装置101の前に居る人物が回転して得られた撮影映像(正面、背面)から、当該人物の髪型を検出する。これにより、検出した髪型から、人物の髪の乱れの有無を当該人物に知らせることができる。髪の正面については実際に見て判断できるが、髪の後ろは自分で確認し難いため、上記のような報知は有効である。
この報知方法としては、表示部11の表示面11aの鏡像16と重ならない位置、例えば映像領域11cに「髪の状態」として表示してもよいし、あるいは、前記実施形態2や3と同様に、髪の状態として、例えば「後ろ髪が乱れています」と音声で報知するようにしてもよい。
また、特定された個人の状態として、顔の表情、服の色、帽子の有無等についても個人特定部22によって検出され、「髪の状態」の報知と同様の方法によって、人物に報知するようにすればよい。
(個人の状態に応じた情報の提示)
特定された個人の状態が検出されれば、検出された状態に合わせた情報を、表示部11の前に居る人物に提示するようにしてもよい。
例えば、特定された個人の状態として顔の表情が検出された場合、顔の表情から疲れの度合いを示す情報を上記人物に提示するようにしてもよい。この場合、顔の映像を解析することで、肌の張りやたるみ、しわや、目の下のくまの有無などを総合的に判断して、疲れ度合いを算出する。
また、特定された個人の状態として服の色が検出された場合、検出した服の色から連想される情報を上記人物に提示するようにしてもよい。この場合の連想される情報としては、例えば服の色に基づいた占いを挙げることができる。
さらに、特定された個人の状態として服の色、帽子の有無が検出されたとき、服の色と、帽子の有無とにおけるコーディネートが適切であるか否かを示すアドバイス情報を上記人物に提示するようにしてもよい。
また、特定された個人の状態として帽子の無が検出されたとき、当日の天気予報から、日差しが強く、紫外線量も多いと予測されるときには、その旨を伝えるとともに、帽子を被るように指示する情報を上記人物に提示するようにしてもよい。
以上の各実施形態において、表示装置101〜105では、ミラー機能を実現するための手段としてハーフミラー12を用いているが、ミラー機能を実現するための手段としてはハーフミラー12に限定されるものではない。ハーフミラー12は、光の透過率と光の反射率とが等しいが、光の透過率と光の反射率とが異なる光透過反射部材であってもよい。
〔ソフトウェアによる実現例〕
表示装置101〜105の制御ブロック(制御装置20)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、制御装置20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る表示装置は、光の一部が透過し、一部が反射する光透過反射部材(ハーフミラー12)を、表示手段(表示部11)の表示面11a上に重ねて配置した表示装置において、上記光透過反射部材(ハーフミラー12)の光反射面側に存在する人物を特定する人物特定手段(個人特定部22)と、表示装置の設置場所と対応付けられた情報から、上記人物特定手段(個人特定部22)によって特定された人物に応じて生成された情報を、カスタマイズ情報として取得する情報取得手段(情報取得部21)と、上記情報取得手段(情報取得部21)によって取得されたカスタマイズ情報を、音声で出力する発話手段(音声認識処理部27)と、備えていることを特徴としている。
上記の構成によれば、発話手段によって、情報取得手段によって取得されたカスタマイズ情報を音声で出力することで、光透過反射部材の前に居るユーザは、光透過反射部材に映された自分の鏡像を確認しながら、自分に合わせたカスタマイズ情報を耳で確認することが可能となる。
ここで、カスタマイズ情報とは、ミラー機能付き表示装置の設置場所(洗面台、鏡台、姿見、玄関、お風呂場等の家庭内でミラー機能付き表示装置の設置が想定される場所)毎に紐付けられた各種情報をいう。例えば、設置場所の一つである洗面台に紐付けられた情報として、利用時間・利用シーン、鏡像、鏡の前に居る時間を考慮したニュース、天気予報、交通情報、占い、メールなどの情報を挙げることができる。
従って、上記構成の表示装置によれば、表示装置の設置場所を考慮し、表示装置の前に居る人物に対して必要な情報を適切なタイミングで取得できるので、ユーザが表示装置の前に立つだけで、ユーザにとって必要な情報を適切なタイミングで音声出力することができるという効果を奏する。
本発明の態様2に係る表示装置は、上記態様1において、さらに、上記情報取得手段によって取得されたカスタマイズ情報を、上記表示面11aに表示させる表示制御手段を備えていることが好ましい。
本発明の態様3に係る表示装置は、上記態様1または2において、上記発話手段は、上記カスタマイズ情報が上記表示面11aに表示される前に、当該カスタマイズ情報を音声で出力してもよい。
本発明の態様4に係る表示装置は、上記態様2または3において、光透過反射部材(ハーフミラー12)を透過した人物の像が上記表示面11aに表示される人物領域11bを検出する人物領域検出手段(人物領域検出部24)を備え、上記表示制御手段(表示制御部25)は、上記情報取得手段(情報取得部21)によって取得されたカスタマイズ情報を、上記表示面11aにおける上記人物領域11bに重ならない領域に表示させてもよい。
上記構成によれば、上記情報取得手段によって取得されたカスタマイズ情報を、上記表示手段の表示面における、上記人物領域に重ならない位置に表示させることで、カスタマイズ情報と人物の像とが確実に分離して表示されることになる。これにより、表示手段に表示されたカスタマイズ情報の確認がしやすくなる。
本発明の態様5に係る表示装置は、上記態様4において、ユーザに指定されたカスタマイズ情報を特定する特定手段を備え、上記表示制御手段は、上記特定手段によって特定されたカスタマイズ情報を、上記表示面における上記人物領域に表示させてもよい。
本発明の態様6に係る表示装置は、上記態様5において、上記特定手段は、上記人物特定手段によって特定された人物の発する音声により、上記表示面に表示されたカスタマイズ情報の一つを選択してもよい。
上記の構成によれば、音声を発するだけで、特定された個人は、所望する情報を適切に選択することができる。つまり、ユーザは、自分の鏡像を確認しながら、音声を発するだけで、カスタマイズ情報を選択し、当該情報を確認することができる。
本発明の態様7に係る表示装置は、上記態様1〜6の何れか1態様において、上記光透過反射部材の光反射面側に存在する人物を撮影する撮影手段をさらに備え、上記人物特定手段は、上記撮影手段によって撮影された人物の映像から、人物を特定してもよい。
これにより、表示装置に搭載されているカメラで個人の特定を行うことが可能となる。
本発明の態様8に係る表示装置は、上記態様1〜6の何れか1態様において、上記人物特定手段は、人物を特定する人物情報を格納したウェアラブル装置から取得した当該人物情報によって人物を特定してもよい。
これにより、個人の特定にウェアラブル装置が使用されることで、撮影映像による個人の特定よりも確実に個人を特定することができる。
本発明の態様9に係る表示装置は、上記態様1〜8の何れか1態様において、上記情報取得手段は、上記カスタマイズ情報を管理している管理サーバから、通信ネットワークを介して、人物に応じたカスタマイズ情報を取得してもよい。
これにより、同一の管理サーバ2に接続されている表示装置同士は、同一の情報を共有することができるので、ユーザは、同一管理サーバ2に接続されている表示装置であれば、どの表示装置を利用しても同じ情報を得ることができる。
従って、同一の管理サーバ2に接続されている表示装置を、例えば家庭内において、ユーザが起床して出勤するまでの間に使用するであろう、洗面台、鏡台、姿に、玄関に表示装置を設置すれば、ユーザは、起床して出勤するまでの間に同じ情報を確認し続けることができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、鏡としてのユーザの使用目的や使用時間が異なる場所に設置されるミラー機能付きの表示装置、特に家庭内の各場所に設置されるミラー機能付き表示装置に利用することができる。
2 管理サーバ
3 管理情報記憶部
11 表示部(表示手段)
11a 表示面
11b 人物領域
11c 映像領域
12 ハーフミラー(光透過反射部材)
13 カメラ(撮影手段)
14 マイク
15 スピーカ(発話手段)
16 鏡像
16’ 撮影映像
17 映像(情報)
18 リング
20 制御装置
21 情報取得部(情報取得手段)
22 個人特定部(人物特定手段)
23 目線移動先検出部(目線移動先検出手段)
24 人物領域検出部(領域検出手段)
25 表示制御部(表示制御手段)
26 特定部(特定手段)
27 音声認識処理部(音声認識処理手段、発話手段)
28 音声認識データベース
29 発話用データベース
101〜105 表示装置
116 撮影映像

Claims (5)

  1. 光の一部が透過し、一部が反射する光透過反射部材を、表示手段の表示面上に重ねて配置した表示装置において、
    上記光透過反射部材の光反射面側に存在する人物を特定する人物特定手段と、
    表示装置の設置場所と対応付けられた情報から、上記人物特定手段によって特定された人物に応じて生成された情報を、カスタマイズ情報として取得する情報取得手段と、
    上記情報取得手段によって取得されたカスタマイズ情報を、音声で出力する発話手段と、
    を備えていることを特徴とする表示装置。
  2. さらに、上記情報取得手段によって取得されたカスタマイズ情報を、上記表示面に表示させる表示制御手段を備えていることを特徴とする請求項1に記載の表示装置。
  3. 上記発話手段は、
    上記カスタマイズ情報が上記表示面に表示される前に、当該カスタマイズ情報を音声で出力することを特徴とする請求項2に記載の表示装置。
  4. 上記人物特定手段は、
    人物を特定する人物情報を格納したウェアラブル装置から取得した当該人物情報によって人物を特定することを特徴とする請求項1〜3の何れか1項に記載の表示装置。
  5. 上記情報取得手段は、
    上記カスタマイズ情報を管理する管理サーバから、通信ネットワークを介して、人物に応じたカスタマイズ情報を取得することを特徴とする請求項1〜4の何れか1項に記載の表示装置。
JP2014094206A 2014-04-30 2014-04-30 表示装置 Pending JP2015210797A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014094206A JP2015210797A (ja) 2014-04-30 2014-04-30 表示装置
PCT/JP2015/054590 WO2015166691A1 (ja) 2014-04-30 2015-02-19 表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014094206A JP2015210797A (ja) 2014-04-30 2014-04-30 表示装置

Publications (1)

Publication Number Publication Date
JP2015210797A true JP2015210797A (ja) 2015-11-24

Family

ID=54612891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014094206A Pending JP2015210797A (ja) 2014-04-30 2014-04-30 表示装置

Country Status (1)

Country Link
JP (1) JP2015210797A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
JP2019029772A (ja) * 2017-07-27 2019-02-21 京セラ株式会社 携帯端末、充電台、コミュニケーションシステム、方法、およびプログラム
JP2019033396A (ja) * 2017-08-08 2019-02-28 京セラ株式会社 充電台、携帯端末、コミュニケーションシステム、方法、およびプログラム
JP2019511067A (ja) * 2016-01-19 2019-04-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
US11335044B2 (en) 2017-06-28 2022-05-17 Optim Corporation Display system of a wearable terminal, display method of the wearable terminal, and program
US11380319B2 (en) 2017-07-24 2022-07-05 Kyocera Corporation Charging stand, mobile terminal, communication system, method, and program
US11460698B2 (en) 2016-04-26 2022-10-04 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197116A (ja) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp 健康管理装置
JP2009053328A (ja) * 2007-08-24 2009-03-12 Nec Corp 画像表示装置
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010087755A (ja) * 2008-09-30 2010-04-15 Kddi Corp 視聴制限方法およびシステム
WO2013084395A1 (ja) * 2011-12-07 2013-06-13 株式会社ニコン 電子機器、情報処理方法およびプログラム
JP2013206411A (ja) * 2012-03-29 2013-10-07 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
JP2013246184A (ja) * 2012-05-23 2013-12-09 Sharp Corp 表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197116A (ja) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp 健康管理装置
JP2009053328A (ja) * 2007-08-24 2009-03-12 Nec Corp 画像表示装置
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP2010087755A (ja) * 2008-09-30 2010-04-15 Kddi Corp 視聴制限方法およびシステム
WO2013084395A1 (ja) * 2011-12-07 2013-06-13 株式会社ニコン 電子機器、情報処理方法およびプログラム
JP2013206411A (ja) * 2012-03-29 2013-10-07 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
JP2013246184A (ja) * 2012-05-23 2013-12-09 Sharp Corp 表示装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511067A (ja) * 2016-01-19 2019-04-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
US11244485B2 (en) 2016-01-19 2022-02-08 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
JP2017146927A (ja) * 2016-02-19 2017-08-24 ソニーモバイルコミュニケーションズ株式会社 制御装置、制御方法及びプログラム
US11460698B2 (en) 2016-04-26 2022-10-04 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US11335044B2 (en) 2017-06-28 2022-05-17 Optim Corporation Display system of a wearable terminal, display method of the wearable terminal, and program
US11380319B2 (en) 2017-07-24 2022-07-05 Kyocera Corporation Charging stand, mobile terminal, communication system, method, and program
JP2019029772A (ja) * 2017-07-27 2019-02-21 京セラ株式会社 携帯端末、充電台、コミュニケーションシステム、方法、およびプログラム
JP2019033396A (ja) * 2017-08-08 2019-02-28 京セラ株式会社 充電台、携帯端末、コミュニケーションシステム、方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP2015210797A (ja) 表示装置
US11150738B2 (en) Wearable glasses and method of providing content using the same
US11726324B2 (en) Display system
CN106471419B (zh) 管理信息显示
US11386600B2 (en) System and method for displaying virtual image through HMD device
WO2016158792A1 (ja) 情報処理装置、制御方法、およびプログラム
CN112181152B (zh) 基于mr眼镜的广告推送管理方法、设备及应用
WO2012095917A1 (ja) 電子機器および電子機器の制御プログラム
US20190095164A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
KR20210112405A (ko) 어시스턴트 애플리케이션을 위한 이미지 바로가기를 제공하기 위한 시스템, 방법 및 장치
US20200041803A1 (en) Systems, devices, and methods for notification management
US20180150722A1 (en) Photo synthesizing method, device, and medium
JP2012160173A (ja) 電子機器および電子機器の制御プログラム
KR102437135B1 (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
JP5771998B2 (ja) 電子機器および電子機器の制御プログラム
CN108140045A (zh) 在增强和替代通信系统中支持感知和对话处理量
JP2016161835A (ja) 表示装置、制御プログラム、および制御方法
US20210049352A1 (en) Information processing system, information processing method, and recording medium
JP2016021259A (ja) 電子機器および電子機器の制御プログラム
JP6541940B2 (ja) 表示装置
WO2015166691A1 (ja) 表示装置
JP6316648B2 (ja) 表示装置
JP2012146216A (ja) 電子機器および電子機器の制御プログラム
JP5811537B2 (ja) 電子機器
JP2020091636A (ja) 音声対話装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180508