JP2013228490A - 表示装置、その制御方法及びプログラム - Google Patents

表示装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP2013228490A
JP2013228490A JP2012099168A JP2012099168A JP2013228490A JP 2013228490 A JP2013228490 A JP 2013228490A JP 2012099168 A JP2012099168 A JP 2012099168A JP 2012099168 A JP2012099168 A JP 2012099168A JP 2013228490 A JP2013228490 A JP 2013228490A
Authority
JP
Japan
Prior art keywords
content
unit
user
information
display mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012099168A
Other languages
English (en)
Inventor
Naohide Aizawa
直秀 相沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2012099168A priority Critical patent/JP2013228490A/ja
Publication of JP2013228490A publication Critical patent/JP2013228490A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザ及び利用状況に応じて、最適な表示態様に変更すること。
【解決手段】表示装置は、コンテンツに対応する画像を表示する表示部と、ユーザの顔画像を取得する撮像部と、顔画像を解析する顔画像解析部と、表示部からユーザの顔までの距離情報を推定する距離推定部と、コンテンツに関するコンテンツ情報を取得するコンテンツ情報取得部と、コンテンツ情報、及び顔画像解析部の解析結果、及び距離推定部の推定結果、に基づいて、画像の表示態様を決定する表示態様決定部と、表示態様に基づいて、画像の画像信号を生成する画像信号生成部と、を備える。
【選択図】図1

Description

本発明は、表示装置、その制御方法及びプログラムに関する。特に、画像を表示する表示装置、その制御方法及びプログラムに関する。
画像及び文字を表示する表示画面を見る場合、ユーザは、文字等のサイズを大きくして利用する場合がある。あるいは、小さな文字を読む際には、ユーザは、表示画面に顔を近づけて文字を読む場合がある。
特許文献1において、ユーザの顔画像に基づいて、ユーザの年齢や画面までの距離を推定し、文字の表示サイズを調整する技術が開示されている。
特許文献2において、操作者の顔画像の比率を検出することにより、表示画面から操作者の顔までの距離を検出し、文字サイズを変更する技術が開示されている。
特許文献3において、目の領域の画像データに基づき、目を細めているか否かを解析し、解析結果に基づいて表示データを生成する技術が開示されている。
特許文献4において、ユーザの目の状態および口の状態の組み合わせに応じて、処理を実行する技術が開示されている。
特許文献5において、車両の乗員のために、乗員の生体情報、顔の表情、操作動作、疲労度等に基づいて、表示画面の表示態様等を変更する技術が開示されている。
特開2006−023953号公報 特開2011−123501号公報 特開2009−294740号公報 特許第4206053号公報 特開2004−110546号公報
なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
上述のとおり、画像や文字を表示する表示画面を見る場合、文字等の最適な表示サイズは、ユーザ毎に様々である。例えば、遠視の場合には、ユーザは、一定の距離を離れて文字を読む。一方、近視の場合には、ユーザは、表示画面に顔を近づけて文字を読む場合がある。また、表示画面全体を見る場合には、ユーザは、表示画面から一定の距離を離れる場合がある。一方、表示画面の詳細な部分を見る場合には、ユーザは表示画面に近づく場合がある。
さらに、近年、スマートフォン等の電子機器は多機能であり、カメラを備える場合がある。そのため、スマートフォン等の場合には、利用するコンテンツに応じて、表示画面の表示態様(画像の大きさ等)を変化させることが好ましい。例えば、Webページを閲覧する際に、眼を見開いて表示画面に近づく場合がある。その場合、ユーザは問題なく、Webページを閲覧できていると考えられる。そのため、画像の大きさ等を変化させる必要はない。一方、女性が化粧を確認する際に、鏡の代わりとして、カメラで撮影する映像を利用する場合がある。その際に、より詳細に顔を確認するために、ユーザは、表示画面に近づいて眼を見開く場合がある。その場合には、拡大した画像が表示画面に表示されることが好ましい。
特許文献1、2で開示された技術では、ユーザの意図しない状況で、文字サイズの変更を行う場合がある。なぜなら、表示画面とユーザの距離情報のみでは、ユーザが文字サイズの変更を望んでいるか否かの判断は、困難だからである。
特許文献3で開示された技術でも、ユーザの意図しない状況で、文字サイズの変更を行う場合がある。なぜなら、目の開き具合のみでは、ユーザが文字サイズの変更を望んでいるか否かの判断は、困難だからである。
特許文献4で開示された技術では、目の状態および口の状態の組み合わせを、複数学習する必要がある。そのため、特許文献4で開示された技術では、ユーザの負担が大きい。さらに、表示画面の表示態様を変更するために、ユーザが口を動かすことは、不自然である。
特許文献5で開示された技術では、コンテンツに応じて、表示画面の表示態様を変更することはできない。
そのため、各ユーザの利用状況に応じて、最適な表示態様に変更する表示装置、その制御方法及びプログラムが、望まれる。
本発明の第1の視点によれば、コンテンツに対応する画像を表示する表示部と、ユーザの顔画像を取得する撮像部と、前記顔画像を解析する顔画像解析部と、前記表示部からユーザの顔までの距離を推定する距離推定部と、前記コンテンツに関するコンテンツ情報を取得するコンテンツ情報取得部と、前記コンテンツ情報、及び前記顔画像解析部の解析結果、及び前記距離推定部の推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定部と、前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する画像信号生成部と、を備える表示装置が提供される。
本発明の第2の視点によれば、コンテンツに対応する画像を表示する表示部を備える表示装置の制御方法であって、ユーザの顔画像を取得する工程と、前記顔画像を解析する解析工程と、前記表示部からユーザの顔までの距離を推定する推定工程と、前記コンテンツに関するコンテンツ情報を取得する工程と、前記コンテンツ情報、及び前記解析工程によって得られる解析結果、及び前記推定工程によって得られる推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定工程と、前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する工程と、を含む表示装置の制御方法が提供される。
本発明の第3の視点によれば、コンテンツに対応する画像を表示する表示部を備える表示装置を制御するコンピュータに実行させるプログラムであって、ユーザの顔画像を取得する処理と、前記顔画像を解析する解析処理と、前記表示部からユーザの顔までの距離を推定する推定処理と、前記コンテンツに関するコンテンツ情報を取得する処理と、前記コンテンツ情報、及び前記解析工程によって得られる解析結果、及び前記推定工程によって得られる推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定処理と、前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する処理を実行するプログラムが提供される。
本発明の各視点によれば、ユーザ及び利用状況に応じて、最適な表示態様に変更する表示装置、その制御方法及びプログラム提供される。
一実施形態を説明するための図である。 表示装置1の全体構成の一例である。 表示装置1の内部構成の一例を示す図である。 テーブル情報の一例を示す図である。 液晶パネル40に表示されるコンテンツの一例を示す図である。 液晶パネル40に表示されるコンテンツの一例を示す図である。 液晶パネル40に表示されるコンテンツの一例を示す図である。 液晶パネル40に表示されるコンテンツの一例を示す図である。 液晶パネル40に表示されるコンテンツの一例を示す図である。 液晶パネル40に表示されるコンテンツの一例を示す図である。 表示装置1の動作の一例を示すフローチャートである。 表示装置1の動作の一例を示すフローチャートである。
初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
上述のとおり、表示装置において、ユーザの視力、コンテンツ等に応じて、文字や画像の最適な表示態様は、様々である。そのため、ユーザ及び利用状況に応じて、最適な表示態様に変更する表示装置が、望まれる。
そこで、一例として図1に示す表示装置100を提供する。表示装置100は、コンテンツに対応する画像を表示する表示部101と、ユーザの顔画像を取得する撮像部102と、顔画像を解析する顔画像解析部103と、表示部101からユーザの顔までの距離を推定する距離推定部104と、コンテンツに関するコンテンツ情報を取得するコンテンツ情報取得部105と、コンテンツ情報、及び顔画像解析部103の解析結果、及び距離推定部104の推定結果、に基づいて、画像の表示態様を決定する表示態様決定部106と、表示態様に基づいて、コンテンツに対応する画像の画像信号を生成する画像信号生成部107と、を備える。
顔画像解析部103は、ユーザの顔画像を解析する。また、距離推定部104は、表示部101からユーザの顔までの距離を推定する。従って、表示装置100では、ユーザ毎の本能的な表情、位置の変化に応じて、表示態様を変更できる。
また、上述のとおり、コンテンツに応じて(利用状況に応じて)、表示態様が異なることが好ましい。そのため、表示装置100では、表示態様を決定する指針として、コンテンツ情報を参照する。従って、表示装置100は、ユーザ及び利用状況に応じて、最適な表示態様に変更できる。
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
図2は、本実施形態に係る表示装置1の全体構成の一例を示す平面図である。
表示装置1は、撮像部10と、液晶パネル40と、操作部50と、を含んでいる。なお、図2においては、スマートフォンを模擬した電子機器を表している。しかし、これは、本願発明の対象として、スマートフォンに限定する趣旨ではない。例えば、ゲーム機、タブレットPC(Personal Computer)、ノートPCなども本実施形態の表示装置1に該当する。
撮像部10は、液晶パネル40に対面するユーザを撮影し、顔画像を取得する。
液晶パネル40は、コンテンツに対応する画像を表示する。液晶パネル40は、有機EL(Electro Luminescence)パネル等の他の表示デバイスであってもよいものとする
操作部50は、表示装置1に対するユーザの操作を受け付ける操作キー等である。操作部50は、タッチパネルであってもよい。また、タッチパネルの方式には、静電容量方式を初めとして各種存在するが、その方式は問わない。さらに、タッチパネルは液晶パネル40と一体化していてもよい。
図3は、表示装置1の内部構成の一例を示す図である。表示装置1は、撮像部10と、制御部20と、記憶部30と、液晶パネル40と、操作部50と、を含んで構成される。制御部20は、顔画像解析部21と、距離推定部22と、コンテンツ情報取得部23と、テーブル情報生成部24と、表示態様決定部25と、画像信号生成部26と、を含む。図3には、簡単のため、本実施形態に係る表示装置1に関係するモジュールのみを記載する。液晶パネル40と、操作部50は、上述のとおりであるため、更なる説明を省略する。
撮像部10は、上述のとおり、ユーザの顔画像を取得する。制御部20は、取得した顔画像を記憶部30に記憶させる。なお、撮像部10は、ユーザの顔に焦点が合うように、焦点位置を調整することが好ましい。
顔画像解析部21は、取得したユーザの顔画像を解析する。そして、顔画像解析部21は、3種類の処理を行う。
ここで、一般的に、若年者と年配者では、視力が異なる。具体的には、年配者になると、遠視の傾向が強くなる。つまり、年配者になると、所謂、老眼の状態となる。そのため、年齢に応じて、ユーザの液晶パネル40を見る表情、位置は異なると考えられる。
そこで、第1の処理として、顔画像解析部21は、ユーザの顔画像に基づいて、ユーザの年齢に関する情報(以下、年齢情報と呼ぶ)を取得する。具体的には、顔画像解析部21は、取得した顔画像から、眼や口、鼻などの特徴点を検出する。そして、検出した特徴点に基づいて、ユーザの年齢を推定することが好ましい。顔画像からユーザの年齢を推定する方法は、各種あるが、その方式は問わない。なお、ユーザが、操作部50を介して、年齢情報を指定してもよい。
第2の処理として、顔画像解析部21は、ユーザの顔画像に基づいて、ユーザの表情に関する情報(以下、表情情報と呼ぶ)を取得する。表情情報とは、眼の状態、又は眉間の間隔の少なくともいずれかを含む情報である。ここで、眼の状態とは、液晶パネル40を見るときの眼の開き具合に関する情報である。即ち、眼の開き具合とは、液晶パネル40を見るときに、ユーザが眼を見開いているか、又は眼を細めているか等の情報である。
また、眉間の間隔も、表示態様が適切か否かを判断するための情報の一つとなる。ここで、表示態様とは、液晶パネル40に表示される画像の大きさ等を意味する。例えば、ユーザが眉間にしわを寄せて、液晶パネル40を見ている場合には、液晶パネル40を見難い状態と考えられる。そのため、ユーザが、眉間にしわをよせて液晶パネル40を見ている場合には、表示装置1は、コンテンツを拡大して、液晶パネル40に表示することが好ましい。
第3の処理として、顔画像解析部21は、ユーザの顔画像に基づいて、ユーザを識別する。具体的には、顔画像解析部21は、撮像部10が撮影した画像と、記憶部30に記憶されている顔画像を照合する。照合方法には、眼、口、鼻などの特徴点を照合する方法や、テンプレートマッチングする方法等が考えられる。なお、照合方法は、各種あるが、その方式は問わない。
距離推定部22は、液晶パネル40からユーザの顔までの距離情報を推定する。具体的には、ユーザの顔画像の大きさに基づいて、液晶パネル40からユーザの顔までの距離を推定する方法がある。または、撮像部10の焦点位置に基づいて、液晶パネル40からユーザの顔までの距離を推定してもよい。あるいは、表示装置1が距離を測定するセンサ(図示せず)を備えていてもよい。距離を測定するセンサには、赤外線センサ、超音波センサ等があるが、距離の測定方式は問わない。
コンテンツ情報取得部23は、コンテンツ情報を取得する。ここで、コンテンツ情報とは、コンテンツの種類等の情報である。なお、コンテンツ情報は、コンテンツに付帯する情報から取得することが好ましい。
テーブル情報生成部24は、年齢情報、表情情報、液晶パネル40からのユーザの顔までの距離、コンテンツ情報、コンテンツの表示態様、を含むテーブル情報を生成する。そして、テーブル情報生成部24は、テーブル情報を記憶部30に記憶させる。ここで、テーブル情報生成部24は、直接、年齢を年齢情報としてもよい。あるいは、テーブル情報生成部24は、20代以上、40代以上等に区分けした年齢情報を記憶してもよい。
図4は、テーブル情報の一例を示す図である。図4の場合、テーブル情報は、年齢情報、表情情報、距離情報、コンテンツ情報、表示態様の組み合わせである。
また、テーブル情報生成部24は、各ユーザに応じたテーブル情報を生成することが好ましい。なぜなら、同じ年齢のユーザが同じコンテンツを見る場合であっても、液晶パネル40を見る表情、距離等は異なるからである。例えば、近視のユーザと、遠視のユーザでは、液晶パネル40を見る距離は異なる。その場合、既存のテーブル情報を参照すると、ユーザに適した表示態様ではない可能性がある。
あるいは、テーブル情報に記憶されていないコンテンツをユーザが利用する可能性がある。その場合、新規のコンテンツに対応したテーブル情報は記憶されていない。その結果、ユーザにとって適切な表示態様ではない恐れがある。
そのため、ユーザにとって適切な表示態様でない場合には、操作部50を介して、ユーザが表示態様を変更できることが好ましい。そして、ユーザが変更した表示態様に基づいて、テーブル情報生成部24はテーブル情報を更新する。その結果、本実施形態に係る表示装置1では、各ユーザに適した表示態様で、コンテンツを表示できる。
表示態様決定部25は、コンテンツ情報、顔画像解析部21の解析結果、距離推定部22の推定結果、に基づいて、コンテンツの表示態様を決定する。具体的には、表示態様決定部25は、記憶部30に記憶されたテーブル情報を参照して、コンテンツの表示態様を決定する。例えば、表示態様決定部25は、テーブル情報を参照して、画像の拡大率等を決定する。そして、画像信号生成部26は、表示態様決定部25で決定した表示態様に基づいて、液晶パネル40に表示するコンテンツの画像信号を生成する。
図5、図6は、ユーザが、液晶パネル40に表示されるコンテンツを見る一例である。図5(a)、図6(a)は、液晶パネル40を見るユーザを、側面から見た図である。図5(b)は、図5(a)の場合に、液晶パネル40に表示されるコンテンツの一例である。また、図6(b)は、図6(a)の場合に、液晶パネル40に表示されるコンテンツの一例である。なお、図5、図6では、文字情報を液晶パネル40に表示する。
例えば、ユーザが近視であるとする。その場合、図5(a)では、ユーザは、液晶パネル40から一定の距離を離れて、眼を見開いて、液晶パネル40を見ている。一方、図6(a)では、ユーザは、液晶パネル40に近づき、目を細めて、液晶パネル40を見ている。図6(a)の状態は、図5(a)の状態に比べて、ユーザは液晶パネル40を見難い状態であると考えられる。そのため、図6(b)では、図5(b)に比べて、表示装置1は、液晶パネル40にコンテンツを拡大して表示することが好ましい。
図7、図8は、ユーザが、液晶パネル40に表示されるコンテンツを見る一例である。図7(a)、図8(a)は、液晶パネル40を見るユーザを、側面から見た図である。図7(b)は、図7(a)の場合に、液晶パネル40に表示されるコンテンツの一例である。また、図8(b)は、図8(a)の場合に、液晶パネル40に表示されるコンテンツの一例である。なお、図7、図8では、文字情報を液晶パネル40に表示する。
例えば、ユーザが老眼であるとする。その場合、図7(a)では、ユーザは、液晶パネル40から一定の距離を離れて、眼を細めて、液晶パネル40を見ている。一方、図8(a)では、ユーザは、液晶パネル40に近づき、目を見開いて、液晶パネル40を見ている。老眼の場合には、小さな文字を読む際には、液晶パネル40から一定の距離を離れる必要がある。そのため、図7(b)では、図8(b)に比べて、表示装置1は、液晶パネル40にコンテンツを拡大して表示することが好ましい。
一方、撮像部10でユーザ自身の顔を撮影する場合には、年齢に応じて、表示態様を変更する必要はない。図9、図10は、撮像部10でユーザ自身を撮影する一例である。図9(a)、図10(a)は、液晶パネル40を見るユーザを側面から見た図である。図9(b)は、図9(a)の場合に、液晶パネル40に表示されるコンテンツの一例である。また、図10(b)は、図10(a)の場合に、液晶パネル40に表示されるコンテンツ
の一例である。
ここで、図9(a)では、ユーザは撮像部10に近づいている。液晶パネルに近づいた場合、ユーザは、自身の顔を詳細に確認したいと考えられる。そのため、図9(b)では、表示装置1は、拡大したユーザの顔画像を液晶パネル40に表示している。一方、図10(a)では、ユーザは撮像部10から離れている。この場合には、ユーザは、顔全体を確認したいと考えられる。そのため、図10(b)では、表示装置1は、縮小したユーザの顔画像を液晶パネル40に表示している。
次に、表示装置1の動作について説明する。
図11は、表示装置1の動作の一例を示すフローチャートである。
ステップS1において、撮像部10は、ユーザの顔画像を取得する。
ステップS2において、顔画像解析部21は、取得した顔画像に基づいて、ユーザを識別する。
ステップS3において、取得した顔画像が、登録されているユーザの顔画像であるか否かを、顔画像解析部21は判断する。登録されているユーザの場合(ステップS3のYes分岐)には、制御部20は、テーブル情報の参照を開始する(ステップS5)。登録さていないユーザの場合(ステップS3のNo分岐)には、制御部20は、テーブル情報を新規に作成する(ステップS4)。そして、制御部20は、作成したテーブル情報を記憶部30に記憶させる。その後、S5に遷移する。
ステップS6において、顔画像解析部21は、取得した顔画像に基づいて、年齢情報を取得する。
ステップS7において、顔画像解析部21は、取得した顔画像に基づいて、表情情報を取得する。
ステップS8において、距離推定部22は、取得した顔画像に基づいて、液晶パネル40とユーザの距離を推定する。
ステップS9において、コンテンツ情報取得部23は、コンテンツ情報を取得する。なお、ステップS6からステップS9までの処理の順序は変更してもよい。
ステップS10において、表示態様決定部25は、テーブル情報を参照して、コンテンツの表示態様を決定する。そして、画像信号生成部26は、表示態様に基づいて、コンテンツの画像信号を生成する。
次に、ユーザの操作に基づいて、表示態様を変更する動作について説明する。
図12は、表示装置1の動作の一例を示すフローチャートである。
ステップS101において、表示態様を変更する所定の操作を、操作部50が検出したか否かを、制御部20は判断する。ここで、所定の操作とは、例えば、コンテンツを拡大表示、縮小表示する操作である。所定の操作を検出した場合(ステップS101のYes分岐)には、画像信号生成部26は、変更された表示態様に基づいて、コンテンツの画像信号を生成する(ステップS102)。所定の操作を検出しない場合(ステップS101のNo分岐)には、ユーザにとって適切な表示態様であることを意味する。従って、その場合には、処理を表示態様の変更処理を終了する。
ステップS103において、制御部20はテーブル情報を更新する。そして、制御部20は、更新したテーブル情報を記憶部30に記憶させる。
以上のように、本実施形態に係る表示装置1では、コンテンツの種類に応じて、ユーザの本能的な動作に基づいて、表示態様を変更する。具体的には、本実施形態に係る表示装置1では、ユーザの年齢情報、表情情報、液晶パネルを見る距離、コンテンツの種類に基づいて、表示態様を変更する。例えば、遠視の場合は、小さな文字を見るときには、液晶パネルから一定の距離を離れる場合がある。しかし、近視の人は、小さな文字を見るときは、液晶パネルに近づく場合がある。そこで、本実施形態に係る表示装置1は、ユーザ毎に、ユーザの本能的な動作と表示態様の関係を、テーブル情報として記憶する。そして、本実施形態に係る表示装置1は、記憶されたテーブル情報に基づいて、ユーザ及び利用状況に応じた表示態様に変更する。
また、上記の実施形態では、スマートフォンのように、液晶パネル40と制御部20が一つの筐体に含まれる形態で説明した。しかし、制御部20と、液晶パネル40が、それぞれ独立した筐体に含まれる形態であってもよいことは勿論である。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)コンテンツに対応する画像を表示する表示部と、ユーザの顔画像を取得する撮像部と、前記顔画像を解析する顔画像解析部と、前記表示部からユーザの顔までの距離を推定する距離推定部と、前記コンテンツに関するコンテンツ情報を取得するコンテンツ情報取得部と、前記コンテンツ情報、及び前記顔画像解析部の解析結果、及び前記距離推定部の推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定部と、前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する画像信号生成部と、を備える表示装置。
(付記2)前記解析結果は、ユーザの年齢に関する年齢情報、又はユーザの表情に関する表情情報の少なくともいずれかを含む表示装置。
(付記3)前記コンテンツ情報と、前記年齢情報と、前記表情情報と、前記距離情報と、前記表示態様と、を含むテーブル情報を生成するテーブル情報生成部を備え、前記表示態様決定部は、前記テーブル情報を参照する表示装置。
(付記4)前記コンテンツ情報と、前記年齢情報と、前記表情情報と、前記距離情報と、前記表示態様と、を含むテーブル情報を生成するテーブル情報生成部を備え、前記表示態様決定部は、前記テーブル情報を参照する表示装置。
(付記5)前記表情情報は、眼の状態、又は眉間の間隔の少なくともいずれかの情報を含む表示装置。
(付記6)前記コンテンツ情報は、前記コンテンツの種類に関する情報を含む表示装置。
(付記7)前記表示態様決定部は、前記画像の大きさを含む表示態様を決定する表示装置。
(付記8)前記年齢情報は、ユーザが指定した年齢に基づく情報を含む表示装置。
(付記9)コンテンツに対応する画像を表示する表示部を備える表示装置の制御方法であって、ユーザの顔画像を取得する工程と、前記顔画像を解析する解析工程と、前記表示部からユーザの顔までの距離を推定する推定工程と、前記コンテンツに関するコンテンツ情報を取得する工程と、前記コンテンツ情報、及び前記解析工程によって得られる解析結果、及び前記推定工程によって得られる推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定工程と、前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する工程と、を含む表示装置の制御方法。
(付記10)前記コンテンツ情報と、前記年齢情報と、前記表情情報と、前記距離情報と、前記表示態様と、を含むテーブル情報を生成する工程を含み、前記表示態様決定工程は、前記テーブル情報を参照する表示装置の制御方法。
(付記11)コンテンツに対応する画像を表示する表示部を備える表示装置を制御するコンピュータに実行させるプログラムであって、ユーザの顔画像を取得する処理と、前記顔画像を解析する解析処理と、前記表示部からユーザの顔までの距離を推定する推定処理と、前記コンテンツに関するコンテンツ情報を取得する処理と、前記コンテンツ情報、及び前記解析工程によって得られる解析結果、及び前記推定工程によって得られる推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定処理と、前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する処理と、を実行するプログラム。
(付記12)前記コンテンツ情報と、前記年齢情報と、前記表情情報と、前記距離情報と、前記表示態様と、を含むテーブル情報を生成する処理を含み、前記表示態様決定処理は、前記テーブル情報を参照するプログラム。
なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。
1、100 表示装置
10、102 撮像部
20 制御部
21、103 顔画像解析部
22、104 距離推定部
23、105 コンテンツ情報取得部
24 テーブル情報生成部
25、106 表示態様決定部
26、107 画像信号生成部
30 記憶部
40 液晶パネル
50 操作部
101 表示部

Claims (10)

  1. コンテンツに対応する画像を表示する表示部と、
    ユーザの顔画像を取得する撮像部と、
    前記顔画像を解析する顔画像解析部と、
    前記表示部からユーザの顔までの距離情報を推定する距離推定部と、
    前記コンテンツに関するコンテンツ情報を取得するコンテンツ情報取得部と、
    前記コンテンツ情報、及び前記顔画像解析部の解析結果、及び前記距離推定部の推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定部と、
    前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する画像信号生成部と、
    を備えることを特徴とする表示装置。
  2. 前記解析結果は、ユーザの年齢に関する年齢情報、又はユーザの表情に関する表情情報の少なくともいずれかを含む請求項1に記載の表示装置。
  3. 前記コンテンツ情報と、前記年齢情報と、前記表情情報と、前記距離情報と、前記表示態様と、を含むテーブル情報を生成するテーブル情報生成部を備え、
    前記表示態様決定部は、前記テーブル情報を参照する請求項1又は2に記載の表示装置。
  4. 前記テーブル情報生成部は、ユーザの操作に基づいて、前記テーブル情報を変更する請求項3に記載の表示装置。
  5. 前記表情情報は、眼の状態、又は眉間の間隔の少なくともいずれかの情報を含む請求項1乃至4のいずれか一に記載の表示装置。
  6. 前記コンテンツ情報は、前記コンテンツの種類に関する情報を含む請求項1乃至5のいずれか一に記載の表示装置。
  7. 前記表示態様決定部は、前記画像の大きさを含む表示態様を決定する請求項1乃至6のいずれか一に記載の表示装置。
  8. 前記年齢情報は、ユーザが指定した年齢に基づく情報を含む請求項1乃至7のいずれか一に記載の表示装置。
  9. コンテンツに対応する画像を表示する表示部を備える表示装置の制御方法であって、
    ユーザの顔画像を取得する工程と、
    前記顔画像を解析する解析工程と、
    前記表示部からユーザの顔までの距離を推定する推定工程と、
    前記コンテンツに関するコンテンツ情報を取得する工程と、
    前記コンテンツ情報、及び前記解析工程によって得られる解析結果、及び前記推定工程によって得られる推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定工程と、
    前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する工程と、
    を含むことを特徴とする表示装置の制御方法。
  10. コンテンツに対応する画像を表示する表示部を備える表示装置を制御するコンピュータに実行させるプログラムであって、
    ユーザの顔画像を取得する処理と、
    前記顔画像を解析する解析処理と、
    前記表示部からユーザの顔までの距離を推定する推定処理と、
    前記コンテンツに関するコンテンツ情報を取得する処理と、
    前記コンテンツ情報、及び前記解析工程によって得られる解析結果、及び前記推定工程によって得られる推定結果、に基づいて、前記画像の表示態様を決定する表示態様決定処理と、
    前記表示態様に基づいて、前記コンテンツに対応する画像の画像信号を生成する処理と、
    を実行するプログラム。
JP2012099168A 2012-04-24 2012-04-24 表示装置、その制御方法及びプログラム Pending JP2013228490A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012099168A JP2013228490A (ja) 2012-04-24 2012-04-24 表示装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012099168A JP2013228490A (ja) 2012-04-24 2012-04-24 表示装置、その制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2013228490A true JP2013228490A (ja) 2013-11-07

Family

ID=49676198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012099168A Pending JP2013228490A (ja) 2012-04-24 2012-04-24 表示装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2013228490A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111604A (ja) * 2015-12-16 2017-06-22 キヤノン株式会社 表示装置、その制御方法、および制御プログラム
KR20190127194A (ko) * 2018-05-03 2019-11-13 한화정밀기계 주식회사 부품 실장기
JP2020080046A (ja) * 2018-11-13 2020-05-28 シャープ株式会社 電子機器、制御装置および電子機器の制御方法
JP2020091375A (ja) * 2018-12-04 2020-06-11 パナソニックIpマネジメント株式会社 情報提示システム、情報提示方法、プログラム、及び、移動体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111604A (ja) * 2015-12-16 2017-06-22 キヤノン株式会社 表示装置、その制御方法、および制御プログラム
KR20190127194A (ko) * 2018-05-03 2019-11-13 한화정밀기계 주식회사 부품 실장기
KR102149278B1 (ko) * 2018-05-03 2020-08-28 한화정밀기계 주식회사 부품 실장기
JP2020080046A (ja) * 2018-11-13 2020-05-28 シャープ株式会社 電子機器、制御装置および電子機器の制御方法
JP2020091375A (ja) * 2018-12-04 2020-06-11 パナソニックIpマネジメント株式会社 情報提示システム、情報提示方法、プログラム、及び、移動体
JP7262040B2 (ja) 2018-12-04 2023-04-21 パナソニックIpマネジメント株式会社 情報提示システム、情報提示方法、プログラム、及び、移動体

Similar Documents

Publication Publication Date Title
US9946338B2 (en) Information processing to vary screen display based on a gaze point of the user
CN104331168B (zh) 显示调整方法和电子设备
JP2006023953A (ja) 情報表示システム
EP2813922A1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
EP2978218B1 (en) Computer display device mounted on eyeglasses
US20150135309A1 (en) Method and system of user authentication with eye-tracking data
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
JP5902444B2 (ja) 携帯端末装置、プログラムおよび表示制御方法
JP2010067104A (ja) デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
KR20170086024A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
KR20150003591A (ko) 스마트 글라스
JP2010086036A (ja) 診断装置及び診断方法
Vatavu Visual impairments and mobile touchscreen interaction: state-of-the-art, causes of visual impairment, and design guidelines
JP2019204494A (ja) 生体認証の実施
JP2017208638A (ja) 虹彩認証装置、虹彩認証方法、及びプログラム
JP2015084221A (ja) 電子文書にマーキングするための方法および装置
US20180004287A1 (en) Method for providing user interface through head mounted display using eye recognition and bio-signal, apparatus using same, and computer readable recording medium
JP2013228490A (ja) 表示装置、その制御方法及びプログラム
CN111045577A (zh) 一种横竖屏切换方法、可穿戴设备和具有存储功能的装置
US10502443B2 (en) Smart human machine interface
JP2011243108A (ja) 電子ブック装置及び電子ブック操作方法
KR102181897B1 (ko) 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치
EP3985486A1 (en) Glasses-type terminal
JP6201282B2 (ja) 携帯電子機器、その制御方法及びプログラム
JPWO2020059263A1 (ja) 画像提案装置、画像提案方法及び画像提案プログラム