JP6316648B2 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JP6316648B2
JP6316648B2 JP2014094205A JP2014094205A JP6316648B2 JP 6316648 B2 JP6316648 B2 JP 6316648B2 JP 2014094205 A JP2014094205 A JP 2014094205A JP 2014094205 A JP2014094205 A JP 2014094205A JP 6316648 B2 JP6316648 B2 JP 6316648B2
Authority
JP
Japan
Prior art keywords
image
display
person
display device
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014094205A
Other languages
English (en)
Other versions
JP2015210509A (ja
Inventor
山崎 幸生
幸生 山崎
実雄 阪本
実雄 阪本
司 神之門
司 神之門
優 西島
優 西島
光治 酒井
光治 酒井
英満 南田
英満 南田
一則 安田
一則 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014094205A priority Critical patent/JP6316648B2/ja
Priority to PCT/JP2015/062870 priority patent/WO2015166957A1/ja
Publication of JP2015210509A publication Critical patent/JP2015210509A/ja
Application granted granted Critical
Publication of JP6316648B2 publication Critical patent/JP6316648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明は、表示装置に関し、特に、表示面において、光の一部を透過し、一部を反射する光透過反射機能を有する表示装置に関する。
表示面において、光の一部を透過し、一部を反射する光透過反射機能を有する表示装置、所謂ミラー機能付き表示装置として、例えば特許文献1には、表示面にハーフミラーを備えたバックライト式画像表示装置が開示されている。
特開平11−015392号公報(1999年1月22日公開)
ところで、従来のミラー機能付き表示装置では、ディスプレイの上に、鏡像と合成表示される画像を、鏡に映る使用者の像を邪魔しないようにシステムによって位置や大きさや形状が予め固定されている。
そのため、使用者が合成表示された画像に対し、鏡像と重ねて表示させたいという要望に動的に応えられないという問題が生じる。
そこで、ディスプレイ上に表示される画像の表示位置やサイズを使用者が操作する手段として、リモコンやタッチパネルを用いることが考えられるが、以下のような問題が生じる。
タッチパネルを用いる場合、タッチパネルに手が届かない場所への設置ができないという制約が発生し、逆に、手が届くところに設置すると、画面に指紋がついて鏡としての機能が損なわれる虞がある。
また、リモコンを用いる場合は、使用者が操作をしたいと考えるたびにリモコンを操作することになり、その煩わしさが鏡としての機能を阻害する虞がある。
本発明は、上記の各問題点に鑑みなされたものであって、その目的は、表示面上の画像を、鏡像に重ねて表示したときに、煩わしい操作を行うことなく、当該鏡像に重ねる画像を変更できるミラー機能付きの表示装置を提供することにある。
上記の課題を解決するために、本発明の一態様に係る表示装置は、光の一部が透過し、一部が反射する光透過反射部材を、表示面上に重ねて配置した表示装置において、上記光透過反射部材の光反射面側に存在する人物の像が上記光反射面側に映る人物領域を検出する領域検出手段と、上記光透過反射部材の光反射面側に存在する人物を撮影して得られた人物映像を、上記領域検出手段が検出した人物領域に上記光透過反射部材を透過するように表示させる表示制御手段と、上記人物映像から検出された人体の各部位のうち、一つの部位を操作部位とし、当該操作部位の表示領域と少なくとも一部重なる領域を含んだ部位を選択部位として特定する特定手段と、を備え、上記表示制御手段は、上記人物領域のうち、上記選択部位に対応する特定領域に、上記操作部位の動きのみに応じて取得した更新用の画像を表示させることを特徴としている。
本発明の一態様によれば、人物映像を、鏡像に重ねて表示したときに、操作部位の動きのみによって、更新用の画像を表示させることができるので、煩わしい操作を行うことなく、当該鏡像に重ねる画像を変更できるという効果を奏する。
本発明の実施形態1に係る表示装置の概略構成ブロック図である。 図1に示す表示装置の概略構成図である。 図1に示す表示装置における画像表示処理の流れを示すフローチャートである。 図3に示す画像表示処理における画像更新処理の流れを示すフローチャートである。 図1に示す表示装置における画像更新処理の流れを説明する図である。 (a)(b)は、画像更新時の画像サイズおよび表示位置の調整方法を説明するための図である。 本実施形態1の変形例を示す表示装置の概略構成ブロック図である。 本発明の実施形態2に係る表示装置の概略構成ブロック図である。 (a)(b)は、図8に示す表示装置における拡大処理を説明するための図である。 (a)(b)は、図8に示す表示装置における縮小処理を説明するための図である。 本発明の実施形態3に係る表示装置の概略構成図である。 (a)〜(c)は、本発明の実施形態4に係る表示装置における鏡像と画像との入替え表示を説明するための図である。
〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。本実施形態では、ミラー(鏡)として機能する光透過反射部材として、ハーフミラーを例に説明する。
(表示装置の概要)
図1は、本実施形態に係るミラー機能付き表示装置(以下、表示装置と称する)101の概要を説明するための図である。
表示装置101は、図2に示すように、表示部(表示手段)11と、表示部11の表示面11a上に重ねて配置されたハーフミラー(光透過反射部材)12と、表示部11の周囲に設けられた、カメラ13と、マイク14、スピーカ15とを備えている。
表示部11は、映像を表示する表示手段であり、液晶表示パネルからなり、液晶表示パネル以外の、EL(有機、無機)、PDP(Plasma Display Panel)、SED(Surface−conduction Electron−emitter Display)等のFPD(Flat Panel Display)であってもよい。
ハーフミラー12は、光の入射率と反射率とが同じになるように、板ガラス、あるいはアクリルなどの有機ガラスに、反射膜をごく薄く形成し、半透明にして形成された光透過反射部材である。ハーフミラー12としては、市販されているものを使用することができる。
ハーフミラー12は、上述のように、表示部11の表示面11a上に重ねて配置されているので、当該表示面11aに表示される映像を透過して映し出し、外部から表示面11aに向かって入射される光の一部を反射して鏡像が生成される。
カメラ13は、表示面11a側から、表示装置101の前に居る人物を撮影するための撮影手段であって、表示部11の表示に寄与しない周縁部の左右に2箇所設けられている。カメラ13を2箇所設けるのは、表示装置101の前に居る人物と表示部11の表示面11aとの間の距離を測定するためである。
また、カメラ13は、撮像素子として、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を用いた一般的な小型のデジタルカメラであり、表示装置101の前に居る人物を撮影できるものであれば、何でもよい。
さらに、本発明では、表示装置101の前に居る人物の操作部位(本実施形態では、手先)を検出する手段(操作部位検出手段)が必須である。従って、本実施形態では、カメラ13によって、表示装置101の前に居る人物を撮影して、その撮影映像から人体の各部位(頭、首、腕、手先、脚、足先、胴体、腰部等)を検出し、検出した各部位から指先16aを操作部位として検出する。
マイク14は、表示装置101の前に居る人物が発する音声を取り込むための手段であり、スマートフォンや携帯電話等に用いられる一般的なマイクで構成されている。また、マイク14によって取り込まれた音声から個人を特定するようにしてもよい。
スピーカ15は、表示装置101の前に居る人物に対して音声を発する手段であり、スマートフォンや携帯電話等に用いられる一般的なスピーカで構成されている。また、スピーカ15は、表示装置101の前に居る人物に対して必要とされる情報を音声で報知するための手段としても用いられる。例えば、スピーカ15は、表示部11の表示面11aに表示された画像17a〜17dに対応する情報を音声で発して、表示装置101の前に居る人物に報知する。
なお、上記カメラ13は、ハーフミラー12の前に居る人物の動きを検出するために用いてもよい。この動き検出の結果は、制御装置20に入力され、動きに応じたコマンドを実行(ジャスチャ入力処理)するようになっている。例えば、人物の指先を検出し、その動きを検出し、指先が指した位置に表示されているカスタマイズ情報を選択するようにしてもよい。
(表示装置の詳細)
ここで、表示装置101の詳細について図2を参照しながら以下に説明する。
表示装置101は、図2に示すように、通信ネットワーク(図示せず)を介して管理サーバ2に接続されており、表示部11、カメラ13、マイク14、スピーカ15、これらを制御する制御装置20を備えている。
制御装置20は、情報取得部(画像取得手段)21、人体部位検出部22、操作部位検出部23、人物領域検出部(領域検出手段)24、表示制御部(表示制御手段)25、選択部位特定部(特定手段)26を含んでいる。
人体部位検出部22は、カメラ13によって撮影された人物の撮影映像から、人体の予め設定した各部位を検出する。具体的には、人物の撮影映像から、既存の画像認識処理を用いて、上述したように、人体の各部位(頭、首、腕、手先、脚、足先、胴体、腰部等)を検出する。
操作部位検出部23は、人体部位検出部22によって検出された人体の各部位のうち、操作指示に用いる操作部位を検出する。具体的には、人体の各部位のうち、人体の手先に該当する部位を操作部位として検出する。図2の符号16aが手先に該当する部位を示す。
情報取得部21は、インターネット等の通信ネットワークを介して接続された管理サーバ2から必要な情報を取得する。ここで、必要な情報とは、後述する変更対象となる画像(上着、ズボン、靴、帽子、スカートなどの画像)であり、他の変更すべき情報であってもよい。
また、情報取得部21は、操作部位検出部23によって検出される操作部位の指示内容に応じて、表示制御部25からの指示に基づいて管理サーバ2から情報を取得している。例えば、操作部位の指示内容が、ユーザの頭を指すことを示す内容であれば、帽子の画像を管理サーバ2から取得する。
情報取得部21は、取得した情報を表示制御部25に送る。
人物領域検出部24は、図2に示すように、ハーフミラー12を透過した人物の像が上記表示面11aに表示される領域(人物領域11b)を検出する。ここでは、例えば2つのカメラ13により撮影された表示装置101の前に居る人物の撮影映像から、表示装置101と人物との間の距離を求め、この距離からハーフミラー12に映し出された鏡像16の大きさおよび表示位置を求めて、当該表示装置101の表示部11の表示面11aに投影される鏡像16の表示位置を人物領域11bとして検出する。
人物領域検出部24は、検出した人物領域11bを表示制御部25に送る。
選択部位特定部26は、上記人物領域11bにおける、上記操作部位検出部23によって検出された操作部位の表示領域に少なくとも一部重なる表示領域である特定領域に表示された部位を選択部位として特定する。つまり、特定された選択部位は、操作対象となる部位となる。ここでは、例えば、操作部位を人物の指先16aとして、この指先16aの表示面11aにおける人物領域11bの表示領域と、人体の各部位の表示面11aにおける表示領域との重なり度合いを検出し、重なり度合いが一番大きい表示領域を特定領域とし、この特定領域に表示された部位を選択部位であると特定する。
選択部位特定部26は、特定した選択部位を表示制御部25に送る。
表示制御部25は、表示部11の表示面11aに表示すべき映像の表示位置を制御する。具体的には、表示制御部25は、人物領域検出部24からの人物領域11bの表示位置を特定し、この人物領域11bに、カメラ13によって撮影された人物の撮影映像(人物映像)を表示させる。これにより、ハーフミラー12に映し出される人物の鏡像と、当該人物の撮影映像とが、表示面11a上の人物領域11bにおいて重ねて表示される。
また、表示制御部25は、カメラ13からの撮影映像を所望のサイズに変換して、人物の撮影映像として表示部11の表示面11aの所望する位置に表示させることもできる。
さらに、表示制御部25は、選択部位特定部26によって特定された選択部位の表示面11aにおける表示座標に相当する領域(特定領域)を、人物領域検出部24によって検出された人物領域11bから抽出し、当該抽出領域をハイライト表示し、カメラ13からの人物の撮影映像に合成して表示データとして表示部11に出力する。これにより、表示装置101の前に居る人物は、自分で指示(選択)した自分の体の部位がハイライト表示されていることを確認できる。ここでは、選択部位にハイライト画像を重ねることでハイライト表示を実現している。
また、表示制御部25は、ハイライト表示した状態で、操作部位検出部23によって検出された操作部位による操作指示を受け付けて、受け付けた操作指示に応じた情報を情報取得部21から取得し、取得した情報(更新用の画像)をハイライト表示された領域(特定領域)に表示させる。つまり、表示制御部25は、上記特定領域に、上記操作部位の動きに応じて取得した更新用の画像を表示させる。
ここで、例えば、操作部位が手先であれば、手先を回転させること(操作部位の動き)で、更新用の画像を取得するための操作指示とすることができる。この操作指示は、カメラ13による人物の撮影映像を解析することにより表示制御部25に伝わる。これは、操作指示と、対応するコマンド(情報を取得すること)を対応付けておくことで実現できる。なお、操作指示は、手先の回転だけでなく、手先を横に振る動作であってもよく、特に限定されるものではない。
(画像更新処理)
以下に、ユーザによる人体の部位を特定してハイライト表示させ、ハイライト表示させた特定領域に更新用の画像を表示させる処理の流れについて、図3および4に示すフローチャート、図5に示す表示例を参照しながら説明する。
まず、鏡像の表示位置の検出を行う(ステップS11)。具体的には、人物領域検出部24によって、ハーフミラー12を透過した人物の像が上記表示面11aに表示される領域(人物領域11b)を検出する。
次に、人体部位の検出を行う(ステップS12)。具体的には、人体部位検出部22によって人物の撮影映像から画像認識処技術を用いて、人体の各部位を検出する。
続いて、操作部位の検出を行う(ステップS13)。具体的には、操作部位検出部23によって、検出された各部位から、予め設定した部位を操作部位として検出する。本実施形態では、人物の指先16aを操作部位として説明する。
ここまでの処理により、ユーザは、図3の(a)に示すように、鏡像16を映し出した状態で、指先16aで体の部位を指示する。
続いて、選択部位の特定を行う(ステップS14)。具体的には、選択部位特定部26によって、人体部位検出部22によって検出された各部位のうち、操作部位検出部23によって検出された操作部位に指示された部位を選択部位として特定する。
そして、特定された部位のハイライト表示を行う(ステップS15)。例えば、図5の(b)に示すように、指先16aが指している選択部位16bに対応する領域がハイライト表示される。ここで、ハイライト表示された部位が所望する部位である場合、すなわち正しい場合は、ユーザは指先16aを使ってOKマークを形作る。これにより、ハイライト表示される領域が決定される。この場合、指先16aを使って形成したOKマークは、カメラ13により撮影され、撮影映像を解析することで、認識される。なお、指先16aでOKマークを指示するだけでなく、「OK」と音声を発してもよい。この場合、既存の音声認識処理を行い、「OK」を認識して、ハイライト表示される領域が決定される。
なお、指先16aが指示した部位が所望の部位でない場合には、再度、指先16aを使って体の部位を指示する。
続いて、画像更新処理が実行される。ここで、画像更新処理とは、ハイライト表示された選択部位16bに対応する領域に、既に表示されている画像を、ユーザの指示により別の画像に交換することをいう。
すなわち、図4に示すステップS21において、操作部位による画像取得操作を検出すれば、画像取得を行う(ステップS22)。操作部位による画像取得操作とは、指先16aを回転する等のジェスチャーを行うことを示す。ここでは、指先16aの回転を画像取得操作として対応付けることで、ユーザは、指先16aを回転させることで、更新用の画像取得を行うことができる。
続いて、取得した画像をハイライト表示された選択部位に対応する領域に表示する(ステップS23)。ここでは、図5の(c)に示すように、ハイライト表示された選択部位16bに対応する領域に表示させる画像17(帽子)を、当該部位16bを挟んで水平方向に並んで表示される。ユーザは、指先16aを回転させることで、表示されている画像17をスクロールさせながら、ハイライト表示された選択部位16bに対応する領域に順次表示させる。
従って、上記構成の表示装置101を自宅の鏡として用いることで、商品を実際に身に付けなくてもユーザが商品を身に付けた状態を当該表示装置101に映しだし、衣服のコーディネートや商品購入を検討できる。
つまり、上記構成の表示装置101を自宅の鏡として用いれば、ユーザは、当該鏡に映った像を見ながら、衣服を表示する位置を指定し、例えば鏡像を見ながら衣服を変えたい部位に手を重ねるか、あるいは自分自身の体の一部を指差すことで、ユーザの姿を取得するカメラにてユーザが鏡像のどの部位を見ながら指定しているかが検出される。そして、選択された部位(ユーザ指定の部位)に応じた衣服を鏡像の大きさにサイズと形状を変更し、選択された部位に対応する領域に重ね合わせて表示する。
(重ね合わせる画像のサイズ調整)
次に、選択部位に重ね合わせる画像のサイズ調整および表示位置の調整について、図6の(a)(b)を参照しながら以下に説明する。以下、説明の便宜上、「選択された部位」を「選択部位」、「選択部位を表示する表示領域に更新用の画像を表示する」を、「選択部位に画像を重ねる」と称して説明する。
まず、図6の(a)に示すように、ハーフミラー側に立つユーザから見た表示装置の画面上の選択部位の高さ(縦方向の長さ)Aを求める。
Aは、以下の式で求めることができる。
A={E−(H+V)}/2+(H+V)−(E+H)/2=V/2
ここで、Eは、ユーザの眼の高さを示し、Vは鏡像の選択部位の高さ、Hは鏡像の方から地面までの距離から選択部位の高さVを引いた高さを示す。
次に、ハーフミラー側に立つユーザから見た表示装置の画面上の選択部位の位置(地面からの高さ)Bを求める。
Bは、以下の式で求めることができる。
B=H+(E−2H)/2=(E+H)/2
続いて、図6の(b)に示すように、ハーフミラー側に立つユーザから見た表示装置の画面上の選択部位の幅(横方向の長さ)Cを求める。
Cは、以下の式で求めることができる。
C=W/2
ここで、Wは、ユーザの鏡像の選択部位における幅を示す。
以上のようにして求めた選択部位の高さA,幅Cとなるように、表示装置に表示すべき画像サイズを調整し、選択部位の位置Bに表示させ、さらに、画像形状を選択部位の形状に合わせることで、ユーザは自分の鏡像に重ね合わせた画像を違和感なく見ることができる。
また、鏡像における選択部位にハイライト画像を重ねてハイライト表示を実現する点について説明したが、ハイライト画像を重ねるのではなく、選択部位を点滅させるようにしてハイライト表示を実現してもよい。
選択部位に画像を重ねた状態で、鏡像が動いた場合、鏡像の動きに追従して重ねた画像を表示し続けるようにしてもよい。この場合、鏡像が動いて、選択部位が隠れる状態、すなわち、選択部位がハーフミラーに映し出されない状態になると、選択部位に重ねて表示している画像も隠れるようにする。
また、ユーザが、選択部位に重ねて表示された画像を触るようなジェスチャーを行うことで、当該画像を移動させるようにしてもよい。例えば、画像が衣服の場合、ユーザは、鏡像を見ながら、衣服を触るようなジェスチャーで衣服の画像を移動させる。
なお、選択部位に重ねる画像は、上述したように、通信ネットワークを介して管理サーバ2から取得している。これにより、取得する画像を衣服とした場合、ユーザは、未だ購入していない衣服などの商品の画像を取得し、コーディネートを仮想的に行うことができる。
また、選択部位に重ねる画像を、管理サーバ2からではなく、自分が所有している衣服などを撮影した画像とすることもできる。この場合には、情報取得部21が取得する画像は、管理サーバ2ではなく、装置内に、ユーザが撮影した画像を格納して、必要に応じて画像を読み出すようにすればよい。
これにより、自分が持っている衣服のコーディネートを仮想的に行うことができるので、実際に衣服を着用する手間を省くことができる。
また、ユーザが自身で所有している衣服を着用した状態で、表示装置101のカメラ13にて撮影して、撮影映像からユーザ自身で選択部位を特定して、特定した選択部位に対応する衣服の映像を抜き出して、コーディネート用の画像として保存するようにしてもよい。この場合には、自分が持っている衣服を着用することなく、コーディネートすることが可能である。
(変形例)
(表示装置の詳細)
図7は、選択部位をジェスチャーで特定するのではなく、音声で特定するための構成を備えた表示装置102の概略を示すブロック図である。
表示装置102は、基本的に、図1に示す表示装置101と同じ構成であるが、音声で特定するための構成として、操作部位検出部23の代わりに、音声認識処理部27、音声認識データベース28を備えている。
音声認識処理部27は、マイク14から入力される音声データを認識し、認識した音声データに対応するコマンドを選択部位特定部26に出力する。コマンドは、音声認識データベース28において、音声データに対応付けられて格納されている。ここで、コマンドは選択部位を特定するためのコマンドである。つまり、マイク14から入力された音声データを認識し、認識した音声データに対応するコマンドを音声認識データベース28から読み出して、選択部位特定部26に送ることで、当該選択部位特定部26は、送られたコマンドに対応する部位を選択部位として特定する。
このように、音声により選択部位の特定を行うこと以外の処理は、前記の表示装置101と同じ処理である。
以上の説明では、コーディネートすべき帽子を、ユーザが最初被っていないことを想定していたが、ユーザが予め帽子を被っている場合には、予め被っている帽子がコーディネートする帽子の画像の表示を邪魔する虞がある。
また、ユーザが予め着用している上着が長袖であり、コーディネートすべき上着が半袖の場合にも、元の長袖の上着が、コーディネートする上着の画像の表示を邪魔する虞がある。
このように、ユーザが最初に着用している衣服や帽子については、選択部位として特定された段階で、ハイライト表示用の画像によって隠すように画像処理を行うようにすればよい。これにより、コーディネートする衣服や帽子などの画像は、元の衣服や帽子に邪魔されることなく、表示させることができる。
〔実施形態2〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(表示装置の詳細)
図8は、本実施形態に係る表示装置103の概略を示すブロック図である。
表示装置103は、前記実施形態1の図1に示す表示装置101とほぼ同じであり、表示部11として液晶表示パネルを用いて、さらに、当該液晶表示パネルを背面から光を照射するバックライト装置(光量調整手段)30を備えている点で異なる。
本実施形態では、表示装置103の前に立つ人物(ユーザ)を撮影した撮影映像を拡大または縮小表示する例について説明する。通常、表示装置103では、鏡像と撮影映像との大きさは同じで重なっている。しかしながら、ユーザを撮影したユーザの撮影映像を拡大または縮小した場合、ユーザの鏡像と、ユーザの撮影映像との大きさが異なるため、ユーザの撮影映像を適切にみるためには、ユーザの鏡像を映し出さないように工夫する必要がある。
ここで、表示部11に液晶表示パネルを用い、当該液晶表示パネルの背面をバックライト装置30により光照射することで、表示部11の前面に配されたハーフミラー12におけるミラーとしての機能を調整してもよい。この場合には、バックライト装置30による光照射の強度を上げて、表示部11から照射される光を強くすることで、ハーフミラー12におけるミラーとしての機能を低下させ、当該表示部11に表示された映像を鏡像に邪魔されることなく、当該表示装置103の前に立つ人物に見せることができる。また、特に光を強くしたい箇所では液晶表示パネルの表示を白色に近づけるとミラーとしての機能を低下させるのに効果的である。逆に、バックライト装置30による光照射の強度を下げて、表示部11から照射される光を弱くすることで、ハーフミラー12におけるミラーとしての機能を向上させ、当該表示部11に表示された映像に鏡像を重ねた状態で、当該表示装置103の前に立つ人物に見せることができる。光を強くするのと同様に、特に光を弱くしたい箇所では液晶表示パネルの表示を黒色に近づけるのもミラーとしての機能向上に効果的である。
表示装置103の表示面の大きさや人物の立つ位置によって、表示面に打ち出される鏡像は、人物の上半身であったり、全身であったりする。例えば、鏡像が全身、あるいは上半身の場合、選択部位に表示させる画像が衣服の場合には、ユーザが所望する選択部位の特定は容易であるが、眼鏡や時計などの小物の場合には、ユーザが所望する選択部位を適切に選択することができない虞がある。
(選択部位の拡大処理)
そこで、ユーザが選択部位を特定する際に、表示装置103に表示されているユーザの撮影映像を拡大表示することが考えられる。
図9の(a)は、ユーザの鏡像16とユーザの撮影映像16’とが重なっている状態を示す図であり、図9の(b)は、ユーザの鏡像16を映し出さずに、拡大したユーザの撮影映像16’のみを表示した状態を示す図である。
つまり、ユーザが眼鏡を選択部位として特定しようとする場合、図9の(a)に示すように、表示装置103の表示面11aに表示されたユーザの撮影映像16’を拡大して、且つ、バックライト装置30の照射光の光量をアップさせて、鏡像を映さないようにして、図9の(b)に示すような状態とし、眼鏡に対応する選択部位16bを特定する。もちろん、特定した選択部位16bは、ハイライト表示する。
このように、撮影映像16’を拡大すれば、選択部位が小さいものであても、容易に特定することができる。
眼鏡に対応する選択部位16b’を特定した後は、再度、図9の(a)に示す状態に戻して、選択部位16b’に表示されている眼鏡に対応する画像を取得して、画像を順次変更して、眼鏡のコーディネートを確認する。
なお、選択部位16b’を特定した後、眼鏡のコーディネートの確認を、図9の(a)に示す状態に戻さず、図9の(b)に示す状態で行ってもよい。
一方、図9の(a)に示すように、ユーザの鏡像16の下半身が写し出されていない状態で、靴をコーディネートしたい場合、上記の処理とは逆の処理、すなわち、撮影映像16’の縮小処理を行う。
(選択部位の縮小処理)
そこで、ユーザが選択部位を特定する際に、表示装置103に表示されているユーザの撮影映像を縮小して全身を表示することが考えられる。
図10の(a)は、ユーザの鏡像16とユーザの撮影映像16’とが重なっている状態を示す図であり、図10の(b)は、ユーザの鏡像16を映し出さずに、縮小したユーザの撮影映像16’のみを表示した状態を示す図である。
つまり、ユーザが、今履いている靴を選択部位として特定しようとする場合、図10の(a)に示すように、表示装置103の表示面11aに表示されたユーザの撮影映像16’を縮小して、且つ、バックライト装置30の照射光の光量をアップさせて、鏡像16を映さないようにして、図10の(b)に示すような状態とし、操作部位16a’によって靴に対応する選択部位16c’を特定する。もちろん、特定した選択部位16c’は、ハイライト表示される。
このように、撮影映像16’を縮小すれば、表示面11aに映し出されていない、人物の下半身まで表示することが可能となる。これにより、表示面11aに映し出されていない人物の領域における選択部位を特定することが可能となる。
靴を特定した後は、図10の(b)に示す状態で、靴に対応する画像を取得して、画像を順次変更して、靴のコーディネートを確認する。
以上のように、上記実施形態1,2の表示装置101〜103によれば、ユーザは、コーディネートの対象となる帽子、服、靴などを自分の鏡像が表示された状態で選択できる。このため、ユーザは、コーディネートの対象物を直感的に選択できるという効果を奏する。
以下の実施形態3では、表示装置101の前に居る人物の鏡像が映し出されている領域(人物領域)以外の領域に白色画像を表示することで、補助光とする例について説明する。
〔実施形態3〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、本実施形態に係る表示装置として、前記実施形態1の表示装置101(102)、実施形態2の表示装置103の何れも用いることができるため、表示装置101を例に説明する。
図11は、表示装置101における、人物の鏡像16の表示領域である人物領域11b以外の領域11cに白色画像を表示させて補助光とした表示面の一例を示している。
上記表示装置101を鏡台の鏡として使用した場合、鏡台の鏡でユーザが映っていない一部の領域11cを白色画像にし、補助光として利用する。補助光として利用する領域11cは、予め固定した領域に設定してもよいし、任意に設定するようにしてもよい。例えば表示面11a上の領域を指定するように、ユーザが手を動かすことで、補助光として利用する領域11cを指定することが考えられる。
このように、補助光として利用する領域11cを指定することで、ユーザは、自分の鏡像16においてどのように光が照射されているかを確認することができる。
また、補助光として利用する領域11cに表示する画像を、白色画像ではなく、電球色等の色味の異なる色の画像とすることで、補助光の色を変えることができる。これにより、例えば、鏡台で化粧をしているユーザは、異なる色味の補助光を用いることで、化粧の見え具合を色味毎に確認することができる。
以下の実施形態4では、表示装置101の前に居る人物の鏡像が映し出されている領域(人物領域)以外の領域に、生活情報(交通情報、ニュースなど)を表示する例について説明する。
〔実施形態4〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、本実施形態に係る表示装置として、前記実施形態1の表示装置101(102)、実施形態2の表示装置103の何れも用いることができるため、表示装置101を例に説明する。
本実施形態では、表示装置において、鏡像の表領域以外の領域に表示されている、生活情報(交通情報、ニュース記事)などを表示している画像をユーザが選択し、ユーザが見やすい位置に移動させたり、大きさを変えたりする点について説明する。
例えば、表示装置101(鏡)に映った自分の鏡像16を見ながら、生活情報を表示している画像を選択する。例えば、ユーザは、鏡を見ながら所望する生活情報を表示している画像に手を重ねる。一定時間重ねると手の動きに追従して画像が移動し、例えば自分の正面(鏡像16が映し出されている領域)にニュース記事を表示した画像が移動できる。このようにユーザの手の動きに追従する画像は、歯を磨くときはあごの下に置き、ネクタイを締めるときは顔の上に置き、特にニュースに用がないときは鏡の隅に小さくして追いやることができる。
図12の(a)〜(c)は、人物領域以外の領域に生活情報が表示されている画像の処理の流れを示す図である。
例えば図12の(a)は、生活情報が表示されている画像17a〜17dのうち、交通情報が表示されている画像17dがユーザの手の動きによって指定された状態を示している。
この状態で、ユーザが手を動かして画像17dを、自分の正面の位置(鏡像16が映し出される領域(人物領域11b))まで移動させ、図12の(b)に示すように、生活情報の詳細が表示されてように拡大した画像17d’を、人物領域11bに表示する。このとき、鏡像16の代わりに、表示装置101の前に居る人物をカメラ13で撮影した撮影映像16’を元の画像17dが表示された位置に表示する。
そして、生活情報を確認し終わり、再び正面に鏡像16を映し出すため、ユーザの手を撮影映像16’に重ねると、図12の(c)に示すように、撮影映像16’が選択されたことを示すリング18が表示され、この状態で所定時間経過すると、再び、図12の(a)に示すように、鏡像16が表示される。
上記の処理を繰り返すことで、表示装置101の前に居る人物は、自分の姿を確認しながら、必要な情報を見やすい位置で確認することができる。
以上の各実施形態において、表示装置101〜105では、ミラー機能を実現するための手段としてハーフミラー12を用いているが、ミラー機能を実現するための手段としてはハーフミラー12に限定されるものではない。ハーフミラー12は、光の透過率と光の反射率とが等しいが、光の透過率と光の反射率とが異なる光透過反射部材であってもよい。
例えば、表示装置101〜105は、映り込む鏡像を利用していることから、ハーフミラー12におけるミラーの材料や厚みを調整することにより、可視波長域全域に亘る反射率が少なくとも30%以上あることが望ましく、更には50%以上あることが望ましい。
〔ソフトウェアによる実現例〕
表示装置101〜103の制御ブロック(制御装置20)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、制御装置20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る表示装置は、光の一部が透過し、一部が反射する光透過反射部材(ハーフミラー12)を、表示面11a上に重ねて配置した表示装置において、上記光透過反射部材の光反射面側に存在する人物の像が上記光反射面側に映る人物領域を検出する領域検出手段(人物領域検出部24)と、上記光透過反射部材(ハーフミラー12)の光反射面側に存在する人物を撮影して得られた人物映像を、上記領域検出手段が検出した人物領域11bに上記光透過反射部材(ハーフミラー12)を透過するように表示させる表示制御手段(表示制御部25)と、上記人物映像から検出された人体の各部位のうち、一つの部位を操作部位とし、上記人物領域11bにおける、当該操作部位の表示領域に少なくとも一部重なる表示領域である特定領域に表示された部位を選択部位として特定する特定手段(選択部位特定部26)と、を備え、上記表示制御手段(表示制御部25)は、上記特定領域に、上記操作部位の動きのみに応じて取得した更新用の画像を表示させることを特徴としている。
上記構成によれば、表示制御手段が、人物の像が光透過反射部材を透過するように表示面に表示した人物領域のうち、人体の一つの部位である操作部位により特定された人体の部位に対応する領域に、当該操作部位の動作に応じて取得した画像を表示させていることで、ユーザは自分の体の一部である操作部位(手)を動作させるだけで、所望する部位に所望する画像を表示させることができる。
これにより、人物映像を、鏡像に重ねて表示したときに、操作部位の動きのみにより更新用の画像を表示することができるので、リモコン操作や、タッチパネル操作のような煩わしい操作を行うことなく、当該鏡像に重ねる画像を変更できる。
従って、鏡としての機能を阻害することなく、鏡像に重ねる画像を任意に変更することができるという効果を奏する。
本発明の態様2に係る表示装置は、上記態様1において、上記表示制御手段(表示制御部25)は、上記特定領域に、上記操作部位の動きに応じて取得した画像を表示させる前に、ハイライト表示用の画像を表示させてもよい。
上記構成によれば、ユーザは、ハイライト表示されている部位を見るだけで、自分が選択した部位であるか否かを容易に判断することができる。
本発明の態様3に係る表示装置は、上記態様2において、上記表示制御手段(表示制御部25)は、上記特定領域がハイライト表示されている間に、当該特定領域への画像表示の指示を受け付けると、当該特定領域に、上記更新用の画像を表示させてもよい。
上記構成によれば、ユーザの意図するタイミングで、特定領域に更新用の画像を表示させることが可能となる。
本発明の態様4に係る表示装置は、上記態様1〜3の何れか1態様において、上記表示制御手段(表示制御部25)は、上記特定領域のサイズに合わせて上記更新用の画像のサイズを調整してもよい。
上記構成によれば、特定領域のサイズに合わせて更新用の画像サイズを調整することで、更新用の画像を鏡像と重ね合わせた場合の違和感を少なくできる。
本発明の態様5に係る表示装置は、上記態様1〜4の何れか1態様において、上記表示制御手段(表示制御部25)は、上記人物映像の表示サイズを変更もよい。
上記の構成によれば、人物映像の表示サイズを変更して表示させることで、表示面のサイズに応じたサイズの人物映像を表示させることができる。例えば、表示面に人物の上半身のみが表示され、下半身を確認したいときには、全身が映るように表示サイズを縮小して人物映像を表示させ、表示面に人物の全身が表示され、ある部位を確認したいときには、ある部位が拡大するように表示サイズを拡大した人物映像を表示させることができる。
これにより、ユーザは、所望する画像を表示させるための領域を容易に特定することが可能となる。
本発明の態様6に係る表示装置は、上記態様5において、上記表示面11aから上記光透過反射部材に向かって照射する光量を調整する光量調整手段(バックライト装置30)をさらに備え、上記光量調整手段(バックライト装置30)は、上記表示制御手段(表示制御部25)によって、人物映像の表示サイズを変更するとき、上記光透過反射部材に向かって照射する光量を上げることが好ましい。
上記の構成によれば、表示制御手段によって、人物映像の表示サイズを変更するとき、光透過反射部材に向かって照射する光量を上げることで、当該光透過反射部材に映し出された鏡像を確認し難くなる。これにより、人物映像のみを表示面に表示させることができるので、人物映像を拡大しても、縮小してもユーザは当該人物映像を確認することができる。
本発明の態様7に係る表示装置は、上記態様1〜6の何れか1態様において、上記特定領域に表示させる画像を取得する画像取得手段(情報取得部21)をさらに備え、上記画像取得手段(情報取得部21)は、通信ネットワークを介して、画像を管理する管理サーバ2から画像を取得してもよい。
上記の構成によれば、表示装置をどこに持っていても、同じ画像を取得することが可能となるため、どこでも、衣服などのコーディネートを行うことが可能となる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、ミラー機能付きの表示装置に利用でき、特に、鏡像と撮影映像に加えて、ユーザが指定する領域に画像を重ねて表示する表示装置に利用することができる。
2 管理サーバ
11 表示部
11a 表示面
11b 人物領域
11c 領域
12 ハーフミラー(光透過反射部材)
13 カメラ
14 マイク
15 スピーカ
16 鏡像
16’ 撮影映像
16a 指先
16a’ 操作部位
16b 選択部位
16b’ 選択部位
16c’ 選択部位
17a〜17d 画像
18 リング
20 制御装置
21 情報取得部(画像取得手段)
22 人体部位検出部
23 操作部位検出部
24 人物領域検出部(領域検出手段)
25 表示制御部(表示制御手段)
26 選択部位特定部(特定手段)
27 音声認識処理部
28 音声認識データベース
30 バックライト装置(光量調整手段)
101 表示装置
102 表示装置
103 表示装置

Claims (5)

  1. 光の一部が透過し、一部が反射する光透過反射部材を、表示面上に重ねて配置した表示装置において、
    上記光透過反射部材の光反射面側に存在する人物の像が上記光反射面側に映る人物領域を検出する領域検出手段と、
    上記光透過反射部材の光反射面側に存在する人物を撮影して得られた人物映像を、上記領域検出手段が検出した人物領域に上記光透過反射部材を透過するように表示させる表示制御手段と、
    上記人物映像から検出された人体の各部位のうち、一つの部位を操作部位とし、上記人物領域における、当該操作部位の表示領域に少なくとも一部重なる表示領域である特定領域に表示された部位を選択部位として特定する特定手段と、
    を備え、
    上記表示制御手段は、
    上記特定領域に、上記操作部位の動きのみに応じて取得した更新用の画像を表示させることを特徴とする表示装置。
  2. 上記表示制御手段は、
    上記特定領域に、上記更新用の画像を表示させる前に、ハイライト表示用の画像を表示させることを特徴とする請求項1に記載の表示装置。
  3. 上記表示制御手段は、
    上記特定領域がハイライト表示用の画像が表示されている間に、当該特定領域への画像表示の指示を受け付けると、当該特定領域に、上記更新用の画像を表示させることを特徴とする請求項2に記載の表示装置。
  4. 上記表示制御手段は、
    上記特定領域のサイズに合わせて上記更新用の画像のサイズを調整することを特徴とする請求項1〜3の何れか1項に記載の表示装置。
  5. 上記表示制御手段は、
    上記人物映像の表示サイズを変更することを特徴とする請求項1〜4の何れか1項に記載の表示装置。
JP2014094205A 2014-04-30 2014-04-30 表示装置 Active JP6316648B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014094205A JP6316648B2 (ja) 2014-04-30 2014-04-30 表示装置
PCT/JP2015/062870 WO2015166957A1 (ja) 2014-04-30 2015-04-28 表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014094205A JP6316648B2 (ja) 2014-04-30 2014-04-30 表示装置

Publications (2)

Publication Number Publication Date
JP2015210509A JP2015210509A (ja) 2015-11-24
JP6316648B2 true JP6316648B2 (ja) 2018-04-25

Family

ID=54358684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014094205A Active JP6316648B2 (ja) 2014-04-30 2014-04-30 表示装置

Country Status (2)

Country Link
JP (1) JP6316648B2 (ja)
WO (1) WO2015166957A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090345A1 (ja) * 2015-11-24 2017-06-01 エイブル株式会社 ミラーと映像表示機能を有するドア
JP5939603B1 (ja) * 2015-11-24 2016-06-22 エイブル株式会社 ミラーと映像表示機能を有するドア
JP7312599B2 (ja) 2019-04-24 2023-07-21 セコム株式会社 監視表示装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357103A (ja) * 2003-05-30 2004-12-16 Pioneer Electronic Corp 表示装置付きミラー装置
JP2006145645A (ja) * 2004-11-17 2006-06-08 Hitachi Ltd 情報表示装置
WO2006085385A1 (ja) * 2005-02-14 2006-08-17 Fujitsu Limited 販売支援装置
JP5210102B2 (ja) * 2008-09-22 2013-06-12 セーレン株式会社 仮想試着装置
JP2012108805A (ja) * 2010-11-18 2012-06-07 Toshiba Tec Corp 試着システム
EP2681638A4 (en) * 2011-02-28 2016-08-03 Facecake Marketing Technologies Inc VIRTUAL REFLECTION IN REAL TIME

Also Published As

Publication number Publication date
JP2015210509A (ja) 2015-11-24
WO2015166957A1 (ja) 2015-11-05

Similar Documents

Publication Publication Date Title
US20210407203A1 (en) Augmented reality experiences using speech and text captions
JP2023179485A (ja) 視線ベースのユーザ対話
US10440319B2 (en) Display apparatus and controlling method thereof
JP2011186856A (ja) ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
WO2021244145A1 (zh) 头戴显示设备的交互方法、终端设备及存储介质
KR20160051384A (ko) 웨어러블 디바이스 및 그 제어 방법
JP2013101526A (ja) 情報処理装置、表示制御方法、およびプログラム
JP6316648B2 (ja) 表示装置
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
US11893154B2 (en) Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JP2015210797A (ja) 表示装置
US20230066318A1 (en) Handcrafted augmented reality effort evidence
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
KR102171968B1 (ko) 장신구 가상 착용 기기 및 장신구 가상 착용 프로그램
JP2015052895A (ja) 情報処理装置及び情報処理方法
JP6541940B2 (ja) 表示装置
US20240028177A1 (en) Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments
JP7427739B2 (ja) 表示装置
US20240103615A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US11181973B2 (en) Techniques related to configuring a display device
US20230062366A1 (en) Handcrafted augmented reality experiences
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces
US20240103614A1 (en) Devices, methods, for interacting with graphical user interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150