JPWO2014156146A1 - 電子ミラー装置 - Google Patents

電子ミラー装置 Download PDF

Info

Publication number
JPWO2014156146A1
JPWO2014156146A1 JP2015508076A JP2015508076A JPWO2014156146A1 JP WO2014156146 A1 JPWO2014156146 A1 JP WO2014156146A1 JP 2015508076 A JP2015508076 A JP 2015508076A JP 2015508076 A JP2015508076 A JP 2015508076A JP WO2014156146 A1 JPWO2014156146 A1 JP WO2014156146A1
Authority
JP
Japan
Prior art keywords
face
user
image
display position
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015508076A
Other languages
English (en)
Other versions
JP6008309B2 (ja
Inventor
尚美 安杖
尚美 安杖
今村 典広
典広 今村
山形 道弘
道弘 山形
善光 野口
善光 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Application granted granted Critical
Publication of JP6008309B2 publication Critical patent/JP6008309B2/ja
Publication of JPWO2014156146A1 publication Critical patent/JPWO2014156146A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

本開示の一態様に係る電子ミラー装置100は、使用者の顔の鏡像を表示する電子ミラー装置であり、使用者の顔の向きや視線に合わせて、顔画像の表示位置を見やすい位置に移動させることができる。本開示の一態様に係る電子ミラー装置100は、使用者の顔を撮像する撮像部102と、撮像した使用者の顔の画像データに基づいて、使用者の顔の鏡像の画像データを出力する画像データ生成部120と、使用者の顔の鏡像の画像データを表示する表示部103と、表示部上の鏡像の表示位置を移動させる表示位置移動部130とを備える。

Description

本開示は、電子ミラー装置に関する。
カメラで撮像した画像をディスプレイに表示して鏡として使用する、いわゆる電子ミラーが提案されており、携帯端末のアプリケーションとして使用することが提案されている(例えば、特許文献1)。また、特許文献2が開示するように、カメラの位置が可変であれば使用者の背面を見ることもでき、光を反射する普通の鏡とは異なる機能を果たすことができる。
一方、普通の鏡とは使用感が異なること、具体的にはカメラと目の高さが一致しないため視線が合わないことなどが、電子ミラーの課題として挙げられる。このような課題を鑑みて、特許文献3は複数のカメラで撮影した画像を合成する方法を、特許文献4は撮像部を表示部の真後ろに配置して表示と撮像のON/OFFの切り替えを同期して行う方法を、特許文献5はカメラの位置を移動させる機構をそれぞれ提案している。また、電子ミラー分野とは異なるが、視線と画像の位置を合わせる技術として、特許文献6は車の運転者の視線を検出して、画像表示位置を変更する技術を提案している。
実用新案登録第3154529号公報 特開2000−138926号公報 特開2002−290964号公報 特開2004−297733号公報 特開2012−60547号公報 特開2011−240813号公報
本開示は、普通の鏡とは使用感が異なることを積極的に利用して画像データの視認性を向上させる電子ミラー装置を提供する。
本開示の一態様に係る電子ミラー装置は、使用者の顔の鏡像を表示する電子ミラー装置であって、使用者の顔を撮像する撮像部と、撮像した使用者の顔の画像データに基づいて、使用者の顔の鏡像の画像データを出力する画像データ生成部と、使用者の顔の鏡像の画像データを表示する表示部と、表示部上の鏡像の表示位置を移動させる表示位置移動部とを備える。
本開示の一態様に係る電子ミラー装置によれば、使用者が視認しやすい位置に画像の表示位置が移動することによって、普通の鏡では見えにくい顔の部分(例えば、横顔や顎の下)を容易に見ることができる。
実施形態に係る電子ミラー装置を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 実施形態に係る電子ミラー装置を示す図である。 実施形態に係る電子ミラー装置の動作を示すフローチャートである。 実施形態に係る電子ミラー装置の動作を示すフローチャートである。 実施形態に係る電子ミラー装置の動作を示すフローチャートである。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)から(c)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。 (a)および(b)は、実施形態に係る電子ミラー装置の動作を示す図である。
本開示の一態様の概要は以下のとおりである。
本開示の一態様に係る電子ミラー装置は、使用者の顔の鏡像を表示する電子ミラー装置であって、使用者の顔を撮像する撮像部と、撮像した使用者の顔の画像データに基づいて、使用者の顔の鏡像の画像データを出力する画像データ生成部と、使用者の顔の鏡像の画像データを表示する表示部と、表示部上の鏡像の表示位置を移動させる表示位置移動部とを備える。
電子ミラー装置は、例えば、使用者からの鏡像の表示位置の移動の命令を受け付けるユーザインターフェイスをさらに備え、表示位置移動部は、ユーザからの命令に基づいて、鏡像の表示位置を移動させてもよい。
電子ミラー装置は、例えば、使用者の顔の向きを推定する向き推定部をさらに備え、表示位置移動部は、推定された顔の向きに基づいて、鏡像の表示位置を移動させてもよい。
電子ミラー装置は、例えば、使用者の顔の画像データにおける、顔の所定の部分の位置および分布を検出する顔特徴検出部をさらに備え、向き推定部は、検出した顔の所定の部分の位置および分布に基づいて使用者の顔の向きを推定してもよい。
電子ミラー装置は、例えば、表示部と使用者の顔との間の距離を推定する距離推定部をさらに備え、表示位置移動部は、推定された顔の向きおよび距離に基づいて、鏡像の表示位置を移動させてもよい。
電子ミラー装置は、例えば、使用者の視線の方向を検出する視線検出部をさらに備え、表示位置移動部は、使用者の視線の先に対応した位置に、鏡像の表示位置を移動させてもよい。
例えば、撮像部と表示部とは一体に構成されていてもよい。
例えば、表示位置移動部が鏡像の表示位置を移動させる前の状態では、画像データは、表示部の中央部よりも撮像部に近い側に表示されていてもよい。
電子ミラー装置は、例えば、表示部を複数個備え、表示位置移動部は、鏡像の表示位置を複数の表示部の間で移動させてもよい。
本開示の一態様に係るコンピュータプログラムは、使用者の顔の鏡像を表示する動作を電子機器に実行させるコンピュータプログラムであって、コンピュータプログラムは、使用者の顔を撮像するステップと、撮像した使用者の顔の画像データに基づいて、使用者の顔の鏡像の画像データを出力するステップと、使用者の顔の鏡像の画像データを表示するステップと、鏡像の表示位置を移動させるステップと、を電子機器のコンピュータに実行させる。
以下、実施形態に係る電子ミラー装置を、図面を参照しながら説明する。
(実施の形態1)
図1は、実施の形態1に係る電子ミラー装置100を示す図である。電子ミラー装置100は、使用者の顔の鏡像を表示する。電子ミラー装置100は、筐体101と、撮像部102と、撮像部102で取得した画像を表示する表示部103と、ユーザのタッチ操作を受け付けるタッチパネル104とを備える。タッチパネル104は、使用者からの画像の表示位置の移動の命令等の各種命令を受け付けるユーザインターフェイスの一例である。この例では、撮像部102、表示部103、タッチパネル104は同じ筐体101に搭載され、一体に構成されている。
図2、図3を参照して、電子ミラー装置100の動作を説明する。図2(a)、図3(a)は電子ミラー装置100と使用者200を上から見た位置関係を示し、図2(b)、図3(b)はその位置関係のときに電子ミラー装置100に表示される顔画像210を示す。図2(a)のように使用者200が電子ミラー装置100に向かって正面を向いている場合、図2(b)のように左右反転された鏡像の顔画像210は、使用者200の正面に表示される。図2(a)では、使用者200が表示部103の中央部前方に位置するため、顔画像210は表示部103中央部に表示されている。また、図3(a)のように使用者200が左側を向いた場合も、図3(b)のように顔画像210は使用者200の顔の正面方向に表示される。図3(a)では、使用者200が表示部103の中央部前方に位置しており、かつ使用者200が左側を向いているため、顔画像210は表示部103の左側に表示される。このように、使用者200の顔の向きの方向に顔画像210が表示されると、使用者200は眼球の動きを少なく抑えることができ、普通の鏡と比べて横顔が見やすくなる。このため、電子ミラー装置100は、顔画像210の表示位置を移動させる表示位置移動部を有することにより、使用者200の顔の位置や向きが変化しても顔画像210を見やすくすることができる。
顔画像210の表示位置の移動方法としては、例えば、使用者200がタッチパネル104を操作して、自分の見やすい位置に顔画像210をスライドさせてもよい。また、電子ミラー装置100に顔認識機能を付加して、自動で顔画像210の表示位置を変更するようにしてもよい。
図4は、電子ミラー装置100の構成要素を示すブロック図である。電子ミラー装置100は、撮像部102と、表示部103と、ユーザインターフェイス104と、角度検出部105と、マイクロコンピュータ110と、画像データ生成部120と、表示位置移動部130と、向き推定部140と、顔特徴検出部150と、距離推定部160と、画像加工部170と、視線検出部180とを備える。
撮像部102は、例えばCCDイメージセンサであり、被写体像を撮像して画像データを生成する。この例では、使用者200の顔を撮像して、使用者の顔の画像データを生成する。
画像データ生成部120は、撮像した使用者200の顔の画像データに基づいて、使用者200の顔の鏡像の画像データを生成して出力する。表示部103は、使用者200の顔の鏡像の画像データ210を表示する。表示部103が表示する画像は動画であるが、静止画であってもよい。画像加工部170は、顔の画像データを加工する。角度検出部105は電子ミラー装置100の角度(傾き具合)を検出する。
ユーザインターフェイス104は、使用者200からの鏡像の表示位置の移動の命令を受け付ける。ユーザインターフェイス104は、例えばタッチパネルである。
顔特徴検出部150は、使用者200の顔の画像データにおける、顔の目、鼻、口等の所定の部分の位置および分布を検出する。向き推定部140は、検出した顔の所定の部分の位置および分布に基づいて使用者200の顔の向きを推定する。距離推定部160は、表示部103と使用者200の顔との間の距離を推定する。視線検出部180は、使用者200の視線の方向を検出する。
表示位置移動部130は、ユーザインターフェイス104を介した使用者200からの命令に基づいて、表示部103上の鏡像の表示位置を移動させる。また、表示位置移動部130は、推定された顔の向きに基づいて、鏡像の表示位置を移動させてもよい。また、表示位置移動部130は、推定された顔の向きおよび距離に基づいて、鏡像の表示位置を移動させてもよい。また、表示位置移動部130は、使用者200の視線の先に対応した位置に、鏡像の表示位置を移動させてもよい。
マイクロコンピュータ110は、上記のような電子ミラー装置100の構成要素全体の動作を制御する制御部である。
なお、図4に示す各構成要素は一例であり、電子ミラー装置100は全ての構成要素を有している必要は無く、電子ミラー装置100の形態に応じて備える構成要素は変化する。例えば、電子ミラー装置100は、使用者200からの移動命令を受け付けるユーザインターフェイス104、向き推定部140、及び視線検出部180のうちの、少なくとも一つを有していればよい。また、顔特徴検出部150および距離推定部160は、向き推定部140に付随する構成要素であるため、向き推定部140を有さない実施形態においては必須ではない。
また、角度検出部105は、例えば、後述するスマートフォンやタブレット端末のように、電子ミラー装置100が回転して使用される場合に備えられていればよく、同じ角度で固定して使用される実施形態においては必須ではない。
次に、顔の鏡像の画像データ表示位置を変更する処理の例を説明する。図5A〜図5Cは電子ミラー装置100の処理を示すフローチャートである。
図5Aは、使用者200からの移動命令を受け付けるユーザインターフェイス104を備える実施形態における処理フローを示す。電子ミラー装置100が動作を開始すると、撮像部102は使用者200の顔を撮像し(S11)、画像データ生成部120は、顔の鏡像の画像データを生成する(S12)。表示部103において、生成された鏡像の画像データが表示される(S13)。表示された画像データを使用者200が確認し、表示位置を移動する必要があると判断した場合、ユーザインターフェイス104を介して電子ミラー装置100に表示位置の移動を命令する(S14)。使用者200の命令を受けて表示位置移動部130は画像データの表示位置を移動する(S15)。そして、使用者が電子ミラーの使用を終了するまで、表示を継続する(S16、S17)。
図5Bは、向き推定部140、顔特徴検出部150及び距離推定部160を備える実施形態における処理フローを示す。図6は向き推定部140、顔特徴検出部150における顔の向きの推定処理を説明する図である。図7は、推定した顔の向きと距離に基づいて表示位置の移動量を決定する処理を説明する図である。図8は顔の表示位置を移動させた状態を説明する図である。
鏡像の画像データが表示されるまでの処理(S21〜S23)は図5Aの処理(S11〜S13)と同じである。向き推定部140は、使用者200の顔の向きθを推定する(S24)。図6を参照して、顔の向きθを推定する方法を説明する。顔特徴検出部150は、撮像部102で取得された画像300から、顔領域と非顔領域とを検出し、向き推定部140は、顔の向きを推定して決定する。例えば、図6(a)のように、二値化した画像からパターンマッチングによって顔領域220と非顔領域310を判定し、肌色領域の明部221と特徴点を含む暗部(目、鼻、口等)222を検出すれば、明部221と暗部222の分布から顔の向きθを推定することができる。単純なモデルで説明すると、図6(b)のように、頭部が半径rの略球形、目は幅6r/5で顔の中心に配置されているとすれば、三角関数の計算により、顔領域内の暗部の幅から顔の向きθが算出できる。
次に、図7、図8を参照しながら、顔画像の表示位置を決定する方法を説明する。距離推定部160は、使用者200と表示部103の間の距離dを推定して決定する(S25)。距離の推定方法としては、視差を利用した方法でもよいし、撮像部102の画角と取得画像内の頭幅および平均的な頭幅の値から推定する方法でもよい。
より正確に距離を推定したい場合は、視差から距離dを決定し、撮像部102の画角と取得画像内の頭幅から実際の使用者200の頭部の半径rを算出する。視差から表示部103と使用者200と間の距離dを測定するためには、複数のカメラを使用するか、瞳分割方式を用いる方法が考えられる。ここまでで、使用者200と表示部103の距離d、使用者200の頭部の半径r、顔の向きθの値が得られる。図7は、電子ミラー装置100と使用者200を上から見た位置関係を示しており、顔の向きがθだけ左に傾いている場合、使用者200が真っ直ぐに見た目線の先は、表示部103上において、左側に(r+d)・tanθだけ変位することがわかる。すなわち、図8(a)に示すように、画像加工部170で顔画像が含まれる領域220を残してトリミングし、図8(b)に示すように、顔画像が含まれる領域220を左側に(r+d)・tanθ移動すると、使用者200が真っ直ぐに見た目線の先に使用者200の顔画像が表示され、眼球運動を抑えた状態で楽に自分の右顔を観察することができる。
表示位置移動部130は、推定された顔の向きおよび距離に基づいて、顔画像の表示位置を移動させると判断した場合は、顔画像の表示位置を移動させる(S26、S27)。顔の向きが正面を向いている等、顔画像の移動が不要と判断した場合は、顔画像の表示位置を変更せずに、顔の向きおよび距離を推定する処理を継続する(S26、S28)。そして、使用者が電子ミラーの使用を終了するまで、顔の向きおよび距離を推定する処理、または表示位置を移動する処理を継続する(S28、S29)。
なお、簡単のために、頭部の半径をrとして計算する例を説明したが、写真画像から読み取りやすい瞳孔間隔や外眼角幅から表示位置の移動量を決定してもよい。また、顔の左右方向だけでなく、上下や斜め方向の向きについても、同様の方法で検出して、画像表示位置を調整してもよい。また、距離推定部160は必ずしも必要ではなく、顔の向きと表示位置との関係を予め内蔵メモリーに記憶させ、推定された使用者200の顔の向きに応じて表示位置を決定してもよい。
図5Cは、視線検出部180を有する実施形態における処理フローを示す。鏡像の画像データが表示されるまでの処理(S31〜S33)は図5Aの処理(S11〜S13)と同じである。
視線検出部180は、使用者200の視線を検出する(S34)。視線の検出の方法は、特に限定しないが、角膜(黒目)と強膜(白目)の輝度差を利用する方法などを用いることが出来る。例えば、使用者200が右または左を向いていると判断された場合には、表示位置をそれぞれ右または左に移動させる。また、例えば、使用者200が正面を向いていると判断された場合は、表示位置を移動させない(S35、S36、S37)。使用者が電子ミラーの使用を終了するまで、視線検出処理、または表示位置を移動する処理を継続する(S37、S38)。
なお、図5B及び図5Cの実施形態においては、顔の向き又は視線を検出する前に鏡像の画像データを表示する処理(S23、S33)は省略されてもよく、顔の向き又は視線を検出した後に画像データを表示してもよい。すなわち、電子ミラー装置100は、顔向き又は視線の検出結果に基づいた表示位置に鏡像の画像データを表示させることができればよい。また、上記のように自動で顔画像の表示位置を移動させた後に、タッチパネル104で顔画像をスライドさせ、使用者200が自分で見やすい位置に微調整できるようにしてもよい。また、マイクロコンピュータ110が、使用者200の顔の向き又は視線と、使用しやすい好みの位置との関係を覚えて内蔵メモリーに記憶しておくような学習機能を有していてもよい。また、電子ミラー装置100の寸法に対して変位量が大きい場合、表示部103の範囲内に顔の画像が収まって表示されるように動作を設定してもよい。
電子ミラー装置100では、使用する使用者200の顔画像を、使用者200にとって見やすい位置に表示させることができるため、普通のミラーよりも少ない眼球運動で楽に顔画像を観察することが可能となる。
(実施の形態2)
図9は、実施の形態2に係る電子ミラー装置100を示す図である。本実施の形態2に係る電子ミラー装置100は、小型で持ち運び可能なサイズである。電子ミラー装置100は、電子ミラーとして動作させるためのアプリケーションをインストールしたスマートフォンやタブレット端末であってもよい。本実施の形態2に係る電子ミラー装置100では、電子ミラー装置100が使用者200にどのような状態で保持されているのかを角度検出部105が検出する。
図9を参照して、電子ミラー装置100の動作を説明する。図9(a)のように、電子ミラー装置100の長手方向が水平方向に対して垂直であり、撮像部102が上方に配置されている状態を基本状態とした場合、撮像部102と使用者200の目の高さが近いほど画像が見やすくなるため、顔画像210は表示部103の上方に表示される。すなわち、表示位置移動部130が顔画像210の表示位置を移動させる前の初期状態では、顔画像210は、表示部103の中央部よりも撮像部102に近い位置に表示される。
次に、図9(b)のように電子ミラー装置100を右に90度回転させた場合、角度検出部105は右に90度回転したことを感知して、顔画像210は左に90度回転し、撮像部102に近い位置に表示される。同様に、図9(c)のように電子ミラー装置100を左にθ度回転した場合、角度検出部105は左にθ度回転したことを感知して、顔画像210は右にθ度回転し、撮像部102に近い位置に表示される。
実施の形態2の電子ミラー装置100は、実施の形態1の電子ミラー装置100と同様に、顔画像210の表示位置を移動させることができる。さらに実施の形態2の電子ミラー装置100は、小型で可搬型であるため、使用者200と撮像部102および表示部103との位置関係の変更が容易である。
図10、図11を参照して、実施の形態2の電子ミラー装置100の動作をさらに説明する。図10(a)、図11(a)は、電子ミラー装置100と使用者200の上から見たときの位置関係を示しており、図10(b)、図11(b)は、そのときの電子ミラー装置100の表示画像を示している。図10(a)のように使用者200が電子ミラー装置100に向かって正面を向いている場合、使用者200が表示部103を正面から見たとしても、撮像部102が使用者100の右側にあるため、取得される顔画像210はやや右側からみた画像になる。このような視線のずれは、電子ミラーの課題と捉えられているが、本実施形態のように、積極的に顔の右側の情報を取得したい場合においては有効に利用できる。すなわち、図11(a)のように、顔の右側をよく観察したい場合、撮像部102を表示部103の右側になるようにして、撮像部102を観察したい顔領域近くに持っていけば、顔の向きとしては左側を向いたように検出される。このため、図11(b)のように顔画像210は表示部103の左側に移動し、使用者200にとって見やすい位置に顔画像210が移動する。顔の左右方向だけでなく、上下や斜め方向の向きについても同様であり、顔の左側の情報を取得したい場合は、撮像部102を左に配置して顔画像210の表示位置を右側に移動させれば、使用者200にとって見やすい位置に顔画像210が表示される。
なお、顔領域のすべてが表示部103に表示される必要はなく、観察したい顔の特定部分のみを拡大して表示してもよい。また、顔画像210の表示位置の変更方法としては、実施の形態1と同様、手動で調整してもよいし、自動の顔検出機能を用いてもよい。また、自動で顔画像210の表示位置を移動させた後に、タッチパネル104で顔画像210をスライドさせ、使用者200が自分で見やすい位置に微調整してもよい。ただし、小型で可搬型の実施の形態2の電子ミラー装置100は、画像位置の変位量が表示部103の大きさによって制限される。例えば、表示部103の長手方向の長さが100mmのスマートフォンの場合、表示部103が小さいので使用者200は見やすさのために電子ミラー装置100との距離200mmくらいで使用することが予想される。成人男女の頭幅は、平均して150mm程度であるから、画像の変位量が表示部の100mmよりも小さくなる顔の向きは、100<tanθ・(75+200)を満たす20度以下となる。例えば、耳の周辺や顎の下など、20度以上顔の向きを変えて観察したい場合、電子ミラー装置100の寸法に対して変位量が大きく、所望の領域の画像がはみ出してしまう場合があるため、表示部103の範囲内に顔領域の画像が表示されるように動作を設定してもよい。
実施の形態2によれば、小型の可搬型の電子ミラー装置100を使用する使用者200が、観察したい顔の部分の近くに撮像部102を配置したときに顔の向きが検出され、取得された顔画像が撮像部102から離れた位置に移動して表示されることで、使用者200にとって見やすい位置に顔画像を表示させることができ、普通のミラーよりも少ない眼球運動で楽に顔画像を観察することが可能となる。
(実施の形態3)
図12から図15を参照して、実施の形態3に係る電子ミラー装置100を説明する。
図12(a)は、実施の形態3に係る電子ミラー装置100の上面図であり、図12(b)は、実施の形態3に係る電子ミラー装置100を表示部103の正面側から見た平面図である。本実施の形態3に係る電子ミラー装置100では、表示部103は複数の平面を有する。例えば、電子ミラー装置100は、複数の表示部103L、103C、103Rを備える。撮像部102はそれら複数の表示部のうちの1つ(例えば表示部103C)と一体に構成されている。また、視線検出部180は、使用者100の視線の方向を検出する。視線の検出の方法は、特に限定しないが、角膜(黒目)と強膜(白目)の輝度差を利用する方法などを用いることが出来る。
図12(a)および(b)は、三面鏡のように、3つの平坦な表示面を有する構成を示している。説明を簡単にするために、向かって左側から、表示部103L、表示部103C、表示部103Rと呼ぶ。撮像部102で取得された画像は、表示部103L、103C、103Rのいずれかに表示される。表示位置移動部130は、使用者200の顔の向きに応じて、顔画像210の表示位置を表示部103L、103C、103Rの間で移動させる。
図13から図15は、実施の形態3に係る電子ミラー装置100の動作を示す図である。図13(a)、図14(a)、図15(a)は電子ミラー装置100と使用者200の上から見た位置関係を示し、図13(b)、図14(b)、図15(b)はそのときに電子ミラー装置100に表示される顔画像210を示している。
図13(a)のように、使用者200が正面を向いて、視線が表示部103Cに向いているとき、撮像部102で取得される使用者200の画像は、図13(b)のように左右反転された鏡像の顔画像210として表示部103Cに表示される。また、図14(a)のように使用者200の顔が左側に向きを変えて、視線が表示部103Lに向いているとき、撮像部102で取得される使用者200の画像は、図14(b)のように表示部103Lに移動して表示される。同様に、使用者200の顔が右側に向きを変えて、視線が表示部103Rに向いているときは、撮像部102で取得される使用者200の画像は、表示部103Rに移動して表示される。また、図15(a)のように使用者200の顔が左側を向いている状態において、視線が表示部103Cの方向に変化したときは、撮像部102で取得される使用者200の画像は、図15(b)のように表示部103Cに移動して表示される。
表示位置を決定するためには、表示部103Lと表示部103C、表示部103Cと表示部103Rの成す角を知っておく必要があるため、角度を多段階で調節できる場合には、電子ミラー装置100は、表示部の成す角度を検知するセンサーを有していてもよい。また、電子ミラー装置100は、使用者200が顔画像を好みの位置に調節できるユーザインターフェイスを有していてもよい。
また、本実施の形態3では、3つの平坦な表示面を備える例を説明したが、表示部103は平坦である必要はなく、湾曲したフレキシブルディスプレイを使用することもできる。湾曲したディスプレイを採用する場合、画像が自然に見えるように、表示面の曲率に合わせて画像を加工して表示する。
実施の形態3によれば、使用者200の目線の先に、使用者200の顔画像が表示されることによって、普通の鏡では見えないようなアングルからの顔画像を少ない眼球運動で楽に観察することが可能となる。
なお、上述の実施の形態1から3の説明では、ユーザインターフェイス104の一例として、使用者200のタッチ操作を検出するタッチパネルを例示したが、実施の形態はそれに限定されず、ユーザインターフェイス104は、使用者200の身振り、手振りを検出してユーザからの命令を受け取るユーザインターフェイスであってもよい。また、ユーザインターフェイス104は、使用者200の音声を検出し、音声による命令を受け付けるユーザインターフェイスであってもよい。また、ユーザインターフェイス104は、カーソルキーのようなボタンであってもよい。
また、上述した電子ミラー装置100の各構成要素の処理の少なくとも一部は、マイクロコンピュータ110が実行してもよい。例えば、画像データ生成部120、表示位置移動部130、向き推定部140、顔特徴検出部150、距離推定部160、画像加工部170、視線検出部180の機能をマイクロコンピュータ110が有し、マイクロコンピュータ110がそれらの動作を実行してもよい。
また、上述した電子ミラー装置100の動作は、ハードウエアによって実現されてもよいしソフトウエアによって実現されてもよい。そのような動作を実行させるコンピュータプログラムは、例えばマイクロコンピュータ110の内蔵メモリーに記憶される。また、そのようなコンピュータプログラムは、それが記録された記録媒体(光ディスク、半導体メモリー等)から電子ミラー装置100へインストールしてもよいし、インターネット等の電気通信回線を介してダウンロードしてもよい。また、そのようなコンピュータプログラムをスマートフォンやタブレット端末等の電子機器にインストールして、上述した電子ミラーの動作を実行させてもよい。
本開示の技術は、電子ミラー分野において特に有用である。
100 電子ミラー装置
101 筐体
102 撮像部
103、103L、103C、103R 表示部
104 ユーザインターフェイス
105 角度検出部
110 マイクロコンピュータ
120 画像データ生成部
130 表示位置移動部
140 向き推定部
150 顔特徴検出部
160 距離推定部
170 画像加工部
180 視線検出部
200 使用者
210 顔画像

Claims (10)

  1. 使用者の顔の鏡像を表示する電子ミラー装置であって、
    使用者の顔を撮像する撮像部と、
    前記撮像した使用者の顔の画像データに基づいて、前記使用者の顔の鏡像の画像データを出力する画像データ生成部と、
    前記使用者の顔の鏡像の画像データを表示する表示部と、
    前記表示部上の前記鏡像の表示位置を移動させる表示位置移動部と
    を備えた、電子ミラー装置。
  2. 前記使用者からの前記鏡像の表示位置の移動の命令を受け付けるユーザインターフェイスをさらに備え、
    前記表示位置移動部は、前記ユーザからの命令に基づいて、前記鏡像の表示位置を移動させる、請求項1に記載の電子ミラー装置。
  3. 前記使用者の顔の向きを推定する向き推定部をさらに備え、
    前記表示位置移動部は、前記推定された顔の向きに基づいて、前記鏡像の表示位置を移動させる、請求項1または2に記載の電子ミラー装置。
  4. 前記使用者の顔の画像データにおける、顔の所定の部分の位置および分布を検出する顔特徴検出部をさらに備え、
    前記向き推定部は、前記検出した顔の所定の部分の位置および分布に基づいて前記使用者の顔の向きを推定する、請求項3に記載の電子ミラー装置。
  5. 前記表示部と前記使用者の顔との間の距離を推定する距離推定部をさらに備え、
    前記表示位置移動部は、前記推定された顔の向きおよび距離に基づいて、前記鏡像の表示位置を移動させる、請求項3または4に記載の電子ミラー装置。
  6. 前記使用者の視線の方向を検出する視線検出部をさらに備え、
    前記表示位置移動部は、前記使用者の視線の先に対応した位置に、前記鏡像の表示位置を移動させる、請求項1から5のいずれかに記載の電子ミラー装置。
  7. 前記撮像部と前記表示部とは一体に構成されている、請求項1から6のいずれかに記載の電子ミラー装置。
  8. 前記表示位置移動部が前記鏡像の表示位置を移動させる前の状態では、前記画像データは、前記表示部の中央部よりも前記撮像部に近い側に表示される、請求項1から7のいずれかに記載の電子ミラー装置。
  9. 前記表示部を複数個備え、
    前記表示位置移動部は、前記鏡像の表示位置を前記複数の表示部の間で移動させる、請求項1から7のいずれかに記載の電子ミラー装置。
  10. 使用者の顔の鏡像を表示する動作を電子機器に実行させるコンピュータプログラムであって、
    前記コンピュータプログラムは、
    使用者の顔を撮像するステップと、
    前記撮像した使用者の顔の画像データに基づいて、前記使用者の顔の鏡像の画像データを出力するステップと、
    前記使用者の顔の鏡像の画像データを表示するステップと、
    前記鏡像の表示位置を移動させるステップと、
    を前記電子機器のコンピュータに実行させるコンピュータプログラム。
JP2015508076A 2013-03-29 2014-03-26 電子ミラー装置 Expired - Fee Related JP6008309B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013071744 2013-03-29
JP2013071744 2013-03-29
PCT/JP2014/001737 WO2014156146A1 (ja) 2013-03-29 2014-03-26 電子ミラー装置

Publications (2)

Publication Number Publication Date
JP6008309B2 JP6008309B2 (ja) 2016-10-19
JPWO2014156146A1 true JPWO2014156146A1 (ja) 2017-02-16

Family

ID=51623159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015508076A Expired - Fee Related JP6008309B2 (ja) 2013-03-29 2014-03-26 電子ミラー装置

Country Status (3)

Country Link
US (1) US10198622B2 (ja)
JP (1) JP6008309B2 (ja)
WO (1) WO2014156146A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
JP2015095682A (ja) * 2013-11-08 2015-05-18 株式会社東芝 電子機器、方法、及びプログラム
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US11128853B2 (en) * 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11164548B2 (en) * 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
CN106961558B (zh) * 2016-01-08 2020-06-16 中兴通讯股份有限公司 一种拍照处理方法和装置
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
CN105959544B (zh) * 2016-05-23 2019-06-07 维沃移动通信有限公司 一种移动终端的图像处理方法及移动终端
CN105959564B (zh) * 2016-06-15 2018-11-30 维沃移动通信有限公司 一种拍照方法及移动终端
US10654422B2 (en) 2016-08-29 2020-05-19 Razmik Karabed View friendly monitor systems
RU2750596C2 (ru) * 2016-12-06 2021-06-29 Конинклейке Филипс Н.В. Отображение направляющего указателя пользователю
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
JP7075237B2 (ja) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
JP2020053734A (ja) * 2018-09-25 2020-04-02 アルパイン株式会社 電子ミラーシステム
JP2020088557A (ja) * 2018-11-22 2020-06-04 パナソニックIpマネジメント株式会社 肌分析装置
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
CN110868540B (zh) * 2019-11-18 2022-09-09 深圳传音控股股份有限公司 终端镜面拍照方法、终端及计算机可读存储介质
US11388354B2 (en) 2019-12-06 2022-07-12 Razmik Karabed Backup-camera-system-based, on-demand video player
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2000138926A (ja) 1998-11-02 2000-05-16 Yoshiomi Yamada 後ろ姿見
JP3505575B2 (ja) * 2001-03-23 2004-03-08 独立行政法人産業技術総合研究所 デジタルミラー装置
JP2004180047A (ja) * 2002-11-28 2004-06-24 Terasaki Electric Co Ltd 電子鏡
JP2004297733A (ja) 2003-03-28 2004-10-21 Aruze Corp 電子鏡システム
JP2004297734A (ja) * 2003-03-28 2004-10-21 Aruze Corp 電子鏡システム
JP4257508B2 (ja) * 2003-06-09 2009-04-22 富士フイルム株式会社 電子カメラ
US20070040033A1 (en) * 2005-11-18 2007-02-22 Outland Research Digital mirror system with advanced imaging features and hands-free control
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
JP2008277983A (ja) * 2007-04-26 2008-11-13 Funai Electric Co Ltd テレビジョン受像機
JP2009177735A (ja) * 2008-01-28 2009-08-06 Dynamic Solutions Co Ltd 画像生成装置および画像表示システム
JP5430565B2 (ja) 2008-06-18 2014-03-05 パナソニック株式会社 電子ミラー装置
US20100296802A1 (en) * 2009-05-21 2010-11-25 John Andrew Davies Self-zooming camera
JP3154529U (ja) 2009-07-31 2009-10-22 佐藤 均 テレビジョン受像機、携帯電話機、及び電子鏡
JP5723106B2 (ja) 2010-05-18 2015-05-27 東芝アルパイン・オートモティブテクノロジー株式会社 車両用ディスプレイ装置及び車両用ディスプレイ方法
KR20120017670A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 화상 통신 방법 및 장치
JP2012060547A (ja) 2010-09-13 2012-03-22 Sharp Corp 電子鏡システム
JP5755012B2 (ja) * 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
US8611015B2 (en) * 2011-11-22 2013-12-17 Google Inc. User interface
JP2013213897A (ja) * 2012-04-02 2013-10-17 Mitsubishi Electric Corp 映像表示装置およびマルチ画面表示装置

Also Published As

Publication number Publication date
US20150154439A1 (en) 2015-06-04
US10198622B2 (en) 2019-02-05
WO2014156146A1 (ja) 2014-10-02
JP6008309B2 (ja) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6008309B2 (ja) 電子ミラー装置
EP3557377B1 (en) Neural network training for three dimensional (3d) gaze prediction with calibration parameters
KR101663452B1 (ko) 화면 조작장치 및 화면 조작방법
KR102544062B1 (ko) 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
CN112213856B (zh) 可穿戴眼镜和经由可穿戴眼镜显示图像的方法
CN109683716B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
EP3547216B1 (en) Deep learning for three dimensional (3d) gaze prediction
US9838597B2 (en) Imaging device, imaging method, and program
US9069164B2 (en) Methods and systems for a virtual input device
US9886086B2 (en) Gesture-based reorientation and navigation of a virtual reality (VR) interface
US10284817B2 (en) Device for and method of corneal imaging
KR20160108388A (ko) 복수의 광원들과 센서들을 사용한 눈 시선 검출
JP6341755B2 (ja) 情報処理装置、方法及びプログラム並びに記録媒体
WO2019187487A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US9521329B2 (en) Display device, display method, and computer-readable recording medium
US9958681B2 (en) Electronic device and control method thereof
US20220012922A1 (en) Information processing apparatus, information processing method, and computer readable medium
CN110895433A (zh) 用于增强现实中用户交互的方法和装置
JP2015005823A (ja) 画像処理装置およびデジタルミラーシステム
CN112578562A (zh) 显示系统、显示方法以及记录介质
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20170161933A1 (en) Mobile virtual reality (vr) operation method, system and storage media
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces
CN112368668B (zh) 用于混合现实头戴式耳机的便携式电子设备

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160902

R151 Written notification of patent or utility model registration

Ref document number: 6008309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees