JP2017173455A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2017173455A
JP2017173455A JP2016057523A JP2016057523A JP2017173455A JP 2017173455 A JP2017173455 A JP 2017173455A JP 2016057523 A JP2016057523 A JP 2016057523A JP 2016057523 A JP2016057523 A JP 2016057523A JP 2017173455 A JP2017173455 A JP 2017173455A
Authority
JP
Japan
Prior art keywords
display
distance
display area
user
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016057523A
Other languages
English (en)
Inventor
大嗣 江▲崎▼
Hirotsugu Esaki
大嗣 江▲崎▼
二木 一
Hajime Futaki
一 二木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016057523A priority Critical patent/JP2017173455A/ja
Publication of JP2017173455A publication Critical patent/JP2017173455A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 ユーザが顔を電子鏡に近づいた際に、ユーザの顔に当たる照明光が少なくなり、撮像して表示した画像が暗くなってしまう問題がある。【解決手段】 情報処理装置は、撮像手段によって撮像された画像を表示手段に表示させる表示制御手段と、ユーザと前記表示手段との距離を取得する距離取得手段と、取得された前記距離に基づいて、撮像された前記画像に基づいて表示する前記表示手段の第1の表示領域と、前記撮像手段の照明用として所定値以上の輝度値で表示する前記表示手段の第2の表示領域と、を決定する領域決定手段と、前記距離取得手段によって取得された前記距離の変化に応じて、前記第2の表示領域の位置を変更する表示変更手段と、を備えることにより、ユーザが電子鏡に近づいても、電子鏡の撮像部に必要な照明を維持することができる。【選択図】 図4

Description

本発明は、撮像した画像を表示する情報処理装置、情報処理方法及びプログラムに関するものである。
近年、画像を表示する表示装置の様々な用途が考えられている。例えば、表示装置とカメラ等の撮像装置とで構成した電子鏡がある。カメラで取得したユーザの画像を表示装置(ディスプレイ)に表示することで、普通の鏡のよう使用するディスプレイである。この電子鏡は化粧等ができるようにユーザをアシストするために開発されている。電子鏡ではカメラで撮ったユーザの画像をディスプレイに表示することでディスプレイを鏡の代わりに用いている。
一方で、普通の鏡を利用する際に室内などの暗い場所だと光量が不足し、化粧の具合をよく確認することができない。そのため、鏡の周囲に照明を付けて光量を補うことで、暗い場所でも化粧をできるようにする製品がある。また、電子鏡に関する特許文献1では、ディスプレイの表示領域を、画像を表示する領域と、照明に用いる領域とに予め分けている。そして、撮像装置の照明に用いる電子鏡の一部の表示領域の輝度を高くする。即ち、ディスプレイの一部の表示領域を照明として用いることで撮像装置の光量を補う手法が述べられている。
特開2013−242504号公報 特開2013−41545号公報
しかしながら、特許文献1に記載の電子鏡装置では画像を表示する領域と照明に用いる領域とが予め決められてしまうが、例えば、ユーザが化粧を確認するために電子鏡に近づく場合に、照明光が暗くなることが考慮されていない。ユーザが電子鏡に近づく場合は、照明領域からの照明光がユーザの顔の正面に当たる量が減ってしまい、照明光が暗くなるので、暗い撮像画像が表示されてしまうという問題がある。
かかる課題を解決するため情報処理装置は、以下の構成を備える。すなわち、撮像手段によって撮像された画像を表示手段に表示させる表示制御手段と、ユーザと前記表示手段との距離を取得する距離取得手段と、取得された前記距離に基づいて、撮像された前記画像に基づいて表示する前記表示手段の第1の表示領域と、前記撮像手段の照明用として所定値以上の輝度値で表示する前記表示手段の第2の表示領域と、を決定する領域決定手段と、前記距離取得手段によって取得された前記距離の変化に応じて、前記第2の表示領域の位置を変更する表示変更手段と、を備える。
本発明によれば、表示部とユーザとの距離の変化に応じて、撮像部の照明として使用する表示領域の位置を変更することで、ユーザが表示装置に近づいた際でも撮像部の撮像に必要な明るさを維持することができる。
実施形態1のシステムの構成図である。 実施形態1におけるユースケースの模式図である。 実施形態1におけるデータの構成図である。 実施形態1におけるフローチャートである。 実施形態2におけるユースケースの模式図である。 実施形態3におけるモジュールの構成図である。 実施形態3におけるデータの構成図である。 実施形態3におけるフローチャートである。 実施形態4におけるユースケースの模式図である。 実施形態4におけるフローチャートである。
以下、図を参照しながら本発明を実施する形態を説明する。
<実施形態1>
第1の実施形態である電子鏡として使用する情報処理装置及び情報処理方法について説明する。
図1(a)は本実施形態の情報処理装置の構成の説明図である。
本実施形態の情報処理装置は、撮像部のカメラ101、ネットワーク102、サーバ103及び表示部のディスプレイ104を備える。カメラ101は2台あり、ネットワーク102を介して撮像した映像をサーバ103に送信する機能を有する。ディスプレイ104は画像表示装置の一例であって、カメラ101で撮像した映像を表示する機能を有する。ここでは、説明を簡単にするためカメラの設置位置、撮像方向や焦点距離などは固定とし、それらはカメラ設置情報としてサーバで管理されているものとする。サーバ103は本システムの機能を統括するコンピュータであり、2台のカメラから受信した映像を元に、三角測量を行ってディスプレイからユーザ105までの距離を測定し、その距離に従ってディスプレイの表示を制御する機能を有する。なお、ネットワーク102を介さずに、カメラ101、サーバ103及びディスプレイ104が一体的に構成されてもよい。この場合は、例えばカメラ付きのタブレットPCのように構成してもよい。また、専用のカメラを別途用意してタブレットPCと接続して構成してもよい。
図1(b)はサーバ103のハードウェア構成の例である。
演算部111は、情報処理のための演算、論理判断等を行う。演算部111はシステムバス117を介して、それらのバスに接続された各構成要素を制御する。表示制御部112は、表示部のディスプレイ104における画像情報の表示を制御するコントローラである。入力部113は、ボタン、キーボード、マウス等であり、ユーザからの指示が入力される。通信部114は、LAN,3G,4G,Bluetooth(登録商標)技術等に代表されるネットワークコントローラ等であり、他の装置との接続を制御する外部通信手段である。なお同様の目的を達成できる通信方式であれば前記具体例に限らない。RAM115は、各構成要素からの各種データの一時記憶に用いられる。記憶部116は、フラッシュメモリ、HDD、光学ディスクなどの物理媒体を用い、本実施形態で実行される処理プログラム等の制御プログラムコードのほか、各種設定データ、画像データ、距離データ等を記憶する。前記の各構成要素からなるサーバ103は、入力部113からの各種の入力及び通信部114から供給されるネットワーク経由の各種入力に応じて作動する。すなわち、入力部113からの入力及び通信部114からの入力が供給されると、まず、インタラプト信号が演算部111に送られる。そして、その演算部111が記憶部116に記憶してある各種の制御信号を読出し、それらの制御信号に従って、各種の制御が行われる。また、本実施形態に係わるプログラムを格納した記憶媒体をシステムあるいは装置に供給し、そのシステムあるいは装置が、記憶媒体に格納されたプログラムコードを読み出し実行することによっても本実施形態は達成される。
図1(c)はサーバ103で実現するためのモジュール構成図である。
データ取得部121は通信部114を通じて2台のカメラ101から2枚の画像を取得し、正対画像になるように幾何変換を行った後に、歪みが少なくなるように1枚の画像のデータに合成してデータ保存部127に保存する。
距離取得部122はディスプレイとユーザとの距離を取得する。距離の取得には公知の方法を用いる。例えば、2台のカメラ101を用いて三角測量を行い、ディスプレイからユーザの顔までの距離を計測し、計測した距離のデータをデータ保存部に保存する。本実施形態では、ディスプレイからユーザの顔までの距離の計測は、ディスプレイからユーザの両目の間の中心位置までの距離の計測である。
視野範囲取得部125はディスプレイからユーザの顔までの距離を用いて、人間の視野特性を利用して幾何学的に視野範囲を取得する。本実施形態で取得する視野範囲は、ユーザが表示装置のディスプレイを直視し、両目を動かさない状態でディスプレイ上に表示される画像に対して、色を視認できる範囲を意味する。このような視野範囲は楕円形により近いが、本実施形態では、視野範囲を矩形として近似する。そして、本実施形態では、ディスプレイからユーザの顔までの距離に対応して、予め算出された矩形の視野範囲の四隅の座標がデータ保存部に保存してあるとする。矩形の視野範囲の四隅の座標の算出方法は後述する。視野範囲取得部125はデータ保存部から矩形の視野範囲の四隅の座標を取得する。
表示領域決定部123はデータ保存部に保存されている視野範囲の座標より、データ保存部127に保存した画像を表示する第1の表示領域と照明用の第2の表示領域との位置座標を決定し、データ保存部に保存する。本実施形態では、第1の表示領域は、画像データに基づいて表示するディスプレイの表示領域であって、第2の表示領域は、所定値以上の輝度値で表示し、照明として使用する領域である。
表示変更部124はデータ保存部に保存されている表示領域の位置座標を使って、距離取得部122によって取得されたディスプレイ(表示部104)とユーザとの距離の変化に応じて、少なくとも第2の表示領域の位置を変更する。また、その距離の変化に応じて、第2の表示領域の大きさや画素の輝度値を変更してもよい。また、第1の表示領域と第2の表示領域との位置や大きさを同時に変更してもよい。
データ表示制御部126はディスプレイ104の第1の表示領域に保存した画像を表示させ、ディスプレイ104の第2の表示領域に所定値より高い輝度値で表示させる。本実施形態では、撮像部(カメラ101)の照明用として必要な明るさを維持することができるかという観点で輝度の所定値を決定する。第2の表示領域で表示する画像の各画素の輝度値の平均値が決定された所定値より小さい場合は、各画素の輝度値を高く変更するように制御し、又は予め決められた輝度値に設定する。例えば、第2の表示領域のすべての画素で白色画像を表示するように設定する。なお、カメラ101の照明用として必要な明るさを維持するための輝度の所定値は、カメラの設置環境にも依存する。暗い場所では、より高い所定値を決定する必要がある。所定値の決定は、カメラ101で撮像した画像から推定してもよい。
図2はユースケースの模式図である。図2(a)は特許文献1の電子鏡を示している。特許文献1では電子鏡のディスプレイからの一定距離内にユーザがいることを検知した場合、ディスプレイ中央の領域をユーザの撮像画像を表示する領域にして、ディスプレイ左右の領域を照明の領域として用いることが予め決められている。そのため、ユーザがディスプレイに近づいて、ユーザの顔とディスプレイとの距離が近くなった場合は、照明領域からの照明光が顔に当たる量が減ってしまい、カメラ撮像時の光量不足で撮像した画像が暗くなるので、ディスプレイで表示される画像が暗く映る。
図2(b)は本実施形態の電子鏡を示している。本実施形態では、ディスプレイと顔までの距離からユーザの視野範囲を取得し、視野範囲と同じ大きさの表示領域を画像の表示領域とし、それ以外の表示領域を照明の領域に用いる。そのためユーザの顔とディスプレイとの距離が近くなった場合も、撮像部(カメラ)光量不足を補うことができ、ユーザの顔がはっきりと見える画像が撮像される。なお、光量が確保できる場合は、画像を表示する領域以外のディスプレイ表示領域の全部を照明の領域に用いる必要はなく、画像を表示する領域に近いディスプレイの表示領域だけを照明用の領域に用いる。この場合は、照明用の領域の大きさ(面積)を変更せずに、位置だけを変更する。照明用の領域の外側のディスプレイの表示領域の輝度値を下げるか、非表示にするかによって、省電力の効果が得られる。
図2(c)は本実施形態での電子鏡の物理的な構成を表している。ディスプレイの上下にカメラを設置し、それぞれのカメラで取得される2枚の画像から歪みのない1枚の画像を取得してディスプレイに表示する。ディスプレイから顔までの距離は2つのカメラから三角測量により測定する。カメラで撮れる撮像範囲はユーザとディスプレイの距離によってきまり、そのディスプレイの大きさは横50cm、縦50cmを想定しており、ユーザが電子鏡の正面に立って利用することを想定している。
また、カメラはセンササイズがAPS−Cで焦点距離が14mmの超広角レンズを用いるものとし、画角が垂直62度で水平80度であり、ディスプレイとカメラのなす角度が22度になるように設置してある。ユーザが電子鏡に10cmまで近づいた場合は横50cm、縦32cmの撮像範囲となり、女性の顔の平均である横15cm、縦22cmの大きさを包含する。
図3はデータの構成図である。距離データ301は距離取得部が取得したディスプレイからユーザの顔までの距離を示すデータである。顔の距離はディスプレイからユーザの顔までの距離を表す。
表示領域データ302は第1の表示領域と第2の表示領域を決定した際の第1の表示領域の四隅の位置座標を表す。表示領域データ302は領域ID、四隅の座標のx座標、y座標で構成される。領域IDは領域と座標を紐付けるための識別子である。位置座標はディスプレイの左下を原点とした二次元の座標系で表し、正の値を取る。
視野範囲データは人が電子鏡に近づいた際に、視野に入るディスプレイの表示領域の四隅の座標を表す。視野範囲データ303は四隅の座標のx座標、y座標で構成される。位置座標はディスプレイの左下を原点とした二次元の座標系で表し、正の値を取る。
上述の動作を、フローチャートに従って説明する。図4はディスプレイの表示を変更する際のフローチャートである。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。
まず、ステップS401において、データ取得部121が2つのカメラ101から2枚の画像データを取得して、それぞれの画像を正対画像になるように幾何変換を行った後に1枚の画像データに結合してデータ保存部127に保存する。本実施形態では幾何変換にアフィン変換を用い、画像の合成に変換後の画像を上下半分で切り取り結合したものを用いる。
次に、ステップS402において、距離取得部122がディスプレイとユーザの顔との距離を取得する。ディスプレイとユーザの顔との距離は、2つのカメラによってディスプレイから、本実施形態ではユーザの目と目の間の中心までの距離を三角測量により測定して、距離データ301としてデータ保存部に保存する。本実施形態ではディスプレイの左下に実世界座標の原点が来るようにあらかじめキャリブレーションにより調整している。
次に、ステップS403において、視野範囲取得部125が距離データの距離に基づいて視野範囲を取得し、その四隅の座標を視野範囲データ303としてデータ保存部127に保存する。このステップで取得する視野範囲は、ユーザが表示装置のディスプレイを直視し、両目を動かさない状態で表示される画像の色を視認できるディスプレイ上の範囲である。本実施形態では、ユーザが表示装置のディスプレイを直視すると仮定し、ユーザの視線からの角度は左右、上下に60度からディスプレイを見える範囲を視野範囲として取得する。これより、本実施形態では、視野範囲は次式でディスプレイとユーザの顔との距離に基づいて算出する。(視野範囲)=2×(ディスプレイから顔までの距離)×(tan30°)。なお、顔までの距離は、ディスプレイとユーザの両目の間の中心位置までの距離である。顔までの距離が10cmだった場合は、視野範囲の大きさは、左右に12cm、上下に12cmとなる。そして、ディスプレイ上での両目の間の中心位置の座標から視野範囲の中心座標を求める。ディスプレイの座標(25cm、25cm)に両目の間の中心位置の座標が一致する場合、ディスプレイの視野範囲の四隅の座標は(19cm、19cm)、(19cm、31cm)、(31cm、19cm)、(31cm、31cm)となる。
次に、ステップS404において、表示領域決定部123がデータ保存部127に保存された視野範囲データ303に基づいて第1の表示領域の座標と、第2の表示領域の座標とを決定し、表示領域データ302としてデータ保存部127に保存する。本実施形態では、ディスプレイの表示領域から第1の表示領域を除いた領域を第2の表示領域とする。第1の表示領域は視野範囲である(19cm、19cm)、(19cm、31cm)、(31cm、19cm)、(31cm、31cm)の矩形領域に定める。第2の表示領域は(0cm、0cm)、(50cm、0cm)、(0cm、50cm)、(50cm、50cm)から上記の第1の表示領域を除いた領域とする。なお、データ保存部に保存された視野範囲データ303は、ステップS403で説明した方法により、ディスプレイとユーザの顔との距離に基づいて算出することができる。従って、表示領域決定部がディスプレイとユーザの顔との距離に基づいて第1の表示領域の座標と、第2の表示領域の座標とを決定してもよい。即ち、ステップS403とステップS404とを合わせて一つのステップとして処理してもよいので、ステップS403の視野範囲を取得する処理は必須ではない。
次に、ステップS405において、表示変更部124がデータ保存部127に保存されている表示領域データ302を用いて、第2の表示領域の表示を変更する。本実施形態では、第1の表示領域に撮像された顔の部分の画像を表示し、第2の表示領域に表示する画像の各画素の輝度値の平均値を所定値以上の輝度値で表示する。第2の表示領域に白色の画像を表示する場合は輝度値が最大になる。第2の表示領域の輝度値はディスプレイから顔までの距離に従って変更してもよい。輝度の決定の仕方には、ディスプレイから顔までの距離に従って線形に変化するように設定してもよい。また、輝度の所定値は、撮像部(カメラ101)の照明用として必要な明るさを維持することができるかで決定してもよい。例えば、撮像部で撮像した画像の明るさから、照明領域で表示する画像の輝度の所定値を決定する。
そして、ステップS406において、データ表示制御部126が第1の表示領域に顔の部分を表示したまま、第2の表示領域に所定値以上の輝度値の画像、例えば白色の画像を表示する。以上ステップS401〜ステップS406の処理が終わったら、引き続きステップS401に戻って同様の処理を繰り返す。また、取得した視野範囲が広く、第1の表示領域のみになった場合は、データ表示部は第1の表示領域だけに画像を表示する。
以上の説明では、第2の表示領域に白色の画像を表示する場合についての説明を行ったが、昼光色、昼白色や電球色といった環境を考慮した色の表示を行ってよい。
本実施形態によれば、ディスプレイと顔までの距離に基づいて照明用の表示領域の位置や大きさを決定することによって、ユーザが電子鏡に顔を近づけても、撮像に必要な明るさを維持することができる。
<実施形態2>
本実施形態の情報処理装置のハードウェア構成は、実施形態1と同じである。
実施形態1では、両目でディスプレイを見ていることを仮定した場合の視野範囲を特定する方法について述べた。本実施形態では、ユーザが顔をディスプレイ(電子鏡)に近づけて、顔を傾けて片目で電子鏡を見て、例えば化粧をする場合を想定する。顔の傾斜測定をし、照明用の表示領域(第2の表示領域)を変更する方法について述べる。
図5は本実施形態のユースケースの模式図である。実施形態1ではステップS403で視野範囲取得部125が取得する視野範囲は、顔面がディスプレイと略並行していると仮定した場合の人の視野特性を考慮してディスプレイと顔との距離に基づいて視野範囲を算出している。本実施形態では、ユーザが顔を傾けて片目で電子鏡を見る場合を想定している。本実施形態では、ディスプレイからユーザの両目までの距離をそれぞれ取得し、そこから両目の間の中心位置を通る直線を求め、その直線がディスプレイ上の端部にあるかを判定することによりユーザが顔を傾けて片目で電子鏡を見るかを判定する。次に、本実施形態の詳細について述べる。
まず、距離取得部122によりディスプレイからユーザの左目、右目のそれぞれまでの距離を取得する。ただし、座標系はディスプレイの中心を原点とする。次に、左目と右目との間の中点位置と、左目の位置と右目の位置を結ぶ線の傾きを算出し、そこからユーザの両目の間(顔の中心)を通る直線を求める。例えば、左目の座標が(−5,20)で右目の座標が(5,30)だった場合、直線はy=−x+25となる。それから、直線がディスプレイ上のどの位置を通るかを求める。ここでは、x=25となる。
これより、顔の中心を通る直線がディスプレイの端部に位置することが分かり、ディスプレイから右目の視野が外れるため、ステップS403において、視野範囲取得部125が取得する視野範囲がユーザの左目の視野範囲に絞られる。その際の視野範囲は次式で計算できる。(視野範囲)=(顔の中心までの距離)×(tan30°)。これにより、視野範囲は横14cm、縦14cmとなる。ディスプレイ上での顔の中心の位置座標が(25cm、25cm)であった場合、視野範囲の四隅の座標は(18cm、18cm)、(18cm、32cm)、(32cm、18cm)、(32cm、32cm)となる。
次に、ステップS404において、表示領域決定部123がユーザの左目の視野範囲に基づいて第1の表示領域の座標と、第2の表示領域の座標とを決定する。
本実施形態では、ユーザの顔の傾きから、ユーザがディスプレイを片目で見ているかどうかを判定することにより視野範囲をより正確に取得することができる。これにより、第1の表示領域と第2の表示領域とをより適切に決定することができる。
<実施形態3>
実施形態1では、取得した視野範囲を第1の表示領域とする方法について述べた。本実施形態では、ディスプレイの閲覧者(ユーザ)の視線位置を特定して、視線位置を含む表示領域を第1の表示領域にする方法について述べる。なお、本実施形態の電子鏡では、ユーザが撮像された自分の顔の部位を注視していると仮定し、ユーザが注視している顔の部位を第1の表示領域とする。顔の部位は、例えば、目、鼻や口などである。
図6はサーバ103で本実施形態を実現するためのモジュールの構成図である。
本実施形態の情報処理装置のハードウェア構成は実施形態1と同様である。モジュールの構成はデータ取得部121、距離取得部122、表示領域決定部123、表示変更部124、データ保存部127、データ表示制御部126は実施形態1と同様である。視線位置特定部601はデータ保存部の画像データから視線の位置を特定して、視線位置座標をデータ保存部に保存する。部位認識部602はデータ保存部にあらかじめ保存されている認識モデルを用いて、閲覧者の顔の部位を認識して、部位の領域の位置座標をデータ保存部に保存する。表示領域決定部123はデータ保存部に保存されている視線の位置座標と顔の各部位の位置座標を用いて、第1の表示領域と第2の表示領域を決定した際の第1の表示領域の位置座標をデータ保存部に保存する。ただし、位置座標はディスプレイの左下を原点とした座標系とし、正の値を取る。
図7はデータの構成図である。距離データ301、表示領域データ302は実施形態1と同様である。視線位置データ701はユーザがディスプレイのどの部分を見ているかの座標を表す。視線位置データは座標1のx座標とy座標で構成され、ディスプレイの左下を原点として二次元の座標系で表し、正の値を取る。部位データ702は顔の部位とその領域の座標を表し、表示領域を決定する際に用いる。本実施形態では顔の各部位の領域は矩形として四隅の座標を保持する。四隅以上のより細かい座標を保持してもよい。部位データは部位ID、四隅のx座標とy座標で構成される。部位IDは顔の部位と座標を紐付けるための識別子である。
上述の動作を、フローチャートに従って説明する。図8はディスプレイの表示を変更する際のフローチャートである。
ステップS401、ステップS402は実施形態1と同様であり、画像データ、距離データ301をデータ保存部127に保存する。次に、ステップS801において、視線位置特定部601がデータ保存部に保存されている画像から視線の位置座標を視線位置データ701としてデータ保存部に保存する。本実施形態では先行文献、特許文献2で用いられている技術を用い画像から視線の位置座標を求める。
次に、ステップS802において、部位認識部602があらかじめデータ保存部に保存してある部位認識用モデルデータと画像データを用いて顔の部位を認識する。認識した顔の部位の表示領域のディスプレイ上の位置座標を特定し、部位データ702としてデータ保存部に保存する。本実施形態では、顔の部位の表示領域は矩形として近似し、矩形の四隅の座標を部位データとして保持する。
次に、ステップS803において、表示領域決定部123がデータ保存部に保存された視線位置データと部位データに基づいて、視線位置を包含する顔の部位表示領域を第1の表示領域に決定する。そして、第1の表示領域と第2の表示領域との座標を表示領域データ302としてデータ保存部に保存する。本実施形態では、部位データの包含関係を調べて第1の表示領域を決定し、第1の表示領域以外の領域を第2の表示領域とする。例えば、視線の位置座標が(25cm,25cm)であった場合、部位IDが0002の部位の領域の座標(19cm、19cm)、(19cm、31cm)、(31cm、19cm)、(31cm、31cm)が視線位置座標を包含する。この領域を第1の表示領域に定め、第2の表示領域は第1の表示領域を除いた領域とする。
次のステップS406、ステップS407は実施形態1と同様であり、表示領域データ302を用いて第1の表示領域と第2の表示領域の表示を変更し、表示を行う。ステップS407の処理が終わったら、引き続きステップS401に戻って同様の処理を繰り返す。
以上の説明では、ユーザの注視している顔の部位の領域を第1の表示領域としたが、あらかじめ矩形領域の大きさを定めておき、第1の表示領域に視線位置を中心とした矩形領域を用いてもよい。矩形領域の大きさには実施形態1で示した、視野範囲の面積などを用いてよい。
本実施形態では、視線位置に基づいて第1の表示領域を特定することにより、視線が移動して視野範囲が変化した場合でも第1の表示領域の適切な位置を定めることができ、ユーザが注目している箇所をより適切な明るさで表示することができる。
<実施形態4>
本実施形態の情報処理装置のハードウェア構成は、実施形態1と同じであるが、本実施形態の情報処理装置は、電子鏡ではなく、デジタルサイネージである。従って、本実施形態の情報処理装置の表示部は、電子鏡の表示部よりもサイズが大きい場合が多い。
実施形態1では、電子鏡を例にとって人が近づいた場合にディスプレイの一部の表示領域をカメラの照明領域として明るくする表示方法について述べた。本実施形態では、デジタルサイネージに人が近づいた場合に、距離に反比例して表示領域の一部の輝度を下げる表示方法について述べる。
図9は本実施形態のユースケースの模式図である。システム構成、ハードウェア構成およびモジュール構成は実施形態1と同様である。ただし、データ表示制御部126はデジタルサイネージにおいて広告を表示することを想定し、広告データはあらかじめデータ保存部に保存されているものとする。
ここでは、説明を簡単にするためにデジタルサイネージに近づいているユーザは1人の場合を仮定する。図9(a)はデジタルサイネージの使用例を表したものである。デジタルサイネージに複数の広告を表示しており、その広告に興味を持った1人がディスプレイに近づくことを想定している。
図9(b)は本実施形態でのデジタルサイネージの物理的な構成を表している。ディスプレイを備え、その上下にカメラを設置している。ディスプレイは広告を表示するのに用いられる。また、カメラで取得される2枚の画像を用いてディスプレイから顔の中心までの距離を三角測量により測定する。ディスプレイの大きさは縦170cm、横100cmのものを想定している。カメラはセンササイズがAPS−Cで焦点距離が14mmの超広角レンズを用いているものとし、ディスプレイとカメラのなす角度が19度になるように設置してある。
図9(c)はデジタルサイネージの一つの表示方法である。ユーザとディスプレイの距離が遠い場合には輝度を高くし、近い場合には輝度を低くする。この場合、近づいた人は眩しさを感じにくくなり見やすくなるが、デジタルサイネージの遠くにいる人は輝度の低下により広告が見にくくなる。
図9(d)はデジタルサイネージの望ましい表示方法である。本実施形態では、ユーザが近づいた場合にそのユーザの視野範囲を特定しその領域の輝度を低くし、周辺の領域の輝度を維持する。これにより、近づいたユーザは眩しさを感じることなく、一方で遠くの人が見にくくなるという問題が解決できる。
上述の動作を、フローチャートに従って説明する。図10はディスプレイの表示を変更する際のフローチャートである。
データの構成は実施形態1と同様である。ステップS402からステップS404までは実施形態1と同様である。距離データ、視野範囲データ、表示領域データをデータ保存部127に保存する。
次に、ステップS1001において、表示変更部がデータ保存部に保存されている表示領域データを用いて、第1の表示領域の表示を変更する。本実施形態では、第1の表示領域で表示される画像の各画素の輝度値を、デジタルサイネージに近づいているユーザとデジタルサイネージとの距離に反比例して小さくする。本実施形態では、第2の表示領域で表示する画像の輝度値は変更しない。輝度の最小値を0、最大値を255とすると第1の表示領域の輝度値は次式で計算する。(輝度値)=min(255,max(0,255/距離)))を用いる。距離の単位はcmである。ステップS407は実施形態1と同様で変更した表示の仕方で表示する。本実施形態では、領域ごとに輝度値を変更した広告を表示する。以上ステップS407の処理が終わったら、引き続きステップS402に戻って同様の処理を繰り返す。
以上の説明では、輝度値の変化の要因に距離を用いたが、デジタルサイネージを閲覧する閲覧者(ユーザ)の年齢や性別、身長、眼鏡をかけているかなどの属性を用いて第1表示領域の輝度の調整を行ってもよい。また以上の説明では、輝度の変更についてのみ言及したが、輝度の変更と同時に、或いは輝度の変更の替わりに文字フォントの大きさ、コントラスト、解像度等を変更してもよい。また、近づいたユーザ向けに視野範囲に広告全体を縮小したものを表示したり、詳細情報を表示したりしてもよい。また、第1の表示領域を視野に基づいて決定してもよい。
本実施形態によれば、デジタルサイネージの広告を見ている人が近づいてきた場合に、視野範囲に基づいて表示領域を決定する。決定された表示領域で表示される画像の各画素の輝度値を、距離に反比例して小さくすることで、近づいた人が眩しさを感じることなく、一方で遠く離れた周囲の人が広告を見づらくなることがない。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
121 データ取得部
122 距離取得部
123 表示領域決定部
124 表示変更部
125 視野範囲特定部
126 データ表示制御部
127 データ保存部

Claims (10)

  1. 撮像手段によって撮像された画像を表示手段に表示させる表示制御手段と、
    ユーザと前記表示手段との距離を取得する距離取得手段と、
    取得された前記距離に基づいて、撮像された前記画像に基づいて表示する前記表示手段の第1の表示領域と、前記撮像手段の照明用として所定値以上の輝度値で表示する前記表示手段の第2の表示領域と、を決定する領域決定手段と、
    前記距離取得手段によって取得された前記距離の変化に応じて、前記第2の表示領域の位置を変更する表示変更手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記表示変更手段は、前記距離取得手段によって取得された前記距離の変化に応じて、前記第2の表示領域の大きさをさらに変更することを特徴とする請求項1に記載の情報処理装置。
  3. 前記領域決定手段は、前記距離取得手段によって取得された前記距離に基づいて、前記第1の表示領域の位置と大きさとを決定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記領域決定手段は、ユーザが色を識別できる視野範囲に基づいて、前記第1の表示領域の位置と大きさとを決定することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記距離取得手段は、前記ユーザの左目から前記表示手段までの距離と前記ユーザの右目から前記表示手段までの距離とを取得し、
    前記領域決定手段は、前記ユーザの左目から前記表示手段までの距離と前記ユーザの右目から前記表示手段までの距離とに基づいて、前記ユーザの顔の傾きを特定し、特定された前記ユーザの顔の傾きに基づいて、前記第1の表示領域と前記第2の表示領域とを決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記画像を表示する前記表示手段における前記ユーザの視線位置を特定する特定手段をさらに備え、前記領域決定手段は、前記特定手段によって特定された前記視線位置に基づいて、前記第1の表示領域と前記第2の表示領域とを決定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記撮像画像に前記ユーザの顔の画像が含まれ、前記顔の画像から顔の部位を認識し、前記顔の部位を表示する部位表示領域を特定する部位認識手段をさらに備え、前記領域決定手段は、前記視線位置を包含する前記部位表示領域に基づいて、前記第1の表示領域を決定することを特徴とする請求項6に記載の情報処理装置。
  8. 前記表示制御手段は、前記第2の表示領域において白色画像を表示させることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 撮像手段によって撮像された画像を表示手段に表示させる表示制御工程と、
    ユーザと前記表示手段との距離を取得する距離取得工程と、
    取得された前記距離に基づいて、撮像された前記画像に基づいて表示する前記表示手段の第1の表示領域と、前記撮像手段の照明用として所定値以上の輝度値で表示する前記表示手段の第2の表示領域と、を決定する領域決定工程と、
    前記距離取得工程によって取得された前記距離の変化に応じて、前記第2の表示領域の位置を変更する表示変更工程と、
    を備えることを特徴とする情報処理方法。
  10. 撮像手段によって撮像された画像を表示手段に表示させる表示制御ステップと、
    ユーザと前記表示手段との距離を取得する距離取得ステップと、
    取得された前記距離に基づいて、撮像された前記画像に基づいて表示する前記表示手段の第1の表示領域と、前記撮像手段の照明用として所定値以上の輝度値で表示する前記表示手段の第2の表示領域と、を決定する領域決定ステップと、
    前記距離取得工程によって取得された前記距離の変化に応じて、前記第2の表示領域の位置を変更する表示変更ステップと、
    をコンピュータに実行させることを特徴とするプログラム。
JP2016057523A 2016-03-22 2016-03-22 情報処理装置、情報処理方法及びプログラム Pending JP2017173455A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016057523A JP2017173455A (ja) 2016-03-22 2016-03-22 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016057523A JP2017173455A (ja) 2016-03-22 2016-03-22 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017173455A true JP2017173455A (ja) 2017-09-28

Family

ID=59971030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016057523A Pending JP2017173455A (ja) 2016-03-22 2016-03-22 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2017173455A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019092906A1 (ja) * 2017-11-10 2019-05-16 株式会社ニコン 電子ミラー
JP2020160951A (ja) * 2019-03-27 2020-10-01 富士通株式会社 画像処理プログラム、画像処理装置及び画像処理方法
JP2022501687A (ja) * 2019-07-30 2022-01-06 深▲セン▼市商湯科技有限公司Shenzhen Sensetime Technology Co., Ltd. 顔認識方法及び装置、電子機器並びに記憶媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019092906A1 (ja) * 2017-11-10 2019-05-16 株式会社ニコン 電子ミラー
JP2020160951A (ja) * 2019-03-27 2020-10-01 富士通株式会社 画像処理プログラム、画像処理装置及び画像処理方法
JP7346869B2 (ja) 2019-03-27 2023-09-20 富士通株式会社 画像処理プログラム、画像処理装置及び画像処理方法
JP2022501687A (ja) * 2019-07-30 2022-01-06 深▲セン▼市商湯科技有限公司Shenzhen Sensetime Technology Co., Ltd. 顔認識方法及び装置、電子機器並びに記憶媒体

Similar Documents

Publication Publication Date Title
KR102098277B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US10805543B2 (en) Display method, system and computer-readable recording medium thereof
US20160078680A1 (en) Technologies for adjusting a perspective of a captured image for display
US10379610B2 (en) Information processing device and information processing method
JPWO2011158511A1 (ja) 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路
TW202009786A (zh) 可由頭部操控的電子裝置與其操作方法
CN110706283B (zh) 用于视线追踪的标定方法、装置、移动终端及存储介质
KR102159767B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US11284020B2 (en) Apparatus and method for displaying graphic elements according to object
WO2018076172A1 (zh) 一种图像显示方法及终端
CN115004685A (zh) 电子装置和用于在电子装置处显示图像的方法
JP2017173455A (ja) 情報処理装置、情報処理方法及びプログラム
US11682183B2 (en) Augmented reality system and anchor display method thereof
KR20200144196A (ko) 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
TWI603225B (zh) 液晶顯示器顯示視角的調整方法和裝置
US9536133B2 (en) Display apparatus and control method for adjusting the eyes of a photographed user
JP6977823B2 (ja) 情報処理装置、制御方法、及びプログラム
JP7400721B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5958082B2 (ja) 画像処理装置、画像処理方法
CN110858095A (zh) 可由头部操控的电子装置与其操作方法
KR20200111144A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
KR101720607B1 (ko) 영상 촬영 장치 및 그 동작 방법
KR102473669B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
CN113405674B (zh) 体温测量方法及摄像设备
WO2021254107A1 (zh) 电子装置以及在显示设备上显示图像的方法