JP2017073660A - 電子機器、その制御方法、および制御プログラム - Google Patents

電子機器、その制御方法、および制御プログラム Download PDF

Info

Publication number
JP2017073660A
JP2017073660A JP2015199335A JP2015199335A JP2017073660A JP 2017073660 A JP2017073660 A JP 2017073660A JP 2015199335 A JP2015199335 A JP 2015199335A JP 2015199335 A JP2015199335 A JP 2015199335A JP 2017073660 A JP2017073660 A JP 2017073660A
Authority
JP
Japan
Prior art keywords
state
display
electronic device
face
display panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015199335A
Other languages
English (en)
Inventor
宮脇 誠
Makoto Miyawaki
宮脇  誠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015199335A priority Critical patent/JP2017073660A/ja
Publication of JP2017073660A publication Critical patent/JP2017073660A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】携帯端末などの電子機器で会話中に無意識に視線を外した場合などにおいても利用者に違和感を与えることがないようにする。【解決手段】電子機器は、少なくとも顔画像が表示される表示パネル2と表示パネルに備えられたカメラ11とを有するとともに、フレーム20内に配置された表示LEDを有している。電子機器は顔画像において顔の向きおよび眼球の方向を検出して、顔の向きおよび眼球の方向に基づいて視線の状態を判定し、当該判定結果が示す視線の状態に応じて表示LEDを点灯制御する。【選択図】図1

Description

本発明は、電子機器、その制御方法、および制御プログラムに関し、特に、表示装置および撮像装置を備える電子機器に関する。
近年、携帯端末などの電子機器においてはリアルタイムで双方向通信が行われるが、例えば、テレビ電話によって通信を行うためには、携帯端末は撮像装置および表示装置(表示部)を備える必要がある。
テレビ電話においては、携帯端末の表示部に表示された相手の顔を目視して会話を行うが、この際、撮像装置によって携帯端末の利用者が撮像されて、画像が相手側に送られる。ところが、従来の携帯端末などにおいては、撮像装置は表示部の周辺に配置されているため、表示部を目視する利用者の顔などは斜め方向から撮像されることになる。この結果、表示部に表示された相手側の画像(顔)は、その視線が表示部の画面中心方向ではなく、別の方向を向いていることになる。このような画像を目視しつつ会話を行って何となくもぎこちなく、面と向かって会話をする場合に比べて違和感がある。
このような違和感を低減するため、例えば、表示部の背面側に撮像装置を配置して、表示部に備えられた遮光部材に開口部を形成して、開口部を介して撮像装置に光学像を導くようにした電子機器がある(特許文献1参照)。
特許文献1に記載の電子機器では、表示部を目視する利用者は正面から撮像されることになる。この結果、表示部を目視する利用者は相手と視線を合わせて会話を行うことができる。その結果、会話を行う者同士が互いに視線を合わせて会話を行うことになって会話が弾むことになる。
ところで、会話を行う者同士が、現在視線が合った状態で対話を行っていると認識するのは、相手側の画像において目の動きなどを確認したときと考えられる。ところが、携帯端末などにおいては、表示パネルの制約などから、表示パネルに表示される画像は比較的小さい。この結果、相手側の目も小さく表示され、相手が視線をこちらに向けていることが分かりづらいことがある。
一方、集合写真撮影の際に、視線が撮像装置に向いていないことを検出して警告表示を行うようにした撮像装置がある(特許文献2参照)。ここでは、被写体の目、鼻、および口を検出して、当該検出結果に基づいて顔の向きを判定する。そして、顔の向きに応じて視線が撮像装置に向いていないと判定すると、警告表示を行う。
特開2005−176151号公報 特開2007−265367号公報
しかしながら、テレビ電話などのように継続的に会話が行われている場合に、視線が撮像装置に向いているか否かを判定して、その判定結果を表示部に表示するようにするとする。この場合、会話中に無意識に視線を外した場合などにおいても表示部に警告表示が行われることになって、利用者に違和感を与えてしまうことになる。
そこで、本発明の目的は、会話中に無意識に視線を外した場合などにおいても利用者に違和感を与えることのない電子機器、その制御方法、および制御プログラムを提供することにある。
上記の目的を達成するため、本発明による電子機器は、少なくとも顔画像が表示される表示パネルと前記表示パネルに備えられた撮像装置とを有する電子機器であって、前記表示パネルに設けられ、前記顔画像における視線の状態に応じて点灯制御される表示部と、前記顔画像において顔の向きおよび眼球の方向を検出して、前記顔の向きおよび前記眼球の方向に基づいて前記視線の状態を判定する判定手段と、前記判定手段による判定結果に応じて、前記表示部を点灯制御する制御手段と、を有することを特徴とする。
本発明による制御方法は、少なくとも顔画像が表示される表示パネルと前記表示パネルに備えられた撮像装置と、前記表示パネルに設けられた表示部とを有する電子機器の制御方法であって、前記顔画像において顔の向きおよび眼球の方向を検出して、前記顔の向きおよび前記眼球の方向に基づいて前記顔画像における視線の状態を判定する判定ステップと、前記判定ステップによる判定結果に応じて、前記表示部を点灯制御する制御ステップと、を有することを特徴とする。
本発明による制御プログラムは、少なくとも顔画像が表示される表示パネルと前記表示パネルに備えられた撮像装置と、前記表示パネルに設けられた表示部とを有する電子機器で用いられる制御プログラムであって、前記電子機器に備えられたコンピュータに、前記顔画像において顔の向きおよび眼球の方向を検出して、前記顔の向きおよび前記眼球の方向に基づいて前記顔画像における視線の状態を判定する判定ステップと、前記判定ステップによる判定結果に応じて、前記表示部を点灯制御する制御ステップと、を実行させることを特徴とする。
本発明によれば、視線の状態に応じて表示部を点灯制御するようにしたので、会話中に無意識に視線を外した場合などにおいても利用者に違和感を与えることがない。
本発明による電子機器の一例を説明するための図であり、(a)は電子機器を正面から見た図、(b)は電子機器を利用者とともに上方から見た図である。 図1に示す携帯端末の構成についてその一例を示すブロック図である。 図1に示す携帯端末の利用者の顔を表示パネル側から見た図であり、(a)〜(d)は利用者の顔の向きと眼球の方向を示す図である。 図1に示す携帯端末に二人の利用者がそれぞれ顔を向けている状態を上方から見た図であり、(a)〜(d)は二人の利用者の顔の向きと眼球の方向を示す図である。 図3(a)〜図3(d)に示す顔の向きおよび眼球の方向に応じた表示LEDの点灯制御の分類を示す図である。 二人の利用者の示す顔の向きおよび眼球の方向に応じた表示LEDの点灯制御の分類を示す図である。 図1および図2に示す携帯端末を用いて通信を行う際の処理を説明するためのフローチャートである(その1)。 図1および図2に示す携帯端末を用いて通信を行う際の処理を説明するためのフローチャートである(その2)。 図7に示す第1の判定処理を説明するためのフローチャートである。
以下に、本発明の実施の形態による電子機器の一例について図面を参照して説明する。
図1は、本発明による電子機器の一例を説明するための図である。そして、図1(a)は電子機器を正面から見た図であり、図1(b)は電子機器を利用者とともに上方から見た図である。
ここでは、電子機器の1つである携帯端末を例に挙げて説明する。図示の携帯端末はテレビ電話によって相手側と双方向で通信を行うことが可能であり、利用者αと利用者βとは互いに離れた場所にいて、携帯端末を使用しているものとする。
携帯端末1は表示パネル2を備えており、表示パネル2には利用者αの画像が表示されている。ここでは、利用者αおよびβは携帯端末を把持して会話を行っており、図1(a)に示すように、利用者αの顔の中心は表示パネル2の水平方向(図中x方向)の中心と一致している。
表示パネル2は、例えば、有機ELパネルなどの光を透過可能なパネルであり、表示パネル2の背面側(図中+z方向)には、表示パネル2を目視する利用者を撮影するための撮像装置(例えば、デジタルカメラ)カメラ11が配置されている。
図2は、図1に示す携帯端末の構成についてその一例を示すブロック図である。
図1および図2を参照して、デジタルカメラ(以下単にカメラと呼ぶ)11は、撮影レンズ(図示せず)、撮像素子10、および撮像素子駆動回路51を有している。カメラ11は、表示パネル2の水平方向(図中x方向)の中心で、かつ垂直方向(図中y方向)には画面中央よりも上方(図中+y方向)に位置づけられ、表示パネル2を介して利用者を撮影する。
撮影レンズを介して利用者像(光学像)が撮像素子10に結像する。そして、撮像素子駆動回路51は、システム制御回路50の制御下で撮像素子10を駆動する。これによって、撮像素子10は光学像に応じたアナログ信号を出力して、当該アナログ信号をA/D変換して画像データとして撮像素子駆動回路51に出力する。撮像素子駆動回路51は当該画像データをシステム制御回路50に送る。
表示パネル2の周囲には、利用者に面する部分が半透過性の材料からなるフレーム20が配設されている。フレーム20にはマイク21が配置されるとともに、一対のスピーカー31および32が配置されている。フレーム20内には、表示LED35が埋め込まれており、表示LED処理回路55は、システム制御回路50の制御下で表示LED35を駆動する。
表示LED35は表示パネル2の外周、つまり、フレーム20の全周に亘って配置されており、これによって、表示LED35が駆動された際には、表示パネル2に表示された画像(顔画像)の周囲が点灯する。このため、会話中に表示LED35が点灯した場合には、利用者はフレーム2に視線を移すことなく、表示パネル2に表示された顔画像を目視した状態で、表示LED35の点灯を確認することができる。
なお、後述するように、システム制御回路50は利用者の視線の状態に応じて、表示LED35の点灯制御を行う。そして、表示LED35は、例えば、緑色又は青色に点灯する。視線状態とは会話中に利用者双方の視線が合っている状態、一方の利用者が視線を逸らしている状態、又は利用者の双方が視線を逸らしている状態をいう。
マイク21で集音された音声は、音声信号として音声処理回路53に送られる。音声処理回路53は、システム制御回路50の制御下で、音声信号に対して所定の処理を行って、音声データとしてシステム制御回路50に送る。システム制御回路50は、撮像素子10で得られた画像データおよび音声データを送受信回路56によって相手側の携帯端末に送る。
なお、演算回路57は、システム制御回路50の制御下で、前述の視線状態がいずれの状態であるかを演算処理する。また、システム制御回路50は、後述するようにして画像データを記憶回路58に記録する。
送受信回路56はネットワークなどを介して相手側の携帯端末と接続される。送受信回路56を介して相手側の携帯端末から画像データおよび音声データを受信すると、システム制御回路50は表示処理回路52によって画像データに応じた画像を表示パネル2に表示する。また、システム制御回路50は、スピーカ駆動回路54によってスピーカー31および32を駆動して音声データに応じた音声をスピーカー31および32から出力する。
図1(a)に示すように、携帯端末の側面には、操作SW40が配置されており、利用者は操作SW40を用いて、システム制御回路50に各種指令を入力する。また、システム制御回路50には、タイマー回路36が接続され、システム制御回路50はタイマー回路36によって計時を行う。
図3は、図1に示す携帯端末の利用者の顔を表示パネル側から見た図である。そして、図3(a)〜図3(d)は利用者の顔の向きと眼球の方向を示す図である。なお、ここでは、顔および眼球において上下方向の動きについては考慮しない。
利用者の視線状態を判定する際には、2つの身体的情報が用いられる。ここでは、第1の身体的情報は利用者の顔の向きを示し、第2の身体的情報は眼球の向きを示す。また、視線状態については、例えば、2種類ある。第1の視線状態は利用者の一方がカメラ11(つまり、ここでは撮影レンズ)の光軸に視線を合致させている状態である。この際には、後述するように、システム制御回路50は視線状態を表示するため表示LED35を第1の表示状態に制御する。この第1の表示状態では、システム制御回路50は、例えば、LED35を緑(第1の色)に点灯する。第2の視線状態は会話中の双方がカメラ11の光軸に視線を合致させた結果、双方の視線が合致している状態である。この際には、システム制御回路50は表示LED35を第2の表示状態に制御する。この第2の表示状態では、システム制御回路50は、例えば、LED35を青色(第2の色)に点灯する。
図3においては、眼球の向きと顔の向きとの組合せとして、その代表的なパターンが4通り示されている。なお、これ以外の組合せもあるが、視線状態の判定結果が同一となる組合せは省略されている。
図3(a)において、両眼の黒目の面積と右眼の白目の面積との和をパラメータSWrとし、両眼の黒目の面積と左眼の白目の面積との和をパラメータSwlとする。また、図3(c)において、顔領域の中心線と左右の眼球の中心線とのX方向における位置の差をパラメータΔXeとする。
図3(a)は、利用者αがカメラ11の正面を向いている状態を示しており、この状態では、利用者αは意識的に視線を合致させている状態であるとする。図3(b)は、利用者αが顔をカメラ11の正面を向けて、眼球を右方向に向けている状態を示している。この状態では、利用者αは意識的に何かを注視しようとしたのではなく、無意識に一瞬眼をそらした状態であるとする。
図3(c)は、利用者αが顔を右に向けつつ、眼球を左方向に向けた状態を示している。つまり、利用者αは顔の向きと反対側に眼球を向けており、結果的に利用者αはカメラ11の正面を向いていることになる。この状態では、利用者αは首を振って否定の意思を示す場合などがあるが、ここでは、利用者αは意識的に顔の向きを変えることは少なく、無意識的な動作であるとする。図3(d)は、利用者αが顔を右に向けるとともに、眼球を右に向いている。この状態では、利用者αは意識的に視線を合わせていない状態であるとする。
図3(b)および図3(c)に示す状態は、利用者αはカメラ11の方向、つまり、会話中の相手の方向に向いているが、何らかの理由で一時的に正面を向いていない状態である。そして、顔の向き又は眼球の向きのみでは視線が合致していないとなるが、ここでは、図3(a)に示す状態と同様の視線状態とし、システム制御回路50は視線状態表示として表示LED35を緑色に点灯する。
このように、演算回路57は、カメラ11で得られた画像データに基づいて、図3(a)〜図3(d)の状態のいずれかであるか求める。つまり、演算回路57は、画像データに基づいて顔の向きを示す第1の身体的情報と眼球の方向を示す第2の身体的情報を求める。そして、システム制御回路50は第1の身体的情報および第2の身体的情報に基づいて利用者の視線状態を判定する。システム制御回路50は当該判定結果に応じて表示LED処理回路55によって表示LED35を駆動制御する。
なお、前述のように、視線が外れていた場合であっても、意識的に視線を外したか又は無意識に視線を外したのかを判定して、システム制御回路50は当該判定結果に応じて視線状態表示を示すべく表示LED35を点灯する。
この結果、利用者αが無意識に視線を外した場合には、システム制御回路50は非合致表示を行わず、利用者αに違和感を与えることがない。
図4は、図1に示す携帯端末に二人の利用者がそれぞれ顔を向けている状態を情報から見た図である。そして、図4(a)〜図4(d)は二人の利用者の顔の向きと眼球の方向を示す図である。
図4(a)では、利用者αおよびβはそれぞれカメラ11の正面を向き、かつ眼球は表示パネル2に表示された画像の両眼付近に向いている。図4(a)に示す状態は、通常の会話状態であり、ここでは、利用者αおよびβは意識的に視線を合わせている状態である。従って、システム制御回路50は、望ましい視線状態であるとして表示LED35を青色に点灯する。
図4(b)では、利用者αおよびβはそれぞれカメラ11の正面を向いているが、利用者αは顔を正面に向けた状態で視線のみを逸らして、表示パネル2に表示された画像の両眼付近を見ていない状態である。図4(b)に示す状態では、利用者αは意識的に何かを注視しようとしたのではなく、無意識的に一瞬眼をそらした状態であるとする。つまり、図4(b)に示す状態においては、利用者αは短時間で図4(a)に示す状態又は他の状態に移行する。よって、システム制御回路50は、図4(b)に示す状態では視線状態表示として表示LED35を緑色に点灯した状態とする。
図4(c)においては、利用者αがカメラ11の正面を向いていないが、その視線は表示パネル2に表示された画像の両眼付近を向いている。この状態では、利用者αは首を振って否定の意思を示している場合などもあるが、利用者αは意識的に顔の向きだけを変えることは少なく、無意識的な動作であるとする。つまり、図4(c)に示す状態においては、利用者αは短時間で図4(a)に示す状態又は他の状態に移行する。よって、システム制御回路50は、図4(b)に示す状態では視線状態表示として表示LED35を緑色に点灯した状態とする。
図4(d)においては、利用者αおよびβともにカメラ11の正面を向いておらず、かつ、視線が表示パネル2に表示された画像の両眼付近を向いていない。この場合には、システム制御回路50は意識的に視線を合わせていない状態であるとして、視線状態表示を示す表示LED35を消灯する。
図5は、図3(a)〜図3(d)に示す顔の向きおよび眼球の方向に応じた表示LEDの点灯制御の分類を示す図である。なお、図5においては、図3(a)〜図3(d)に示す状態がそれぞれパターンA〜Dとされている。
図5に示す例では、システム制御回路50は利用者αについてパターンA〜Dの動作を、パラメータΔXeとパラメータSwlおよびSwrとを用いて分類し、視線方向を判定した後、当該判定結果に応じて表示LED35を点灯/消灯制御する。
なお、図5において、ECは視線方向パラメータを示し、パターンA〜Cにおいては、EC=1とし、パターンDにおいては、EC=0とする。そして、EC=1の際には、システム制御回路50は表示LED35を緑色に点灯する。また、EC=0の際には、システム制御回路50は表示LED35を消灯する。
図6は、2人の利用者の顔の向きおよび眼球の方向に応じた表示LEDの点灯制御の分類を示す図である。なお、図6においては、符号Lは、利用者αおよびβのECの和であり、図6は、後述する表示LED35の点灯制御の際に用いられる。
システム制御回路50は利用者αおよびβの各々について、前述のようにして視線方向を判定した後、当該判定結果に応じて表示LED35を点灯/消灯制御する。
このように、システム制御回路50は複数の利用者に対してそれぞれ視線方向の判定を行って、その判定結果に基づいて双方の視線状態を決定する。よって、相手側が無意識に視線を外した場合においても、システム制御回路50は非合致表示を行うことがなく、利用者に違和感を与えることがない。つまり、ここでは、システム制御回路50は、L=0である場合にのみ表示LED35を消灯することになる。
図7および図8は、図1および図2に示す携帯端末を用いて通信を行う際の処理を説明するためのフローチャートである。なお、図示のフローチャートに係る処理はシステム制御回路50の制御下で行われる。また、ここでは、利用者βが用いる携帯端末1を中心として説明するが、利用者α(相手側)が用いる携帯端末1においても同様にして処理が行われる。
いま、テレビ電話システムの利用者βが携帯端末1の操作スイッチ40を操作すると、通信処理が開始されテレビ電話システムが起動する。そして、システム制御回路50は送受信回路56によって相手側の携帯端末1との通信状態を設定する(ステップS101)。相手側の携帯端末1との通信状態が設定されると、システム制御回路50は相手側の携帯端末1におけるシステム情報を確認する(ステップS102)。ステップS102の処理では、システム制御回路50は相手側の携帯端末1に備えられたカメラ11の焦点距離および相手側の携帯端末1から送信される信号形態などをシステム情報として確認する。なお、信号形態とは、例えば、画像データのフレーム周期である。
続いて、システム制御回路50は利用者βに係る利用者情報を初期設定する(ステップS103)。なお、利用者情報とは、例えば、利用者の目の位置を示す位置情報などであり、予めカメラ11で利用者βの顔を撮影して得られた画像における目の位置を示す情報である。そして、この位置情報は記憶回路58に記憶される。
次に、システム制御回路50はカメラ11によって利用者βを撮影して画像データを得る(ステップS104)。この際、システム制御回路50は音声処理回路53によってマイク21で集音された音声を相手側の携帯端末1に送信可能な所定の信号形態に処理する。
続いて、システム制御回路50は送受信回路56によって画像信号(画像データ)、音声処理回路53で処理された音声信号(音声データ)、および記憶回路58に記録された利用者情報を相手側の携帯端末1に送信する(ステップS105)。画像信号および音声信号はリアルタイムで相手側の携帯端末1に順次送信される。
なお、利用者αが用いる携帯端末1からも同様にして画像信号、音声信号、および利用者情報が利用者βが用いる携帯端末1に送信される。
システム制御回路50は、送受信回路56を介して相手側の携帯端末1から送信された画像信号、音声信号、および利用者情報を受信する(ステップS106)。そして、システム制御回路50は、これら画像信号、音声信号、および利用者情報を記憶回路58に記憶する。
以下の説明では、利用者βが用いる携帯端末1で得られた画像信号、音声信号、および利用者情報をそれぞれ第1の画像信号、第1の音声信号、および第1の利用者情報と呼ぶ。同様に、利用者αが用いる携帯端末1で得られた画像信号、音声信号、および利用者情報をそれぞれ第2の画像信号、第2の音声信号、および第2の利用者情報と呼ぶ。
続いて、システム制御回路50は、後述するようにして、相手側(利用者α)の視線方向を判定する(ステップS107:第1の判定処理)。そして、システム制御回路50は表示LED35の表示に用いるパラメータL(図6参照)を設定して、L=ECとする(ステップS108)。
続いて、システム制御回路50は、パラメータL=1であるか否かを判定する(ステップS109)。パラメータL=1であると(ステップS109において、YES)、システム制御回路50は、相手側である利用者αが意識的に視線を合わせている状態(図5に示すパターンA、B、又はC)であるとして、表示LED35を緑色に点灯する(ステップS110)。一方、パラメータL=1でないと(ステップS109において、NO)、システム制御回路50は、利用者αが意識的に視線を合わせない視線非合致状態(図5に示すパターンD)であるとして、表示LED35を消灯する(ステップS111)。
ステップS110又はS111の処理の後、システム制御回路50は表示処理回路52によって第2の画像データに応じた画像(第2の画像データ:利用者αの画像)を表示パネル2に表示する(ステップS112)。その後、システム制御回路50はカメラ11によって利用者βを再度撮影して第1の画像データを得る(ステップS113)。そして、システム制御回路50は第1の画像データに基づいて利用者βの視線方向を判定する(ステップS114:第2の判定処理)。
続いて、システム制御回路50はパラメータLを、L=L+ECとする(ステップS115)。そして、システム制御回路50はL=2であるか否かを判定する(ステップS116)。パラメータL=2であると(ステップS115において、YES)、システム制御回路50は、利用者βが意識的に視線を合わせている状態(図5に示すパターンA、B、又はC)であるとして、表示LED35を青色に点灯する(ステップS117)。これによって、システム制御回路50は利用者βに対して良好な視線状態であることを報知する。
一方、パラメータL=2でないと(ステップS115において、NO)、システム制御回路50は、パラメータL=1であるか否かを判定する(ステップS118)。パラメータL=1であると(ステップS118において、YES)、システム制御回路50は、利用者αおよびβのいずれか一方が視線を合わせようとしている状態であるとして、表示LED35を緑色に点灯する(ステップS119)。
パラメータL=1でないと(ステップS118において、NO)、システム制御回路50は利用者αおよびβの双方が画像の方向を見ていない視線非合致状態であるとして、表示LED35を消灯する(ステップS120)。上述の処理は、利用者αおよびβの視線方向のパラメータECに基づいて表示LED35の点灯制御を行う処理であり、図6に示すように表示LED35が点灯又は消灯される。
ステップS117、S119、又はS120の処理の後、システム制御回路50は操作SW40の状態(ここではオフとされたか)を確認して、通信が終了したか否かを判定する(ステップS121)。通信が終了していないと(ステップS121において、NO)、システム制御回路50はステップS104の処理に戻る。
一方、通信が終了すると(ステップS121において、YES)、システム制御回路50は相手側の携帯端末1との送受信を終了する(ステップS122)。そして、システム制御回路50はカメラ11による利用者βの撮影を終了するとともに、表示パネル2への画像表示を終了する。その後、システム制御回路50は通信処理を終了する。
図9は、図7に示す第1の判定処理を説明するためのフローチャートである。
第1の判定処理では、利用者αに係る第1の身体的情報である顔の向きと、第2の身体的情報である眼球の方向とに基づいて利用者αの視線の方向を決定する。携帯端末1においては、顔画像は表示パネル2のほぼ中心にあるので、顔領域の中心位置はカメラ11の撮影光軸に概略一致している。
第1の判定処理を開始すると、システム制御回路50の制御下で、演算回路57は、第2の画像データに応じて利用者αの顔を認識して認識結果を得る(ステップS201)。ここでは、演算回路57は、第2の画像データにおいて顔領域と左右の眼球および眼球の白目を認識する。
続いて、演算回路57は、認識結果に基づいて顔の中心のX方向位置と左右の眼球の中心のX方向位置を求めるとともに、黒目の左右に位置する白目の面積を求める(ステップS202)。ここでは、演算回路57は顔の中心のX方向位置と左右の眼球の中心のX方向位置との差をΔXeとし、両眼の黒目の右側に位置する白目の面積の和をSwr、そして、両眼の黒目の左側に位置する白目の面積の和をSwlとする。
続いて、演算回路57は利用者αの視線方向を判定する(ステップS203)。ここでは、演算回路57は、前述の差ΔXeを参照して、差ΔXe=0であると、利用者αの顔の向きはカメラ11に対して正面向きであるとする。また、差ΔXe>0であると、演算回路57は、利用者αの顔の向きはカメラ11に対してX方向+側であるとする。そして、差ΔXe<0であると、演算回路57は、利用者αの顔の向きはカメラ11に対してX方向−側であるとする。
さらに、演算回路57は、前述の和Swrおよび和Swlを参照して、Swl−Swr=0であると、眼球が正面を向いているとする。また、Swl−Swr>0であると、演算回路57は、眼球がX方向+側を向いているとする。そして、Swl−Swr<0であると、演算回路57は、眼球がX方向−側を向いているとする。
図3および図5で説明したように、差ΔXe=0で、かつ差(Swl−Swr)=0であると、演算回路57は利用者αの視線方向がパターンAであるとする。また、差ΔXe=0で、かつ差(Swl−Swr)≠0であると、演算回路57は利用者αの視線方向がパターンBであるとする。さらに、ΔXe×(Swl−Swr)<0であると、演算回路57は、利用者αの視線方向がパターンCであるとし、ΔXe×(Swl−Swr)>0であると、利用者αの視線方向がパターンDであるとする。
次に、演算回路57は、視線方向パラメータECを設定する。ここでは、演算回路57は、パターンA、B、およびCのいずれかの場合には、利用者αが無意識的に視線を逸らすことはあっても、全体として意識的に利用者βに視線を合わせようとしているとする。そして、演算回路57は視線方向パラメータEC=1とする。一方、パターンDの場合には、演算回路57は視線方向パラメータEC=0とする。
システム制御回路50は、上述のようにして得られた視線方向パラメータECを、利用者αに係る利用者情報として記憶回路58に記憶する(ステップS204)。その後、システム制御回路50は、図7に示すステップS108の処理に進む。
なお、画像において利用者(人物)の顔を認識する手法として、例えば、特開2000−48184号公報に記載の手法がある。
図8に示す第2の判定処理では、利用者βについて視線方向判定が行われる。第2の判定処理においては、利用者βについて図9で説明したステップS201〜S204の処理と同様の処理が行われることになる。
このように、本発明の実施の形態では、利用者の顔の向きと眼球の方向とに基づいて、利用者が無意識的に視線を逸らすことがあっても、全体として全体として意識的に利用者βに視線を合わせようとしているか否かを判定する。そして、当該判定結果に応じて表示LED35を点灯制御する。この結果、会話中に無意識に視線を逸らした場合などにおいても利用者に違和感を与えることがない。
なお、上述の実施の形態では、視線の状態に応じて、LED35を第1の表示状態、第2の表示状態、および消灯のいずれかとする例について説明し、第1の表示状態ではLED35を第1の色で点灯し、第2の表示状態ではLED35を第2の色で点灯するようにした。一方、第1の表示状態ではLED35を点灯し、第2の表示状態ではLED35を点滅させるようにしてもよい。
上述の説明から明らかなように、図2に示す例では、システム制御回路50および演算回路57が制御手段として機能し、システム制御回路50が判定手段として機能する。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を制御方法として、この制御方法を電子機器に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを電子機器が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
2 表示パネル
10 撮像素子
40 操作SW
50 システム制御回路
51 撮像素子駆動回路
52 表示処理回路
53 音声処理回路
56 送受信回路
57 演算回路
58 記憶回路

Claims (19)

  1. 少なくとも顔画像が表示される表示パネルと前記表示パネルに備えられた撮像装置とを有する電子機器であって、
    前記表示パネルに設けられ、前記顔画像における視線の状態に応じて点灯制御される表示部と、
    前記顔画像において顔の向きおよび眼球の方向を検出して、前記顔の向きおよび前記眼球の方向に基づいて前記視線の状態を判定する判定手段と、
    前記判定手段による判定結果に応じて、前記表示部を点灯制御する制御手段と、
    を有することを特徴とする電子機器。
  2. 前記制御手段は、前記判定手段によって前記顔の向きが前記表示パネルに対して正面を向き、かつ前記眼球が前記表示パネルに対して中央に向いている状態であると判定されると、前記表示部を所定の第1の表示状態に制御することを特徴とする請求項1に記載の電子機器。
  3. 前記制御手段は、前記判定手段によって前記顔の向きが前記表示パネルに対して正面を向き、かつ前記眼球が前記表示パネルから逸れている状態であると判定されると、前記表示部を前記第1の表示状態に制御することを特徴とする請求項2に記載の電子機器。
  4. 前記制御手段は、前記判定手段によって前記顔の向きが前記表示パネルに対して正面を除く第1の方向で、かつ前記眼球の方向が前記表示パネルに対して前記第1の方向と反対側の方向である状態であると判定されると、前記表示部を前記第1の表示状態に制御することを特徴とする請求項2又は3に記載の電子機器。
  5. 前記制御手段は、前記判定手段によって前記顔の向きと前記眼球の方向とが互いに異なる方向である状態であると判定されると、前記表示部を消灯することを特徴とする請求項2乃至4のいずれか1項に記載の電子機器。
  6. 前記電子機器は、前記撮像装置で得られた前記顔画像を相手側の電子機器に送って会話を行っており、
    前記電子機器は、前記相手側の電子機器から送られた顔画像を第1の顔画像として、前記判定手段によって前記第1の顔画像について前記視線の状態の判定を行うことを特徴とする請求項1に記載の電子機器。
  7. 前記電子機器は、前記撮像装置で得られた顔画像を第2の顔画像として、前記判定手段によって前記第2の顔画像について前記視線の状態の判定を行うことを特徴とする請求項6に記載の電子機器。
  8. 前記判定手段によって前記第1の画像における前記視線の状態および前記第2の画像における視線の状態のいずれか一方が所定の状態であると判定されると、前記制御手段は、前記表示部を所定の第1の表示状態に制御することを特徴とする請求項7に記載の電子機器。
  9. 前記判定手段によって前記第1の画像における前記視線の状態と前記第2の画像における視線の状態が一致していると判定されると、前記制御手段は、前記表示部を前記第1の表示状態と異なる第2の表示状態に制御することを特徴とする請求項8に記載の電子機器。
  10. 前記所定の状態は、前記顔の向きが前記表示パネルに対して正面を向きかつ前記眼球が前記表示パネルから逸れているか、又は前記顔の向きが前記表示パネルに対して正面を除く第1の方向で、かつ前記眼球の方向が前記表示パネルに対して前記第1の方向と反対側の方向である状態であることを特徴とする請求項8又は9に記載の電子機器。
  11. 前記判定手段によって前記第1の画像における前記視線の状態と前記第2の画像における視線の状態とが互いに異なると判定されると、前記制御手段は、前記表示部を消灯することを特徴とする請求項7乃至10のいずれか1項に記載の電子機器。
  12. 前記制御手段は、前記第1の表示状態では前記表示部を所定の第1の色で点灯することを特徴とする請求項2乃至4、8、および9のいずれか1項に記載の電子機器。
  13. 前記制御手段は、前記第1の表示状態においては前記表示部を点灯することを特徴とする請求項2乃至4、8、および9のいずれか1項に記載の電子機器。
  14. 前記制御手段は、前記第2の表示状態では前記表示部を第2の色で点灯することを特徴とする請求項9に記載の電子機器。
  15. 前記制御手段は、前記第2の表示状態においては前記表示部を点滅させることを特徴とする請求項9に記載の電子機器。
  16. 前記表示パネルは光の透過が可能なパネルであり、前記撮像装置は前記表示パネルの背面側に配置されていることを特徴とする請求項1乃至15のいずれか1項に記載の電子機器。
  17. 前記表示部は、前記表示パネルの外周に沿って配置されていることを特徴とする請求項1乃至16のいずれか1項に記載の電子機器。
  18. 少なくとも顔画像が表示される表示パネルと前記表示パネルに備えられた撮像装置と、前記表示パネルに設けられた表示部とを有する電子機器の制御方法であって、
    前記顔画像において顔の向きおよび眼球の方向を検出して、前記顔の向きおよび前記眼球の方向に基づいて前記顔画像における視線の状態を判定する判定ステップと、
    前記判定ステップによる判定結果に応じて、前記表示部を点灯制御する制御ステップと、
    を有することを特徴とする制御方法。
  19. 少なくとも顔画像が表示される表示パネルと前記表示パネルに備えられた撮像装置と、前記表示パネルに設けられた表示部とを有する電子機器で用いられる制御プログラムであって、
    前記電子機器に備えられたコンピュータに、
    前記顔画像において顔の向きおよび眼球の方向を検出して、前記顔の向きおよび前記眼球の方向に基づいて前記顔画像における視線の状態を判定する判定ステップと、
    前記判定ステップによる判定結果に応じて、前記表示部を点灯制御する制御ステップと、
    を実行させることを特徴とする制御プログラム。
JP2015199335A 2015-10-07 2015-10-07 電子機器、その制御方法、および制御プログラム Pending JP2017073660A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015199335A JP2017073660A (ja) 2015-10-07 2015-10-07 電子機器、その制御方法、および制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015199335A JP2017073660A (ja) 2015-10-07 2015-10-07 電子機器、その制御方法、および制御プログラム

Publications (1)

Publication Number Publication Date
JP2017073660A true JP2017073660A (ja) 2017-04-13

Family

ID=58537551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015199335A Pending JP2017073660A (ja) 2015-10-07 2015-10-07 電子機器、その制御方法、および制御プログラム

Country Status (1)

Country Link
JP (1) JP2017073660A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195488A1 (ja) * 2022-04-06 2023-10-12 国立大学法人千葉大学 双方向視線位置判定装置、双方向視線位置判定方法およびトレーニング方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005221907A (ja) * 2004-02-09 2005-08-18 Sanyo Electric Co Ltd 表示装置
JP2012100135A (ja) * 2010-11-04 2012-05-24 Nec Casio Mobile Communications Ltd 携帯通信端末及びそのコンピュータソフトウェア

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005221907A (ja) * 2004-02-09 2005-08-18 Sanyo Electric Co Ltd 表示装置
JP2012100135A (ja) * 2010-11-04 2012-05-24 Nec Casio Mobile Communications Ltd 携帯通信端末及びそのコンピュータソフトウェア

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023195488A1 (ja) * 2022-04-06 2023-10-12 国立大学法人千葉大学 双方向視線位置判定装置、双方向視線位置判定方法およびトレーニング方法

Similar Documents

Publication Publication Date Title
JP6743691B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
US10613330B2 (en) Information processing device, notification state control method, and program
US9245389B2 (en) Information processing apparatus and recording medium
CN110634189B (zh) 用于在沉浸式混合现实体验期间用户警报的系统和方法
JP5836768B2 (ja) 撮像装置付き表示装置
KR102291179B1 (ko) 시각 보조 장치 및 시각 보조 장치를 이용한 사용자의 시각 보조 방법
TW201415113A (zh) 眼鏡之轉接器
JP2005292542A (ja) 目画像撮像装置および携帯端末装置
US10359839B2 (en) Performing output control based on user behaviour
TWI744558B (zh) 基於視頻通信的實景窗系統
JP2012008745A (ja) ユーザインターフェース装置及び電子機器
JP2019159193A (ja) 視覚障がい者用行動支援装置
JP2017073660A (ja) 電子機器、その制御方法、および制御プログラム
JP2018137627A (ja) 表示装置とその制御方法及びプログラム
KR20130131511A (ko) 시각 장애인용 안내장치
JP2015220684A (ja) 携帯端末装置および読唇処理プログラム
KR101682049B1 (ko) 실시간 후방 인지 멀티 안경
JP2015162822A (ja) 電子機器、撮像装置及び通信装置
JP2015136030A (ja) 撮像装置及び電子機器
JP6700770B2 (ja) 表示装置、その制御方法、および制御プログラム
KR20160064601A (ko) 차량 내의 객체 검출 장치 및 이의 방법
US11979545B2 (en) Information processing apparatus and information processing method
JP2015023369A (ja) 撮像装置付き表示装置
US11900013B2 (en) Information processing apparatus, non-transitory computer readable medium storing program, and information processing method
JP2018133722A (ja) 表示装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191217