JP2018125727A - 顔画像処理装置 - Google Patents

顔画像処理装置 Download PDF

Info

Publication number
JP2018125727A
JP2018125727A JP2017016946A JP2017016946A JP2018125727A JP 2018125727 A JP2018125727 A JP 2018125727A JP 2017016946 A JP2017016946 A JP 2017016946A JP 2017016946 A JP2017016946 A JP 2017016946A JP 2018125727 A JP2018125727 A JP 2018125727A
Authority
JP
Japan
Prior art keywords
face image
user
display
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017016946A
Other languages
English (en)
Other versions
JP7012983B2 (ja
Inventor
嘉伸 海老澤
Yoshinobu Ebisawa
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2017016946A priority Critical patent/JP7012983B2/ja
Publication of JP2018125727A publication Critical patent/JP2018125727A/ja
Application granted granted Critical
Publication of JP7012983B2 publication Critical patent/JP7012983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】3人以上の複数のユーザ間コミュニケーションを円滑にすること。【解決手段】この顔画像処理装置1は、ユーザUの視線方向を検出する視線方向検出部4と、対向装置から取得した相手側ユーザの表示対象顔画像を複数の表示領域ごとに分割して表示するディスプレイ5と、ディスプレイ5の表示領域のそれぞれに対応して配置され、ユーザUのユーザ顔画像を撮像するカラーカメラ3a,3bと、ディスプレイ5における表示対象顔画像の表示状態を制御するとともに、ユーザUの視線方向に一致する表示領域に対応して配置されたカラーカメラ3a,3bによって取得された出力対象顔画像を、少なくとも出力するプロセッサ6とを備え、プロセッサ6は、対向装置から出力対象顔画像を取得し、当該顔画像を表示対象顔画像として表示領域に表示させるように制御する。【選択図】図1

Description

本発明は、双方向のコミュニケーションのために顔画像を取得および表示する顔画像処理装置に関する。
近年、双方向のコミュニケーションツールとして、パーソナルコンピュータ等を用いて、お互いのユーザの顔画像を送受信する通信システムが利用されてきている。例えば、1対1の円滑なコミュニケーションを可能にする構成として、コミュニケーションを行う双方のユーザ間で双方の視線が一致するようにし、かつ、互いの顔を見やすくするように顔画像を補正するコミュニケーションシステムが知られている(非特許文献1)。
山本 祥之、他2名、「遠隔瞳孔検出に基づく頭部移動を許容する視線一致型コミュニケーションシステムの提案」、映像情報メディア学会年次大会、2015年、13C−3
しかしながら、上述した従来のコミュニケーションシステムでは、1対1でのコミュニケーションには対応できるが、3人以上の複数のユーザの間でのコミュニケーションには対応が困難である。すなわち、従来では3人以上の複数のユーザ間でのコミュニケーションを円滑にするシステムは実現されていない。
本発明は、上記課題に鑑みて為されたものであり、3人以上の複数のユーザ間コミュニケーションを円滑にすることが可能な顔画像処理装置を提供することを目的とする。
上記課題を解決するため、本発明の一形態にかかる顔画像処理装置は、自ユーザの顔画像を取得して外部装置に出力し、他ユーザの顔画像を外部装置から取得して表示する顔画像処理装置であって、自ユーザの視線方向あるいは顔方向を検出する方向検出部と、外部装置から取得した複数の他ユーザの顔画像である複数の表示対象顔画像を複数の表示領域ごとに分割して表示する画像表示部と、画像表示部の複数の表示領域のそれぞれに対応して配置され、自ユーザの顔の画像であるユーザ顔画像を撮像する複数の撮像部と、画像表示部における複数の表示対象顔画像の表示状態を制御するとともに、自ユーザの視線方向あるいは顔方向に一致する表示領域に対応して配置された撮像部によって取得されたユーザ顔画像である出力対象顔画像を、少なくとも出力する制御部とを備え、制御部は、外部装置から出力対象顔画像として出力された他ユーザの顔画像を取得し、当該顔画像を表示対象顔画像として当該他ユーザに対応した表示領域に表示させるように制御する。
上記形態の顔画像処理装置によれば、外部装置から、他ユーザの視線方向あるいは顔方向に対応する位置の撮像部によって取得された顔画像が取得され、当該顔画像が他ユーザに対応した表示領域に表示される。その一方で、自ユーザの視線方向あるいは顔方向に対応する位置の撮像部によって取得された顔画像が、外部装置における表示対象の出力対象顔画像として出力される。これにより、複数の他ユーザと自ユーザとの間でコミュニケーションする際に自ユーザにとって複数の他ユーザと正対したコミュニケーションが容易となる。その結果、3人以上のユーザ間でのコミュニケーションを円滑にすることができる。
ここで、制御部は、複数の撮像部によって撮像された複数のユーザ顔画像のうち、視線方向あるいは顔方向に一致する表示領域に対応して配置された撮像部によって取得されたユーザ顔画像を選択し、当該ユーザ顔画像を出力対象顔画像として出力することとしてもよい。この場合、ユーザ顔画像を撮像する側の装置で出力対象顔画像を選択して、その出力対象顔画像を当該画像を表示する側の装置に出力するので、表示する側の装置における処理を簡略化することで遅延の少ない画像表示を実現することができる。
また、制御部は、複数の撮像部によって撮像された複数のユーザ顔画像と、複数のユーザ顔画像から出力対象顔画像を選択するための選択用情報とを出力し、外部装置から出力された複数のユーザ顔画像うちから、外部装置から出力された選択用情報を基に表示対象顔画像を選択し、当該表示対象顔画像を他ユーザに対応した表示領域に表示させるように制御することとしてもよい。この場合には、ユーザ顔画像を表示する側の装置において選択用情報を基に表示対象顔画像を選択して表示するので、表示する側の装置において表示対象顔画像を選択する自由度が高まる。
また、方向検出部は、自ユーザの両眼の三次元位置をさらに検出し、制御部は、表示対象顔画像を両眼の三次元位置に応じて補正し、補正した表示対象顔画像を表示させるように制御することとしてもよい。この場合、表示対象顔画像を自ユーザの両眼の三次元位置に応じて補正することで、表示対象顔画像の自ユーザに対する視認性を調整することができる。その結果、3人以上のユーザ間でのコミュニケーションをより円滑にすることができる。
また、制御部は、表示対象顔画像のサイズを外部装置で算出された他ユーザの両眼の三次元位置に応じて補正することとしてもよいし、表示対象顔画像を両眼の三次元位置に応じて歪調整するように補正することとしてもよい。この場合には、表示対象顔画像を自ユーザあるいは他ユーザの両眼の三次元位置に応じて補正することで、自ユーザから観察される他ユーザの顔画像のサイズおよび歪を調整することができる。その結果、3人以上のユーザ間でのコミュニケーションをより円滑にすることができる。
また、画像表示部は、表示領域において複数の方向に異なる画像を表示可能に構成されており、制御部は、外部装置から他ユーザの顔画像を複数取得し、当該他ユーザに対応する表示領域において、複数の他ユーザの顔画像のいずれかを、複数の方向に表示させるように制御することとしてもよい。この場合には、自ユーザに複数のユーザが含まれる場合に、それぞれのユーザに対して適した他ユーザの顔画像を表示させることができる。その結果、3人以上のユーザ間でのコミュニケーションをより円滑にすることができる。
また、制御部は、外部装置から取得された出力対象顔画像を、複数の方向のそれぞれに応じて歪調整し、歪調整した出力対象顔画像を複数の方向のそれぞれに表示させるように制御することとしてもよい。この場合、自ユーザに複数のユーザが含まれる場合に、それぞれのユーザに対して視認性が調整された他ユーザの顔画像を表示させることができる。その結果、3人以上のユーザ間でのコミュニケーションをより円滑にすることができる。
また、制御部は、方向検出部によって検出された視線方向を基に、複数の表示領域のうち当該視線方向が示す注目表示領域を特定し、注目表示領域に表示させる他ユーザの顔画像を強調表示させるように制御することとしてもよい。この場合、コミュニケーション相手のユーザの顔画像を強調表示することで、ユーザ間でのコミュニケーションをより円滑にすることができる。
また、制御部は、方向検出部によって検出された視線方向を基に、複数の表示領域のうち当該視線方向が示す注目表示領域を特定し、注目表示領域に対応する他ユーザの使用する外部装置に対して、出力対象顔画像とともに特定の結果を出力し、外部装置から、他ユーザの顔画像とともに特定の結果を取得した場合には、他ユーザの顔画像を強調表示させるように制御することとしてもよい。この場合も、コミュニケーションを求めているユーザの顔画像を強調表示することで、ユーザ間でのコミュニケーションをより円滑にすることができる。
また、制御部は、外部からのドラック入力により、複数の他ユーザの顔画像の表示位置を、複数の表示領域の間で変更可能に構成されていてもよい。この場合、他ユーザの顔画像の表示位置を自由に変更することができ、ユーザ間でのコミュニケーションをより円滑にすることができる。
本発明によれば、1対多あるいは多対多でのユーザ間コミュニケーションを円滑にすることができる。
本発明の第1実施形態に係る顔画像処理装置の構成を示す側面図である。 図1の視線方向検出部4の光学系の配置を示す平面図である。 ユーザUの位置する正面側から見たカラーカメラ3a,3bと表示用ディスプレイ5との位置関係を示す正面図である。 図1のプロセッサ6の機能構成を示すブロック図である。 図4の情報出力部62によって出力対象顔画像から切り出された画像のイメージを示す図である。 図4の位置制御部64により設定される投影画像上の表示対象顔画像の表示位置を示す概念図である。 図1の顔画像処理装置1の使用状態のイメージを示す図である。 本発明の第2実施形態に係る顔画像処理装置1Aの構成を示す側面図である。 図8のプロセッサ6Aの機能構成を示すブロック図である。 図8の顔画像処理装置1Aの使用状態のイメージを示す図である。 図8の顔画像処理装置1Aの使用状態のイメージを示す図である。 本発明の変形例における両眼の位置関係の計算のイメージを示す図である。 本発明の変形例における表示用ディスプレイ5上の表示対象顔画像の表示状態を示す図である。 本発明の変形例における表示用ディスプレイ5上の表示対象顔画像の表示状態を示す図である。
以下、図面を参照しつつ本発明に係る顔画像処理装置の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。
(第1実施形態)
本発明の第1実施形態にかかる顔画像処理装置1は、顔画像処理装置1のユーザであるユーザ(自ユーザ)Uの顔を含む顔画像を取得して外部装置に出力するとともに、外部装置から取得した表示対象顔画像である相手側ユーザ(他ユーザ)の顔を含む画像を表示する装置であり、この顔画像処理装置1を複数(本実施形態では3つ)備えることにより、複数(本実施形態では3人)のユーザ間で互いのユーザの顔画像を観察しながらコミュニケーションするコミュニケーションシステムを構成する。
図1には、本実施形態にかかる顔画像処理装置1の概略構成を示している。同図に示すように、顔画像処理装置1は、ユーザUの顔に向けて配置され、ユーザUの顔の画像であるユーザ顔画像を撮影(撮像)する2つのカラーカメラ(撮像部)3a,3bと、ユーザUの顔に向けて配置され、ユーザUの視線方向及びユーザUの両眼の瞳孔の空間座標(三次元位置)を実時間計測するための視線方向検出部4と、外部装置から取得した2人の相手側ユーザの顔を含む表示対象顔画像を表示する表示用ディスプレイ(画像表示部)5と、カラーカメラ3a,3b、視線方向検出部4、及び表示用ディスプレイ5の動作を制御するプロセッサ(制御部)6とを備える。視線方向検出部4の構成としては、本願発明者による国際公開公報WO2013/176265に記載の瞳孔検出装置を採用できる。この顔画像処理装置1は、同一の構成の2台の外部装置(以下、「対向装置」と呼ぶ。)と通信ネットワークを介して接続され、顔画像処理装置1の2台のカラーカメラ3a,3bによって取得されたユーザ顔画像から出力対象顔画像を選択して、その出力対象顔画像を2台の対向装置に向けて送信するとともに、2台の対向装置によって取得されたそれぞれのユーザ顔画像を表示対象顔画像として受信し、2つの表示対象顔画像を表示用ディスプレイ5に並べて表示する。
図2には、視線方向検出部4の光学系の配置を示している。視線方向検出部4を構成する3台のカメラ9は、同図に示すようにユーザUに向けて配置されている。それぞれのカメラ9は、赤外線光に感度を持つカメラであって、近赤外光源10と組み合わされて構成されている。また、視線方向検出部4として後述するプロセッサ6の視線方向算出部63(図4参照)も含まれており、視線方向算出部63は、ステレオ較正された3台のカメラ9のうちの2台のカメラ9からの出力画像を基に、ユーザUの右の瞳孔及び左の瞳孔のそれぞれの三次元座標(位置)及び二次元座標(位置)を算出するとともに、それぞれの出力画像上におけるユーザUの左右の眼部の角膜反射の二次元座標(位置)を算出する。
図1に戻って、表示用ディスプレイ5は、液晶ディスプレイ装置等の画像表示用デバイスによって構成された平面状の画像面7aを有する画像投影装置5aと、画像投影装置5aから投影された画像をユーザUに向けて反射する平面状の反射面7bを有するハーフミラー5bとを含んで構成される。画像投影装置5aは、例えば、ユーザUの前方上方に配置され、ユーザUの上方から下方に向けて画像を投影する。ハーフミラー5bは、画像投影装置5aの下方であってユーザUとカラーカメラ3a,3b及びカメラ9との間に配置され、その反射面7bが画像投影装置5aの画像面7aに対して斜めに向けられ、画像投影装置5aから投影された画像をユーザUに向けて反射させるように構成されている。このように構成されることにより、ユーザUの顔画像がカメラ9及びカラーカメラ3a,3bによって取得可能にされるとともに、ユーザUに向けて、2台の対向装置から受信された2つの表示対象顔画像を並べて表示可能とされる。また、表示用ディスプレイ5では、プロセッサ6の処理により、ユーザUによって観察されるハーフミラー5bによる反射後の表示対象顔画像において変形が生じないように、画像投影装置5aから投影される表示対象顔画像の縮尺が予め二次元的に調整されている。
図3には、ユーザUの位置する正面側から見たカラーカメラ3a,3bと表示用ディスプレイ5との位置関係を示す正面図である。図3に示すように、表示用ディスプレイ5は、後述するプロセッサ6の位置制御部64(図4参照)の制御により、反射面7b上における2つの分割された矩形の表示領域13a,13bのそれぞれに2台の対向装置から受信した表示対象顔画像を表示するように動作する。2つのカラーカメラ3a,3bは、正面側から見てそれぞれの表示領域13a,13bに対応した位置に配置されている。詳細には、カラーカメラ3aは、正面側から見て表示領域13aの中央の奥に配置されることにより、その光軸が表示領域13aの略中央を通ってユーザUに向くようにされている。同様に、カラーカメラ3bは、正面側から見て表示領域13bの中央の奥に配置されることにより、その光軸が表示領域13bの略中央を通ってユーザUに向くようにされている。なお、カラーカメラ3a,3bは、その本体部が必ずしも表示領域13a,13bの奥に配置される必要は無く、ミラー等の光学部材を利用することでそれらの光軸が表示領域13a,13bを通るように構成されていればよい。
ここで、2つのカラーカメラ3a,3b、及び3つのカメラ9は、それらの位置関係が、それぞれが得た画像上にユーザUの顔全体を含むほぼ同じ範囲が映るように、最初に設定される。また、それぞれのカラーカメラ3a,3b及びカメラ9の視野角は、ユーザUが移動した場合もユーザUの顔全体が撮像可能なように十分広く設定される。
なお、3つのカメラ9及び2つのカラーカメラ3a,3bは、それぞれ予めカメラ較正が行われている。カメラ較正では、カメラの位置を表す3自由度、カメラの方向を表す3自由度、および、カメラの画素数、開口比値(レンズF値)、ひずみなどが同時に計測される。カメラ較正においては、世界座標系における座標(XW,YW,ZW)と各カメラのカメラ座標系における座標(XC,YC,ZC)との間には(式1)の関係があると仮定され、
Figure 2018125727


(式2)で示す回転行列Rと並進ベクトルTの要素が、各カメラ毎に決定される。
Figure 2018125727

次に、プロセッサ6の構成について説明する。プロセッサ6は、物理的には、パーソナルコンピュータ、画像処理デバイス等のデータ処理装置によって構成され、CPU等の演算処理回路、RAM、ROM等のメモリ、ハードディスク装置等のデータ記憶装置、及び通信デバイスを内蔵している。そして、プロセッサ6は、機能的構成要素として、図4に示すように、情報入力部61、情報出力部62、視線方向算出部63、及び位置制御部64を含む。
プロセッサ6の視線方向算出部63は、カメラ較正の結果を利用して、3台のカメラ9から選択した2台のカメラ9によって撮像された出力画像を用いて、ユーザUの左右の瞳孔の世界座標系における三次元座標(位置情報)、ユーザUの左右の瞳孔のカメラ座標系における二次元座標、及びユーザUの左右の眼部の角膜反射のカメラ座標系における二次元座標を算出する。この選択した2台のカメラの画像を用いた、瞳孔の三次元座標及び二次元座標と、角膜反射の二次元座標の算出は、本願発明者による国際公開公報WO2013/176265に記載の方法を採用できる。このように、選択した2台のカメラ9の出力画像を用いることで、1つのカメラ9の出力画像において瞳孔と眼鏡反射が重なる場合でもより確実に瞳孔検出を行うことができる。そして、視線方向算出部63は、算出した瞳孔の三次元座標及び二次元座標と、角膜反射の二次元座標とを用いて、ユーザUの視線ベクトル(視線方向)を算出し、この視線ベクトルを基に反射面7b上のユーザUの注視点を算出する。この視線ベクトル及び注視点の算出は、本願発明者による特許第4517049号に記載の方法を採用できる。この際、視線方向算出部63は、選択した2台のカメラ9のいずれかの出力画像を用いて視線ベクトル及び注視点を算出してもよいし、選択した2台のカメラ9の出力画像を用いた計算結果を両方用いて(平均化等して)、視線ベクトル及び注視点を算出してもよい。また、視線ベクトル及び注視点は、ユーザUの右の眼に関する算出結果と、ユーザUの左の眼に関する算出結果とのうちどちらかを用いて算出されてもよいし、両方の算出結果を用いて(平均化等して)算出されてもよい。
さらに、視線方向算出部63は、瞳孔の三次元座標を2つのカラーカメラ3a,3bに関する(式1)に相当する式に代入することで、カラーカメラ3a,3bのカメラ座標系における瞳孔の座標(位置情報)をそれぞれ算出する。視線方向算出部63は、それをさらに画像中の座標に変換する(実単位系から画像のピクセル単位系に変換する)ことでユーザUのユーザ顔画像中の瞳孔位置を定める。このとき、視線方向算出部63は、上述した処理を繰り返すことによりそれぞれのユーザ顔画像中における右の瞳孔及び左の瞳孔の座標(位置情報)を算出する。また、視線方向算出部63は、時間的に連続した動画像としてユーザ顔画像を取得する場合には、ユーザ顔画像に含まれる時系列の画像フレームに対応して両眼の瞳孔の座標(位置情報)を算出することができる。
情報出力部62は、カラーカメラ3a,3bによって取得されたそれぞれのユーザ顔画像と、そのユーザ顔画像に対応して視線方向算出部63によって算出された両眼の瞳孔の位置情報と、そのユーザ顔画像を取得するタイミングで検出されたユーザUの注視点の情報とを用いて、2台の対向装置に出力する出力対象顔画像をそれぞれ生成する。そして、情報出力部62は、それぞれの出力対象顔画像を通信ネットワークを介して2台の対向装置に向けて出力する。このとき、情報出力部62は、出力対象顔画像に加えて、その画像に対応して算出されたユーザUの両眼の瞳孔の位置情報を出力することもできる。
すなわち、情報出力部62は、ユーザUの注視点が反射面7b上の表示領域13aに一致している場合には、具体的には、注視点が表示領域13a内の所定範囲(例えば、中央から所定距離)に有る場合には、その表示領域13aに対応するカラーカメラ3aによって取得されたユーザ顔画像を、出力対象顔画像として選択する。そして、情報出力部62は、その出力対象顔画像を、表示領域13aが相手側ユーザの表示用として割り当てられた一方の対向装置に向けて出力する。その一方で、情報出力部62は、表示領域13bが相手側ユーザの表示用として割り当てられた他方の対向装置に対しては、その対向装置による予めの設定に応じて、注視点に対応する側のカラーカメラ3aによって取得されたユーザ顔画像、又は、注視点に対応しない側のカラーカメラ3bによって取得されたユーザ顔画像のいずれかを、出力対象顔画像として選択して出力する。
同様に、情報出力部62は、注視点が表示領域13b内の所定範囲に有る場合には、その表示領域13bに対応するカラーカメラ3bによって取得されたユーザ顔画像を、出力対象顔画像として選択する。そして、情報出力部62は、その出力対象顔画像を、表示領域13bが相手側ユーザの表示用として割り当てられた他方の対向装置に向けて出力する。その一方で、情報出力部62は、表示領域13aが相手側ユーザの表示用として割り当てられた一方の対向装置に対しては、その対向装置による予めの設定に応じて、注視点に対応する側のカラーカメラ3bによって取得されたユーザ顔画像、又は、注視点に対応しない側のカラーカメラ3aによって取得されたユーザ顔画像のいずれかを、出力対象顔画像として選択して出力する。
加えて、情報出力部62は、ユーザ顔画像から出力対象顔画像を選択する際には、ユーザ顔画像を所定範囲で切り出すように加工して加工後の出力対象顔画像を出力することもできる。詳細には、情報出力部62は、選択した出力対象顔画像報を、その出力対象顔画像に対応して検出されたユーザUの両眼の瞳孔の位置情報を利用して画像を切り出すことにより加工する。図5は、情報出力部62によって出力対象顔画像から切り出された画像のイメージを示す図である。このように、情報出力部62は、出力対象顔画像を構成する画像フレームFにおいて、位置情報によって特定される右眼の瞳孔の二次元座標情報(X2,Y2)、及び左眼の瞳孔の二次元座標情報(X2,Y2)を基にして、右眼の瞳孔と左眼の瞳孔との間の中点座標Mを算出する。そして、情報出力部62は、中点座標Mを基準位置とした所定の座標幅の範囲の画像Gを切り出して、切り出した画像Gを出力対象顔画像として対向装置に出力する。例えば、情報出力部62は、中点座標Mが画像Gの範囲の横方向の中央に位置し、中点座標Mが画像Gの範囲の縦方向における所定比率の位置(より具体的には、縦方向を2対3に分割する位置)に位置するように、画像Gの範囲を設定する。ここで、画像Gの範囲は、予め対向装置のユーザによって設定可能にされていてもよい。また、情報出力部62は、画像Gの範囲の幅を、右眼の瞳孔の二次元座標と左眼の瞳孔の二次元座標とから計算される瞳孔間距離を基準にして設定してもよい。このように切り出した出力対象顔画像を出力する場合には、情報出力部62は、その切り出した画像上の位置を示すように両眼の瞳孔の位置情報を補正して、補正した位置情報を出力対象顔画像に付加して出力する。
情報入力部61は、2つの対向装置のそれぞれから、通信ネットワークを介して出力対象顔画像として出力された、それぞれの対向装置の相手側ユーザの顔画像(表示対象顔画像)が入力される部分である。
位置制御部64は、2つの対向装置から入力されたそれぞれの表示対象顔画像の表示用ディスプレイ5における表示状態を制御する。すなわち、位置制御部64は、2つの対向装置のうちの一方の対向装置から入力された顔画像(表示対象顔画像)を、その対向装置の相手側ユーザの表示用に割り当てられた表示用ディスプレイ5の表示領域13aに表示させるように制御する。同時に、位置制御部64は、2つの対向装置のうちの他方の対向装置から入力された顔画像(表示対象顔画像)を、その対向装置の相手側ユーザの表示用に割り当てられた表示用ディスプレイ5の表示領域13bに表示させるように制御する。このとき、位置制御部64は、表示対象顔画像の表示領域13a,13bにおける表示位置を、対向装置によって算出された相手側ユーザの両眼の瞳孔の位置情報を用いて、表示対象顔画像における相手側ユーザの左右の瞳孔の中心位置が、表示領域13a,13b上のカラーカメラ3a,3bの光軸の位置に一致するように調整してもよい。このようにすれば、ユーザUと相手側ユーザとの間で視線の一致したコミュニケーションが可能となる。
また、位置制御部64は、次のように表示対象顔画像の表示位置を制御することによって、ユーザUの顔の空間位置に合わせた歪のない画像表示を可能とする。対向装置によって切り出された表示対象画像をそのまま表示用ディスプレイ5に表示させた場合には、表示用ディスプレイ5の正面から外れた位置のユーザUにとっては、切り出した範囲の画像がそのままの縮尺で投影される。従って、ユーザUにとっては画像が(例えば、台形状に)歪んで見えることになる。このような場合、相手の顔の縦横比が変わって見えることになり、ユーザUがコミュニケーションの際に不自然な印象を受ける場合がある。
そこで、位置制御部64は、表示用ディスプレイ5によって反射面7bの表示領域13a,13bのそれぞれから投影される表示対象顔画像を、歪調整によって予め補正することにより、ユーザUにおいて観察される投影画像の歪を無くすように制御する。図6を参照しながら、詳細に説明する。図6は、位置制御部64により設定される投影画像上の表示対象顔画像の表示位置を示す概念図である。まず、位置制御部64は、ユーザUの両眼の瞳孔の三次元座標P,Pを基に、瞳孔間中点Mと反射面7bから投影される投影画像の画像面Gの中心O’を結ぶ直線MO’を設定する。さらに、位置制御部64は、直線MO’に垂直な瞳孔間中点Mからの距離が所定値Lの平面S1を設定し、直線MO’とその平面S1との交点Oを特定する。また、位置制御部64は、平面S1上に頂点A,B,C,Dを有し、交点Oを中心とする所定の大きさの長方形の範囲ABCDを決定する。次に、位置制御部64は、両眼の瞳孔の三次元座標P,Pから平面S1上に垂線をおろしそれぞれの垂線と平面S1との交点E,Fの位置を算出する。さらに、位置制御部64は、線分EFの傾きを両眼を結ぶ線の平面S1を基準とした傾きとして計算し、線分AD及び線分BCがその傾きと等しくなるように(線分EFと平行になるように)範囲ABCDを回転させることによりその範囲の位置を計算する。そして、位置制御部64は、瞳孔間中点Mと点A,B,C,Dのそれぞれとを結ぶ線と、投影画像の画像面Gとの交点A’,B’,C’,D’の座標を計算する。この画像面G上の四角形A’B’C’D’の範囲に投影される画像が長方形ABCDを通過してユーザUに向けて投影されることになる。そこで、位置制御部64は、長方形ABCDの範囲に歪の無い顔画像を投影するために、表示対象顔画像を変形させて画像面G上の四角形A’B’C’D’の範囲に投影させるように、その表示対象顔画像を構成する画素の画像面G上での表示位置を設定する。これにより、長方形ABCDの範囲に投影される顔画像の位置がユーザUの両眼を結ぶ線の傾きに応じて回転される。
以上説明した顔画像処理装置1によれば、対向装置から、相手側ユーザの視線方向に対応する位置のカラーカメラによって取得された顔画像が取得され、当該顔画像が相手側ユーザに対応した表示領域13a,13bに表示される。その一方で、ユーザUの視線方向に対応する位置のいずれかのカラーカメラ3a,3bによって取得されたユーザ顔画像が、対向装置における表示対象の出力対象顔画像として出力される。これにより、複数の相手側ユーザとユーザUとの間でコミュニケーションする際にユーザUにとって複数の相手側ユーザと正対したコミュニケーションが容易となる。その結果、3人以上のユーザ間でのコミュニケーションを円滑にすることができる。
ここで、プロセッサ6は、2つのカラーカメラ3a,3bによって撮像されたユーザ顔画像のうち、視線方向に一致する表示領域13a,13bに対応して配置されたカラーカメラ3a,3bによって取得されたユーザ顔画像を選択し、そのユーザ顔画像を出力対象顔画像として出力する。こうすることで、ユーザ顔画像を撮像する側の装置で出力対象顔画像を選択して、その出力対象顔画像を当該画像を表示する側の装置に出力するので、通信ネットワークを介したデータの伝送量が削減されるとともに、表示する側の装置における処理を簡略化することができる。その結果、遅延の少なくストレスの低減されたコミュニケーションを実現することができる。
また、プロセッサ6は、ユーザUの両眼の三次元位置をさらに検出し、表示対象顔画像を両眼の三次元位置に応じて歪調整によって補正し、補正した表示対象顔画像を表示用ディスプレイ5に表示させている。こうすることで、表示対象顔画像のユーザUに対する視認性を調整することができる。その結果、3人以上のユーザ間でのコミュニケーションをより円滑にすることができる。
図7を参照して、本実施形態による作用効果を具体的に説明する。図7は、本実施形態の顔画像処理装置1の使用状態のイメージを示す図である。
この場合、ユーザUの前面に本実施形態の顔画像処理装置1の表示用ディスプレイ5が配置され、この顔画像処理装置1が通信ネットワークを介して顔画像処理装置1と同一構成の2台の対向装置101,201と接続されている。この2台の対向装置101,201は、相手側ユーザU1,U2の前面にそれぞれ配置されているものとする。そして、顔画像処理装置1の表示用ディスプレイ5の表示領域13a,13bは、それぞれ、ユーザU1,U2の顔画像表示用として予め割り当てられて設定されているものとする。このような形態では、ユーザUの視線方向が相手側ユーザU1の顔画像が表示されている表示領域13aを向いていると検出された場合には、表示領域13aの奥に設置されているカラーカメラ3aからの出力画像が出力対象顔画像として選択されて、その出力対象顔画像が表示領域13aの割り当てられている相手側ユーザU1の対向装置101に送信される。そうすると、対向装置101において、ユーザUに割り当てられている表示領域113bに、顔画像処理装置1から出力された出力対象顔画像が表示される。一方で、表示領域13bが割り当てられている相手側ユーザU2の対向装置201には、相手側ユーザU2の設定に応じて、ユーザUの視線方向に対応したカラーカメラ3a、又は、相手側ユーザU2に対して固定的に割り当てられたカラーカメラ3bのいずれかの出力画像が、出力対象顔画像として送信される。そして、対向装置201において、ユーザUに割り当てられている表示領域213aに、顔画像処理装置1から出力された出力対象顔画像が表示される。対向装置101,201も、顔画像処理装置1と同様に動作する。このような形態によれば、ユーザUが相手側ユーザU1の顔画像を見ているときには、相手側ユーザU1にとっては自分を見ていると感じるようにユーザUの顔が映る。一方で、相手側ユーザU2にとっては、ユーザUが自分を見ていなくて相手側ユーザU1を見ていると感じさせることもできるし、常に自分を見ているように感じさせることもできる。このように、3人のユーザ間でのコミュニケーションを実際に対面しているかのようにスムーズに行うことができる。
[第2実施形態]
次に、本発明の第2実施形態について説明する。図8は、第2実施形態にかかる顔画像処理装置1Aの概略構成を示し、図9は、顔画像処理装置1Aに含まれるプロセッサ6Aの機能構成を示している。図8に示す顔画像処理装置1Aの第1実施形態との相違点は、顔画像処理装置1Aの前面に位置する複数のユーザ(自ユーザ)のそれぞれの顔画像を別々に出力対象顔画像として取得し、それらの出力対象顔画像を対向装置に出力可能に構成されている点である。顔画像を取得可能なユーザの数は特定の数には限定されないが、図8には、ユーザ数が2の場合を例示している。以下、第1実施形態との相違点のみ説明する。
2つのカラーカメラ3a,3b及び3つのカメラ9は、2人のユーザUA,UBの顔全体を含む同じ範囲が映るように設定され、それらの視野角はユーザUA,UBが移動した場合もユーザUA,UBの顔全体が撮像可能なように設定される。
プロセッサ6Aの視線方向算出部63Aは、3台のカメラ9のうちの2台のカメラ9によって撮像された出力画像を用いて、それぞれのユーザUA,UBの左右の瞳孔の三次元座標及び二次元座標と、それぞれのユーザUA,UBの視線方向及び注視点とを算出する。出力画像に含まれる複数のユーザの瞳孔の位置の検出方法は、国際公開公報WO2013/176265に記載の方法を採用できる。そして、視線方向算出部63Aは、それぞれのユーザUA,UBに関して、カラーカメラ3a,3bの出力画像中の左右の瞳孔の位置情報もそれぞれ算出する。
情報出力部62Aは、ユーザUA,UBのそれぞれに関して、第1実施形態と同様にして、ユーザUA,UBの視線方向に基づいて、2つのカラーカメラ3a,3bによって撮像されたユーザ顔画像のうちから出力対象顔画像を選択する。この際、情報出力部62Aは、ユーザ顔画像をユーザUA,UBの瞳孔の位置情報を利用して所定範囲で切り出すようにして、出力対象顔画像を加工する。さらに、情報出力部62Aは、ユーザUA、UBに関して選択された出力対象顔画像のそれぞれを、対向装置に向けて出力する。
このような第2実施形態にかかる顔画像処理装置1Aによれば、複数のユーザが同一の装置を使用する場合にも、複数の相手側ユーザと複数のユーザUA,UBとの間でコミュニケーションする際にユーザUA,UBにとって複数の相手側ユーザと正対したコミュニケーションが容易となる。その結果、3人以上のユーザ間でのコミュニケーションを円滑にすることができる。
図10及び図11は、本実施形態の顔画像処理装置1Aの使用状態のイメージを示す図である。
この場合、2人のユーザUA,UBの前面に本実施形態の顔画像処理装置1Aの表示用ディスプレイ5が配置され、この顔画像処理装置1Aが通信ネットワークを介して顔画像処理装置1Aと同一構成の対向装置301と接続されている。この対向装置301は、2人の相手側ユーザUC,UDの前面にそれぞれ配置されているものとする。そして、顔画像処理装置1Aの表示用ディスプレイ5の表示領域13a,13bは、それぞれ、ユーザUD,UCの顔画像表示用として予め割り当てられて設定されており、対向装置301の表示領域313a,313bは、それぞれ、ユーザUB,UAの顔画像表示用として予め割り当てられて設定されているものとする。
図10に示す形態では、画像を通じて仮想的にユーザUAとユーザUDとの目が合っており、画像を通じて仮想的にユーザUBとユーザUCとの目が合っていることを想定する。このような場合、ユーザUBの視線方向が相手側ユーザUCの顔画像が表示されている表示領域13bを向いていると検出されるので、表示領域13bの奥に設置されているカラーカメラ3bからの出力画像が出力対象顔画像として選択されて、その出力対象顔画像が対向装置301に送信される。これに対して、対向装置301では、ユーザUBに割り当てられている表示領域313aに、顔画像処理装置1Aから出力された出力対象顔画像が表示される。その際、表示される出力対象顔画像は、相手側ユーザUCの瞳孔の三次元位置を基に歪調整されるとともに、出力対象顔画像における瞳孔間中点が表示領域313a上でカラーカメラの光軸に一致するように位置補正される。同時に、ユーザUAの視線方向が相手側ユーザUDの顔画像が表示されている表示領域13aを向いていると検出されるので、表示領域13aの奥に設置されているカラーカメラ3aからの出力画像が出力対象顔画像として選択されて、その出力対象顔画像が対向装置301に送信される。これに対して、対向装置301では、ユーザUAに割り当てられている表示領域313bに、顔画像処理装置1Aから出力された出力対象顔画像が表示される。このような動作をする顔画像処理装置1Aと同様な動作を行う対向装置301とを接続すれば、2つの装置を使って対向する4人のユーザ間でのコミュニケーション時に相手の顔画像を正面から見た画像とすることができる。
図11に示す形態では、仮想的にユーザUAとユーザUCとの目が合っており、仮想的にユーザUBとユーザUDとの目が合っていることを想定する。このような場合、ユーザUBの視線方向が相手側ユーザUDの顔画像が表示されている表示領域13aを向いていると検出されるので、表示領域13aの奥に設置されているカラーカメラ3aからの出力画像が出力対象顔画像として選択されて、その出力対象顔画像が対向装置301に送信される。これに対して、対向装置301では、ユーザUBに割り当てられている表示領域313aに、顔画像処理装置1Aから出力された出力対象顔画像が表示される。その際、表示される出力対象顔画像は、相手側ユーザUDの瞳孔の三次元位置を基に歪調整されるとともに、出力対象顔画像における瞳孔間中点が表示領域313a上でカラーカメラの光軸に一致するように位置補正される。このような歪調整の処理は、ユーザUDが斜めからユーザUBの顔画像を観察することになるため特に重要である。同時に、ユーザUAの視線方向が相手側ユーザUCの顔画像が表示されている表示領域13bを向いていると検出されるので、表示領域13bの奥に設置されているカラーカメラ3bからの出力画像が出力対象顔画像として選択されて、その出力対象顔画像が対向装置301に送信される。これに対して、対向装置301では、ユーザUAに割り当てられている表示領域313bに、顔画像処理装置1Aから出力された出力対象顔画像が表示される。このような形態でも、2つの装置を使って2対2で対向するユーザ間でのコミュニケーション時に相手の顔画像を正面から見た画像とすることができる。
本発明は、上述した実施形態に限定されるものではない。
例えば、上記第1及び第2実施形態においては、ユーザU,UA,UBの視線方向を基に出力対象顔画像が選択されていたが、ユーザU,UA,UBの顔姿勢(顔方向)を基に出力対象顔画像を選択するような機能を有していてもよい。このような構成の場合、プロセッサ6の視線方向算出部63は、カメラ9の出力画像を用いて、国際公開公報WO2013/176265、特許第4431749号公報、特許第4765008号公報、および国際公開公報WO2010/010926等に記載の方法によってユーザUの顔姿勢を算出する。ここでは、特開2015−232771号公報に記載されたように、ユーザUの鼻孔検出用の光学系として光源を備えないカメラを用いることもできる。そして、情報出力部62は、算出したユーザUの顔姿勢が表示領域13a,13bのどちらの方向に対応しているかを判断し、その判断結果に応じて出力対象顔画像を選択する。
また、上記第1及び第2実施形態においては、カラーカメラ3a,3bから出力されたユーザ顔画像から出力対象顔画像を選択する機能、ユーザ顔画像から所定範囲を切り出す機能を、出力元の顔画像処理装置1,1Aに有していたが、これらの機能が出力先の顔画像処理装置1,1Aに備えられてもよい。
このような構成の場合、プロセッサ6の情報出力部62は、カラーカメラ3a,3bのそれぞれによって撮像されたユーザ顔画像と、それぞれのユーザ顔画像に対応して算出された両眼の瞳孔の位置情報とに加えて、ユーザUの視線方向に応じて決定された、それらのユーザ顔画像から出力対象顔画像を選択するための選択用情報を、対向装置に出力する。この選択用情報としては、出力対象顔画像を識別するための情報(番号情報、ファイル名情報等)、又はユーザUの視線方向を示す情報等が挙げられる。プロセッサ6の位置制御部64は、対向装置から入力された2つのユーザ顔画像のうちから、選択用情報を用いて出力対象顔画像を選択する。そして、位置制御部64は、選択した出力対象画像を、画像切り出し処理及び歪調整処理を加えてから、出力対象画像に映る相手側ユーザに対応した表示領域13a,13bに表示させる。
また、上記第1及び第2実施形態においては、表示領域13a,13bに表示させる表示対象顔画像のサイズをユーザUの両眼の瞳孔の三次元位置に応じて補正する機能を有していてもよい。
すなわち、第1実施形態の顔画像処理装置1においては、ユーザUに相手側ユーザが同じ位置(例えば表示領域13a,13bの画像面G上)にいるように見せるためには、位置制御部64が、相手側ユーザ側の対向装置で検出された左右の瞳孔の三次元座標を基に、画像面Gに投影される画像のサイズを相手側ユーザの両眼の位置関係に対応するように設定してもよい。例えば、図12に示すように、本変形例の位置制御部64は、相手側ユーザの左右の瞳孔の三次元位置を基にそれらの中点の位置Mを算出する。そして、位置制御部64は、その中点Mを通り、表示対象顔画像を撮像した対向装置側のカラーカメラ103の撮像面103aに平行な平面S2の位置と、カラーカメラ103から各瞳孔に向いた直線L,Lの位置とを求め、さらに、この平面S2と各直線L,Lとの交点P,Pの三次元位置を求める。そして、位置制御部64は、交点P,Pの2つの三次元位置の間の距離を求め、その距離とユーザUの見ている画像上の相手側ユーザの瞳孔間距離とが等しくなるように、投影画像のサイズを設定する。具体的には、位置制御部64は、投影する表示対象顔画像上の左右の瞳孔の座標が既知であるので、それらの座標間の距離が交点P,Pから計算した距離と等しくなるように投影画像のサイズを変更すればよい。このとき、位置制御部64は、表示対象顔画像から図5に示すような投影対象の画像Gを切り出す際には、その画像Gの範囲の幅を、P,Pの三次元位置の間の距離を基にして、相手側ユーザの頭部全体が入り、かつ、投影画像上の瞳孔間の距離がその距離と等しく見えるように、設定するとよい。このような変形例によれば、相手側ユーザが頭部を回転させてカメラに映る瞳孔間の距離が変化したような場合でも、ユーザUにとって相手側ユーザがあたかも表示画像上の位置に存在しているように感じさせることができる。
また、第2実施形態においては、表示用ディスプレイ5が表示領域13a,13bにおいてユーザUA,UBに向かう2つの方向に異なる画像を表示可能に構成されていてもよく、位置制御部64によって表示領域13a、13bにおいて2つの方向に異なる表示対象顔画像を表示させるように制御されてもよい。
具体的には、表示用ディスプレイ5として、画面上の画素群のそれぞれが2つの方向に映像を投影可能なステレオディスプレイ(立体ディスプレイともいう。)の構成を採用する。このようなステレオディスプレイとしては、インターネットURL:http://gigazine.net/news/20160527-3d-tv-nhk2016(2017年1月18日検索)に開示された立体テレビの技術を利用する。そして、位置制御部64は、ユーザUDに対応する表示領域13a(図10参照)において、ユーザUAの方向には、対向装置301から出力された出力対象顔画像として、ユーザUAの瞳孔位置を基に歪調整された顔画像を表示すると同時に、ユーザUBの方向には、対向装置301から出力された出力対象顔画像として、ユーザUBの瞳孔位置を基に歪調整された顔画像を表示するように制御する。また、位置制御部64は、ユーザUDに対応する表示領域13aにおいて、ユーザUAの方向とユーザUBの方向のそれぞれに向けて、対向装置301から出力された出力対象顔画像から選択された異なる表示対象顔画像を同時に表示するように制御してもよい。例えば、図10の例によれば、ユーザUAに対しては、ユーザUDの正面のカラーカメラによって撮影されたユーザUDの顔画像を表示し、ユーザUBに対しては、ユーザUDの斜め方向のカラーカメラによって撮影されたユーザUDの顔画像を表示するようにしてもよい。このようにすれば、ユーザUAに対してはユーザUDが正対するように感じさせることができ、ユーザUBに対してはユーザUDがユーザUAに向いているように感じさせることができる。その結果、コミュニケーション時の臨場感がアップする。
また、上記第1及び第2実施形態においては、顔画像処理装置1が、出力対象顔画像、ユーザUの瞳孔の位置情報、及び選択用情報等を、同時に複数の対向装置に送信する際には、マルチキャスト通信を用いて送信することが好適である。
また、上記第1及び第2実施形態においては、表示用ディスプレイ5及び位置制御部64が、2つの表示領域13a,13bに分割して表示対象画像を表示可能に構成され、それらの2つの表示領域13a,13bに対応して2つのカラーカメラ3a,3bが設けられていたが、表示領域及びそれに対応したカメラの数は特定数には限定されず、3以上であってもよい。また、表示用ディスプレイ5及び位置制御部64は、相手側ユーザの顔画像に加えて、カラーカメラ3a,3bによって撮像されるユーザUの顔画像を並べて表示可能に構成されていてもよい。
このように表示用ディスプレイ5に3以上の表示領域を表示可能に構成されている場合は、いずれかの表示領域に表示される表示対象顔画像が強調表示されてもよい。
例えば、第1及び第2実施形態の変形例として、位置制御部64は、図13に示すように、6つの複数の表示領域13a〜13gのそれぞれに表示対象顔画像を表示させるように制御する。これらの表示領域13a〜13fのそれぞれは、予め他ユーザU1〜U6の表示対象顔画像の表示用として割り当てられている。位置制御部64は、1以上の対向装置から入力された他ユーザU1〜U6の顔画像を、それぞれに割り当てられた表示領域13a〜13fに表示させるように制御する。表示領域13a〜13fの中央には、表示領域13a〜13fよりも目立つようにサイズの大きい表示領域13gが設定されている。そして、これらの表示領域13a〜13gの対応する位置に、ユーザUのユーザ顔画像を撮像するカラーカメラ3a〜3gがそれぞれ設けられる。ここで、位置制御部64は、視線方向算出部63によってユーザUの視線方向を基に算出された表示用ディスプレイ5上の注視点を用いて、ユーザUの視線方向が示す注目表示領域を、表示領域13a〜13fのうちから特定する。具体的には、位置制御部64は、ユーザUの注視点が、一定時間(例えば、0.5秒以上)継続して位置する表示領域13a〜13fを、注目表示領域として特定する。一定時間継続するかで注目表示領域を特定するのは、ユーザUの視線のふらつきによる表示領域の頻繁な切り替わりを防止して、顔画像表示の安定動作を図るためである。安定動作を図るための別の方法としては、移動平均を施したユーザの注視点が位置する表示領域13a〜13fを、注目表示領域として特定してもよい。そして、位置制御部64は、注目表示領域を特定した際には、その注目表示領域に表示されているユーザの表示対象顔画像を拡大(強調)して表示領域13gにも同時に表示させるように制御する。図13には、注目表示領域として表示領域13eが特定され、表示領域13eに表示されている顔画像が同時に表示領域13gにも表示されている例を示している。
このような変形例によれば、ユーザUがコミュニケーションを図りたい相手の他ユーザの顔画像に視線を向けるだけで、その他ユーザの顔画像が強調表示される。その結果、コミュニケーションしたい他ユーザの表情が見やすくなりコミュニケーションが円滑化される。なお、表示領域13gにおける顔画像の切り替わりをユーザUに把握させやすくするためには、位置制御部64は、注目表示領域を特定した際に、注目表示領域として特定された表示領域13eの顔画像を、拡大させながら中央の表示領域13gに向けて移動させるようにアニメーション化して表示させてもよい。さらに、位置制御部64は、表示領域13eを注目表示領域として特定した後に、表示領域13fを注目表示領域として特定した際には、それまで中央の表示領域13gに表示されていた顔画像を、縮小させながら表示領域13eに向けて移動させるようにアニメーション化して表示させてもよい。このような制御により、ユーザUが顔画像の切り替わりを容易に認識することができる。
また、上記の変形例において、表示領域13a〜13fのそれぞれに対する他ユーザU1〜U6の表示対象顔画像の割り当ては、ユーザUの操作によって変更可能にされていてもよい。すなわち、位置制御部64は、外部からのマウス等の入力装置を用いたドラック入力により、他ユーザU1〜U6の顔画像の表示位置を、表示領域13a〜13fの間で変更可能に構成されてもよい。より詳細には、表示領域13aから表示領域13bに向けてのドラック入力を検出した場合は、位置制御部64は、表示領域13aに割り当てられていたユーザU1を表示領域13bに切り替えるように動作する。この際、ユーザUによるマウスを用いた操作が困難な場合には、本発明者らによる文献「瞳孔マウスの提案」(第10回画像センシングシンポジウム講演論文集, B−28, pp.167−172, 2004)に開示された瞳孔マウスの技術、又は、本発明者らによる文献「注視点検出法と瞳孔マウスの組み合わせによるPC入力法の提案」(ViEW2011ビジョン技術の実利用化ワークショップ, OS1-H1(IS1-A1), 7pages, 2012)に開示された視線と瞳孔マウスとを組み合わせた入力技術を用いて、ドラック入力が検出されてもよい。
また、位置制御部64は、上述した注目表示領域の特定、又は表示領域13a〜13fの割り当ての変更を、瞳孔マウスによる入力、または検出したユーザUの顔方向を基に実行可能に構成されていてもよい。ただし、位置制御部64は、瞳孔マウスまたは顔方向によって示される入力位置にカーソル等の視標を表示させることが好適である。瞳孔マウスを利用する場合は、絶対的な基準位置が存在せず、瞳孔の動きの検出量に応じてその量だけ入力位置の移動が制御されるため、カーソルが存在しないと入力位置が分かりにくい。顔方向を利用する場合にもカーソルが存在しないと入力位置が分かりにくい。カーソルが表示されることにより、ユーザUにとって入力されている位置が明確化される。ただし、常にカーソルが表示されているとユーザUにとって顔画像の視認性が低下するので、位置制御部64は、中央の表示領域13gの中に入力位置が認識されている際にはカーソルを表示させないように制御し、入力位置が中央の表示領域13gの外側に移動した際にその入力位置にカーソルを表示させるように制御することが好適である。
さらに、位置制御部64は、図14に示すように、6つの複数の表示領域13a〜13fに表示されている他ユーザU1〜U6の表示対象顔画像のうち、ユーザUの顔画像に視線を向けている他ユーザの顔画像を強調表示させるように制御してもよい。このような変形例では、情報出力部62が、ユーザUの視線方向に基づく注視点を用いて、ユーザUの視線方向が示す注目表示領域を、表示領域13a〜13fのうちから特定する。そして、情報出力部62は、特定した注目表示領域に割り当てられている他ユーザU1〜U6の使用する対向装置に対して、ユーザUの出力対象画像とともに、注目表示領域として特定された結果が出力される。出力される結果としては、注目表示領域に視線を向けているユーザUを識別する情報等が挙げられる。一方、位置制御部64は、対向装置から、他ユーザU1〜U6に関する表示対象顔画像とともに、ユーザUに割り当てられている表示領域が注目表示領域として特定された結果が出力された場合には、その特定結果によって識別されるいずれかの他ユーザU1〜U6の顔画像を強調表示させるように制御する。図14では、表示領域13a,13dが割り当てられたユーザU1,U4の使用する対向装置から特定結果が出力された結果、それらのユーザU1,U4の顔画像が表示領域13a,13dにおいて太線で囲まれて強調表示された例を示している。ここでの強調表示は、顔画像を点滅させるような表示であってもよいし、外枠の色を変えるような表示であってもよい。このような制御により、ユーザUに対してコミュニケーションを求めている他ユーザの顔画像を強調表示することで、ユーザ間でのコミュニケーションをより円滑にすることができる。
1,1A…顔画像処理装置、3a,3b…カラーカメラ(撮像部)、4…視線方向検出部、5…表示用ディスプレイ(画像表示部)、6,6A…プロセッサ(制御部)、13a,13b…表示領域、61…情報入力部、62,62A…情報出力部、63…視線方向算出部(視線方向検出部)、63,63A…視線方向算出部、64…位置制御部、101,201,301…対向装置(外部装置)、U,UA,UB…ユーザ(自ユーザ)、U1,U2,UC,UD…相手側ユーザ(他ユーザ)。

Claims (11)

  1. 自ユーザの顔画像を取得して外部装置に出力し、他ユーザの顔画像を前記外部装置から取得して表示する顔画像処理装置であって、
    自ユーザの視線方向あるいは顔方向を検出する方向検出部と、
    前記外部装置から取得した複数の他ユーザの顔画像である複数の表示対象顔画像を複数の表示領域ごとに分割して表示する画像表示部と、
    前記画像表示部の前記複数の表示領域のそれぞれに対応して配置され、前記自ユーザの顔の画像であるユーザ顔画像を撮像する複数の撮像部と、
    前記画像表示部における前記複数の表示対象顔画像の表示状態を制御するとともに、前記自ユーザの視線方向あるいは顔方向に一致する表示領域に対応して配置された前記撮像部によって取得された前記ユーザ顔画像である出力対象顔画像を、少なくとも出力する制御部とを備え、
    前記制御部は、前記外部装置から前記出力対象顔画像として出力された前記他ユーザの顔画像を取得し、当該顔画像を前記表示対象顔画像として当該他ユーザに対応した前記表示領域に表示させるように制御する、
    顔画像処理装置。
  2. 前記制御部は、前記複数の撮像部によって撮像された複数のユーザ顔画像のうち、前記視線方向あるいは顔方向に一致する表示領域に対応して配置された前記撮像部によって取得されたユーザ顔画像を選択し、当該ユーザ顔画像を前記出力対象顔画像として出力する、
    請求項1記載の顔画像処理装置。
  3. 前記制御部は、前記複数の撮像部によって撮像された複数の前記ユーザ顔画像と、複数の前記ユーザ顔画像から前記出力対象顔画像を選択するための選択用情報とを出力し、前記外部装置から出力された複数の前記ユーザ顔画像のうちから、前記外部装置から出力された前記選択用情報を基に前記表示対象顔画像を選択し、当該表示対象顔画像を前記他ユーザに対応した前記表示領域に表示させるように制御する、
    請求項1記載の顔画像処理装置。
  4. 前記方向検出部は、前記自ユーザの両眼の三次元位置をさらに検出し、
    前記制御部は、前記表示対象顔画像を前記両眼の三次元位置に応じて補正し、補正した前記表示対象顔画像を表示させるように制御する、
    請求項1〜3のいずれか1項に記載の顔画像処理装置。
  5. 前記制御部は、前記表示対象顔画像のサイズを前記外部装置で算出された前記他ユーザの両眼の三次元位置に応じて補正する、
    請求項4記載の顔画像処理装置。
  6. 前記制御部は、前記表示対象顔画像を前記両眼の三次元位置に応じて歪調整するように補正する、
    請求項4又は5記載の顔画像処理装置。
  7. 前記画像表示部は、前記表示領域において複数の方向に異なる画像を表示可能に構成されており、
    前記制御部は、前記外部装置から前記他ユーザの顔画像を複数取得し、当該他ユーザに対応する前記表示領域において、前記複数の他ユーザの顔画像のいずれかを、前記複数の方向に表示させるように制御する、
    請求項1〜6のいずれか1項に記載の顔画像処理装置。
  8. 前記制御部は、前記外部装置から取得された前記出力対象顔画像を、前記複数の方向のそれぞれに応じて歪調整し、歪調整した前記出力対象顔画像を前記複数の方向のそれぞれに表示させるように制御する、
    請求項7記載の顔画像処理装置。
  9. 前記制御部は、前記方向検出部によって検出された前記視線方向を基に、前記複数の表示領域のうち当該視線方向が示す注目表示領域を特定し、前記注目表示領域に表示させる前記他ユーザの顔画像を強調表示させるように制御する、
    請求項1〜8のいずれか1項に記載の顔画像処理装置。
  10. 前記制御部は、前記方向検出部によって検出された前記視線方向を基に、前記複数の表示領域のうち当該視線方向が示す注目表示領域を特定し、前記注目表示領域に対応する他ユーザの使用する外部装置に対して、前記出力対象顔画像とともに前記特定の結果を出力し、
    前記外部装置から、前記他ユーザの顔画像とともに前記特定の結果を取得した場合には、前記他ユーザの顔画像を強調表示させるように制御する、
    請求項1〜9のいずれか1項に記載の顔画像処理装置。
  11. 前記制御部は、外部からのドラック入力により、複数の前記他ユーザの顔画像の表示位置を、前記複数の表示領域の間で変更可能に構成される、
    請求項1〜10のいずれか1項に記載の顔画像処理装置。
JP2017016946A 2017-02-01 2017-02-01 顔画像処理装置 Active JP7012983B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017016946A JP7012983B2 (ja) 2017-02-01 2017-02-01 顔画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017016946A JP7012983B2 (ja) 2017-02-01 2017-02-01 顔画像処理装置

Publications (2)

Publication Number Publication Date
JP2018125727A true JP2018125727A (ja) 2018-08-09
JP7012983B2 JP7012983B2 (ja) 2022-01-31

Family

ID=63110441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016946A Active JP7012983B2 (ja) 2017-02-01 2017-02-01 顔画像処理装置

Country Status (1)

Country Link
JP (1) JP7012983B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113573153A (zh) * 2021-02-02 2021-10-29 腾讯科技(深圳)有限公司 图像处理方法、装置及设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981475A (ja) * 1995-09-18 1997-03-28 Toshiba Corp 情報端末装置
JP2001136501A (ja) * 1999-11-10 2001-05-18 Nec Corp 視線一致テレビ会議装置
JP2005328461A (ja) * 2004-05-17 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> テレビ会議装置及び多地点テレビ会議システム
JP2010200150A (ja) * 2009-02-26 2010-09-09 Toshiba Corp 端末、サーバ、会議システム、会議方法、会議プログラム
JP2011197348A (ja) * 2010-03-19 2011-10-06 Seiko Epson Corp 画像表示システム、画像表示方法、画像表示装置
JP2015023369A (ja) * 2013-07-18 2015-02-02 キヤノン株式会社 撮像装置付き表示装置
JP2015049712A (ja) * 2013-09-02 2015-03-16 セイコーエプソン株式会社 情報処理装置および情報処理方法
JP2016178355A (ja) * 2015-03-18 2016-10-06 株式会社リコー 通信装置、通信システム、通信装置の制御方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981475A (ja) * 1995-09-18 1997-03-28 Toshiba Corp 情報端末装置
JP2001136501A (ja) * 1999-11-10 2001-05-18 Nec Corp 視線一致テレビ会議装置
JP2005328461A (ja) * 2004-05-17 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> テレビ会議装置及び多地点テレビ会議システム
JP2010200150A (ja) * 2009-02-26 2010-09-09 Toshiba Corp 端末、サーバ、会議システム、会議方法、会議プログラム
JP2011197348A (ja) * 2010-03-19 2011-10-06 Seiko Epson Corp 画像表示システム、画像表示方法、画像表示装置
JP2015023369A (ja) * 2013-07-18 2015-02-02 キヤノン株式会社 撮像装置付き表示装置
JP2015049712A (ja) * 2013-09-02 2015-03-16 セイコーエプソン株式会社 情報処理装置および情報処理方法
JP2016178355A (ja) * 2015-03-18 2016-10-06 株式会社リコー 通信装置、通信システム、通信装置の制御方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山本 祥之, 外2名: "遠隔瞳孔検出に基づく頭部移動を許容する視線一致型コミュニケーションシステムの提案", 映像情報メディア学会2015年年次大会講演予稿集, JPN6020039984, 5 August 2015 (2015-08-05), ISSN: 0004369715 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113573153A (zh) * 2021-02-02 2021-10-29 腾讯科技(深圳)有限公司 图像处理方法、装置及设备

Also Published As

Publication number Publication date
JP7012983B2 (ja) 2022-01-31

Similar Documents

Publication Publication Date Title
US9330477B2 (en) Surgical stereo vision systems and methods for microsurgery
US9766441B2 (en) Surgical stereo vision systems and methods for microsurgery
WO2015068656A1 (ja) 画像生成装置および画像生成方法
JP2017525052A (ja) 表示のためにキャプチャ画像の視野を調整する技術
US6611283B1 (en) Method and apparatus for inputting three-dimensional shape information
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
JP2000354257A (ja) 画像処理装置、画像処理方法、およびプログラム提供媒体
WO2018056155A1 (ja) 情報処理装置、画像生成方法およびヘッドマウントディスプレイ
WO2005063114A1 (ja) 視線検出方法および装置ならびに三次元視点計測装置
EP3753246B1 (en) Imaging system and method for producing stereoscopic images using more than two cameras and gaze direction
KR20160094190A (ko) 시선 추적 장치 및 방법
JP4580678B2 (ja) 注視点位置表示装置
US11956415B2 (en) Head mounted display apparatus
KR20170054511A (ko) 피검자에게 안경을 맞추기 위해 피검자의 광학적 파라미터들을 정밀하게 결정하는 방법, 및 고정형 비디오 센터링 시스템
CN114371779B (zh) 一种视线深度引导的视觉增强方法
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
Cutolo et al. The role of camera convergence in stereoscopic video see-through augmented reality displays
CN108572450B (zh) 头戴式显示器、其视野校正方法以及混合现实显示系统
KR101817436B1 (ko) 안구 전위 센서를 이용한 영상 표시 장치 및 제어 방법
WO2016051431A1 (ja) 入出力装置、入出力プログラム、および入出力方法
KR20130088654A (ko) 다중 카메라 기반 시선 추적 장치 및 방법
JP7012983B2 (ja) 顔画像処理装置
JP6608208B2 (ja) 画像表示装置
WO2021237952A1 (zh) 一种增强现实的显示系统及方法
JP2024013947A (ja) 撮像装置、撮像装置の撮像方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112

R150 Certificate of patent or registration of utility model

Ref document number: 7012983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150