JP2013182616A - 映像内のユーザの視線補正方法、機械可読の格納媒体及び携帯端末 - Google Patents

映像内のユーザの視線補正方法、機械可読の格納媒体及び携帯端末 Download PDF

Info

Publication number
JP2013182616A
JP2013182616A JP2013026367A JP2013026367A JP2013182616A JP 2013182616 A JP2013182616 A JP 2013182616A JP 2013026367 A JP2013026367 A JP 2013026367A JP 2013026367 A JP2013026367 A JP 2013026367A JP 2013182616 A JP2013182616 A JP 2013182616A
Authority
JP
Japan
Prior art keywords
eye
video
user
contour point
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013026367A
Other languages
English (en)
Other versions
JP6165459B2 (ja
Inventor
Byung-Jun Son
秉準 孫
Seidai Cho
成大 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013182616A publication Critical patent/JP2013182616A/ja
Application granted granted Critical
Publication of JP6165459B2 publication Critical patent/JP6165459B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact

Abstract

【課題】映像内のユーザの視線補正方法及び装置を提供する。
【解決手段】映像内のユーザの視線補正方法は、映像内のユーザの顔を検出するステップと、検出された顔内の目領域の輪郭点を検出するステップと、映像内の検出された目領域の輪郭点を基準カメラ凝視方向に対応する輪郭点に変化させるステップと、変化した輪郭点によって該当領域を変形させることによって映像内のユーザの視線を補正するステップと、を含む。
【選択図】図2

Description

本発明は、映像補正方法に関し、特に、カメラを凝視する視線と表示部を凝視する視線の差異を補正する方法に関する。
カメラを用いたテレビ電話及びテレビ会議において、カメラを凝視する視線と表示部を凝視する視線の差異によって表示部を眺めて対話するユーザの視線はカメラの各位置によって異なる。カメラが表示部の左側上端に位置すると、表示部を眺めるユーザの視線は表示部の右側下端を眺めるように見えて、カメラが表示部の右側上端に位置すると、表示部を眺めるユーザの視線は表示部の左側下端を眺めるように見える。また、カメラが表示部の中央上端に位置すると、ユーザの視線は表示部の中央下端を眺めるように見える。
従来の視線補正方法では、テレビ会議の際に、表示部の上/下または左/右に設置された2台のカメラにより入力された2映像の差異を比較分析して正面(カメラ)を見るような映像を生成する技術がある。正面を眺める映像を生成するために、3D顔モデルや、3D目モデルを使用する技術が使われる。
視線不一致問題を解決しようとした従来の技術では、主に2台のカメラ位置が固定され、ユーザとカメラとの距離、及びカメラと表示部と関連した視線差異を計算して顔全体のポーズを変化させることによって、視線不一致現象を解決しようとした。このようにヘッドのポーズを変化させるためには、顔輪郭線領域と背景を分離しなければならない技術が必要である。自動で顔輪郭線領域と背景を分離する技術は、時間が長くかかるだけでなく、その性能も精巧でない。また、2台のカメラを使用すべきである問題がある。ユーザが移動しながら通話可能な携帯通信端末上では、カメラとユーザとの距離及び背景が頻繁に変化するために、リアルタイムテレビ電話及び鏡機能、セルフ撮影などにはさらに活用し難い。
韓国特許登録10−0307854号公報
本発明の特定実施形態の目的は、従来技術と関連した問題点及び/または短所のうち、少なくとも一つを少なくとも部分的に解決、軽減または除去することにある。
上記した問題点を解決するために案出された本発明は、単一カメラを用いたテレビ電話及びテレビ会議、鏡機能、セルフ撮影など、カメラと表示部と関連した視線差異によって視線不一致が発生する全ての応用技術及び装置で、リアルタイムまたは高速で映像内のユーザの視線を補正することにその目的がある。
本発明の一様態による、映像内のユーザの視線補正方法は、映像内のユーザの顔を検出するステップと、上記検出された顔内の目領域の輪郭点を検出するステップと、上記映像内の上記検出された目領域の輪郭点を基準カメラ凝視方向に対応する輪郭点に変化させるステップと、上記変化された輪郭点によって上記目領域を変形させることによって上記映像内の上記ユーザの視線を補正するステップと、を含む。
本発明の他の態様によれば、映像内のユーザの視線補正方法を実行するためのプログラムを記録した機械可読の格納媒体が提供される。
本発明のさらに他の態様によれば、機械可読の格納媒体を含む携帯端末が提供される。
本発明のさらに他の態様による、映像内のユーザの視線補正のための携帯端末は、映像を撮影するカメラと、上記映像内のユーザの顔を検出し、上記検出された顔内の目領域の輪郭点を検出し、上記映像内の上記検出された目領域の輪郭点を基準カメラ凝視方向に対応する輪郭点に変化させて、上記変化された輪郭点によって上記目領域を変形させることによって上記映像内の上記ユーザの視線を補正する制御部と、上記制御部により上記目領域が変形された映像を表示する表示部と、を含む。
本発明は、携帯通信端末のように機種別、製造社別にカメラが携帯通信端末の左側上端、中央上端、右側上端など多様な位置に装着されている電子装置と制限された容量の格納媒体及び演算処理能力を設ける電子装置で、別途のカメラやセンサを追加しなくても電子装置に装着された単一カメラを使用してテレビ電話及びテレビ会議、鏡機能、セルフ撮影など、カメラと表示部と関連した視線差異によって視線不一致が発生する全ての応用技術で、リアルタイムまたは高速でユーザの視線を補正することができる。本発明によれば、テレビ電話及びテレビ会議時、対話者間の視線一致(eye contact)を通じてより対話に集中可能であるだけでなく、ユーザ便宜性を増大させる効果がある。また、本発明によれば、鏡機能で実際に鏡を眺めるような効果を与え、セルフ撮影でユーザが良い映像を得るために携帯通信端末を持ち上げてカメラを見ながら撮影をしなくて、表示部に見える自身の顔を眺めて撮影をすることができるようにする便宜性を付与する利点が提供される。
本発明の望ましい実施形態による通信端末の構成を示す図である。 本発明の視線補正方法を示すフローチャートである。 検出された顔映像の例を示す図である。 目及び鼻検出情報を再調整するプロセスを示すフローチャートである。 視線補正が適合したか否かを判断する過程を説明するための図である。 検出された目の輪郭線を示す例示図である。 目の輪郭線変換を説明するための図である。 テクスチャワーピングによって変換された目の形状を示する図である。 テクスチャワーピングに使用される楕円マスクを説明するための図である。 本発明の視線補正方法による効果を説明するための図である。
以下、本発明の好適な実施形態について添付図面を参照しながら詳細に説明する。図面における同様な構成要素に対しては、他の図面に表示されても、同様な参照番号及び符号を付けてあることに注意されたい。また、下記の説明における具体的な特定事項は、本発明の実施形態の包括的な理解を助けるために提供するものであり、この理解を助けるために様々な特定の詳細を含むが、単に例示に過ぎない。さらに、明瞭性と簡潔性の観点から、本発明に関連した公知の機能や構成に関する具体的な説明が本発明の要旨を不明瞭にすると判断される場合には、その詳細な説明を省略する。
図1は、本発明の望ましい実施形態による通信端末の構成を示す図である。通信端末100は、スマートフォン、携帯電話、ゲーム機、ノートパソコン、ラップトップコンピュータ、タブレット(Tablet)PC、PMP(Personal Media Player)、PDA(Personal Digital Assistants)などのような携帯端末、TV、ディスプレイ装置、車両用ヘッドユニットなどであり得る。
通信端末100は、スピーカ112、マイク114及び表示部116を含むユーザインターフェース110、センサ部120、メモリ130、通信部140、カメラ150及び制御部160を含む。なお、通信端末100は、複数のボタンを含むキーパッド、コネクタ、マウスなどをさらに含み得る。
スピーカ112は、制御部160から入力された音声信号(または音声データ)を外部に出力し、マイク114は、ユーザの音声を電気的音声信号として検出して制御部160に出力する。
表示部116は、制御部160から入力された映像信号による映像を表示すると共に、ユーザ入力データを受信して制御部160に出力することができる。表示部116は、LCD(liquid crystal display)、OLED(Organic Light Emitting Diodes)、LEDなどのようなディスプレイユニットと、ディスプレイユニットの下または上に配置されるタッチパネルを含み得る。上記タッチパネルは、ユーザ入力を感知する。該当タッチパネルはユーザ入力手段(例えば、指、スタイラスペン(stylus pen)など)が表示部116の表面を押さえれば、入力位置(または座標)及び/または入力状態(マウスダウン、マウスアップ、マウス移動など)に対する情報を有する感知信号(またはタッチ感知信号)を出力する。例えば、ユーザは、表示部116の画面(すなわち、表示部116の表面)に表示された多様な実行可能なアイテムをタッチして該当アイテムと関連したアプリケーションを実行する。表示部116は、ユーザの入力を受信する手段であり、ユーザがカメラ150を用いて自身の映像を撮影するセルフ撮影アプリケーション、カメラアプリケーション、カメラ150により撮影されたユーザの映像を相手方端末に伝送し、相手方の映像を見ながら通話するテレビ電話アプリケーション、あたかも鏡のようにカメラ150により撮影されたユーザの映像を表示部116に表示する鏡アプリケーションなどのアプリケーションと関連した画面を出力する。この例で、表示部116の例としてディスプレイユニット及びタッチパネルを含むタッチスクリーンを挙げているが、表示部116は通常のディスプレイユニットだけで構成されることもできる。
センサ部120は、通信端末100の位置、方位、動きを感知するセンサとして、加速度センサ、重力センサ、衝撃センサ、GPS、コンパスセンサのうち少なくとも一つを含む。
メモリ130は、通信端末100の運営オペレーティングシステム、多様なアプリケーション、通信端末100に入力される情報、データ、ファイルなどと、その内部で生成される情報、データ、ファイルなどを格納する。
通信部140は、制御部160により生成されたメッセージ、データ、ファイルなどを有線または無線で伝送するか、有線または無線でメッセージ、データ、ファイルなどを受信して制御部160に出力する。
カメラ150は、レンズシステム、イメージセンサ、フラッシュなどを含み得る。カメラはレンズシステムを通じて入力される(または撮影される)光信号を電気的な映像信号に変換して制御部160に出力し、ユーザはカメラ150を通じて動映像または停止映像を撮影することができる。
レンズシステムは、外部から入射された光を収斂させることによって被写体のイメージを形成する。該当レンズシステムは少なくとも一つのレンズを含み、各レンズは凸レンズ、非球面レンズなどであり得る。該当レンズシステムはその中心を通過する光軸(optical axis)に対して対称性を有し、該当光軸は中心軸として定義される。該当イメージセンサは、レンズシステムを通じて入射された外部光により形成された光学的映像を電気的映像信号として検出する。該当イメージセンサは、M×N行列(matrix)構造で配置された複数の画素(pixel)ユニットを具備し、該当画素ユニットはフォトダイオード及び複数のトランジスタを含み得る。該当画素ユニットは、入射された光により生成された電荷を蓄積し、蓄積された電荷による電圧は該当入射された光の照度を示す。停止映像または動映像を構成する一つの映像を処理する場合において、該当イメージセンサから出力される映像信号は、該当画素ユニットから出力される電圧(すなわち、画素値)の集合で構成され、該当映像信号は一つのフレーム(すなわち、停止映像)を示す。また、該当フレームはM×N画素で構成される。該当イメージセンサとしては、CCD(Charge-Coupled Device)イメージセンサ、CMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを使用することができる。
制御部160は、中央処理処置として通信端末100の全般的な動作を制御し、本発明による視線補正方法を遂行する役割をする。
プログラム提供装置20は、通信端末100が視線補正方法を遂行するようにする指示を含むプログラム、該当プログラムのアップデート情報などを格納するためのメモリ21と、通信端末100との有線または無線通信を遂行するための通信部22と、通信端末100の要請または自動で該当プログラムまたはアップデート情報を通信端末100に伝送する制御部23と、を含む。
図2は、本発明の視線補正方法を示すフローチャートである。
ステップ210で、制御部160は、カメラ150から映像フレームを受信するか、メモリ130に格納された映像フレームを読み取る。この方法は一つの映像フレームに対して記述されているが、この方法は順に入力または読み取られる映像フレームに対して各々適用され得る。また、この方法は通信端末100が一対一テレビ電話または多者間テレビ会議を遂行する途中に、カメラからリアルタイムで入力される映像に対して遂行されるか、セルフ撮影アプリケーション、鏡アプリケーションなどのような異なるアプリケーションモードでカメラからリアルタイムで入力される映像に対して遂行され得る。
ステップ220で、制御部160は映像フレームから顔、目及び鼻を検出する。この例では、顔及び目以外に鼻まで検出することを例示しているが、本発明は視線補正に関することであるから、鼻や鼻の座標を検出することは省略され得る。
制御部160は、映像フレームに顔映像が含まれているか否かを判断し、顔映像が含まれていると、該当顔映像を抽出する。ここで、顔検出は通常の顔検出方法により遂行されるが、顔の輪郭線、顔皮膚の色相及び/または質感、テンプレートなどを用いた顔抽出技術が使用され得る。例えば、制御部160は、複数の顔映像を通じて顔学習を遂行し、蓄積された顔学習データを用いて入力された映像フレームから顔映像を検出することができる。
図3は、検出された顔映像の例を示す図である。
制御部160は、目及び鼻の情報を検出する。このような目及び鼻の検出は上述した顔学習データを用いてなされることができる。制御部160は、左目及び右目の中心座標等と鼻の中心座標を検出する。目の中心座標は瞳孔の中心点に対するX、Y軸座標でもあり、鼻の中心座標は鼻先のX、Y軸座標でもある。
制御部160は、視線補正の性能安定化のために、目検出情報及び鼻検出情報を再調整するプロセスを遂行することができる。各映像フレームに対して目と鼻を検出した場合、隣接したフレームにおいて目と鼻の位置変化が大きく現れることがある。すなわち、検出された目の座標と鼻の座標に該当する点を順次的なフレームにかけて表示部116に表示すると、不安定に震える現象が発生することがある。このような現象は、目輪郭境界線検出と顔の角度及び/または傾き推定に影響を及ぼすことがあり、結果的に視線補正された目の震え現象が発生するようになる。
図4は、目及び鼻検出情報を再調整するプロセスを示すフローチャートである。このプロセスで座標調整が遂行されないと、現在フレームでの目及び鼻座標がそのまま使用される。
ステップ410で、制御部160は、現在フレームで目及び鼻座標を検出する。
ステップ420で、制御部160は、前のフレームで検出された目及び鼻座標がメモリ130に格納されているかを判断する。前のフレームで目及び鼻座標が存在する場合にステップ430を遂行し、前のフレームで目及び鼻座標が存在しない場合にこのプロセスを終了する。
ステップ430で、制御部160は、前のフレームの目座標と現在フレームの目座標の差異D_EYEを予め設定された閾値T_eyeと比較する。D_eyeがT_eye未満である場合にステップ440を遂行し、D_eyeがT_eye以上である場合にステップ450を遂行する。この時、ステップ430は左目及び右目の各々に対して遂行される。
ステップ440で、制御部160は、現在フレームの目座標を再調整する。
ステップ450で、制御部160は、前のフレームの鼻座標と現在フレームの鼻座標の差異D_noseを予め設定された閾値T_noseと比較する。D_noseがT_nose未満である場合にステップ460を遂行し、D_noseがT_nose以上である場合にこのプロセスを終了する。
ステップ460で、制御部160は、現在フレームの鼻座標を再調整する。
ステップ440及びステップ460で座標の再調整は下記のように遂行され得る。この座標を再調整する段階は、現在フレームの座標を前のフレームの座標と現在フレームの座標の間に位置する座標に変更する段階である。
Final_LeftEyeX=ALPHA*Curr_LeftEyeX+(1−ALPHA)*Prev_LeftEyeX
Final_LeftEyeY=ALPHA*Curr_LeftEyeY+(1−ALPHA)*Prev_LeftEyeY
Final_RightEyeX=ALPHA*Curr_RightEyeX+(1−ALPHA)*Prev_RightEyeX
Final_RightEyeY=ALPHA*Curr_RightEyeY+(1−ALPHA)*Prev_RightEyeY
Final_NoseX=ALPHA*Curr_NoseX+(1−ALPHA)*Prev_NoseX
Final_NoseY=ALPHA*Curr_NoseY+(1−ALPHA)*Prev_NoseY …(1)
ALPHAは加重値、Final_LeftEyeXとFinal_leftEyeYは左目の最終X、Y軸座標、Final_RightEyeXとFinal_RightEyeYは右目の最終X、Y軸座標、Curr_LeftEyeXとCurr_LeftEyeYは、現在フレームで検出された左目のX、Y軸座標、Curr_RightEyeXとCurr_RightEyeYは、現在フレームで検出された右目のX、Y軸座標、Pre_LeftEyeXとPre_LeftEyeYは前のフレームで検出された左目のX、Y軸座標、Pre_RightEyeXとPre_RightEyeYは前のフレームで検出された右目のX、Y軸座標を示す。そしてFinal_NoseXとFinal_NoseYは鼻の最終X、Y軸座標、Curr_NoseXとCurr_NoseYは、現在フレームで検出された鼻の座標、Prev_NoseXとPrev_NoseYは前のフレームで検出された鼻の座標を示す。
目及び鼻検出情報を再調整するために使用された加重値ALPHAは、検出された目及び鼻の座標に基づいてユーザによって多様に定義されることができる。このような座標再調整は、目及び鼻検出情報以外にも顔検出情報と口検出情報にも適用され得る。例えば、加重値ALPHAは、0.5に設定することによって、前のフレームと現在フレームに加重値を同一に付与することができる。また、左目、右目、鼻に対する加重値ALPHAを下記のようにD_left、D_right、D_nose、T_eye、T_noseによって動的に変化するように決定することができる。
ALPHA_LeftEye=D_left/T_eye
ALPHA_RightEye=D_right/T_eye
ALPHA_Nose=D_nose/T_nose …(2)
図2をさらに参照すると、ステップ230で、制御部160は、検出された顔と、目及び鼻の座標情報を用いて顔のサイズ、位置、角度を推定する。
制御部160は、顔凝視方向(または顔角度)及び/または顔傾きを検出することができ、検出された顔映像が正面位置を眺めるか、それとも左側、右側、上側、下側または大角位置(左上側、右上側、左下側または右下側位置)を眺めるかを判断することができる。例えば、制御部160は、多様な角度の顔映像を通じて顔学習を遂行し、蓄積された顔学習データを用いて入力された映像フレームから顔角度または顔凝視方向を検出することができる。
リアルタイムで視線補正をする場合、画面で顔が占める比率と位置、角度/傾きによって、顔/目/鼻の検出の失敗と成功が頻繁に交差する場合が発生する。このような場合に、視線補正の遂行/非遂行が交差してまばたき(blink)をするような現象が発生する。このような問題を解決するために、制御部160は視線補正が適合したか否かを判断することができる。
ステップ240で、制御部160は視線補正が適合したか否かを判断するために、次の条件が満足するか否かを決定することができる。すなわち、制御部160は、次の三つの段階のうち少なくとも一つを遂行することによって、視線補正が適合したか否かを判断することができる。
図5は、視線補正が適合したか否かを判断する過程を説明するための図面である。
第1に、顔のサイズによる条件として、左側、右目の中心座標510、520間の距離D_eyesが予め設定された閾値T_size以下である場合には視線補正がなされ、D_eyesがT_sizeを超過する場合には、顔/目/鼻検出が失敗する前まで視線補正がなされる。そして顔/目/鼻検出が失敗した以後には、D_eyesがT_size以下になるまでは視線補正をしない。D_eyesがT_sizeを超過し、顔/目/鼻検出が失敗した以後には、表示部116に視線補正がなされるのに適合した顔領域ガイド(またはガイド領域)530を表示するか、メッセージを表示することができる。
第2に、顔の位置による条件として、両目の座標510、520を活用して顔/目/鼻検出が可能な予め決定しておいたガイド領域530を基準として、ガイド領域内側にある場合に視線補正がなされて、外側にある場合に顔/目/鼻検出が失敗する前まで視線補正がなされる。そして顔/目/鼻検出が失敗した以後には、両目の座標510、520がガイド領域530内側に置かれるまでは視線補正をしない。
第3に、両目の座標510、520を用いて傾きを推定した後、すなわち両目の座標510、520をつなぐ仮想線分が画面上のX軸となす角度が予め定められた傾き以下であると、視線補正をし、これを超過すれば、顔/目/鼻検出が失敗する前まで視線補正がなされて、両目の傾きが所定の傾き以下になるまでは視線補正をしない。第1の場合と同様に、第2、第3の場合にも、顔/目/鼻検出が失敗した以後には、表示部116に視線補正がなされるのに適合した顔領域ガイド530やX軸を表示するか、メッセージを表示することができる。
ステップ250で、制御部160は最終的に検出された目の座標を基準として目(すなわち、目領域)の輪郭線を検出する。このステップは、該当目領域の中心座標から予め設定された目モデルの各輪郭点を通過するベクトル方向にピクセルの輝度値変化が最大である点を該当目領域の輪郭点として設定する段階である。
正確な目の輪郭線検出のために、目モデル基盤の輪郭線抽出技術を使用することができる。まず、目モデルを生成するために多様な目形状の学習データを使用する。学習データの映像に対して目輪郭線にN個の点を定義し、この点を用いて主成分分析を通じて目モデルを生成する。目検出を通じて獲得された目領域に光の影響を最小化するために、照明補正を適用した後、照明補正された目領域に目モデルの平均形状(mean shape)を置いて、目の中心座標と目の終点(end point)を初期点としてASM(Active Shape Model)を適用する。目の終点は、該当瞳孔と他側瞳孔間の間隔で該当瞳孔に近い1/5地点を終点として定義し、初期点を選択した以後には目モデルの平均形状にあるN個の点に対してそれぞれの法線ベクトル方向(すなわち、中心座標と目モデルの各点をつなぐベクトル方向)にピクセルの輝度値変化が最大である点を検索する。このようにピクセルの輝度値変化が最大になるN個の点を連結した曲線を目の輪郭線として定義する。
図6は検出された目の輪郭線を示す例示図である。図示したように、検出された目の輪郭線620は、8個の輪郭点610をつなぐ曲線として定義される。
視線補正した目の震え(Shake)を最小化するために、目/鼻座標を再調整したように目の輪郭線を決定するN個の点に対しても、前のフレームで獲得された輪郭線情報を用いて再調整プロセスを遂行することができる。再調整に対する例は次の通りである。前のフレームで得られた輪郭線を決定するN個の点と現在フレームで得られたN個の点に対して相互にマッチングされる各点間の移動距離Di(i=1、2、3、…、N)と平均移動距離DMを求める。平均移動距離が予め定められた閾値T_contour以下であると、前のフレームと現在フレームの座標情報に加重値を与えて各点の座標を再調整し、T_contourを超過すると、現在フレームで得られた輪郭線情報をそのまま使用する。各点の点を再調整するために使われる加重値は、目/鼻座標再調整時のように固定された値を使用することもでき、顔/目/鼻座標情報とDi、DMを用いて動的に決定された数値を使用することもできる。また、目輪郭線を決定する点を抽出する時、一部点が誤抽出される現象が発生することもある。このような場合を防止するために、前のフレームの点との平均移動距離より大きく移動した点に対しては、前のフレームの点側に加重値を高く付与する方法を使用することもできる。
ステップ260で、制御部160は、カメラを凝視する方向に目の輪郭線を変換する。すなわち、制御部160は、現在フレーム内の目領域の輪郭点を予め設定された基準カメラ凝視方向に変化させる。望ましくは、制御部160は、現在フレーム内のユーザの顔凝視方向(すなわち、顔角度または傾き)と予め設定された基準カメラ凝視方向(すなわち、顔角度または傾き)の差異に基づいて、目の輪郭線を定義する輪郭点を変化させる。すなわち、制御部160は、カメラ150を眺めている形態の目を生成するために、正面を凝視する予め格納された目領域の輪郭点と整合(すなわち、マッチング)するように検出された輪郭点の少なくとも一部を移動させる。輪郭点を移動させる方法では、表示部116を眺める目データとカメラ150を眺める目学習データを用いて目形状を変化させる変換関数を生成して使用することができる。例えば、表示部116を眺めるデータの目輪郭線点がカメラを眺めるデータの目輪郭線点に変換されるアフィン(affine)変換関数を生成して使用するか、目上部の輪郭線点と目下部の輪郭線点を分離して2個のアフィン変換関数を生成して使用することもできる。もう一つの例には、学習データから目上部の輪郭線点に対してアフィン変換関数を生成して変換し、目下部の輪郭線は各目の内側終点と外側終点を連結する直線を求めて、この直線に近づく形態に変換することができる。または、ユーザが目上部の輪郭線の点に対してY軸上の移動範囲を調節できるようにすることによって、ユーザが視線補正された目のサイズを調節できるようにすることもできる。
図7は、目の輪郭線変換を説明するための図面である。アフィン変換関数によって目上部の検出された輪郭線720の点710を上側に移動して得られた新たな目上部の輪郭線720aの点710aが示されている。また、直線関数によって、目下部の輪郭線740の点730を上側に移動して得られた新たな目下部の輪郭線740aの点730aが示されている。
図2をさらに参考すると、ステップ270で、制御部160は変換された目輪郭線によって目領域をテクスチャワーピングする。すなわち、制御部160は、フォワードワーピング技術またはバックワードワーピング技術を用いて目領域のテクスチャマッピングを遂行する。
このようなテクスチャワーピングを通じて初めて視線補正された目の形態を得ることができる。ワーピングは、ワーピング前の目領域の各点を基準としてマッピングするフォワードワーピング(forward warping)とワーピング後の目領域の各点を基準としてマッピングするバックワードワーピング(backward warping)の両方ともが使用されることができ、このようなワーピング技法は通常的なことであるので、詳細に記述しない。フォワードワーピング時にはテクスチャが満たさないホール(hole)が生じるようになり、このような場合には周囲のテクスチャ情報を用いてホールを満たす作業が並行される。フォワードワーピングとは異なり、バックワードワーピング時にはホールが生じないので、バックワードワーピング方法を使用することが望ましい。
図8は、テクスチャワーピングによって変換された目の形状を例示する図面である。図8Aは変換前の目の形状を示し、図8Bは変換後の目の形状を示す。
本発明ではワーピングに必要とする処理時間を減らして眼鏡をかけた人に対してワーピング時に現れる眼鏡フレーム周囲の不自然さを解決するために、楕円マスクまたは楕円領域を使用することができる。
図9は、テクスチャワーピングに使われる楕円マスクを説明するための図面である。目輪郭線910の点920を全部含む四角ウィンドウ930内に楕円マスク940を生成し、楕円マスク940内部でワーピングを遂行する。また、ワーピング遂行後、楕円境界部分の不自然さを解決するために楕円境界領域をブラーリング(blurring)することができる。
図10は、本発明の視線補正方法による効果を説明するための図面である。本発明の視線補正によれば、例えば、ユーザの観点で、上側を見る目1010、左上側を見る目1020、左側を見る目1030、左下側を見る目1040、下側を見る目1050、右下側を見る目1060、右側を見る目1070、右上側を見る目1080は、全部正面を見る目1000に変換される。すなわち、表示部を凝視する目がカメラを凝視する目に変換される。この時、全体的な顔形態、角度及び傾きは変換されなく、目の形態のみが変換される。
本発明の実施形態は、ハードウェア、ソフトウェアまたはハードウェア及びソフトウェアの組み合わせで実現可能であることが分かる。このような任意のソフトウェアは、例えば、削除可能または再記録可能の可否と関係なく、ROMなどの格納装置のような揮発性または非揮発性格納装置、または例えば、RAM、メモリチップ、装置または集積回路のようなメモリ、または例えばCD、DVD、磁気ディスクまたは磁気テープなどのような光学または磁気的に記録可能であると共に機械可読の記録媒体に格納され得る。メモリは、本発明の実施形態を実現する指示を含むプログラムまたはプログラムを記録するのに適合した機械(例えば、コンピュータ)可読の格納媒体の一例であることが分かる。したがって、本発明は、本明細書の任意の請求項に記載された方法を実現するためのコードを含むプログラム及びこのようなプログラムを記録する機械可読の格納媒体を含む。また、このようなプログラムは、有線または無線接続を通じて伝達される通信信号のような任意の媒体を通じて電子的に移送でき、本発明はこれと均等なものを適切に含む。
また、該当携帯端末は、有線または無線で連結するプログラム提供装置から該当プログラムを受信して格納することができる。該当プログラム提供装置は、該当携帯端末が予め設定された映像内のユーザの視線補正方法を遂行するようにする指示を含むプログラム、映像内のユーザの視線補正方法に必要な情報などを格納するためのメモリと、該当携帯端末との有線または無線通信を遂行するための通信部と、該当携帯端末の要請または自動で該当プログラムを該当携帯端末に伝送する制御部と、を含むことができる。
以上、本発明の詳細な説明においては具体的な実施形態に関して説明したが、特許請求の範囲の記載及びこれと均等なものに基づいて定められる本発明の範囲及び精神を逸脱することなく、形式や細部の様々な変更が可能であることは、当該技術分野における通常の知識を持つ者には明らかである。
20 プログラム提供装置
21 メモリ
22 通信部
23 制御部
100 通信端末
110 ユーザインターフェース
112 スピーカ
114 マイク
116 表示部
120 センサ部
130 メモリ
140 通信部
150 カメラ
160 制御部

Claims (15)

  1. 映像内のユーザの視線補正方法であって、
    映像内のユーザの顔を検出するステップと、
    検出された前記顔内の目領域の輪郭点を検出するステップと、
    前記映像内の検出された前記目領域の輪郭点を基準カメラ凝視方向に対応する輪郭点に変化させるステップと、
    変化した前記輪郭点によって前記目領域を変形させることによって前記映像内の前記ユーザの視線を補正するステップと、を含むことを特徴とする方法。
  2. 前記映像内のユーザの顔を検出するステップは、
    前のフレームの目座標と現在フレームの目座標の差異を予め設定された閾値と比較するステップと、
    前記目座標の差異が閾値未満である場合に、前記現在フレームの目座標を調整するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記目座標を調整するステップは、前記現在フレームの目座標を、前記前のフレームの目座標と前記現在フレームの目座標との間に位置する座標に変更するステップを含むことを特徴とする請求項2に記載の方法。
  4. 検出された前記顔内の目領域の輪郭点を検出するステップは、
    前記目領域の中心座標から予め設定された目モデルの各輪郭点を通過するベクトル方向にピクセルの輝度値変化が最大である点を、前記目領域の輪郭点として設定するステップを含むことを特徴とする請求項1に記載の方法。
  5. 予め設定された前記基準カメラ凝視方向は、正面を凝視する方向であることを特徴とする請求項1に記載の方法。
  6. 前記輪郭点を変化させるステップは、
    検出された前記輪郭点の少なくとも一部を正面を凝視する目領域の輪郭点に変化させるステップを含むことを特徴とする請求項1に記載の方法。
  7. 前記目領域を変形させるステップは、
    フォワードワーピング技術またはバックワードワーピング技術を用いて前記目領域のテクスチャマッピングを遂行するステップを含むことを特徴とする請求項1に記載の方法。
  8. 前記テクスチャマッピングは、前記目領域の輪郭点を含む楕円内部で遂行されることを特徴とする請求項7に記載の方法。
  9. 前記映像内の両目の距離が予め設定された閾値以下であるかを判断するステップと、
    前記両目が予め設定されたガイド領域内に位置するかを判断するステップと、
    前記両目の座標を用いて測定された検出された前記顔の傾きが予め設定された傾き以下であるかを判断するステップのうち少なくとも一つを遂行することによって、視線補正が適合したか否かを判断するステップをさらに含むことを特徴とする請求項1に記載の方法。
  10. 前記輪郭点を変化させるステップは、
    前記映像内の前記ユーザの顔凝視方向と予め設定された基準凝視方向の差異に基づいて、前記輪郭点を変化させるステップであることを特徴とする請求項1に記載の方法。
  11. 前記映像は、セルフ撮影アプリケーション、テレビ電話アプリケーションまたは鏡アプリケーションを実行する途中に撮影された映像であることを特徴とする請求項1に記載の方法。
  12. 請求項1乃至11のいずれか一項による映像内のユーザの視線補正方法を実行するためのプログラムを記録した機械可読の格納媒体。
  13. 請求項12に記載の機械可読の格納媒体を含む携帯端末。
  14. 映像内のユーザの視線補正のための携帯端末であって、
    映像を撮影するカメラと、
    前記映像内のユーザの顔を検出し、検出された前記顔内の目領域の輪郭点を検出し、前記映像内の検出された前記目領域の輪郭点を基準カメラ凝視方向に対応する輪郭点に変化させて、変化された前記輪郭点によって前記目領域を変形させることによって前記映像内の前記ユーザの視線を補正する制御部と、
    前記制御部により前記目領域が変形された映像を表示する表示部と、を含むことを特徴とする携帯端末。
  15. 前記映像は、セルフ撮影アプリケーション、テレビ電話アプリケーションまたは鏡アプリケーションを実行する途中に撮影された映像であることを特徴とする請求項14に記載の携帯端末。
JP2013026367A 2012-02-29 2013-02-14 映像内のユーザの視線補正方法、機械可読の格納媒体及び携帯端末 Active JP6165459B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0021091 2012-02-29
KR1020120021091A KR101977638B1 (ko) 2012-02-29 2012-02-29 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말

Publications (2)

Publication Number Publication Date
JP2013182616A true JP2013182616A (ja) 2013-09-12
JP6165459B2 JP6165459B2 (ja) 2017-07-19

Family

ID=47891377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013026367A Active JP6165459B2 (ja) 2012-02-29 2013-02-14 映像内のユーザの視線補正方法、機械可読の格納媒体及び携帯端末

Country Status (7)

Country Link
US (1) US9288388B2 (ja)
EP (1) EP2634727B1 (ja)
JP (1) JP6165459B2 (ja)
KR (1) KR101977638B1 (ja)
CN (1) CN103310186B (ja)
AU (1) AU2013200807B2 (ja)
WO (1) WO2013129792A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5695809B1 (ja) * 2013-10-16 2015-04-08 オリンパスイメージング株式会社 表示装置、表示方法およびプログラム
JP5702037B1 (ja) * 2013-10-30 2015-04-15 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
WO2015064144A1 (ja) * 2013-10-30 2015-05-07 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
JP2015149016A (ja) * 2014-02-07 2015-08-20 株式会社サムスン日本研究所 視線変換装置、視線変換方法及びプログラム
JP2019201360A (ja) * 2018-05-17 2019-11-21 住友電気工業株式会社 画像処理装置、コンピュータプログラム、ビデオ通話システム、及び画像処理方法
JP2022066409A (ja) * 2018-02-08 2022-04-28 日本電気株式会社 視線推定装置、視線推定方法、およびプログラム

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101979669B1 (ko) * 2012-07-13 2019-05-17 삼성전자주식회사 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
KR20140090538A (ko) * 2013-01-09 2014-07-17 삼성전자주식회사 디스플레이 장치 및 제어 방법
KR102195314B1 (ko) * 2013-08-28 2020-12-24 삼성전자주식회사 전자 장치 및 그 동작 방법
KR102171332B1 (ko) * 2013-09-10 2020-10-28 에스케이플래닛 주식회사 얼굴 영상 보정 장치, 방법 및 컴퓨터 프로그램이 기록된 기록매체
WO2015103745A1 (en) * 2014-01-08 2015-07-16 Nokia Technologies Oy An apparatus and associated methods for image capture
US9883138B2 (en) * 2014-02-26 2018-01-30 Microsoft Technology Licensing, Llc Telepresence experience
CN105279764B (zh) * 2014-05-27 2020-09-11 北京三星通信技术研究有限公司 眼睛图像处理设备和方法
US9798383B2 (en) * 2014-09-19 2017-10-24 Intel Corporation Facilitating dynamic eye torsion-based eye tracking on computing devices
US9430696B2 (en) * 2014-10-09 2016-08-30 Sensory, Incorporated Continuous enrollment for face verification
US10452136B2 (en) 2014-10-13 2019-10-22 Thomson Licensing Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method, computer program, and computer readable storage medium
CN105763829A (zh) * 2014-12-18 2016-07-13 联想(北京)有限公司 一种图像处理方法及电子设备
CN105791671B (zh) * 2014-12-26 2021-04-02 中兴通讯股份有限公司 一种前摄像头拍摄修正方法、装置及终端
CN104574321B (zh) * 2015-01-29 2018-10-23 京东方科技集团股份有限公司 图像修正方法、图像修正装置和视频系统
US9300916B1 (en) 2015-02-10 2016-03-29 International Business Machines Corporation Natural gazes during online video conversations
CN105989577B (zh) * 2015-02-17 2020-12-29 中兴通讯股份有限公司 一种图像校正的方法和装置
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
GB201507210D0 (en) 2015-04-28 2015-06-10 Microsoft Technology Licensing Llc Eye gaze correction
TW201639347A (zh) * 2015-04-28 2016-11-01 微軟技術授權有限責任公司 視線校正(二)
WO2016176225A1 (en) * 2015-04-28 2016-11-03 Microsoft Technology Licensing, Llc Eye gaze correction
GB201507224D0 (en) 2015-04-28 2015-06-10 Microsoft Technology Licensing Llc Eye gaze correction
KR102317021B1 (ko) * 2015-06-26 2021-10-25 삼성전자주식회사 디스플레이 장치 및 이의 영상 보정 방법
CN105592249B (zh) * 2015-12-23 2018-12-21 努比亚技术有限公司 基于眼纹识别对照片中人物进行眼部修复的终端及方法
WO2017120247A1 (en) * 2016-01-05 2017-07-13 Reald Spark, Llc Gaze correction of multi-view images
US10423830B2 (en) * 2016-04-22 2019-09-24 Intel Corporation Eye contact correction in real time using neural network based machine learning
US10664949B2 (en) * 2016-04-22 2020-05-26 Intel Corporation Eye contact correction in real time using machine learning
CN108347578B (zh) * 2017-01-23 2020-05-08 腾讯科技(深圳)有限公司 视频通话中视频图像的处理方法及装置
EP3665553B1 (en) 2017-08-08 2023-12-13 RealD Spark, LLC Adjusting a digital representation of a head region
CN107562199B (zh) * 2017-08-31 2020-10-09 北京金山安全软件有限公司 一种页面对象设置方法、装置、电子设备及存储介质
KR102460665B1 (ko) * 2017-12-14 2022-10-31 삼성전자주식회사 응시 거리를 결정하는 방법 및 디바이스
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US10755676B2 (en) * 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
KR20200067465A (ko) 2018-12-04 2020-06-12 삼성전자주식회사 영상 처리 방법 및 장치
CN111368589A (zh) * 2018-12-25 2020-07-03 北京三星通信技术研究有限公司 用于视线估计的方法、装置和电子设备
US11360555B2 (en) * 2019-05-20 2022-06-14 Cyberlink Corp. Systems and methods for automatic eye gaze refinement
CN110196640A (zh) * 2019-05-31 2019-09-03 维沃移动通信有限公司 一种操作控制方法及终端
CN112085647B (zh) * 2019-06-14 2024-01-19 华为技术有限公司 一种人脸校正方法及电子设备
CN110458121B (zh) * 2019-08-15 2023-03-14 京东方科技集团股份有限公司 一种人脸图像生成的方法及装置
CN110544317A (zh) * 2019-08-29 2019-12-06 联想(北京)有限公司 图像处理方法、装置、电子设备和可读存储介质
CN111399658B (zh) * 2020-04-24 2022-03-15 Oppo广东移动通信有限公司 眼球注视点的校准方法、装置、电子设备及存储介质
US11647158B2 (en) 2020-10-30 2023-05-09 Microsoft Technology Licensing, Llc Eye gaze adjustment
CN112733797B (zh) * 2021-01-22 2021-10-08 腾讯科技(深圳)有限公司 人脸图像的视线矫正方法、装置、设备及存储介质
CN112733794B (zh) * 2021-01-22 2021-10-15 腾讯科技(深圳)有限公司 人脸图像的视线矫正方法、装置、设备及存储介质
US11871147B2 (en) 2021-06-09 2024-01-09 Microsoft Technology Licensing, Llc Adjusting participant gaze in video conferences
KR20230001715A (ko) * 2021-06-29 2023-01-05 삼성전자주식회사 시선 방향 인식 시에 에러를 보정하는 전자 장치 및 전자 장치의 동작 방법
CN113885699B (zh) * 2021-09-03 2023-12-01 南京信息工程大学 一种眼标控制方法
US11695897B2 (en) 2021-09-27 2023-07-04 Advanced Micro Devices, Inc. Correcting engagement of a user in a video conference

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04271476A (ja) * 1991-02-26 1992-09-28 Sanki Syst Eng Kk マルチワイヤフレーム
JP2000137789A (ja) * 1998-10-29 2000-05-16 Sharp Corp 画像処理装置
JP2009246408A (ja) * 2008-03-28 2009-10-22 Toshiba Corp 対話装置、画像処理モジュール、画像処理方法およびプログラム
JP2011204182A (ja) * 2010-03-26 2011-10-13 Konami Digital Entertainment Co Ltd 画像生成装置、画像加工方法、および、プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG91841A1 (en) 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
KR100307854B1 (ko) 1999-11-10 2001-11-02 전병우 단일카메라를 이용한 시선 맞춤 보정 방법 및 그 장치
US7206435B2 (en) * 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
US6771303B2 (en) 2002-04-23 2004-08-03 Microsoft Corporation Video-teleconferencing system with eye-gaze correction
US8098901B2 (en) * 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
JP2005117106A (ja) 2003-10-02 2005-04-28 Nec Corp 撮像機能付携帯電話機とその制御方法及び制御プログラム
JP4038689B2 (ja) * 2004-01-21 2008-01-30 ソニー株式会社 表示制御装置および方法、記録媒体、並びにプログラム
US7623683B2 (en) * 2006-04-13 2009-11-24 Hewlett-Packard Development Company, L.P. Combining multiple exposure images to increase dynamic range
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
DE102008011836A1 (de) * 2008-02-28 2009-09-03 Carl Zeiss Meditec Ag Ophthalmologisches Gerät und Verfahren zur Beobachtung, Untersuchung, Diagnose und/oder Therapie eines Auges
JP4862934B2 (ja) * 2008-11-28 2012-01-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8581838B2 (en) * 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
JP2010239583A (ja) 2009-03-31 2010-10-21 Brother Ind Ltd 通信端末装置、通信端末装置の通信制御方法、通信制御プログラム
RU2012114124A (ru) * 2009-09-11 2013-10-20 Конинклейке Филипс Электроникс Н.В. Система обработки изображения
KR101184097B1 (ko) 2009-12-07 2012-09-18 삼성전자주식회사 얼굴 정면포즈 판단 방법
JP5639832B2 (ja) * 2010-09-30 2014-12-10 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理システム、及び情報処理装置
KR20120053803A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 시선 궤적을 이용한 컨텐츠 표시 장치 및 방법
JP4893863B1 (ja) * 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
US9041734B2 (en) * 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9075453B2 (en) * 2011-12-29 2015-07-07 Khalifa University of Science, Technology & Research (KUSTAR) Human eye controlled computer mouse interface
US20150084864A1 (en) * 2012-01-09 2015-03-26 Google Inc. Input Method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04271476A (ja) * 1991-02-26 1992-09-28 Sanki Syst Eng Kk マルチワイヤフレーム
JP2000137789A (ja) * 1998-10-29 2000-05-16 Sharp Corp 画像処理装置
JP2009246408A (ja) * 2008-03-28 2009-10-22 Toshiba Corp 対話装置、画像処理モジュール、画像処理方法およびプログラム
JP2011204182A (ja) * 2010-03-26 2011-10-13 Konami Digital Entertainment Co Ltd 画像生成装置、画像加工方法、および、プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5695809B1 (ja) * 2013-10-16 2015-04-08 オリンパスイメージング株式会社 表示装置、表示方法およびプログラム
WO2015056466A1 (ja) * 2013-10-16 2015-04-23 オリンパスイメージング株式会社 表示装置、画像生成装置、表示方法およびプログラム
US9521329B2 (en) 2013-10-16 2016-12-13 Olympus Corporation Display device, display method, and computer-readable recording medium
JP5702037B1 (ja) * 2013-10-30 2015-04-15 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
WO2015064144A1 (ja) * 2013-10-30 2015-05-07 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
JP2015111930A (ja) * 2013-10-30 2015-06-18 オリンパスイメージング株式会社 撮像装置、撮像方法およびプログラム
US9420169B2 (en) 2013-10-30 2016-08-16 Olympus Corporation Imaging device, imaging method, and program
US9838597B2 (en) 2013-10-30 2017-12-05 Olympus Corporation Imaging device, imaging method, and program
JP2015149016A (ja) * 2014-02-07 2015-08-20 株式会社サムスン日本研究所 視線変換装置、視線変換方法及びプログラム
JP2022066409A (ja) * 2018-02-08 2022-04-28 日本電気株式会社 視線推定装置、視線推定方法、およびプログラム
JP7255721B2 (ja) 2018-02-08 2023-04-11 日本電気株式会社 視線推定装置、視線推定方法、およびプログラム
JP2019201360A (ja) * 2018-05-17 2019-11-21 住友電気工業株式会社 画像処理装置、コンピュータプログラム、ビデオ通話システム、及び画像処理方法

Also Published As

Publication number Publication date
EP2634727A3 (en) 2015-07-15
US9288388B2 (en) 2016-03-15
KR101977638B1 (ko) 2019-05-14
AU2013200807A1 (en) 2013-09-12
JP6165459B2 (ja) 2017-07-19
US20130222644A1 (en) 2013-08-29
KR20130099521A (ko) 2013-09-06
EP2634727A2 (en) 2013-09-04
WO2013129792A1 (en) 2013-09-06
CN103310186B (zh) 2018-01-16
CN103310186A (zh) 2013-09-18
AU2013200807B2 (en) 2016-02-18
EP2634727B1 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6165459B2 (ja) 映像内のユーザの視線補正方法、機械可読の格納媒体及び携帯端末
US11860511B2 (en) Image pickup device and method of tracking subject thereof
JP6362831B2 (ja) ユーザの顔分析結果によって移動端末を制御する装置及び方法
US10469821B2 (en) Stereo image generating method and electronic apparatus utilizing the method
JP5450739B2 (ja) 画像処理装置及び画像表示装置
US9253480B2 (en) Image display device, image display method, and image correction method
EP3544286B1 (en) Focusing method, device and storage medium
US20120287246A1 (en) Image processing apparatus capable of displaying image indicative of face area, method of controlling the image processing apparatus, and storage medium
US8400532B2 (en) Digital image capturing device providing photographing composition and method thereof
CN103428428A (zh) 影像捕获设备以及影像捕获方法
CN107111371B (zh) 一种展示全景视觉内容的方法、装置及终端
KR20100055946A (ko) 동영상 썸네일 생성 방법 및 장치
TWI637288B (zh) 用於眼球視線校正的影像處理方法及其系統
US11720996B2 (en) Camera-based transparent display
JPWO2014148031A1 (ja) 画像生成装置、撮像装置および画像生成方法
CN107852457B (zh) 取景器装置和操作该装置的方法
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11956555B2 (en) Imaging with cameras having different distortion profiles
US20230379594A1 (en) Image blending
KR20130123316A (ko) 사용자의 얼굴 분석 결과에 따라 이동 단말을 제어하는 장치 및 방법
KR20100011287A (ko) 얼굴 표정을 인식하는지에 따라 얼굴 영역을 상이하게가리키는 디지털 영상 처리 장치의 제어 방법 및 상기방법을 실행하는 디지털 영상 처리 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170621

R150 Certificate of patent or registration of utility model

Ref document number: 6165459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250