JP6371849B2 - 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム - Google Patents
画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム Download PDFInfo
- Publication number
- JP6371849B2 JP6371849B2 JP2016535977A JP2016535977A JP6371849B2 JP 6371849 B2 JP6371849 B2 JP 6371849B2 JP 2016535977 A JP2016535977 A JP 2016535977A JP 2016535977 A JP2016535977 A JP 2016535977A JP 6371849 B2 JP6371849 B2 JP 6371849B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- mapping
- subject
- ray map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 44
- 210000005252 bulbus oculi Anatomy 0.000 claims description 140
- 238000013507 mapping Methods 0.000 claims description 134
- 238000004364 calculation method Methods 0.000 claims description 79
- 238000012546 transfer Methods 0.000 claims description 42
- 210000001508 eye Anatomy 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 28
- 230000003287 optical effect Effects 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000002093 peripheral effect Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 11
- 230000005043 peripheral vision Effects 0.000 claims description 2
- 210000004087 cornea Anatomy 0.000 description 34
- 230000006870 function Effects 0.000 description 33
- 239000013598 vector Substances 0.000 description 25
- 239000013256 coordination polymer Substances 0.000 description 17
- 238000012545 processing Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
第1画像のデータおよび第2画像のデータを取得する取得部と、
第1画像のデータおよび第2画像のデータを格納する記憶部と、
第1画像を球面光線マップへ移す写像である第1写像と、第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
第1画像中の一点と、当該一点と対応する第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
球面光線マップにおける第1画像の像と、球面光線マップにおける第2画像の像とを位置整合させる回転写像を、対応点対を構成する第1画像中の一点の位置および局所特徴量、ならびに、対応点対を構成する第2画像中の一点の位置および局所特徴量に基づいて、導出する回転写像導出部と、
第1写像と、回転写像と、第2写像と、に基づいて、記憶部に格納された第1画像のデータを、記憶部に格納された第2画像のデータに対して位置合わせして第2画像に対して位置合わせされた第1画像のデータを生成するレジストレーション部と、を有する画像位置合わせ装置である。
図1に示すようなシステムを例に挙げ、本発明に至った経緯を説明する。同図のシステムは、被験者の眼球20(のうち、主として角膜21)を撮像するアイ・カメラ911eと、被験者が見ている光景(シーン)を撮像する(撮像の方向が被験者の視線方向と略一致するように設置されている)シーン・カメラ911sを有する。同システムには、図示しないコンピュータがさらに含まれ、そのコンピュータが、アイ・カメラ911eが撮像した画像(眼球画像)から被験者の視線の方向を推定するとともに、シーン・カメラ911sが撮像した画像(シーン画像)を用いて被験者が目にしている光景を高精細に復元することを試みる。
そこで、本願発明者は、以下に説明する新規な画像位置合わせのための装置および方法を提案する。まずここでは図3を参照し、本発明の実施形態による画像位置合わせ装置が実行する画像位置合わせ方法の概要を説明する。
図4は、本発明の実施形態による画像位置合わせ装置10の構成を示す概略図である。画像位置合わせ装置10は、被験者の眼球20(のうち主として角膜21)を撮像するアイ・カメラ11eから画像データ(「眼球画像」のデータ)を取得するための第1映像インタフェース3eと、被験者が見ている光景(シーン)を撮像する(撮像の方向および画角が被験者の視線方向(眼球の光軸の方向)と略一致するように(あるいは視線方向を含むように)設置されている)シーン・カメラ11sから画像データ(「シーン画像」のデータ)を取得するための第2映像インタフェース3sを備えている。さらに、画像位置合わせ装置10は、第1および第2映像インタフェース3e,3sを介して装置10へ入力され記憶部2に格納されたシーン画像および眼球画像のデータを用いて両画像の位置合わせを行う演算部1(制御部)と、眼球画像のデータやシーン画像のデータといった各種データおよび演算部1が実行するプログラム等を格納する記憶部2を備える。なお、画像位置合わせ装置10は、アイ・カメラ11eとシーン・カメラ11sとともに画像位置合わせシステムを構成する。
次に、図5〜図14を参照し、画像位置合わせ装置10の演算部1(図4)が、画像位置合わせプログラムを実行したときに行う処理について説明する。
本実施形態による画像位置合わせ装置10(図4)を用いた画像位置合わせ実験の結果を示す。本実験においては、角膜表面反射像(眼球画像Ie)およびシーン画像Isを安定して同時撮影するため、アイ・カメラ11e(図4)およびシーン・カメラ11s(図4)として、2台の小型ボードカメラ(IDS UI-1241LE-C-HQ, 1/1.8'' CMOS, 1280 x 1024 pixel)および、ヘッドマウントシステムからなるシステムを構成した。該システムでは、アイ・カメラ11e(f=12 mm, (H, V)=(33.3, 24.8)deg)は、眼球20から70〜110ミリメートル程度離れた距離に位置し、瞳直径を約400〜450画素程度の大きさで撮影した。低照度環境での撮影に際しては、アイ・カメラ11eのゲインおよび露出パラメータを調整した。アイ・カメラ11eおよびシーン・カメラ11sは、画像位置合わせ装置10(パーソナル・コンピュータ、PC)に接続された状態で、10fpsで画像を取得した。
本実施形態による画像位置合わせ装置および画像位置合わせ方法は、眼球画像Ieの角膜表面反射像と、シーン画像Isとのマッチングを可能にする。以下、本実施形態を用いて実現される応用用途の例を紹介する。
本実施形態による画像位置合わせ装置を用いた注視点推定を説明する。この注視点の推定により、例えば、ユーザが目で見ている風景の画像を抽出し、Googleストリートビュー等の画像を参照することで、ユーザが見ている物や場所を特定することができる。この技術は例えばAR(Augmented Reality)システムへの応用が可能である。本実施形態による画像位置合わせ装置を用いた注視点推定においては、従来の例と異なり、アイ・カメラとシーン・カメラとの相対的位置関係のキャリブレーションが不要である。また、同相対的位置関係を固定化する必要もない。
上記の注視点抽出システムとして動作する画像位置合わせ装置を用いたディスプレイ装置を説明する。この技術は例えばAR(Augmented Reality)システムへの応用が可能である。このディスプレイ装置(ARシステム)においては、従来の例と異なり、アイ・カメラとシーン・カメラとの相対的位置関係のキャリブレーションが不要である。また、同相対的位置関係を固定化する必要もない。このディスプレイ装置は、本実施形態による画像位置合わせ装置と同様に図4に示す構成を有する。出力部4は画像を表示するモニタディスプレイである。演算部1は、出力部4にシーン画像Isを表示させるととともに、上述のように抽出したシーン画像Isにおけるシーン画像中の任意の点の位置に所定の画像を重ねて表示させる。これによってARシステムによる重畳表示を行う事ができる。
さらに、本実施形態による画像位置合わせ装置および画像位置合わせ方法により、被験者の周辺視野をシーン画像Isに復元することもできるようになる。
既存の虹彩認識の手法では、角膜表面での鏡面反射を抑制するため赤外線照明を用いて眼球の画像を取得している。これに対し、本実施形態による画像位置合わせ装置を用いれば、シーン画像を用いて、眼球画像に含まれる鏡面反射(角膜表面反射像)を除去することができるようになる。
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出する回転写像導出部と、
前記第1画像から眼球の姿勢を検出することにより前記第1画像上で注視反射点を検出し、
前記第1写像と、前記回転写像と、前記第2写像とに基づいて、前記第2画像中の前記注視反射点に対応する点を、被験者が注視している点として求める視点抽出部と、
を有する、注視点抽出システム。
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて、導出する回転写像導出部と、
前記第1画像から眼球の光軸を特定し、前記光軸に対し所定の角度を成す方向から到来した光が角膜表面において反射した点を特定し、前記第1写像と前記回転写像と前記第2写像とに基づいて、前記第2画像から前記特定した反射点群を、被験者の周辺視野の領域を形成する点群として検出する視野推定部と、
を有する、周辺視野推定システム。
前記第1画像のデータおよび前記第2画像のデータを格納する記憶部と、
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて、導出する回転写像導出部と、
前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するレジストレーション部と、
位置合わせされた前記第1画像を前記第2画像から減算して虹彩画像を生成する虹彩画像生成部と、
前記虹彩画像を用いて虹彩認識を行う認識部と、
を有する、虹彩認識システム。
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出するステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出するステップと、
演算部が、前記第1画像から眼球の姿勢を検出することにより前記第1画像上で注視反射点を検出するステップと、
演算部が、前記第1写像と、前記回転写像と、前記第2写像とに基づいて、前記第2画像中の、前記注視反射点に対応する点を、被験者が注視している点として求めるステップと、
を有する、注視点抽出方法。
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出するステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出するステップと、
演算部が、前記第1画像から眼球の光軸を特定し、前記光軸に対し所定の角度を成す方向から到来した光が角膜表面において反射した点を特定し、前記第1写像と前記回転写像と前記第2写像とに基づいて、前記第2画像から前記特定した反射点群を、被験者の周辺視野の領域を形成する点群として検出するステップと、
を有する、周辺視野推定方法。
前記第1画像のデータおよび前記第2画像のデータを格納するステップと、
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出するステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出するステップと、
演算部が、前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するステップと、
演算部が、位置合わせされた前記第1画像を前記第2画像から減算して虹彩画像を生成するステップと、
演算部が、前記虹彩画像を用いて虹彩認識を行うステップと、
を有する、虹彩認識方法。
Claims (13)
- 被験者の眼球を撮影した画像である第1画像のデータおよび被験者の視線方向の被写体を撮影した画像である第2画像のデータを取得する取得部と、
前記第1画像のデータおよび前記第2画像のデータを格納する記憶部と、
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置およびオリエンテーションの情報を含む局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置およびオリエンテーションの情報を含む局所特徴量に基づいて、導出する回転写像導出部と、
前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するレジストレーション部と、
を有する画像位置合わせ装置。 - 前記対応点対抽出部は、前記対応点対の候補として、前記第1画像の点と前記第2画像の点とで構成される対応点対候補を複数組み検出し、前記複数組みの対応点対候補それぞれの点対の対応関係を評価し、最も高く評価された点対で構成される対応点対候補を前記対応点対として抽出する、ことを特徴とする請求項1に記載の画像位置合わせ装置。
- 前記対応点対抽出部は、前記対応点対候補を構成する前記第1画像の点と前記第2画像の点との対応関係に従って前記第1画像および前記第2画像から抽出された点対で構成される複数の副次的対応点対の対応関係を評価することにより、前記対応点対候補の対応関係を評価する、ことを特徴とする請求項2に記載の画像位置合わせ装置。
- 第1画像を撮影する第1のカメラと、
第2の画像を撮影する第2のカメラと、
前記第1画像と前記第2画像の位置合わせを行う、請求項1ないし3のいずれかに記載の画像位置合わせ装置と
を備えた、ことを特徴とする画像位置合わせシステム。 - 被験者の眼球を撮影した画像である第1画像のデータおよび被験者の視線方向の被写体を撮影した画像である第2画像のデータを取得する取得ステップと、
前記第1画像のデータおよび前記第2画像のデータを記憶部に格納する記憶ステップと、
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング・ステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出ステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置およびオリエンテーションの情報を含む局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置およびオリエンテーションの情報を含む局所特徴量に基づいて、導出する回転写像導出ステップと、
演算部が、前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するレジストレーション・ステップと、を有する画像位置合わせ方法。 - コンピュータが実行可能な画像位置合わせプログラムであって、
前記画像位置合わせプログラムは、前記コンピュータに、
被験者の眼球を撮影した画像である第1画像のデータおよび被験者の視線方向の被写体を撮影した画像である第2画像のデータを取得する取得ステップと、
前記第1画像のデータおよび前記第2画像のデータを記憶部に格納する記憶ステップと、
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング・ステップと、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出ステップと、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置およびオリエンテーションの情報を含む局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置およびオリエンテーションの情報を含む局所特徴量に基づいて、導出する回転写像導出ステップと、
前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するレジストレーション・ステップと、を実行させることを特徴とする画像位置合わせプログラム。 - 被験者の眼球を撮影した画像である第1画像及び被験者の視線方向の被写体を撮影した画像である第2画像を取得する取得部と、
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出する回転写像導出部と、
前記第1画像から眼球の姿勢を検出することにより前記第1画像上で注視反射点を検出し、前記第1写像と、前記回転写像と、前記第2写像とに基づいて、前記第2画像中の、前記注視反射点に対応する点を、被験者が注視している点として求める視点抽出部と、 を有する、注視点抽出システム。 - 請求項7記載の注視点抽出システムを備えた表示システム。
- 被験者の眼球を撮影した画像である第1画像及び被験者の視線方向の被写体を撮影した画像である第2画像を取得する取得部と、
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて、導出する回転写像導出部と、
前記第1画像から眼球の光軸を特定し、前記光軸に対し所定の角度を成す方向から到来した光が角膜表面において反射した点を特定し、前記第1写像と前記回転写像と前記第2写像とに基づいて、前記第2画像から前記特定した反射点群を、被験者の周辺視野の領域を形成する点群として検出する視野推定部と、
を有する、周辺視野推定システム。 - 被験者の視線方向の被写体を撮影した画像である第1画像および被験者の眼球を撮影した画像である第2画像を取得する取得部と、
前記第1画像のデータおよび前記第2画像のデータを格納する記憶部と、
前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するマッピング部と、
前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出する対応点対抽出部と、
前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて、導出する回転写像導出部と、
前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するレジストレーション部と、
位置合わせされた前記第1画像を前記第2画像から減算して虹彩画像を生成する虹彩画像生成部と、
前記虹彩画像を用いて虹彩認識を行う認識部と、
を有する、虹彩認識システム。 - 被験者の眼球を撮影した画像である第1画像及び被験者の視線方向の被写体を撮影した画像である第2画像を取得するステップと、
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出するステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出するステップと、
演算部が、前記第1画像から眼球の姿勢を検出することにより前記第1画像上で注視反射点を検出するステップと、
演算部が、前記第1写像と、前記回転写像と、前記第2写像とに基づいて、前記第2画像中の、前記注視反射点に対応する点を、被験者が注視している点として求めるステップと、
を有する、注視点抽出方法。 - 演算部が、被験者の眼球を撮影した画像である第1画像及び被験者の視線方向の被写体を撮影した画像である第2画像を取得するステップと、
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出するステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出するステップと、
演算部が、前記第1画像から眼球の光軸を特定し、前記光軸に対し所定の角度を成す方向から到来した光が角膜表面において反射した点を特定し、前記第1写像と前記回転写像と前記第2写像とに基づいて、前記第2画像から前記特定した反射点群を、被験者の周辺視野の領域を形成する点群として検出するステップと、
を有する、
周辺視野推定方法。 - 被験者の視線方向の被写体を撮影した画像である第1画像および被験者の眼球を撮影した画像である第2画像を取得するステップと、
前記第1画像のデータおよび前記第2画像のデータを記憶部に格納するステップと、
演算部が、前記第1画像を球面光線マップへ移す写像である第1写像と、前記第2画像を球面光線マップへ移す写像である第2写像と、を決定するステップと、
演算部が、前記第1画像中の一点と、当該一点と対応する前記第2画像中の一点を検出することにより対応点対を抽出するステップと、
演算部が、前記球面光線マップにおける前記第1画像の像と、前記球面光線マップにおける前記第2画像の像とを位置整合させる回転写像を、前記対応点対を構成する前記第1画像中の一点の位置および局所特徴量、ならびに、前記対応点対を構成する前記第2画像中の一点の位置および局所特徴量に基づいて導出するステップと、
演算部が、前記第1写像と、前記回転写像と、前記第2写像と、に基づいて、前記記憶部に格納された前記第1画像のデータを、前記記憶部に格納された前記第2画像のデータに対して位置合わせして前記第2画像に対して位置合わせされた前記第1画像のデータを生成するステップと、
演算部が、位置合わせされた前記第1画像を前記第2画像から減算して虹彩画像を生成するステップと、
演算部が、前記虹彩画像を用いて虹彩認識を行うステップと、を有する、
虹彩認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014150848 | 2014-07-24 | ||
JP2014150848 | 2014-07-24 | ||
PCT/JP2015/071027 WO2016013634A1 (ja) | 2014-07-24 | 2015-07-23 | 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016013634A1 JPWO2016013634A1 (ja) | 2017-06-01 |
JP6371849B2 true JP6371849B2 (ja) | 2018-08-08 |
Family
ID=55163158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016535977A Active JP6371849B2 (ja) | 2014-07-24 | 2015-07-23 | 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10628948B2 (ja) |
EP (1) | EP3188129A4 (ja) |
JP (1) | JP6371849B2 (ja) |
KR (1) | KR101909006B1 (ja) |
CN (1) | CN106575439B (ja) |
WO (1) | WO2016013634A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102520108B1 (ko) * | 2016-06-07 | 2023-04-11 | 삼성디스플레이 주식회사 | 투명 표시 장치, 이의 구동 방법, 및 이미지 취득 장치 |
US11030975B2 (en) | 2016-07-04 | 2021-06-08 | Sony Corporation | Information processing apparatus and information processing method |
KR102589853B1 (ko) * | 2016-10-27 | 2023-10-16 | 삼성전자주식회사 | 영상 표시 장치 및 영상 표시 방법 |
EP3616600B1 (en) * | 2017-04-28 | 2022-06-22 | Nikon Corporation | Ophthalmological device |
CN107230066B (zh) * | 2017-06-01 | 2020-11-03 | 珠海市魅族科技有限公司 | 一种支付方法以及装置、计算机装置、可读存储介质 |
WO2019030375A2 (en) * | 2017-08-11 | 2019-02-14 | Carl Zeiss Meditec, Inc. | SYSTEMS AND METHODS FOR ENHANCED OPHTHALMOLOGIC IMAGING |
US11380018B2 (en) | 2017-12-19 | 2022-07-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Head-mounted display device and method thereof |
US11335079B2 (en) * | 2018-03-05 | 2022-05-17 | Intel Corporation | Method and system of reflection suppression for image processing |
JP6840697B2 (ja) * | 2018-03-23 | 2021-03-10 | 株式会社豊田中央研究所 | 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム |
JP7173836B2 (ja) * | 2018-11-05 | 2022-11-16 | 京セラ株式会社 | コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体 |
CN110220675B (zh) * | 2019-06-11 | 2021-09-28 | 深圳创维-Rgb电子有限公司 | 一种显示器性能测试系统、方法、终端及存储介质 |
CN114223194B (zh) * | 2019-08-06 | 2024-04-26 | 爱尔康公司 | 用于玻璃体视网膜手术的场景相机系统和方法 |
CN111815688B (zh) * | 2020-06-24 | 2022-10-21 | 杭州宏华数码科技股份有限公司 | 一种长线条图像的精准配准方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6389179B1 (en) | 1996-05-28 | 2002-05-14 | Canon Kabushiki Kaisha | Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image |
JP3817302B2 (ja) * | 1996-05-28 | 2006-09-06 | キヤノン株式会社 | 画像生成装置 |
JP2001108933A (ja) | 1999-08-03 | 2001-04-20 | Sony Corp | ヘッドマウントディスプレイ装置 |
US20050063608A1 (en) * | 2003-09-24 | 2005-03-24 | Ian Clarke | System and method for creating a panorama image from a plurality of source images |
JP4595750B2 (ja) * | 2005-08-29 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8077914B1 (en) * | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
JP5217585B2 (ja) | 2008-04-09 | 2013-06-19 | セイコーエプソン株式会社 | 頭部装着型画像表示装置 |
JP2010056661A (ja) | 2008-08-26 | 2010-03-11 | Olympus Corp | 頭部装着型映像取得表示装置 |
JP5329882B2 (ja) | 2008-09-17 | 2013-10-30 | パイオニア株式会社 | ディスプレイ装置 |
JP5295714B2 (ja) | 2008-10-27 | 2013-09-18 | 株式会社ソニー・コンピュータエンタテインメント | 表示装置、画像処理方法、及びコンピュータプログラム |
JP5612371B2 (ja) * | 2010-06-11 | 2014-10-22 | 富士フイルム株式会社 | 画像位置合わせ装置および方法並びにプログラム |
FR2970576B1 (fr) * | 2011-01-19 | 2013-02-08 | Matchic Labs | Procede de determination de la direction du regard et dispositif pour sa mise en oeuvre |
JP5733565B2 (ja) * | 2011-03-18 | 2015-06-10 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CN102324043B (zh) * | 2011-09-07 | 2013-12-18 | 北京邮电大学 | 基于dct的特征描述算子及优化空间量化的图像匹配方法 |
US9262680B2 (en) | 2012-07-31 | 2016-02-16 | Japan Science And Technology Agency | Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium |
CN103024350B (zh) * | 2012-11-13 | 2015-07-29 | 清华大学 | 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统 |
JP5533988B2 (ja) * | 2012-11-30 | 2014-06-25 | 株式会社デンソーアイティーラボラトリ | 画像処理システム |
US10007336B2 (en) * | 2013-09-10 | 2018-06-26 | The Board Of Regents Of The University Of Texas System | Apparatus, system, and method for mobile, low-cost headset for 3D point of gaze estimation |
-
2015
- 2015-07-23 KR KR1020177000056A patent/KR101909006B1/ko active IP Right Grant
- 2015-07-23 WO PCT/JP2015/071027 patent/WO2016013634A1/ja active Application Filing
- 2015-07-23 EP EP15825115.7A patent/EP3188129A4/en not_active Withdrawn
- 2015-07-23 CN CN201580039748.5A patent/CN106575439B/zh not_active Expired - Fee Related
- 2015-07-23 JP JP2016535977A patent/JP6371849B2/ja active Active
-
2017
- 2017-01-24 US US15/413,629 patent/US10628948B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3188129A1 (en) | 2017-07-05 |
JPWO2016013634A1 (ja) | 2017-06-01 |
CN106575439A (zh) | 2017-04-19 |
KR20170020839A (ko) | 2017-02-24 |
WO2016013634A1 (ja) | 2016-01-28 |
US10628948B2 (en) | 2020-04-21 |
KR101909006B1 (ko) | 2018-10-17 |
CN106575439B (zh) | 2019-05-31 |
EP3188129A4 (en) | 2018-03-07 |
US20170169578A1 (en) | 2017-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6371849B2 (ja) | 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム | |
Schuckers et al. | On techniques for angle compensation in nonideal iris recognition | |
CN104978548B (zh) | 一种基于三维主动形状模型的视线估计方法与装置 | |
US9235928B2 (en) | 3D body modeling, from a single or multiple 3D cameras, in the presence of motion | |
Lu et al. | Learning gaze biases with head motion for head pose-free gaze estimation | |
US9563805B2 (en) | Method and apparatus for eye gaze tracking | |
Nishino et al. | Corneal imaging system: Environment from eyes | |
JP5728009B2 (ja) | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 | |
US11294455B2 (en) | Method and device for determining gaze placement, computer readable storage medium | |
JP6191943B2 (ja) | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
CN104809424B (zh) | 一种基于虹膜特征实现视线追踪的方法 | |
JP5828167B2 (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
CN106529409A (zh) | 一种基于头部姿态的眼睛注视视角测定方法 | |
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
JP7030317B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
Jeni et al. | Person-independent 3d gaze estimation using face frontalization | |
WO2009043927A1 (en) | Apparatus for acquiring and processing information relating to human eye movements | |
US20140009570A1 (en) | Systems and methods for capture and display of flex-focus panoramas | |
WO2021197466A1 (zh) | 眼球检测方法、装置、设备及存储介质 | |
JP6276713B2 (ja) | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム | |
JP7498404B2 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP6377566B2 (ja) | 視線計測装置、視線計測方法、およびプログラム | |
JP2018149234A (ja) | 注視点推定システム、注視点推定方法及び注視点推定プログラム | |
JP6302427B2 (ja) | 画像データ処理方法、画像データ処理装置および画像データ処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180525 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6371849 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |