JP7173836B2 - コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体 - Google Patents

コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体 Download PDF

Info

Publication number
JP7173836B2
JP7173836B2 JP2018208358A JP2018208358A JP7173836B2 JP 7173836 B2 JP7173836 B2 JP 7173836B2 JP 2018208358 A JP2018208358 A JP 2018208358A JP 2018208358 A JP2018208358 A JP 2018208358A JP 7173836 B2 JP7173836 B2 JP 7173836B2
Authority
JP
Japan
Prior art keywords
eye
image
cornea
object point
corneal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018208358A
Other languages
English (en)
Other versions
JP2020077055A (ja
Inventor
佑介 林
薫 草深
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018208358A priority Critical patent/JP7173836B2/ja
Priority to US17/290,980 priority patent/US11551375B2/en
Priority to CN201980073713.1A priority patent/CN112955933B/zh
Priority to PCT/JP2019/042204 priority patent/WO2020095747A1/ja
Priority to EP19881108.5A priority patent/EP3879491A4/en
Publication of JP2020077055A publication Critical patent/JP2020077055A/ja
Application granted granted Critical
Publication of JP7173836B2 publication Critical patent/JP7173836B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本開示は、コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体に関する。
従来、ステレオカメラが有する2つのカメラがそれぞれ撮像した撮像画像に基づいて、物体、人物等の被写体までの距離を算出することが知られている。例えば、特許文献1には、このようなステレオカメラにおいて正確に距離を算出するために、2つのカメラの位置および姿勢の相対的なずれを較正することが記載されている。
国際公開2016/208200号
距離を測定するために2つの撮像装置が用いられる場合、1つのみの撮像装置を用いる場合に比べて、高額な費用が発生する。これを解消するために、1つの撮像装置を用いて実空間における被写体までの距離を算出することが望まれていた。
本開示は、1つの撮像装置を用いて実空間における被写体の位置を正確に判定することができるコントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体を提供する。
本開示のコントローラは、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定する。前記コントローラは、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する。
本開示のコントローラは、物点を視認している利用者の第1眼および第2眼を含む撮像画像から前記第1眼の角膜の像および前記第2眼の角膜の像を抽出し、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する。
本開示の位置判定装置は、通信モジュールと、コントローラと、を備える。前記通信モジュールは、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像を受信する。前記コントローラは、前記撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定する。前記コントローラは、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する。
本開示の、位置判定システムは、撮像装置と、位置判定装置と、を備える。前記位置判定装置は、通信モジュールと、コントローラと、を含む。前記通信モジュールは、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像を受信する。前記コントローラは、前記撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定する。前記コントローラは、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する。
本開示の表示システムは、撮像装置と、位置判定装置と、ヘッドアップディスプレイとを備える。前記位置判定装置は、通信モジュールと、コントローラと、を備える。前記通信モジュールは、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像を受信する。前記コントローラは、前記撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定する。前記コントローラは、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する。前記ヘッドアップディスプレイは、前記コントローラによって判定された前記物点の位置に基づいて、利用者の眼が前記物点の位置に関連する位置で視認する虚像を表示する。
本開示のプログラムは、コントローラが、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するためのプログラムであって、前記コントローラが、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出するためのプログラムである。
本開示の記録媒体は、プログラムを記録したコンピュータ読み取り可能な記録媒体である。前記プログラムは、コントローラが、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するためのプログラムであって、前記コントローラが、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出するためのプログラムである。
本開示の一実施形態によれば、1つの撮像装置を用いて実空間における被写体の位置を正確に判定することが可能となる。
第1の実施形態の位置判定システムの概略構成を示す図である。 図1に示す撮像装置によって生成された撮像画像の例を示す図である。 図3は、図1に示す撮像画像から抽出した眼の像の例を示す図であり、図3(a)は、右眼の像の例を示す図であり、図3(b)は、左眼の像の例を示す図である。 図3(b)に示す左眼の角膜の像が一部を構成する楕円が傾いている例を模式的に示す図である。 眼が基準状態にある場合の角膜と像面との関係を示す模式図である。 眼が基準状態にない場合の角膜と像面との関係を示す模式図である。 左中心位置、左法線方向、右中心位置、および右法線方向と物点の位置との関係を示す図である。 エピポーラ平面を用いて算出される右眼の角膜内の物点の像を説明するための図である。 左眼および右眼それぞれの位置と、撮像面の位置と、物点の位置との関係を示す図である。 第2例を用いて物点の位置を判定する処理を示すフローチャートである。 第2例を用いて物点の位置を判定する処理を示すフローチャートである。 第2の実施形態の表示システムの概略構成を示す図である。
以下、本開示の実施形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものであり、図面上の寸法比率等は現実のものとは必ずしも一致していない。
本開示の第1の実施形態にかかる位置判定システム100は、図1に示すように、撮像装置1と、位置判定装置2とを備える。
撮像装置1は、撮像範囲に利用者の両眼が含まれるように配置される。以降の説明では、撮像装置1の光軸方向をz軸方向として表す。利用者が撮像装置1の方向を向いているときに左眼(第1眼)と右眼(第2眼)を結ぶ方向に沿う眼間方向をx軸方向として表す。光軸方向および眼間方向に直交する方向をy軸方向として表す。
撮像装置1は、撮像光学系11と、撮像素子12と、第1通信モジュール13とを含む。
撮像光学系11は、1つ以上のレンズを含んで構成される。撮像光学系11は、撮像光学系11の光軸が撮像素子12の撮像面121に垂直となるように配置されている。撮像光学系11は、被写体から入射した光を撮像素子12の撮像面121において被写体像として結像させる。
撮像素子12は、例えばCCD(Charge Coupled Device)撮像素子またはCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。撮像素子12は、撮像光学系11によって撮像面121に結像された像を変換することによって撮像画像を生成する。
第1通信モジュール13は、位置判定装置2と通信可能である。具体的には、第1通信モジュール13は、撮像素子12によって生成された撮像画像を位置判定装置2に送信する。第1通信モジュール13と位置判定装置2との通信において用いられる通信方式は、近距離または長距離の無線通信規格であってよいし、有線通信規格であってよい。近距離の無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、赤外線、NFC(Near Field Communication)、等を含んでよい。長距離の無線通信規格は、例えば、LTE(Long Term Evolution)、第4世代移動通信システムまたは第5世代移動通信システム等を含んでよい。
位置判定装置2は、第2通信モジュール(通信モジュール)21と、コントローラ22と含む。
第2通信モジュール21は、撮像装置1の第1通信モジュール13と通信可能である。第2通信モジュール21による第1通信モジュール13との通信において用いられる通信方式は、第1通信モジュール13で用いられる通信方式と同じであってよい。第2通信モジュール21は、第1通信モジュール13から撮像画像を受信する。
コントローラ22は、位置判定装置2の各構成要素に接続され、各構成要素を制御しうる。コントローラ22によって制御される構成要素は、第2通信モジュール21を含む。コントローラ22は、例えばプロセッサとして構成される。コントローラ22は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ22は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。
コントローラ22は、撮像装置1を制御して、図2に示すような、利用者の両眼を撮像した撮像画像を生成させる。コントローラ22は、撮像装置1によって生成され、第2通信モジュール21によって受信された撮像画像を取得する。コントローラ22は、撮像画像に基づいて、各種の処理を行う。
図1に示したように、利用者の眼が物点OPを視認している場合、物点OPは、左眼の角膜に投影され、さらに、左眼の角膜に投影された物点の像OPELの像OPILが撮像装置1の撮像面121に形成される。
利用者の眼が撮像装置1の方向を見ている基準状態にある場合、撮像画像上の角膜の像CIは略円形である。一方、利用者の眼が撮像装置1とは異なる方向を向いている場合、図3に示すように、撮像画像上の角膜の像CIは楕円形の一部を形成する。図3(a)に示す右眼の角膜の像CIR内にある物点の像OPIRの位置、図3(b)に示す左眼の角膜の像CIL内にある物点の像OPILの位置とは異なる。すなわち、物点の像OPIRと物点の像OPILとは互いに視差を有する。
図3に示す左眼の角膜が一部を形成する楕円形を概略的に表した図4に示すように、楕円形の長径rLmaxは、画像眼間方向に対して傾いた方向に延在することがある。画像眼間方向は、撮像画像において、眼が基準状態にあるときの左眼の像の中心と右眼の像の中心とを結ぶ方向に沿う方向である。
コントローラ22は、撮像画像において、左眼の角膜の像CILの特徴量を判定する。特徴量は、左眼の角膜の像CILが一部を形成する楕円形の長径rLmaxおよび短径rLminそれぞれの長さ、ならびに長径rLmaxが延在する方向である。コントローラ22は、特徴量に基づいて、実空間における左角膜中心位置(第1角膜中心位置)CLおよび左眼の角膜の方向(第1角膜方向)を算出する。左角膜中心位置CLは、図5に示すような左眼の角膜と強膜との境界の中心である。左眼の角膜の方向は、左眼の角膜の中心における接平面の法線方向である。眼が基準状態にある場合の角膜の方向を左眼基準方向a0という。
コントローラ22は、同じく、撮像画像において、右眼の角膜の像CIRの特徴量を判定する。特徴量は、右眼の角膜の像CIRが一部を形成する楕円形の長径rRmaxおよび短径rRminそれぞれの長さ、ならびに長径rRmaxが延在する方向である。コントローラ22は、特徴量に基づいて、実空間における右角膜中心位置(第2角膜中心位置)CLおよび右眼の角膜の方向(第2角膜方向)を算出する。右角膜中心位置CRは、右眼の角膜と強膜との境界の中心である。右眼の角膜の方向は、右眼の角膜の中心における接平面の法線方向である。
以降において、コントローラ22が、左眼および右眼の角膜の像CILおよびCIRの特徴量を判定する処理について詳細に説明する。コントローラ22が、実空間における左角膜中心位置CLおよび右角膜中心位置CR、ならびに左眼および右眼それぞれの角膜の方向を算出する処理について詳細に説明する。
<角膜の像の特徴量の判定>
コントローラ22は、撮像画像における左眼の角膜の像CILを抽出する。例えば、コントローラ22は、パターンマッチング等を用いることによって、撮像画像における眼の像全体を抽出する。コントローラ22は、眼の像における、所定値以下の輝度値を有する楕円形の一部を形成する領域を左眼の角膜の像CILとして抽出してよい。所定値は、人間の眼の像が取り得る輝度値の上限値に関する値である。所定値は、人間の眼の輝度値の上限値と周囲環境の明るさ等によって設定されうる。輝度値の最高値から最低値までを256階調で表した場合、所定値は、例えば、10であってよい。コントローラ22は、撮像画像における左眼の角膜の像CILをハフ変換によって抽出してよい。ハフ変換は、直角座標上の点を楕円のパラメータに変換するものである。コントローラ22は、撮像画像における左眼の角膜の像CILを、楕円を複数のクラスタに分けて当該クラスタ毎の抽出をしてよい。例えば、楕円を4つのクラスタに分けてよい。複数のクラスタが異なる楕円となる場合は、マージ処理によって1つの楕円とする。
コントローラ22は、図4に示すような、左眼の角膜の像CILが一部を形成する楕円形の長径rLmaxおよび短径rLminを判定する。コントローラ22は、長径rLmaxの方向および眼間方向とのなす角度φLを判定する。
コントローラ22は、同じく、右眼の角膜の像CILが一部を形成する楕円形の長径rRmaxおよび短径rRminを判定する。コントローラ22は、長径rRmaxの方向および眼間方向とのなす角度φRを判定する。
<角膜の中心位置の算出>
図5に示すように、コントローラ22は、撮像装置1の焦点距離f、左眼の角膜の像CILが一部を形成する楕円形の長径rLmax、および左眼の角膜の半径rLに基づいて、撮像装置1の瞳から左角膜中心位置CLまでの距離dLを算出する。焦点距離fは、撮像装置1の仕様により規定された既知の値である。角膜の半径rLは、人間の一般的な角膜の半径に基づく値であり、約5.6mmである。具体的には、コントローラ22は、式(1)を用いて距離dLを算出する。
Figure 0007173836000001
距離dLが算出されると、コントローラ22は、算出された距離dLと、既知である、撮像装置1の撮像面121の位置、焦点距離fに基づいて、実空間における左角膜中心位置CLを算出する。
コントローラ22は、同じく右角膜中心位置CRを算出する。
<角膜の方向の算出>
コントローラ22は、左眼の像の長径rLmaxにおよび短径rLminに基づいて、図6に示すような角膜の方向a1を算出する。角膜の方向a1は、角膜の中心における接平面の法線方向である。
まず、コントローラ22は、左眼の角膜の方向a1の左眼基準方向a0からの眼間方向(x軸方向)の軸の周りでの回転角度である角度τLを、式(2)を用いて算出する。既に説明したように、左眼基準方向a0は、左眼が撮像装置1の方を向いている状態での左眼の角膜の方向である。
Figure 0007173836000002
コントローラ22は、角度τLおよび角度φLをパラメータとする(τL,φL)で示される方向を左眼の角膜の方向a1と決定する。
コントローラ22は、同じく、右眼の像の長径rRmaxにおよび短径rRminに基づいて、右眼の角膜の方向(τR,φR)を決定する。
<物点の位置の算出>
コントローラ22は、左角膜中心位置CLおよび右角膜中心位置CRに基づいて、実空間における物点OPの位置を算出する。
(第1例)
コントローラ22は、図7に示すように、実空間において、左角膜中心位置CLから左眼の角膜の角度(τL,φL)に向かう第1直線line1を示す式を算出する。コントローラ22は、同じく、右角膜中心位置CRから右眼の角膜の角度(τR,φR)に向かう第2直線line2を算出する。コントローラ22は、第1直線line1および第2直線line2の交点を物点OPの位置として算出する。コントローラ22は、物点OPの位置を算出すると、左眼および右眼の中点から物点OPまでの距離を算出してよい。
(第2例)
コントローラ22は、図3に示すような、撮像画像における、左眼の角膜の像CIL内に含まれる物点の像OPILの位置と、右眼の角膜の像CIR内に含まれる物点の像OPIRの位置に基づいて、実空間における物点OPの位置を算出する。
具体的には、コントローラ22は、撮像画像における左眼の角膜の像CIL内の物点の像OPILを抽出する。図3に示す例では、左眼の角膜の像CIL内の物点の像OPILは、図1に示す直方体の物体の1つの角を構成する物点OPからの光が投影された左眼の角膜内の物点の像OPELを撮像装置1が撮像して生成した撮像画像内の物点の像である。コントローラ22は、パターンマッチング、エッジ検出による特徴点の抽出等、任意の方法により、左眼の角膜の像CIL全体から、物点の像OPILを抽出する。コントローラ22は、同じく、右眼の角膜の像CIR全体から、物点の像OPIRを抽出する。
コントローラ22は、撮像画像に基づいて、実空間における撮像面121上の左眼の角膜の像CIL内の物点の像OPILの位置(左結像位置)P1と、右眼の角膜の像CIR内の物点の像OPIRの位置(右結像位置)P2とを算出する。P1およびP2それぞれは、上述した実空間における原点からの距離および方向を表すベクトルである。
コントローラ22は、左結像位置P1を算出すると、実空間における左眼の角膜内に投影されている物点の像OPELの投影位置(左投影位置)SP Lを算出する。具体的には、撮像画像における中心位置の座標を(Ox,Oy)とし、左結像位置P1の座標を(u,v)とし、左投影位置SP Lの実空間における撮像装置の瞳を原点とする座標(x、y、z)とする。コントローラ22は、上述のように算出した、撮像装置の瞳から左角膜中心位置CLまでの距離dLをzとする。撮像面121と左角膜中心位置CLまでの距離に対して、左投影位置SP Lから左角膜中心位置CLまでの距離は非常に小さいため、距離zは、撮像面121から左角膜中心位置CLまでの距離と近似されうる。
コントローラ22は、xおよびyをそれぞれ式(3)および式(4)により算出する。
x=(z/f)×(u-Ox) 式(3)
y=(z/f)×(v-Oy) 式(4)
コントローラ22は、実空間における、右眼の角膜内に投影されている物点の像OPERの投影位置(右投影位置)SP Rを算出する。具体的には、図8に示すように、コントローラ22は、左眼の角膜内における左投影位置SP Lと、左角膜中心位置CLおよび右角膜中心位置CRとを通る平面であるエピポーラ平面を算出する。コントローラ22は、エピポーラ平面に基づいて、実空間における、右投影位置SP Rを算出する。さらに具体的には、コントローラ22は、右眼の角膜と、エピポーラ平面との交差線CLineを算出する。コントローラ22は、撮像画像の右眼の角膜の像CIR内における、交差線CLineに対応する線CLine’上を探索することにより、物点の像OPIRを抽出する。コントローラ22は、撮像画像内の物点の像OPIRの位置に基づいて右投影位置SP Rを算出する。
コントローラ22は、左投影位置SP Lと、右投影位置SP Rと、左結像位置P1と、右結像位置P2とに基づいて、物点の位置を算出する。この方法について、図9を参照して説明する。
コントローラ22は、左投影位置SP Lにおける法線方向を示す単位ベクトルである法線ベクトルn1を算出する。具体的には、コントローラ22は、左眼中心位置ELから左投影位置SP Lに向かう方向の単位ベクトルを法線ベクトルn1として算出する。左眼中心位置ELは、既に算出された左角膜中心位置CLおよび左眼の角膜の方向a1に基づいて算出されうる。コントローラ22は、左投影位置SP Lから左結像位置P1に向かうベクトルr1を算出する。
上述したように、物点OPは、左眼の角膜に投影され、さらに、左眼の角膜に投影された物点の像OPELの像OPILが撮像装置1の撮像面121に形成する。そのため、物点OPから左投影位置SP Lに向かう単位ベクトルvs1と、左投影位置SP Lにおける法線ベクトルn1とのなす角は、左投影位置SP Lから撮像面121上の物点の像OPILに向かう方向と、法線ベクトルn1とのなす角と同じである。したがって、コントローラ22は、法線ベクトルn1と、左投影位置SP Lから左結像位置P1に向かうベクトルr1とに基づいて、物点OPから左投影位置SP Lまでの方向に向かう単位ベクトルvs1を算出しうる。
コントローラ22は、同じく、右投影位置SP Rと、右結像位置P2と、右角膜中心位置CRとに基づいて、物点OPから右投影位置SP Rに向かう単位ベクトルvs2を算出する。
左結像位置P1は、式(5)で表される。式(5)において、s1は、物点OPから左投影位置SP Lまでの距離を示すスカラー量である。P1、vs1、およびr1はそれぞれベクトルであるため、式(5)に示される演算はベクトル演算である。
1=s1×vs1+r1 式(5)
右結像位置P2は、式(6)で表される。P2は、所定の原点からの距離および方向を表すベクトルである。式(6)において、s2は、物点OPから左投影位置SP Lまでの距離を示すスカラー量である。P2、vs2、およびr2はそれぞれベクトルであるため、式(6)に示される演算はベクトル演算である。
2=s2×vs2+r2 式(6)
左眼の角膜内に投影された物点OPの像OPELは直交射影によりに撮像面121に像を形成する。そのため、P1、P2、r1、およびr2の間には式(7)および(8)で表される関係が成立する。
(P1-P2)・r1=0 式(7)
(P1-P2)・r2=0 式(8)
コントローラ22は、上述したように算出したvs1、vs2、r1、およびr2を式(5)から式(8)に代入することによって、距離s1および距離s2を算出しうる。
距離s1および距離s2が算出されると、コントローラ22は、左投影位置SP Lから単位ベクトルvs1の逆方向に距離s1であり、右投影位置SP Rから単位ベクトルvs2の逆方向に距離s2である位置を物点OPの位置として算出する。コントローラ22は、物点OPの位置を算出すると、左眼および右眼の中点から物点OPまでの距離を算出してよい。
次に、コントローラ22が第1例を用いて実行する処理について、図10を参照して詳細に説明する。
<第1例を利用した処理>
まず、コントローラ22は、撮像装置1に撮像画像を生成させる(ステップS11)。
コントローラ22は、撮像装置1によって生成され、第2通信モジュール21によって受信された撮像画像を取得する(ステップS12)。
コントローラ22は、撮像画像から、左眼の角膜の像CILが一部を形成する楕円形を抽出する(ステップS13)。
コントローラ22は、ステップS13で抽出された楕円形の長径rLmax、短径rLmin、および長径rLmaxの方向と画像眼間方向とのなす角度である角度φLを判定する(ステップS14)。
コントローラ22は、撮像装置1の焦点距離f、左眼の角膜の像CILが一部を形成する楕円形の長径rLmax、および左眼の角膜の半径rLに基づいて、撮像装置1の瞳から左角膜中心位置CLまでの距離dLを算出する(ステップS15)。
コントローラ22は、実空間における撮像装置1の位置、焦点距離f、および距離dLに基づいて、実空間における左角膜中心位置CLを算出する(ステップS16)。
コントローラ22は、楕円形の長径rLmaxおよび短径rLminに基づいて、左眼の角膜の方向a1の左眼基準方向a0に対する角度τLを算出し、角度φLおよび角度τLによって定まる方向を左眼の角膜の方向と決定する(ステップS17)。
コントローラ22は、撮像画像から、右眼の角膜の像CIRが一部を形成する楕円形を抽出する(ステップS18)。
コントローラ22は、ステップS17で抽出された楕円形の長径rRmax、短径rRmin、および長径rRmaxの方向と画像眼間方向とのなす角度である角度φRを判定する(ステップS19)。
コントローラ22は、焦点距離f、左眼の角膜の像CILが一部を形成する楕円形の長径rRmax、および左眼の角膜の半径rRに基づいて、撮像装置1の瞳から右角膜中心位置CRまでの距離dRを算出する(ステップS20)。
コントローラ22は、実空間における撮像装置1の位置、焦点距離f、および距離dRに基づいて、右角膜中心位置CRを算出する(ステップS21)。
コントローラ22は、楕円形の長径rRmaxおよび短径rRminに基づいて、右眼の角膜の方向b1の右基準方向b0に対する角度τRを算出し、角度φRおよび角度τRによって定まる方向を右眼の角膜の方向と決定する(ステップS22)。
コントローラ22は、左角膜中心位置CLから左眼の角膜の角度(τL,φL)に向かう第1直線line1を示す式を算出する(ステップS23)。
コントローラ22は、右角膜中心位置CRから右眼の角膜の角度(τR,φR)に向かう第2直線line2を算出する(ステップS24)。
コントローラ22は、第1直線line1および第2直線line2の交点を物点OPの位置として算出する(ステップS25)。
<第2例を利用した処理>
次に、コントローラ22が第2例を用いて実行する処理について、図11を参照して詳細に説明する。
コントローラ22が実行するステップS31からステップS36は、第1例を利用した処理におけるステップS11からステップS16までと同じである。コントローラ22が実行するステップS37からステップS40は、第1例を利用した処理におけるステップS18からステップS21までと同じである。
コントローラ22は、撮像画像における左眼の角膜の像CIL内の物点の像OPILを抽出し、物点の像OPILに対応する撮像面121上の左結像位置P1を算出する(ステップS41)。
コントローラ22は、左結像位置P1、焦点距離f、および左角膜中心位置CLに基づいて左投影位置SP Lを算出する(ステップS42)。
コントローラ22は、右眼の角膜の像CIR内の物点の像OPIRを抽出し、物点の像OPILに対応する撮像面121上の右結像位置P2を算出する(ステップS43)。ここで、コントローラ22は、左眼の角膜内における左投影位置SP Lと、左角膜中心位置CLおよび右角膜中心位置CRを通る平面であるエピポーラ平面を算出してもよい。このような構成において、コントローラ22は、エピポーラ平面と右眼の角膜の交差線CLineに対応する、右眼の角膜の像CIR内の線CLine’上から物点の像OPIRを抽出しうる。
コントローラ22は、右結像位置P2に基づいて、撮像装置1の撮像面121および焦点距離f、ならびに右角膜中心位置CRを用いて右投影位置SP Rを算出する(ステップS44)。
コントローラ22は、左投影位置SP L、左投影位置SP Lにおける左眼の角膜の接平面の法線ベクトルn1、左結像位置P1に基づいて、左投影位置SP Lから物点OPまでの距離s1を算出する(ステップS45)。
コントローラ22は、右投影位置SP R、右投影位置SP Rにおける右眼の角膜の接平面の法線ベクトルn2、右結像位置P2に基づいて、右投影位置SP Rから物点OPまでの距離s2を算出する(ステップS46)。
コントローラ22は、左投影位置SP Lから法線ベクトルn1と反対方向に距離s1であり、右投影位置SP Rから法線ベクトルn2と反対方向に距離s2である位置を物点OPの位置として算出する(ステップS47)。
第1の実施形態に係るコントローラ22として、コンピュータ等の情報処理装置が採用可能である。このような情報処理装置は、第1の実施形態に係るコントローラ22の各機能を実現する処理内容を記述したプログラムを、コンピュータ読み取り可能な記録媒体に記録し、プロセッサによって当該プログラムを読み出して実行させることで実現可能である。
以上説明したように、第1の実施形態では、コントローラ22は、撮像画像における左眼の角膜の像CIL、および右眼の角膜の像CIRに基づいて、実空間における物点の位置を判定する。このため、コントローラ22は、複数の撮像装置によってそれぞれ生成された撮像画像を用いずに、物点の位置を判定することができる。したがって、複数の撮像装置を設けることに要する費用が低減されうる。複数の撮像装置の設置位置の関係を正確に保つために較正する手間が低減されうる。
第1の実施形態では、コントローラ22は、左眼の角膜の像CIL内の物点の像の位置に基づいて、左眼に投影された物点の左投影位置SP Lを判定する。コントローラ22は、左角膜中心位置CL、右角膜中心位置CR、左投影位置SP Lを含むエピポーラ平面と右眼の角膜の交差線CLineに基づいて、右眼の角膜の像CIR内から物点の像を検出する。したがって、コントローラ22は、撮像画像の右眼の角膜の像CIR全体からではなく、交差線CLineに基づく線CLine’上から物点を検出することができる。したがって、コントローラ22が右眼の角膜の像CIR内から物点の像を検出するための負荷が低減されうる。
本開示の第2の実施形態にかかる表示システム200は、図12に示すように、移動体20に搭載されうる。
本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
表示システム200は、撮像装置1と、位置判定装置2と、HUD3と、を備える。撮像装置1は、第1の実施形態の撮像装置1と同じである。位置判定装置2は、HUD3と通信する点で、第1の実施形態の位置判定装置2とは異なるが、その他の点では同じである。位置判定装置2は、実空間における物点OPの位置をHUD3に送信する。物点OPの位置とは、利用者が各時点で目視しているもの、例えば、道路標識、前方車両、歩行者、道路上の障害物等に含まれる特徴点の位置である。物点OPは、左眼および右眼の角膜方向付近に位置する。
HUD3は、利用者の眼に画像を虚像として投影する。HUD3は、利用者が視認する虚像までの見かけ上の距離を調整できるものとする。HUD3は、利用者の眼が位置判定装置2によって判定された物点OPの位置に関連する位置に虚像を視認するように虚像を表示しうる。物点OPの位置に関連する位置とは、利用者から見て物点OPまでの距離と近い距離の位置を含む。HUD3は、1つ以上の反射器31と、光学部材32と、表示装置33とを含みうる。
反射器31は、表示装置33から射出された画像光を、光学部材32の所定領域に向けて反射させる。所定領域は、該所定領域で反射した画像光が利用者の眼の方に向かう領域である。所定領域は、光学部材32に対する利用者の眼の方向、および光学部材32への画像光の入射方向によって定まりうる。
反射器31は、1つ以上のミラーであってよい。反射器31がミラーである場合、例えば、ミラーは凹面鏡としてよい。図1において、反射器31は、1つのミラーとして表示している。しかし、反射器31は、これに限られず、2つ以上のミラーを組み合わせて構成してよい。
光学部材32は、表示装置33から射出され、1つ以上の反射器31によって反射された画像光を、利用者の左眼(第1眼)および右眼(第2眼)に向けて反射させる。例えば、移動体20のウインドシールドは、光学部材32として兼用されてよい。したがって、HUD3は、光路Lに沿って、表示装置33から射出された画像光を、利用者の左眼および右眼まで進行させる。利用者は、光路Lに沿って到達した画像光によって表示装置33に表示された画像を虚像として視認しうる。
表示装置33は、液晶パネル等の表示素子を含んで構成される。表示装置33は、左右の眼に視差を与えるように構成された表示装置を用いることができる。
表示装置33は、利用者の眼が位置判定装置2によって判定された前記物点OPの位置に関連する位置に、表示装置33により表示される画像の虚像を視認するように画像を表示する。物点OPに関連する位置は、利用者が物点OPを視認している状態から、虚像を視認するために、眼の焦点距離を変更する負荷を感じにくい程度に、物点OPから近い位置である。物点OPに関連する位置は、例えば、利用者の視野内で物点OPに重なる位置であってよい。物点OPに関連する位置は、物点OPから所定範囲内の位置であってよい。
HUD3は、虚像までの距離を含む虚像の表示位置を調整するために、位置判定装置2により判定される物点OPの位置に従って、反射器31および表示装置33の表示素子の相対位置が調整可能に構成されてよい。また、表示装置33が左右の眼に視差を与えるように構成された表示装置の場合、表示装置33は、位置判定装置2により判定される物点OPの位置に従って、視差量を調整するように構成されてよい。
表示装置33が表示する画像は、物点OPに関連する情報または関連しない情報を表示しうる。表示装置33が表示する画像が、物点OPに関する情報を示す画像の場合、例えば、画像は、物点OPが存在することを利用者に警告するための画像であってよい。例えば、画像は、移動体20から物点OPまでの距離を示すための画像であってよい。画像が移動体20から物点OPまでの距離を示すための画像である構成において、例えば、位置判定装置2が、利用者の眼の位置と、移動体20の前端部の位置との関係に基づいて移動体20から物点OPまでの距離を算出しうる。そして、表示装置33は、位置判定装置2によって算出された移動体20から物点OPまでの距離を受信して、該距離を示す画像を表示してよい。
第2の実施形態に係るコントローラ22として、コンピュータ等の情報処理装置が採用可能である。このような情報処理装置は、第2の実施形態に係るコントローラ22の各機能を実現する処理内容を記述したプログラムを、コンピュータ読み取り可能な記録媒体に記録し、プロセッサによって当該プログラムを読み出して実行させることで実現可能である。
第2の実施形態によれば、第1の実施形態と同様に、複数の撮像装置を設けることに要する費用が低減されうる。複数の撮像装置の設置位置の関係を正確に保つために較正する手間が低減されうる。
第2の実施形態によれば、表示システム200は、利用者が物点OPに関連する位置に虚像を視認するように虚像を表示する。したがって、表示システム200は、利用者が物点OPを視認している状態から虚像を視認している状態となるために、眼の焦点距離を変更する負荷を該利用者に感じにくくさせうる。したがって、利用者の眼の疲れが軽減されうる。
上述の実施形態は代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
上述の実施形態の第2例において、コントローラ22は、左眼の角膜の像CIL内の物点の位置を抽出してから、左眼の角膜内における物点の像OPELの位置と、左角膜中心位置CLと、右角膜中心位置CRとの3点を含む平面をエピポーラ平面として算出した。しかし、エピポーラ平面の算出方法は、この限りではない。例えば、コントローラ22は、右眼の角膜の像CIR内の物点の像OPILの位置を抽出してから、右眼の角膜内における物点の像OPERの位置と、左角膜中心位置CLと、右角膜中心位置CRとの3点を含む平面をエピポーラ平面として算出してもよい。
上述の実施形態の第2例において、コントローラ22は、エピポーラ平面を算出しなくてもよい。このような構成において、コントローラ22は、左眼および右眼それぞれの角膜の像全体から、それぞれ物点の像OPILおよびOPIRを抽出してよい。
上述の実施形態において、コントローラ22は、ステップS13からS17を行った後にステップS18からS22を行うとしたが、コントローラ22が実行する手順は、これに限られない。例えば、コントローラ22は、ステップS18からステップS22を行った後に、ステップS13からS17を行ってよい。コントローラ22は、ステップS13からS17とステップS18からS22とを並列に行ってもよい。
上述の実施形態において、コントローラ22は、ステップS23を行った後にステップS24を行うとしたが、コントローラ22が実行する手順は、これに限られない。例えば、コントローラ22は、ステップS24を行った後にステップS23を行ってもよい。コントローラ22は、ステップS23とステップS24とを並列に行ってもよい。
上述の実施形態において、コントローラ22は、ステップS33からS36を行った後にステップS37からS40を行うとしたが、コントローラ22が実行する手順は、これに限られない。例えば、コントローラ22は、ステップS37からS40を行った後に、ステップS33からS36を行ってよい。コントローラ22は、ステップステップS33からS36とステップSS37からS40とを並列に行ってもよい。
上述の実施形態において、コントローラ22は、ステップS41およびS42を行った後にステップS43およびS44を行うとしたが、コントローラ22が実行する手順は、これに限られない。例えば、コントローラ22は、ステップS43およびS44を行った後に、ステップS41およびS42を行ってよい。コントローラ22は、ステップS41およびS42とステップS43およびS44とを並列に行ってもよい。
上述の実施形態において、コントローラ22は、ステップS45を行った後にステップS46を行うとしたが、コントローラ22が実行する手順は、これに限られない。例えば、コントローラ22は、ステップS46を行った後にステップS45を行ってもよい。コントローラ22は、ステップS45とステップS46とを並列に行ってもよい。
1 撮像装置
2 位置判定装置
3 HUD
11 撮像光学系
12 撮像素子
13 第1通信モジュール
20 移動体
21 第2通信モジュール
22 コントローラ
31 反射器
32 光学部材
33 表示装置
100 位置判定システム
121 撮像面
200 表示システム
d 視差
OP 物点
OPIL 左眼の角膜の像内の物点の像
OPIR 右眼の角膜の像内の物点の像
OPEL 左眼の角膜内の物点の像
OPER 右眼の角膜内の物点の像
1 左眼の角膜の像内の物点の像の位置
2 右眼の角膜の像内の物点の像の位置
1 物点OPから投影位置SP Lまでの長さ
2 物点OPから投影位置SP Rまでの長さ
P L 左投影位置
P R 右投影位置
vs1 物点OPから投影位置SP Lに向かう方向の単位ベクトル
vs2 物点OPから投影位置SP Rに向かう方向の単位ベクトル

Claims (10)

  1. 撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定する、コントローラであって、
    前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、
    前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、
    前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する、コントローラ
  2. 前記第1眼の角膜の中心における接平面の法線方向である第1角膜方向を判定し、前記第2眼の角膜の中心における接平面の法線方向である第2角膜方向を判定し、
    前記第1角膜中心位置から前記第1角膜方向に向かう第1直線と、前記第2角膜中心位置から前記第2角膜方向に向かう第2直線との交点を、前記物点の位置と判定する、請求項に記載のコントローラ。
  3. 前記実空間における前記撮像装置の撮像面の位置、前記撮像画像における前記第1眼および前記第2眼それぞれの角膜の像内の物点の像の位置、および前記撮像装置の焦点距離に基づいて、前記物点の位置を判定する、請求項に記載のコントローラ。
  4. 前記第1眼の角膜の像の一部が形成する楕円形の長径および短径に基づいて、第1角膜中心位置を判定する、請求項からのいずれか一項に記載のコントローラ。
  5. 物点を視認している利用者の第1眼および第2眼を含む撮像画像から前記第1眼の角膜の像および前記第2眼の角膜の像を抽出し、
    前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、
    前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、
    前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、
    前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する、コントローラ。
  6. 撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像を受信する通信モジュールと、
    前記撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するコントローラであって、
    前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、
    前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、
    前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する、コントローラと、
    を備える位置判定装置。
  7. 撮像装置と、
    前記撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像を受信する通信モジュールと、前記撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するコントローラであって、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する、コントローラと、を含む位置判定装置と、
    を備える位置判定システム。
  8. 撮像装置と、
    前記撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像を受信する通信モジュールと、前記撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するコントローラであって、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出する、コントローラと、を有する位置判定装置と、
    前記コントローラによって判定された前記物点の位置に基づいて、利用者の眼が前記物点の位置に関連する位置で視認する虚像を表示するヘッドアップディスプレイと、
    を備える表示システム。
  9. コントローラが、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するためのプログラムであって、
    前記コントローラが、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、
    前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、
    前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出するためのプログラム
  10. コントローラが、撮像装置が、物点を視認している利用者の第1眼および第2眼を撮像することによって生成した撮像画像における前記第1眼の角膜の像、および前記第2眼の角膜の像に基づいて、実空間における前記物点の位置を判定するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記プログラムは、前記コントローラが、前記第1眼の角膜の像に基づいて、実空間における前記第1眼の角膜および強膜の境界の中心である第1角膜中心位置を判定し、前記第2眼の角膜の像に基づいて、実空間における前記第2眼の角膜および強膜の境界の中心である第2角膜中心位置を判定し、
    前記撮像画像における前記第1眼の角膜の像内の前記物点の像の位置に基づいて、前記第1眼に投影された前記物点の投影位置を判定し、
    前記第1角膜中心位置、前記第2角膜中心位置、および前記第1眼の前記投影位置を含むエピポーラ平面と右眼の角膜の交差線に基づいて、前記撮像画像における前記第2眼の角膜の像内から前記物点の像を抽出するためのプログラムである、コンピュータ読み取り可能な記録媒体。
JP2018208358A 2018-11-05 2018-11-05 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体 Active JP7173836B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018208358A JP7173836B2 (ja) 2018-11-05 2018-11-05 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
US17/290,980 US11551375B2 (en) 2018-11-05 2019-10-28 Controller, position determination device, position determination system, and display system for determining a position of an object point in a real space based on cornea images of a first eye and a second eye of a user in captured image
CN201980073713.1A CN112955933B (zh) 2018-11-05 2019-10-28 控制器、位置判定装置、位置判定系统、显示系统、程序以及记录介质
PCT/JP2019/042204 WO2020095747A1 (ja) 2018-11-05 2019-10-28 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体。
EP19881108.5A EP3879491A4 (en) 2018-11-05 2019-10-28 CONTROL UNIT, POSITION DETECTION DEVICE, POSITION DETERMINATION SYSTEM, DISPLAY SYSTEM, PROGRAM AND RECORDING MEDIA

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018208358A JP7173836B2 (ja) 2018-11-05 2018-11-05 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JP2020077055A JP2020077055A (ja) 2020-05-21
JP7173836B2 true JP7173836B2 (ja) 2022-11-16

Family

ID=70611302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018208358A Active JP7173836B2 (ja) 2018-11-05 2018-11-05 コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体

Country Status (5)

Country Link
US (1) US11551375B2 (ja)
EP (1) EP3879491A4 (ja)
JP (1) JP7173836B2 (ja)
CN (1) CN112955933B (ja)
WO (1) WO2020095747A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309291A (ja) 2005-04-26 2006-11-09 National Univ Corp Shizuoka Univ 瞳孔検出に基づくポインティング装置及び方法
WO2016031666A1 (ja) 2014-08-29 2016-03-03 アルプス電気株式会社 視線検出装置
JP2016122380A (ja) 2014-12-25 2016-07-07 国立大学法人静岡大学 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
WO2018000020A1 (en) 2016-06-29 2018-01-04 Seeing Machines Limited Systems and methods for performing eye gaze tracking

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2831546B2 (ja) * 1993-10-08 1998-12-02 株式会社コーナン 角膜撮影位置表示方法およびその装置
CN102149325B (zh) * 2008-09-26 2013-01-02 松下电器产业株式会社 视线方向判定装置及视线方向判定方法
WO2011117776A1 (en) * 2010-03-22 2011-09-29 Koninklijke Philips Electronics N.V. System and method for tracking the point of gaze of an observer
US9268024B1 (en) * 2012-01-06 2016-02-23 Google Inc. Expectation maximization to determine position of ambient glints
JP2014188322A (ja) * 2013-03-28 2014-10-06 Panasonic Corp 視線検出装置、視線検出方法及びプログラム
KR101909006B1 (ko) * 2014-07-24 2018-10-17 고쿠리츠켄큐카이하츠호진 카가쿠기쥬츠신코키코 화상 위치 맞춤 장치, 화상 위치 맞춤 방법, 및 화상 위치 맞춤 프로그램
US10360462B2 (en) 2015-06-24 2019-07-23 Kyocera Corporation Image processing device, stereo camera device, vehicle, and image processing method
JP6334477B2 (ja) * 2015-08-24 2018-05-30 Necフィールディング株式会社 画像表示装置、画像表示方法及びプログラム
JP6631951B2 (ja) * 2015-12-18 2020-01-15 国立大学法人静岡大学 視線検出装置及び視線検出方法
JP6485819B2 (ja) * 2016-07-27 2019-03-20 フォーブ インコーポレーテッド 視線検出システム、ずれ検出方法、ずれ検出プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309291A (ja) 2005-04-26 2006-11-09 National Univ Corp Shizuoka Univ 瞳孔検出に基づくポインティング装置及び方法
WO2016031666A1 (ja) 2014-08-29 2016-03-03 アルプス電気株式会社 視線検出装置
JP2016122380A (ja) 2014-12-25 2016-07-07 国立大学法人静岡大学 位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置
WO2018000020A1 (en) 2016-06-29 2018-01-04 Seeing Machines Limited Systems and methods for performing eye gaze tracking

Also Published As

Publication number Publication date
WO2020095747A1 (ja) 2020-05-14
US11551375B2 (en) 2023-01-10
EP3879491A1 (en) 2021-09-15
JP2020077055A (ja) 2020-05-21
US20220036582A1 (en) 2022-02-03
EP3879491A4 (en) 2022-12-07
CN112955933B (zh) 2024-05-24
CN112955933A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
JP2013024662A (ja) 3次元範囲計測システム、3次元範囲計測プログラムおよび記録媒体
JP7207954B2 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
JP6688212B2 (ja) 画像投影装置、画像表示装置、および移動体
JP2022159732A (ja) 表示制御装置、表示制御方法、移動体、プログラムおよび記憶媒体
JP7173836B2 (ja) コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
WO2022131137A1 (ja) 3次元表示装置、画像表示システムおよび移動体
US11782270B2 (en) Head-up display, head-up display system, and mobile body
WO2021232222A1 (zh) 用于测距的方法和装置
JP7141975B2 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
WO2021201161A1 (ja) 検出装置および画像表示モジュール
JP7466687B2 (ja) 検出装置および画像表示システム
JP7536590B2 (ja) 検出装置および画像表示モジュール
JP6665077B2 (ja) 画像投影装置、画像表示装置、および移動体
EP4145213A1 (en) Image display system
JP7250582B2 (ja) 画像表示モジュール、移動体、及び光学系
JP7332764B2 (ja) 画像表示モジュール
CN115665400B (zh) 增强现实抬头显示成像方法、装置、设备以及存储介质
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221104

R150 Certificate of patent or registration of utility model

Ref document number: 7173836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150