JP7466687B2 - 検出装置および画像表示システム - Google Patents

検出装置および画像表示システム Download PDF

Info

Publication number
JP7466687B2
JP7466687B2 JP2022559033A JP2022559033A JP7466687B2 JP 7466687 B2 JP7466687 B2 JP 7466687B2 JP 2022559033 A JP2022559033 A JP 2022559033A JP 2022559033 A JP2022559033 A JP 2022559033A JP 7466687 B2 JP7466687 B2 JP 7466687B2
Authority
JP
Japan
Prior art keywords
image
eye
template
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022559033A
Other languages
English (en)
Other versions
JPWO2022091864A1 (ja
Inventor
薫 草深
昭典 佐藤
歩樹 林下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2022091864A1 publication Critical patent/JPWO2022091864A1/ja
Application granted granted Critical
Publication of JP7466687B2 publication Critical patent/JP7466687B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/312Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being placed behind the display panel, e.g. between backlight and spatial light modulator [SLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本開示は、検出装置および画像表示システムに関する。
従来、利用者の眼の位置検出を行う場合、カメラで利用者の眼を撮像した撮像画像を用いて、瞳孔の位置を示す位置データを取得する。例えば、3次元表示装置において、位置データが示す瞳孔の位置に基づいて、利用者の左眼および右眼にそれぞれ対応する画像を視認させるように、画像をディスプレイに表示させている(例えば、特許文献1)
特開2001-166259号公報
本開示の一実施形態に係る検出装置は、入力部と、コントローラと、を備える。入力部は、画像情報の入力を受ける。コントローラは、利用者の眼の位置を検出する検出処理を実行可能に構成される。コントローラは、第1処理と、第2処理と、第3処理と、を前記検出処理として実行可能に構成される。第1処理においてコントローラは、入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する。第2処理においてコントローラは、前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する。第3処理においてコントローラは、第1位置および前記第2位置に基づいて眼の第3位置を検出する。
本開示の一実施形態に係る検出装置は、入力部と、コントローラと、を備える。入力部は、画像情報の入力を受ける。コントローラは、利用者の眼の位置を検出する検出処理を実行可能に構成される。コントローラは、第1処理と、第2処理と、第4処理と、を前記検出処理として実行可能に構成される。第1処理においてコントローラは、入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する。第2処理においてコントローラは、前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する。第4処理においてコントローラは、前記第1処理と異なる、前記入力された画像情報に基づいて眼の第4位置を検出する。
本開示の一実施形態に係る画像表示システムは、表示部と、バリア部と、カメラと、入力部と、検出部と、表示制御部と、を備える。表示部は、利用者の両眼に対して光学系を介して投影される視差画像を表示するように構成される。バリア部は、前記視差画像の画像光の進行方向を規定することによって、前記両眼に視差を与えるように構成される。カメラは、利用者の顔を撮像するように構成される。入力部は、前記カメラから出力された撮像情報の入力を受ける。検出部は、利用者の両眼の位置を検出する検出処理を実行可能に構成される。前記検出部は、第1処理と、第2処理と、第3処理と、を前記検出処理として実行可能に構成される。第1処理において検出部は、入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて両眼の第1位置を検出する。第2処理において検出部は、前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて両眼の第2位置を検出する。第3処理において検出部は、前記第1位置および前記第2位置に基づいて眼の第3位置を検出する。表示制御部は、前記第1位置、前記第2位置、および前記第3位置のいずれかに基づいて前記視差画像を合成して前記表示部を制御する。
検出装置が搭載された移動体の概略構成の一例を示す図である。 眼のテンプレートマッチングを説明するための模式図である。 顔のテンプレートマッチングを説明するための模式図である。 3次元投影システムの概略構成の一例を示す図である。 利用者の眼と表示部とバリア部との関係を示す模式図である。 検出装置のテンプレート画像生成処理の一例を説明するためのフロー図である。 第1処理のテンプレートマッチング処理の一例を説明するためのフロー図である。 第2処理のテンプレートマッチング処理の一例を説明するためのフロー図である。 第3処理を説明するためのフロー図である。 第1処理のテンプレートマッチング処理の他の例を説明するためのフロー図である。 3次元投影システムの概略構成の他の例を示す図である。 第1処理のテンプレートマッチング処理の他の例を説明するためのフロー図である。 第1処理のテンプレートマッチング処理の他の例を説明するためのフロー図である。
以下、本開示の実施形態について、図面を参照しながら詳細に説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
図1に示されるように、本開示の一実施形態に係る検出装置50は、移動体10に搭載されてよい。検出装置50は、入力部30と、検出部15と、を備える。移動体10は、画像表示システムとして3次元投影システム100を備えてよい。3次元投影システム100は、カメラ11と、検出装置50と、3次元投影装置12と、を備える。
本開示における「移動体」は、例えば車両、船舶、及び航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、及び滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、及びトロリーバス等を含んでよい。産業車両は、例えば農業及び建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフト及びゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、及びタンカー等を含んでよい。航空機は、例えば固定翼機及び回転翼機等を含んでよい。
以下では、移動体10が、乗用車である場合を例として説明する。移動体10は、乗用車に限らず、上記例のいずれかであってよい。カメラ11は、移動体10に取り付けられてよい。カメラ11は、利用者13としての移動体10の運転者の顔5を含む画像を撮像するように構成される。カメラ11は、利用者13としての移動体10の運転者の顔5が位置すると想定される想定領域を撮像可能に構成される。カメラ11の取り付け位置は、移動体10の内部及び外部において任意である。例えば、カメラ11は、移動体10のダッシュボード内に位置してよい。
カメラ11は、可視光カメラまたは赤外線カメラであってよい。カメラ11は、可視光カメラと赤外線カメラの両方の機能を有していてよい。カメラ11は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含んでよい。
カメラ11は、撮像した画像の画像情報を検出装置50に出力可能に構成される。カメラ11で撮像された画像の画像情報は、検出装置50に出力される。検出装置50の入力部30は、カメラ11から出力された画像情報の入力を受信可能に構成される。検出部15は、利用者13の眼5aの位置を検出する検出処理を実行可能に構成される。カメラ11は、全てのフレームが検出装置50に出力されてよく、検出装置50は、全てのフレームで眼5aの位置を検出してよい。
検出部15が実行可能である検出処理は、例えば、入力部30が入力を受けた画像情報に基づいて、利用者13の眼5aの位置を検出する処理としうる。検出部15は、第1処理と、第2処理とを検出処理として実行可能に構成される。第1処理は、画像情報に基づいてテンプレートマッチングにて眼5aの第1位置を検出する処理である。第2処理は、画像情報に基づいてテンプレートマッチングにて顔5の位置を検出し、検出した顔5の位置に基づいて眼5aの第2位置を検出する処理である。利用者13の眼5aの位置は、瞳孔位置であってよい。テンプレートマッチングは、例えば、対象画像からテンプレート画像に最も適合する位置を探索する画像処理としうる。本開示の検出装置50において、対象画像は、カメラ11から出力された撮像画像51である。
第1処理で検出部15は、第1位置を検出する。第1処理で検出部15は、テンプレートマッチングにて撮像画像51から眼5aの位置を第1位置として検出してよい。第1処理で用いられる第1テンプレート画像52は、利用者13の眼5aとの相対的な位置関係が特定されている顔の部位、または利用者13の眼5aを含む。第1テンプレート画像52が含む利用者13の眼5aは、両眼であってよく、右眼のみまたは左眼のみであってよい。利用者13の眼5aとの相対的な位置関係が特定されている顔の部位とは、例えば、眉毛または鼻などであってよい。図2に示す例において、第1テンプレート画像52は、利用者13の眼5aとして両眼を含む。
第2処理で検出部15は、第2位置を検出する。第2処理で検出部15は、テンプレートマッチングにて撮像画像51から、顔5の位置を検出し、検出した顔5の位置に基づいて眼5aの位置を第2位置として検出してよい。第2処理で用いられる第2テンプレート画像53は、第1処理で用いられる第1テンプレート画像52と異なる。第2処理で用いられる第2テンプレート画像53は、第1処理で用いられる第1テンプレート画像52より比較対象範囲が広い。第2処理で用いられる第2テンプレート画像53は、図3の例に示すように、例えば、利用者13の顔5を含む。同じ利用者13において、顔5における眼5aの位置は、変わらないので、顔5における眼5aの位置を予め特定しておくことができる。検出部15は、テンプレートマッチングにて撮像画像51から、顔5の位置を検出すると、この検出した顔5の位置に基づいて、予め特定された顔5における眼5aの位置(第2位置)を検出することができる。
従来のような撮像画像からの瞳孔位置検出は、撮像画像が利用者の瞳孔を含むことが必須である。撮像画像に瞳孔が含まれていなければ、瞳孔位置は、検出することができない。例えば、利用者が、瞬きなどで眼を閉じている時に撮像された画像から、瞳孔位置は、検出することができない。本開示によるテンプレートマッチングは、第1,第2テンプレート画像52,53と最も適合する位置を探索するので、撮像画像51に瞳孔が含まれていない場合でも、第1,第2テンプレート画像52,53に含まれる瞳孔以外の特徴を利用して、撮像画像51の最も適合する位置を探索することができる。第1,第2テンプレート画像52,53は、瞳孔より大きい画像であるので、同じ大きさの撮像画像51を検出対象としたときに、テンプレートマッチングに要する演算量は、瞳孔位置検出に要する演算量よりも低減される。演算量の低減によって、検出部15は、瞳孔位置検出に比べて検出結果の出力にかかる演算速度を高速化できる。また、第1処理および第2処理を実行し、瞳孔位置として、第1位置および第2位置を検出可能とすることで、例えば、利用者13の想定外の動き、撮像画像51の不具合などが生じても、検出装置50は、第1位置または第2位置のいずれかに関する座標情報を3次元投影装置12に出力することができる。
第1,第2テンプレート画像52,53の形状は、撮像画像51の形状に応じた形状であってよい。撮像画像51が矩形状であれば、第1,第2テンプレート画像52,53は、矩形状であってよい。第1,第2テンプレート画像52,53の形状は、撮像画像51の形状と相似関係である必要はないが、相似関係であってよい。以下では、図2,3に示すように、撮像画像51および第1,第2テンプレート画像52,53が、矩形状である例について説明する。
検出装置50による検出結果は、利用者13の眼5aの瞳孔位置を示す座標情報であってよい。テンプレートマッチングでは、撮像画像51において、第1,第2テンプレート画像52,53に最も適合する位置の座標が決定される。テンプレートマッチングによって決定される適合位置の座標は、例えば、第1,第2テンプレート画像52,53の代表位置の座標に対応する座標であってよい。第1,第2テンプレート画像52,53の代表位置は、例えば、いずれか1つの頂点位置または第1,第2テンプレート画像52,53の中心位置であってよい。第1処理において、検出部15は、眼5aの第1テンプレート画像52に含まれる瞳孔位置の座標と、例えば、第1テンプレート画像52の代表位置との相対的な座標位置関係を別に特定した第1関係を利用しうる。テンプレートマッチングによって、撮像画像51における第1テンプレート画像52の適合位置の座標が決定されると、検出部15は、この決定された座標と第1関係とによって、撮像画像51における瞳孔位置(以下、「第1位置」という)の座標情報を決定することができる。第1関係は、当該第1処理の実行に先立って特定されうる。同様に、第2処理において検出部15は、顔5の第2テンプレート画像53に含まれる瞳孔位置の座標と、例えば、第2テンプレート画像53の代表位置との相対的な座標位置関係を別に特定した第2関係を利用しうる。テンプレートマッチングによって、撮像画像51における第2テンプレート画像53の適合位置の座標が決定されると、検出部15は、この決定された座標と、第2関係とによって、撮像画像51における瞳孔位置(以下、「第2位置」という)の座標情報を決定することができる。例えば、利用者13が眼5aを閉じていて、撮像画像51に瞳孔が含まれていない場合であっても、検出部15は、眼が開いていれば検出されたであろうと推定される瞳孔位置の座標情報を決定することができる。本開示の検出装置50は、利用者13が瞬きなどで眼5a閉じた場合でも瞳孔位置の座標情報を決定できるので、途切れることなく連続して座標情報を出力することができる。
検出装置50は、例えば、センサを含んでよい。センサは、超音波センサ又は光センサ等であってよい。カメラ11は、センサによって利用者13の頭部の位置を検出するように構成されうる。カメラ11は、2つ以上のセンサによって、利用者13の眼5aの位置を三次元空間の座標として検出するように構成されうる。
検出装置50は、検出した眼5aの瞳孔位置に関する座標情報を3次元投影装置12に出力するように構成される。この座標情報に基づいて、3次元投影装置12は、投影する画像を制御するように構成してよい。検出装置50は、有線通信又は無線通信を介して眼5aの瞳孔位置を示す情報を3次元投影装置12へ出力するように構成してよい。有線通信は、例えばCAN(Controller Area Network)等を含みうる。
検出部15は、利用者13の眼5aの位置として、眼5aの第1テンプレート画像52を用いた第1処理による第1位置と、顔5の第2テンプレート画像53を用いた第2処理による第2位置と、を検出可能に構成される。検出装置50から3次元投影装置12に出力される座標情報は、第1位置の座標情報であってよい。検出装置50から3次元投影装置12に出力される座標情報は、第2位置の座標情報であってよい。検出装置50は、第1位置の座標情報を3次元投影装置12に出力し、例えば、第1位置が検出できなかった場合に、第2位置の座標情報を出力してよい。検出装置50は、第2位置の座標情報を3次元投影装置12に出力し、例えば、第2位置が検出できなかった場合に、第1位置の座標情報を出力してよい。
検出部15は、第1位置および第2位置を比較した結果に基づいて、眼5aの第3位置を検出する第3処理を検出処理として実行可能に構成され得る。比較する第1位置および第2位置は、同じ撮像画像51を対象とした第1処理および第2処理の検出結果であってよい。第1位置と第2位置とが同じ位置である場合、検出された第1位置および第2位置は、検出精度が高いものと推測できる。ここで、第1位置と第2位置とが同じ位置である場合とは、第1位置の座標情報と第2位置の座標情報との差分を算出し、差分値が所定範囲(以下、「第1範囲」という)内となる場合である。検出部15は、第3処理において、第1位置および第2位置を比較した結果、第1位置と第2位置とが同じ位置である場合に、例えば、眼5aの位置(以下、「第3位置」という)として第1位置を検出してよい。検出部15は、第3処理において、第1位置および第2位置を比較した結果、第1位置と第2位置とが異なる位置である場合、例えば、第1位置と第2位置との中間位置を算出し、第3位置として、算出した中間位置を検出してよい。第1位置と第2位置とが異なる位置である場合とは、第1位置の座標情報と第2位置の座標情報との差分を算出し、差分値が第1範囲外であって、第1範囲よりも大きい第2範囲内となる場合である。第1位置の座標情報と第2位置の座標情報との差分値が第2範囲外である場合は、検出された第1位置および第2位置のいずれか、または両方が、誤検出による検出結果であるものと推測できる。誤検出の場合、検出部15は、例えば、第3処理による検出結果を検出失敗として、座標情報を出力せずに、新たに第1処理および第2処理を行なってよい。誤検出の場合、検出部15は、例えば、前回出力した座標情報と同じ座標情報を、第3位置の座標情報として、検出してよい。なお、第3処理は、省略しうる。
検出装置50は、検出部15が外部装置であってよい。入力部30は、カメラ11から入力を受けた撮像画像51を外部の検出部15に出力するように構成してよい。この外部の検出部15では、撮像画像51から、テンプレートマッチングによって利用者13の眼5aの瞳孔位置を検出するように構成されてよい。この外部の検出部15は、検出した眼5aの瞳孔位置に関する座標情報を3次元投影装置12に出力するように構成してよい。この座標情報に基づいて、3次元投影装置12は、投影する画像を制御するように構成してよい。入力部30は、有線通信又は無線通信を介して撮像画像51を外部の検出部15へ出力するように構成してよい。外部の検出部15は、有線通信又は無線通信を介して座標情報を3次元投影装置12へ出力するように構成してよい。有線通信は、例えばCAN等を含みうる。
3次元投影装置12の位置は、移動体10の内部及び外部において任意である。例えば、3次元投影装置12は、移動体10のダッシュボード内に位置してよい。3次元投影装置12は、ウインドシールド25に向けて画像光を射出するように構成される。
ウインドシールド25は、3次元投影装置12から射出された画像光を反射するように構成される。ウインドシールド25で反射された画像光は、アイボックス16に到達する。アイボックス16は、例えば利用者13の体格、姿勢、及び姿勢の変化等を考慮して、利用者13の眼5aが存在しうると想定される実空間上の領域である。アイボックス16の形状は、任意である。アイボックス16は、平面的又は立体的な領域を含んでよい。図1に示されている実線の矢印は、3次元投影装置12から射出される画像光の少なくとも一部がアイボックス16まで到達する経路を示す。画像光が進む経路は、光路とも称される。利用者13の眼5aがアイボックス16内に位置する場合、利用者13は、アイボックス16に到達する画像光によって、虚像14を視認可能である。虚像14は、ウインドシールド25から眼5aに到達する経路を移動体10の前方に延長した経路(図では、一点鎖線で示されている直線)の上に位置する。3次元投影装置12は、利用者13に虚像14を視認させることによって、ヘッドアップディスプレイとして機能しうる。図1において、利用者13の眼5aが並ぶ方向は、x軸方向に対応する。鉛直方向は、y軸方向に対応する。カメラ11の撮像範囲は、アイボックス16を含む。
図4に示されるように、3次元投影装置12は、3次元表示装置17と、光学素子18とを備える。3次元投影装置12は、画像表示モジュールとも称されうる。3次元表示装置17は、バックライト19と、表示面20aを有する表示部20と、バリア部21と、表示制御部24とを備えうる。3次元表示装置17は、通信部22をさらに備えてよい。3次元表示装置17は、記憶部23をさらに備えてよい。
光学素子18は、第1ミラー18aと、第2ミラー18bとを含んでよい。第1ミラー18a及び第2ミラー18bの少なくとも一方は、光学的なパワーを有してよい。本実施形態において、第1ミラー18aは、光学的なパワーを有する凹面鏡であるとする。第2ミラー18bは、平面鏡であるとする。光学素子18は、3次元表示装置17に表示された画像を拡大する拡大光学系として機能してよい。図4に示される一点鎖線の矢印は、3次元表示装置17から射出される画像光の少なくとも一部が、第1ミラー18a及び第2ミラー18bによって反射され、3次元投影装置12の外部に射出される際の経路を示す。3次元投影装置12の外部に射出された画像光は、ウインドシールド25に到達し、ウインドシールド25で反射されて利用者13の眼5aに到達する。その結果、利用者13は、3次元表示装置17に表示された画像を視認できる。
光学素子18とウインドシールド25とは、3次元表示装置17から射出させる画像光を利用者13の眼5aに到達させうるように構成される。光学素子18とウインドシールド25とは、光学系を構成してよい。光学系は、3次元表示装置17から射出される画像光を一点鎖線で示されている光路に沿って利用者13の眼5aに到達させるように構成される。光学系は、利用者13に視認させる画像が拡大したり縮小したりするように、画像光の進行方向を制御するように構成してよい。光学系は、利用者13に視認させる画像の形状を所定の行列に基づいて変形させるように、画像光の進行方向を制御するように構成してよい。
光学素子18は、例示される構成に限られない。ミラーは、凹面鏡であってよいし、凸面鏡であってよいし、平面鏡であってよい。ミラーが凹面鏡又は凸面鏡である場合、その形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。光学素子18を構成する要素の数は、2つに限られず、1つであってよいし、3つ以上であってよい。光学素子18は、ミラーに限られずレンズを含んでよい。レンズは、凹面レンズであってよいし、凸面レンズであってよい。レンズの形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。
バックライト19は、画像光の光路上において、利用者13から見て、表示部20及びバリア部21よりも遠い側に位置する。バックライト19は、バリア部21と表示部20とに向けて光を射出する。バックライト19が射出した光の少なくとも一部は、一点鎖線で示されている光路に沿って進行し、利用者13の眼5aに到達する。バックライト19は、LED(Light Emission Diode)又は有機EL若しくは無機EL等の発光素子を含んでよい。バックライト19は、発光強度、及び、その分布を制御可能に構成されてよい。
表示部20は、表示パネルを含む。表示部20は、例えば、LCD(Liquid Crystal Display)等の液晶デバイスであってよい。本実施形態において、表示部20は、透過型の液晶表示パネルを含むとする。表示部20は、この例に限られず、種々の表示パネルを含んでよい。
表示部20は、複数の画素を有し、各画素においてバックライト19から入射する光の透過率を制御し、利用者13の眼5aに到達する画像光として射出するように構成される。利用者13は、表示部20の各画素から射出される画像光によって構成される画像を視認する。
バリア部21は、入射してくる光の進行方向を規定するように構成される。図3の例に示すように、バリア部21が表示部20よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、バリア部21に入射し、さらに表示部20に入射する。この場合、バリア部21は、バックライト19から射出される光の一部を遮ったり減衰させたりし、他の一部を表示部20に向けて透過させるように構成される。表示部20は、バリア部21によって規定された方向に進行する入射光を、同じ方向に進行する画像光としてそのまま射出する。表示部20がバリア部21よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、表示部20に入射し、さらにバリア部21に入射する。この場合、バリア部21は、表示部20から射出される画像光の一部を遮ったり減衰させたりし、他の一部を利用者13の眼5aに向けて透過させるように構成される。
表示部20とバリア部21とのどちらが利用者13の近くに位置するかにかかわらず、バリア部21は、画像光の進行方向を制御できるように構成される。バリア部21は、表示部20から射出される画像光の一部を利用者13の左眼5aL及び右眼5aR(図4参照)のいずれかに到達させ、画像光の他の一部を利用者13の左眼5aL及び右眼5aRの他方に到達させるように構成される。つまり、バリア部21は、画像光の少なくとも一部の進行方向を利用者13の左眼5aLと右眼5aRとに分けるように構成される。左眼5aL及び右眼5aRはそれぞれ、第1眼及び第2眼ともいう。本実施形態において、バリア部21は、バックライト19と表示部20との間に位置する。つまり、バックライト19から射出される光は、先にバリア部21に入射し、次に表示部20に入射する。
バリア部21によって画像光の進行方向が規定されることによって、利用者13の左眼5aL及び右眼5aRそれぞれに異なる画像光が到達しうる。その結果、利用者13は、左眼5aL及び右眼5aRそれぞれで異なる画像を視認しうる。
図5に示されるように、表示部20は、表示面20a上に、利用者13の左眼5aLで視認される左眼視認領域201Lと、利用者13の右眼5aRで視認される右眼視認領域201Rとを含む。表示部20は、利用者13の左眼5aLに視認させる左眼画像と、利用者13の右眼5aRに視認させる右眼画像とを含む視差画像を表示するように構成される。視差画像は、利用者13の左眼5aL及び右眼5aRそれぞれに投影される画像であって、利用者13の両眼に視差を与える画像であるとする。表示部20は、左眼視認領域201Lに左眼画像を表示し、右眼視認領域201Rに右眼画像を表示するように構成される。つまり、表示部20は、左眼視認領域201Lと右眼視認領域201Rとに視差画像を表示するように構成される。左眼視認領域201Lと右眼視認領域201Rとは、視差方向を表すu軸方向に並んでいるとする。左眼視認領域201L及び右眼視認領域201Rは、視差方向に直交するv軸方向に沿って延在してよいし、v軸方向に対して所定角度で傾斜する方向に延在してよい。つまり、左眼視認領域201L及び右眼視認領域201Rは、視差方向の成分を含む所定方向に沿って交互に並んでいてよい。左眼視認領域201Lと右眼視認領域201Rとが交互に並ぶピッチは、視差画像ピッチともいう。左眼視認領域201Lと右眼視認領域201Rとは、間隔をあけて位置していてよいし、互いに隣接していてよい。表示部20は、表示面20a上に、平面画像を表示する表示領域をさらに有していてよい。平面画像は、利用者13の眼5aに視差を与えず、立体視されない画像であるとする。
図5に示されるように、バリア部21は、開口領域21bと、遮光面21aとを有する。バリア部21が、画像光の光路上において、利用者13から見て表示部20よりも近い側に位置する場合、バリア部21は、表示部20から射出される画像光の透過率を制御するように構成される。開口領域21bは、表示部20からバリア部21に入射する光を透過させるように構成される。開口領域21bは、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば100%であってよいし、100%に近い値であってよい。遮光面21aは、表示部20からバリア部21に入射する光を遮るように構成される。遮光面21aは、第2所定値以下の透過率で光を透過させてよい。第2所定値は、例えば0%であってよいし、0%に近い値であってよい。第1所定値は、第2所定値より大きい。
開口領域21bと遮光面21aとは、視差方向を表すu軸方向に交互に並ぶとする。開口領域21bと遮光面21aとの境界は、図4に例示されているように視差方向に直交するv軸方向に沿ってよいし、v軸方向に対して所定角度で傾斜する方向に沿ってよい。言い換えれば、開口領域21bと遮光面21aとは、視差方向の成分を含む所定方向に沿って交互に並んでよい。
本実施形態のバリア部21は、画像光の光路上において、利用者13から見て表示部20よりも遠い側に位置している。バリア部21は、バックライト19から表示部20に向けて入射する光の透過率を制御するように構成される。開口領域21bは、バックライト19から表示部20に向けて入射する光を透過させるように構成される。遮光面21aは、バックライト19から表示部20に入射する光を遮るように構成される。このようにすることで、表示部20に入射する光の進行方向は、所定方向に限定される。その結果、画像光の一部は、バリア部21によって利用者13の左眼5aLに到達するように制御されうる。画像光の他の一部は、バリア部21によって利用者13の右眼5aRに到達するように制御されうる。
バリア部21は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に基づいて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域又は光の透過率が低い領域を任意の形状に形成しうる。バリア部21が液晶シャッターで構成される場合、開口領域21bは、第1所定値以上の透過率を有してよい。バリア部21が液晶シャッターで構成される場合、遮光面21aは、第2所定値以下の透過率を有してよい。第1所定値は、第2所定値より高い値に設定されてよい。第1所定値に対する第2所定値の比率は、一例において1/100に設定されてよい。第1所定値に対する第2所定値の比率は、他の例において1/1000に設定されてもよい。開口領域21bと遮光面21aとの形状が変更可能に構成されるバリア部21は、アクティブバリアとも称される。
表示制御部24は、表示部20を制御するように構成される。バリア部21がアクティブバリアである場合、表示制御部24は、バリア部21を制御するように構成してよい。表示制御部24は、バックライト19を制御するように構成してよい。表示制御部24は、検出装置50から利用者13の眼5aの瞳孔位置に関する座標情報を取得し、その座標情報に基づいて表示部20を制御するように構成される。表示制御部24は、座標情報に基づいてバリア部21、及びバックライト19の少なくとも一方を制御するように構成されうる。表示制御部24は、カメラ11から出力された画像を受信し、受信した画像から前述のテンプレートマッチングによって利用者13の眼5aを検出してよい。言い換えると、表示制御部24は、検出部15(コントローラ)と同等の機能を有し、検出部15を兼ねるように構成されてよい。表示制御部24は、検出した眼5aの瞳孔位置に基づいて表示部20を制御するように構成されてよい。表示制御部24は、検出した眼5aの瞳孔位置に基づいて、バリア部21及びバックライト19の少なくとも一方を制御するように構成されうる。表示制御部24および検出部15は、例えばプロセッサとして構成される。表示制御部24および検出部15は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。表示制御部24および検出部15は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
通信部22は、外部装置と通信可能なインタフェースを含んでよい。外部装置は、例えば検出装置50を含んでよい。外部装置は、例えば表示部20に表示する画像情報を提供するように構成されてよい。通信部22は、検出装置50などの外部装置から各種情報を取得し、表示制御部24に出力してよい。本開示における「通信可能なインタフェース」は、例えば物理コネクタ、及び無線通信機を含んでよい。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタを含んでよい。電気コネクタは、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、又はRCA端子に対応するコネクタを含んでよい。電気コネクタは、EIAJ CP-121aAに規定されるS端子に対応するコネクタ、又はEIAJ RC-5237に規定されるD端子に対応するコネクタを含んでよい。電気コネクタは、HDMI(登録商標)規格に準拠するコネクタ、又はBNC(British Naval Connector又はBaby-series N Connector等)を含む同軸ケーブルに対応するコネクタを含んでよい。光コネクタは、IEC 61754に準拠する種々のコネクタを含んでよい。無線通信機は、Bluetooth(登録商標)、及びIEEE8021aを含む各規格に準拠する無線通信機を含んでよい。無線通信機は、少なくとも1つのアンテナを含む。
記憶部23は、各種情報、又は3次元表示装置17の各構成部を動作させるためのプログラム等を格納するように構成されてよい。記憶部23は、例えば半導体メモリ等で構成されてよい。記憶部23は、表示制御部24のワークメモリとして機能してよい。記憶部23は、表示制御部24に含まれてよい。
図5に示されるように、バックライト19から射出された光は、バリア部21と表示部20とを透過して利用者13の眼5aに到達する。バックライト19から射出された光が眼5aに到達するまでの経路は、破線で表されている。バリア部21の開口領域21bを透過して右眼5aRに到達する光は、表示部20の右眼視認領域201Rを透過する。つまり、右眼5aRは、開口領域21bを透過した光によって右眼視認領域201Rを視認できる。バリア部21の開口領域21bを透過して左眼5aLに到達する光は、表示部20の左眼視認領域201Lを透過する。つまり、左眼5aLは、開口領域21bを透過した光によって左眼視認領域201Lを視認できる。
表示部20は、右眼視認領域201R及び左眼視認領域201Lに、それぞれ右眼画像及び左眼画像を表示するように構成される。これによって、バリア部21は、左眼画像に係る画像光を左眼5aLに到達させ、右眼画像に係る画像光を右眼5aRに到達させるように構成される。つまり、開口領域21bは、左眼画像に係る画像光を利用者13の左眼5aLに到達させ、右眼画像に係る画像光を利用者13の右眼5aRに到達させるように構成される。このようにすることで、3次元表示装置17は、利用者13の両眼に対して視差画像を投影できる。利用者13は、左眼5aLと右眼5aRとで視差画像を見ることによって、画像を立体視できる。
バリア部21の開口領域21bを透過し、表示部20の表示面20aから射出された画像光の少なくとも一部は、光学素子18を介してウインドシールド25に到達する。画像光は、ウインドシールド25で反射されて利用者13の眼5aに到達する。これにより、利用者13の眼5aは、ウインドシールド25よりもz軸の負の方向の側に位置する第2虚像14bを視認できる。第2虚像14bは、表示面20aが表示している画像に対応する。バリア部21の開口領域21bと遮光面21aとは、ウインドシールド25の前方であって第2虚像14bのz軸の負の方向側に第1虚像14aをつくる。図1に示すように、利用者13は、見かけ上、第2虚像14bの位置に表示部20が存在し、第1虚像14aの位置にバリア部21が存在するかのように、画像を視認しうる。
表示面20aに表示される画像に係る画像光は、バリア部21によって規定される方向に向けて、3次元表示装置17から射出される。光学素子18は、ウインドシールド25に向けて射出するように構成される。光学素子18は、画像光を反射したり屈折させたりするように構成されうる。ウインドシールド25は、画像光を反射し、利用者13の眼5aに向けて進行させるように構成される。画像光が利用者13の眼5aに入射することによって、利用者13は、視差画像を虚像14として視認する。利用者13は、虚像14を視認することによって立体視できる。虚像14のうち視差画像に対応する画像は、視差虚像とも称される。視差虚像は、光学系を介して投影される視差画像であるともいえる。虚像14のうち平面画像に対応する画像は、平面虚像とも称される。平面虚像は、光学系を介して投影される平面画像であるともいえる。
検出装置50は、テンプレートマッチングによる探索開始前に、カメラ11で撮像した撮像画像51から第1,第2テンプレート画像52,53を生成するように構成される。検出部15は、撮像画像51全体を対象に瞳孔検出を行い、検出された瞳孔を含む所定の周辺領域を第1テンプレート画像52としてよい。第1テンプレート画像52として生成する所定の周辺領域は、例えば、3次元投影装置12におけるアイボックス16に応じた領域であってよい。検出部15は、撮像画像51全体を対象に顔検出を行い、検出された顔を含む所定の周辺領域を第2テンプレート画像53としてよい。
テンプレート画像生成における瞳孔検出は、公知の瞳孔検出処理を用いることができる。検出装置50は、公知の瞳孔検出処理として、例えば、角膜反射と瞳孔との輝度差を利用した瞳孔検出処理を用いてよい。テンプレート画像生成における顔検出は、公知の顔検出処理を用いることができる。検出装置50は、公知の顔検出処理として、例えば、眼、鼻、口などの部位の特徴量および輪郭抽出などを組み合わせた顔検出処理を用いてよい。
テンプレート画像生成処理について、フロー図を用いて説明する。検出装置50は、例えば、図6のフロー図に示すテンプレート画像生成処理を実行してよい。検出装置50は、テンプレート画像生成処理を、例えば、3次元投影システム100の起動時(電源オン時)に開始してよい。まず、ステップA1において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。カメラ11の撮像画像51には、例えば、移動体10の座席に着席した利用者13の顔が含まれる。次に、ステップA2で、検出部15は、撮像画像51から、アイボックス16を含む第1領域を切り出し、ステップA3で、切り出した第1領域を対象に顔検出を行い、利用者13の顔5が検出されたかどうかを判断する。検出装置50は、顔5が検出されていれば、ステップA4に進み、検出されていなければ、ステップA1に戻る。
ステップA4において検出部15は、検出された顔5を含む第2領域を第1領域から切り出して顔5の第2テンプレート画像53を抽出する。ステップA5で、検出部15は、第2領域を対象に瞳孔検出を行い、瞳孔が検出されたかどうかを判断する。検出装置50は、瞳孔が検出されていれば、ステップA6に進み、検出されていなければ、ステップA1に戻る。ステップA6において検出部15は、検出された瞳孔を含む瞳孔周辺領域を、眼5aの第1テンプレート画像52として抽出して、テンプレート画像生成処理を終了する。検出部15は、抽出した第1,第2テンプレート画像52,53を、例えば、検出部15が有する記憶領域または記憶部23に記憶してよい。検出部15は、例えば、瞳孔周辺のアイボックス16と同じ大きさの領域を第1テンプレート画像52として抽出してよい。また、検出部15は、第1,第2テンプレート画像52,53とともに、第1,第2テンプレート画像52,53それぞれの代表位置と瞳孔位置との相対的な座標位置関係を記憶してよい。
第1,第2テンプレート画像52,53は、3次元投影システム100が起動している間、検出部15の記憶領域または記憶部23に一時的に記憶されてよい。第1,第2テンプレート画像52,53は、例えば、撮像された利用者13と関連付けられて記憶部23に記憶されてよい。記憶部23に記憶された第1,第2テンプレート画像52,53は、例えば、次回以降の3次元投影システム100起動時に、検出部15によって記憶部23から読み出されることで、テンプレート画像生成処理を省略することができる。検出部15は、再度テンプレート画像生成処理を実行することで、記憶部23に記憶された第1,第2テンプレート画像52,53を更新し得る。
テンプレート画像生成処理おける瞳孔検出処理は、テンプレートマッチングによる瞳孔検出処理(第1処理)よりも、検出精度が高いが、検出に要する処理時間が長い。テンプレートマッチングによる瞳孔検出処理は、その処理時間の短さから、例えば、カメラ11から出力される全てのフレームにおいて検出可能である。テンプレート画像生成処理おける瞳孔検出処理は、処理時間が長いために、例えば、カメラ11から出力される数フレームごとに検出可能である。検出部15は、数フレームごとにテンプレート画像生成処理を繰り返し実行して、記憶部23に記憶された第1,第2テンプレート画像52,53を更新してよい。
テンプレート画像生成処理における瞳孔検出処理によって検出した眼5aの位置は、テンプレートマッチングによって検出した眼5aの位置の妥当性の検証に利用しうる。検出部15は、瞳孔検出処理を第4処理として実行可能に構成される。第4処理として実行する瞳孔検出処理は、テンプレート画像生成処理と同じ処理を利用しうるが異なっていてよい。第4処理にて検出された眼5aの位置は、第4位置としうる。検出部15は、第4処理を周期的に実行可能に構成される。検出部15は、例えば、数フレームごとに第4処理を実行しうる。検出部15は、第1処理と第4処理とを並行して実行可能に構成される。検出部15は、第4処理を第1処理と並行して実行することで、第4処理を実行する間も、利用者の眼5aの位置を検出可能に構成されている。
検出部15は、テンプレートマッチングによって検出した眼5aの位置である、第1位置、第2位置、および第3位置のいずれかと、第4位置を比較する第5処理を実行可能に構成される。検出部15は、第4処理を実行するごとに、第4処理で検出された第4位置を用いて第5処理を実行しうる。検出部15は、テンプレート画像生成処理に使用した撮像画像51を記憶しておき、同じ撮像画像51を対象として検出された第1位置、第2位置、および第3位置と、第4位置とを比較すればよい。第4位置の検出精度は、第1位置、第2位置、および第3位置より高い。検出部15は、第4位置と、第1位置、第2位置、および第3位置のそれぞれとを比較して、妥当性を検証してよい。検出部15は、例えば、第4位置と、第1位置、第2位置、および第3位置との差分値をそれぞれ算出し、差分値が所定範囲内であるかどうかを判定してよい。差分値が所定範囲内であれば、その位置は、第4位置と同程度の高い精度で検出されたものと推測できる。差分値が所定範囲外であれば、その位置は、誤検出であると推測できる。検出部15は、第4位置と、第1位置、第2位置、および第3位置との差分値をそれぞれ算出し、差分値が所定範囲内となる位置の座標情報を3次元投影装置12に出力してよい。差分値が所定範囲内となる位置が複数の場合は、差分値が最も小さい位置の座標情報を3次元投影装置12に出力してよい。検出部15は、第4位置と、第1位置、第2位置、および第3位置との差分値をそれぞれ算出し、全ての差分値が所定範囲外であれば、第4位置の座標情報を3次元投影装置12に出力してよい。
テンプレートマッチング処理について、フロー図を用いて説明する。検出装置50は、テンプレートマッチング処理として、眼5aの第1テンプレート画像52を用いた第1処理と、顔5の第2テンプレート画像53を用いた第2処理と、を実行してよい。検出装置50は、例えば、図7Aのフロー図に示す第1処理および図7Bのフロー図に示す第2処理を実行してよい。検出装置50は、例えば、3次元投影システム100の起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶された第1,第2テンプレート画像52,53を用いる場合、テンプレート画像生成処理を省略しうるので、検出装置50は、3次元投影システム100の起動時にテンプレートマッチング処理を開始してよい。
まず、第1処理について説明する。ステップB1において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップB2では、検出部15が、眼5aの第1テンプレート画像52が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲として撮像画像51から切り出す。眼5aの第1テンプレート画像52が抽出された位置座標は、眼5aの第1テンプレート画像52と関連付けて記憶しておけばよい。ステップB3で、検出部15は、眼5aの第1テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。検出部15は、テンプレートマッチングによって、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置とその適合度を決定する。ステップB4では、検出部15が、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB5に進み、閾値未満であれば、ステップB1に戻る。ステップB5で、検出部15は、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置の座標と予め特定された座標位置関係(第1関係)とによって、撮像画像51における瞳孔位置(第1位置)の座標を決定し、テンプレートマッチング処理を終了する。
次に、第2処理について説明する。ステップB11において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップB12では、検出部15が、顔5の第2テンプレート画像53が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲として撮像画像51から切り出す。顔5の第2テンプレート画像53が抽出された位置座標は、顔5の第2テンプレート画像53と関連付けて記憶しておけばよい。ステップB13で、検出部15は、顔5の第2テンプレート画像53を用いて探索範囲に対してテンプレートマッチングを行う。検出部15は、テンプレートマッチングによって、探索範囲内で顔5の第2テンプレート画像53との適合度が最も高い位置とその適合度を決定する。ステップB14では、検出部15が、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB15に進み、閾値未満であれば、ステップB1に戻る。ステップB15で、検出部15は、探索範囲内で顔5の第2テンプレート画像53との適合度が最も高い位置の座標と予め特定された座標位置関係(第2関係)とによって、撮像画像51における瞳孔位置(第2位置)の座標を決定し、テンプレートマッチング処理を終了する。
入力された同じ撮像画像51に対して実行される第1処理と第2処理とは、非同期処理であってよい。第1処理と第2処理とは、それぞれ独立して処理が実行され、第1位置および第2位置が決定される。決定された第1位置または第2位置の座標情報は、検出装置50から3次元投影装置12に出力される。第1位置と第2位置のいずれの座標情報を出力するかは、前述のように検出部15が決定してよい。3次元投影装置12では、検出装置50から取得した瞳孔位置の座標情報を用いて、表示制御部24が、表示部20に表示する視差画像を制御する。
検出装置50は、さらに第3処理を実行してよい。検出装置50は、例えば、図7Cのフロー図に示す第3処理を実行してよい。検出装置50は、例えば、第1位置および第2位置の決定後に第3処理を開始してよい。ステップS1において、検出部15は、第1位置と第2位置とを比較する。比較する第1位置および第2位置は、同じ撮像画像51を対象とした第1処理および第2処理の検出結果であってよい。ステップS2では、第1位置と第2位置とが同じ位置であるかどうかを判断する。例えば、第1位置の座標情報と第2位置の座標情報との差分を算出し、差分値が第1範囲内となる場合は、同じ位置であると判断してよい。第1位置と第2位置とが同じ位置であれば、ステップS3で、検出部15は、第1位置を、撮像画像51における瞳孔位置である第3位置として座標決定し、第3処理を終了する。第1位置と第2位置とが同じ位置でなければ、ステップS4で、検出部15は、検出失敗であるかどうかを判断する。例えば、第1位置の座標情報と第2位置の座標情報との差分値が第2範囲外となる場合は、検出失敗であると判断してよい。検出失敗であれば、検出部15は、第3位置の座標を決定せずに第3処理を終了する。検出失敗でなければ、検出部15は、ステップS5で、第1位置と第2位置との中間位置を、撮像画像51における瞳孔位置である第3位置として座標決定し、第3処理を終了する。例えば、第1位置の座標情報と第2位置の座標情報との差分値が第1範囲外であって、第2範囲内となる場合は、検出失敗ではないと判断してよい。
移動体10の運転席は、例えば、前後方向に移動可能に構成されている。利用者の姿勢は、移動体10の運転中に変化することもある。このような場合に、検出装置50は、次のような他の例のテンプレートマッチング処理を実行しうる。運転席の前後位置または利用者13の姿勢が変化し、利用者13の顔がz方向に移動した場合を考える。利用者13の顔がz方向の正方向に移動した場合、撮像画像51には、移動前に比べて利用者13の顔が小さく撮像される。利用者13の顔がz方向の負方向に移動した場合、撮像画像51には、移動前に比べて利用者13の顔が大きく撮像される。この場合、検出装置50は、第1,第2テンプレート画像52,53を変倍処理して、変倍処理後の第1,第2テンプレート画像52,53を用いてテンプレートマッチングすればよい。検出装置50は、例えば、拡大率の異なる複数の第1,第2テンプレート画像52,53を用いてテンプレートマッチングしてよい。検出装置50は、例えば、縮小率の異なる複数の第1,第2テンプレート画像52,53を用いてテンプレートマッチングしてよい。
他の例のテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50は、例えば、図8のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50は、例えば、3次元投影システム100の起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶された第1,第2テンプレート画像52,53を用いる場合、テンプレート画像生成処理を省略しうるので、検出装置50は、3次元投影システム100の起動時にテンプレートマッチング処理を開始してよい。
第1処理の他の例について説明する。図7AのステップB1~B4と、図8のステップC1~C4とは同じ動作を実行するので、説明は省略する。検出部15は、ステップC5において、眼5aの第1テンプレート画像52の変倍率を複数変更して第1テンプレート画像52に変倍処理を施す。検出部15は、変倍処理後の眼5aの第1テンプレート画像52を用いてテンプレートマッチングを行う。検出装置50は、利用者13の姿勢がどのように変化したかは検出しないので、変倍処理として、拡大処理も縮小処理もいずれも行う。変倍処理後の眼5aの第1テンプレート画像52は複数生成されるので、検出部15は、複数の眼5aの第1テンプレート画像52でテンプレートマッチングを行い、適合度が最も高い眼5aの第1テンプレート画像52を決定する。ステップC6で、検出部15は、適合度が最も高い眼5aの第1テンプレート画像52の変倍率に基づいて、利用者13のz方向の位置を推定する。ステップC7では、ステップB5と同様に撮像画像51における瞳孔位置の座標を決定したのち、推定した利用者13のz方向の位置に基づいて瞳孔位置の座標を補正し、テンプレートマッチング処理を終了する。補正された瞳孔位置の座標情報は、検出装置50から3次元投影装置12に出力される。第2処理の他の例では、図7BのステップB11~B14と、図8のステップC1~C4とが同じ動作を実行し、ステップC5~C7で、眼5aの第1テンプレート画像52に代えて、顔5の第2テンプレート画像53を用いること以外、上記の第1の処理と同じであるので、説明を省略する。
他の例の3次元投影システム100Aについて説明する。図9に示されるように、3次元投影システム100Aにおいて、検出装置50Aは、入力部30と、予測部31と、検出部15Aと、を備える。3次元投影システム100Aの検出装置50A以外の構成は、前述の3次元投影システム100と同様であるので、同じ参照符号を付して、詳細な説明は省略する。予測部31は、検出部15Aが第1処理で現在時刻より前に検出した眼5aの複数の位置に基づいて、現在時刻より後の時刻における眼5aの位置を予測するように構成されている。本実施形態の眼5aの位置は、上記と同様に利用者13の眼5aの瞳孔位置を示す座標情報であってよい。眼5aの複数の位置とは、検出された時刻がそれぞれ異なる眼5aの位置を含む。予測部31は、検出時刻と座標情報との組み合わせである予測用データを複数用いて、未来の眼5aの位置を予測し、予測位置として出力するように構成されてよい。検出部15Aは、眼5aの位置を検出すると、座標情報と検出時刻とを予測用データとして、例えば、検出部15Aが有する記憶領域、予測部31が有する記憶領域または記憶部23に順次記憶してよい。未来の眼5aの位置とは、記憶された複数の予測用データに対する未来をいう。
予測部31は、検出部15Aが第2処理で現在時刻より前に検出した顔5の複数の位置に基づいて、現在時刻より後の時刻における顔5の位置を予測するように構成されている。本実施形態の顔5の位置は、上記と同様に利用者13の眼5aの瞳孔位置を示す座標情報であってよい。顔5の複数の位置とは、検出された時刻がそれぞれ異なる顔5の位置を含む。予測部31は、検出時刻と座標情報との組み合わせである予測用データを複数用いて、未来の顔5の位置を予測し、予測位置として出力するように構成されてよい。検出部15Aは、顔5の位置を検出すると、座標情報と検出時刻とを予測用データとして、例えば、検出部15Aが有する記憶領域、予測部31が有する記憶領域または記憶部23に順次記憶してよい。未来の顔5の位置とは、記憶された複数の予測用データに対する未来をいう。
予測部31による眼5aおよび顔5の位置の予測方法は、例えば、予測関数を用いる方法であってよい。予測関数は、記憶された複数の予測用データから導き出される関数である。予測関数は、予め実験等によって定められた係数を用いた関数式を、検出部15Aが有する記憶領域、予測部31が有する記憶領域または記憶部23に記憶してよい。予測関数は、予測部31が、眼5aおよび顔5の位置の予測を行うごとに更新してよい。
予測部31は、予測すべき未来の時刻を予測関数に入力し、入力された時刻における眼5aおよび顔5の位置(予測位置)の座標情報を出力する。予測すべき未来の時刻は、次にテンプレートマッチングを実行する時刻であって、例えば、カメラ11から次のフレームが入力される時刻であってよい。前述のとおり、検出部15Aは、テンプレートマッチングにおいて、撮像画像51の一部の領域を探索範囲としてよい。検出部15Aは、第1処理において、予測部31が予測した眼5aの位置を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている。検出部15Aは、第2処理において、予測部31が予測した顔5の位置を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている。検出部15Aは、撮像画像51において、予測部31が出力した予測位置を含む領域を予測領域として設定し、設定した予測領域をテンプレートマッチングにおける探索範囲とする。予測位置を含む予測領域は、撮像画像51より小さく第1,第2テンプレート画像52,53より大きい領域であって、領域内に予測位置を含んでいればよい。例えば、予測領域の中心座標が、予測位置の座標と一致する領域であってよい。本実施形態のテンプレートマッチングにおける探索範囲の形状および大きさは、例えば、第1,第2テンプレート画像52,53と相似関係を有していてよい。
検出部15Aは、このような予測領域を探索範囲としてテンプレートマッチングを実行する。本実施形態のテンプレートマッチングは、探索範囲が異なる以外は、前述のテンプレートマッチングと同様である。テンプレートマッチングでは、探索範囲である予測領域において、第1,第2テンプレート画像52,53と最も適合する位置を探索する。第1処理および第2処理の検出結果は、利用者13の眼5aの瞳孔位置を示す座標情報であってよい。本実施形態の探索範囲となる予測領域は、予測部31が出力した予測位置を含むので、探索範囲をより小さくしても、探索範囲内に眼5aおよび顔5が含まれている可能性が高い。探索範囲をより小さくすることによって、テンプレートマッチングに要する演算量は、低減される。演算量の低減によって、検出部15Aは、検出結果の出力にかかる演算速度を高速化できる。
予測部31は、検出部15Aが現在時刻より前に検出した眼5aの複数の位置に基づいて、さらに、眼5aの位置の変化速度を算出するように構成されていてよい。上記のように、座標情報と検出時刻とが予測用データとして記憶されており、複数の予測データを使用すれば、眼5aの位置の変化速度が算出できる。例えば、2つの予測用データの差分により、座標情報から眼5aの位置の移動距離が算出され、検出時刻から時間が算出されるので、予測部31は、眼5aの位置の変化速度が算出できる。また、移動距離は、x軸方向成分とy軸方向成分とをそれぞれ算出することができ、眼5aの位置の変化速度もx軸方向成分とy軸方向成分とをそれぞれ算出できる。
検出部15Aは、予測部31が算出した変化速度に応じて、第1処理のテンプレートマッチングにおける探索範囲の大きさを変更するように構成されている。予測部31が算出した変化速度が大きいということは、眼5aの位置の移動距離が大きいことが予測される。例えば、算出された変化速度のx軸方向成分と変化速度のy軸方向成分とを比較したときに、眼5aの位置の移動距離は、変化速度の成分が大きい方向に大きいことが予測される。本実施形態において、眼5aの位置を予測することで、テンプレートマッチングにおける探索範囲を小さく設定することができるが、変化速度の成分が大きい方向においては、眼5aの位置が、予測位置からずれることにより、探索範囲から外れるおそれがある。眼5aの位置が探索範囲外とならないように、例えば、検出部15Aは、予測位置を含む予測領域を、変化速度の成分が大きい方向に広くしてよい。検出部15Aは、このように広くした領域を探索範囲としてテンプレートマッチングを実行する。検出部15Aは、上記と同様に、予測部31が算出した変化速度に応じて、第2処理の顔5のテンプレートマッチングにおける探索範囲の大きさを変更してよい。
瞳孔位置の予測を含むテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50Aは、例えば、第1処理において、図10のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50Aは、例えば、3次元投影システム100Aの起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶された眼5aの第1テンプレート画像52を用いる場合、テンプレート画像生成処理を省略しうるので、検出装置50Aは、3次元投影システム100Aの起動時にテンプレートマッチング処理を開始してよい。
まず、ステップB21において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップB22では、検出部15Aが、探索範囲を撮像画像51から切り出す。ステップB22で切り出される探索範囲は、後述のステップB27で決定された探索範囲である。ステップB22より以前にステップB27が実行されておらず探索範囲が予め決定されていない場合は、眼5aの第1テンプレート画像52が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲としてよい。ステップB23で、検出部15Aは、眼5aの第1テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。検出部15Aは、テンプレートマッチングによって、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置とその適合度とを決定する。ステップB24では、検出部15Aが、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB25に進み、閾値未満であれば、ステップB21に戻る。ステップB25で、検出部15Aは、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置の座標と予め特定された相対的な座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定する。
ステップB26で、予測部31は、未来の瞳孔位置を予測し、予測位置として出力する。予測部31は、例えば、ステップB25で決定された瞳孔位置の座標情報と検出時刻との組み合わせである最新の予測用データと、記憶されている過去の予測用データとに基づいて予測関数を更新する。予測部31は、更新された予測関数を用いて瞳孔位置を予測し、予測位置を出力する。ステップB27で、検出部15Aは、予測部31から出力された予測位置を含む領域を探索範囲として決定し、ステップB21に戻る。第2処理では、第1処理の一部において、眼5aの第1テンプレート画像52に代えて、顔5の第2テンプレート画像53を用いればよい。
前述のように、利用者13の顔5は、前後に移動することがある。また、利用者13が首を傾げるなどした場合には、利用者13の顔5が傾くことがある。利用者13の顔5が前後に移動すると、撮像画像51の利用者13の顔5は、大きくまたは小さく写り、拡大処理または縮小処理した場合と類似する。利用者13の顔5が傾くと、撮像画像の利用者13の顔5は、回転処理した場合と類似する。第1処理において、予測部31が瞳孔位置を予測したのち、検出部15Aが、予測位置と直前の瞳孔位置とを比較する。比較した結果、例えば、眼間距離が変化していれば、検出部15Aは、眼5aの第1テンプレート画像52を、眼間距離に応じた変倍率の眼5aの第1テンプレート画像52に更新する。検出部15Aは、眼5aの第1テンプレート画像52として、例えば、変倍処理による拡大率の異なる複数の第1テンプレート画像52および変倍処理による縮小率の異なる複数の第1テンプレート画像52を予め作成しておき、眼間距離に応じた眼5aの第1テンプレート画像52を選択してよい。予測部31が、左眼の瞳孔位置と右眼の瞳孔位置とをそれぞれ予測することで、検出部15Aが、直前の左眼の瞳孔位置と右眼の瞳孔位置との比較によって、眼間距離の変化を検出してよい。第2処理においても同様に、眼間距離が変化していれば、検出部15Aは、顔5の第2テンプレート画像53を、眼間距離に応じた変倍率の顔5の第2テンプレート画像53に更新する。検出部15Aは、顔5の第2テンプレート画像53として、例えば、変倍処理による拡大率の異なる複数の第2テンプレート画像53および変倍処理による縮小率の異なる複数の第2テンプレート画像53を予め作成しておき、眼間距離に応じた顔5の第2テンプレート画像53を選択してよい。
また、第1処理において、検出部15Aが、予測位置と直前の瞳孔位置とを比較した結果、瞳孔位置が、顔の傾きに応じた変化をしていれば、検出部15Aは、眼5aの第1テンプレート画像52を、傾き変化に応じた回転角度の眼5aの第1テンプレート画像52に更新する。検出部15Aは、眼5aの第1テンプレート画像52として、例えば、回転処理による回転角度の異なる複数の第1テンプレート画像52を予め作成しておき、傾き変化に応じた第1テンプレート画像52を選択してよい。予測部31が、左眼の瞳孔位置と右眼の瞳孔位置とをそれぞれ予測することで、検出部15Aが、直前の左眼の瞳孔位置と右眼の瞳孔位置との比較によって、y軸方向の位置変化から傾き変化を検出してよい。利用者13の顔が傾いた場合、左眼の瞳孔位置と右眼の瞳孔位置とのそれぞれのy軸方向の位置(y座標)が、互いに異なる方向に変化する。例えば、左眼の瞳孔のy軸方向の位置が上方向に変化し、右眼の瞳孔のy軸方向の位置が下方向に変化していれば、傾き変化が生じている。検出部15Aは、左眼および右眼のy軸方向の位置変化の大きさに基づいて回転角度を算出してよい。第2処理においても同様に、瞳孔位置が傾いていれば、検出部15Aは、顔5の第2テンプレート画像53を、傾き変化に応じた回転角度の第2テンプレート画像53に更新する。検出部15Aは、顔5の第2テンプレート画像53として、例えば、回転処理による回転角度の異なる複数の第2テンプレート画像53を予め作成しておき、傾き変化に応じた第2テンプレート画像53を選択してよい。
テンプレート画像の更新を含むテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50Aは、例えば、第1処理において、図11のフロー図に示すテンプレートマッチング処理を実行してよい。ステップC11において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップC12では、検出部15Aが、探索範囲を撮像画像51から切り出す。ステップC12で切り出される探索範囲は、後述のステップC18で決定された探索範囲である。ステップC18が、ステップC12より以前に実行されておらず探索範囲が予め決定されていない場合は、眼5aの第1テンプレート画像52が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲としてよい。ステップC13で、検出部15Aは、更新された眼5aの第1テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。眼5aの第1テンプレート画像52は、後述のステップC17で更新された眼5aの第1テンプレート画像52である。検出部15Aは、テンプレートマッチングによって、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置とその適合度とを決定する。ステップC14では、検出部15Aが、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップC15に進み、閾値未満であれば、ステップC11に戻る。ステップC15で、検出部15Aは、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置の座標と予め特定された座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定する。
ステップC16で、予測部31は、未来の瞳孔位置を予測し、予測位置として出力する。ステップC17で、検出部15Aは、眼5aの第1テンプレート画像52を更新する。検出部15Aは、予測位置と直前の瞳孔位置とを比較し、比較結果に応じて、少なくとも変倍処理または回転処理した眼5aの第1テンプレート画像52に更新する。ステップC18で、検出部15Aは、予測部31から出力された予測位置を含む領域を探索範囲として決定し、ステップC11に戻る。第2処理では、第1処理の一部において、眼5aの第1テンプレート画像52に代えて、顔5の第2テンプレート画像53を用いればよい。
第5処理が実行された場合において、第1位置、第2位置、および第3位置のいずれもが誤検出であると、予測精度が低く予測位置が大きく外れるおそれがある。第1位置、第2位置、および第3位置のいずれもが誤検出のとき、ステップB27およびステップC18において、検出部15,15Aは、予測位置に代えて第4位置を含む領域を探索範囲として決定してよい。
本開示に係る構成は、以上説明した実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
本開示に係る構成を説明する図は、模式的なものである。図面上の寸法比率等は、現実のものと必ずしも一致しない。
本開示において「第1」、「第2」及び「第3」等の記載は、当該構成を区別するための識別子である。本開示における「第1」、「第2」及び「第3」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1処理は、第2処理と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
5 顔
5a 眼(5aL:左眼、5aR:右眼)
10 移動体
11 カメラ
12 3次元投影装置
13 利用者
14 虚像(14a:第1虚像、14b:第2虚像)
15,15A 検出部
16 アイボックス
17 3次元表示装置
18 光学素子(18a:第1ミラー、18b:第2ミラー)
19 バックライト
20 表示部(20a:表示面)
201L 左眼視認領域
201R 右眼視認領域
21 バリア部(21a:遮光面、21b:開口領域)
22 通信部
23 記憶部
24 表示制御部
25 ウインドシールド
30 入力部
31 予測部
50,50A 検出装置
51 撮像画像
52 眼の第1テンプレート画像
53 顔の第2テンプレート画像
100,100A 3次元投影システム(画像表示システム)

Claims (10)

  1. 画像情報の入力を受ける入力部と、
    利用者の眼の位置を検出する検出処理を実行可能に構成されるコントローラと、を備え、
    前記コントローラは、
    入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する第1処理と、
    前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する第2処理と、
    前記第1位置および前記第2位置に基づいて眼の第3位置を検出する第3処理と、を前記検出処理として実行可能に構成される、検出装置。
  2. 請求項に記載の検出装置であって、
    前記コントローラは、前記第1処理と異なる、前記入力された画像情報に基づいて眼の第4位置を検出する第4処理を実行可能に構成される、検出装置。
  3. 請求項に記載の検出装置であって、
    前記コントローラは、前記第1処理の処理時間より第4処理の処理時間が長い、検出装置。
  4. 請求項またはに記載の検出装置であって、
    前記コントローラは、前記第1処理の検出精度より第4処理の検出精度が高い、検出装置。
  5. 請求項のいずれか1つに記載の検出装置であって、
    前記コントローラは、前記第4処理を周期的に実行するように構成される、検出装置。
  6. 請求項のいずれか1つに記載の検出装置であって、
    前記コントローラは、前記第1処理と並行して第4処理を実行可能に構成される、検出装置。
  7. 請求項のいずれか1つに記載の検出装置であって、
    前記コントローラは、前記第1位置、前記第2位置、および前記第3位置のいずれかと、前記第4位置を比較する第5処理を実行可能に構成される、検出装置。
  8. 請求項に記載の検出装置であって、
    前記コントローラは、前記第5処理の結果に基づき、前記第1処理または前記第2処理の少なくともいずれかにおいて、前記第4位置を含む領域を探索範囲とするテンプレートマッチングを実行可能に構成される、検出装置。
  9. 画像情報の入力を受ける入力部と、
    利用者の眼の位置を検出する検出処理を実行可能に構成されるコントローラと、を備え、
    前記コントローラは、入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する第1処理と、
    前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する第2処理と、
    前記第1処理と異なる、前記入力された画像情報に基づいて眼の第4位置を検出する第4処理と、を前記検出処理として実行可能に構成される、検出装置。
  10. 利用者の両眼に対して光学系を介して投影される視差画像を表示するように構成される表示部と、
    前記視差画像の画像光の進行方向を規定することによって、前記両眼に視差を与えるように構成されるバリア部と、
    利用者の顔を撮像するように構成されるカメラと、
    前記カメラから出力された撮像情報の入力を受ける入力部と、
    利用者の眼の位置を検出する検出処理を実行可能に構成される検出部と、
    前記検出部で検出された利用者の眼の位置に応じた視差画像を合成して前記表示部を制御する表示制御部と、を備え、
    前記検出部は、
    入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する第1処理と、
    前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する第2処理と、
    前記第1位置および前記第2位置に基づいて眼の第3位置を検出する第3処理と、を前記検出処理として実行可能に構成され、
    前記表示制御部は、前記第1位置、前記第2位置、および前記第3位置のいずれかに基づいて視差画像を合成する、画像表示システム。
JP2022559033A 2020-10-30 2021-10-19 検出装置および画像表示システム Active JP7466687B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020182946 2020-10-30
JP2020182946 2020-10-30
PCT/JP2021/038574 WO2022091864A1 (ja) 2020-10-30 2021-10-19 検出装置および画像表示システム

Publications (2)

Publication Number Publication Date
JPWO2022091864A1 JPWO2022091864A1 (ja) 2022-05-05
JP7466687B2 true JP7466687B2 (ja) 2024-04-12

Family

ID=81382578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022559033A Active JP7466687B2 (ja) 2020-10-30 2021-10-19 検出装置および画像表示システム

Country Status (5)

Country Link
US (1) US20230388479A1 (ja)
EP (1) EP4239406A1 (ja)
JP (1) JP7466687B2 (ja)
CN (1) CN116547604A (ja)
WO (1) WO2022091864A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195582A (ja) 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP6255388B2 (ja) 2012-04-27 2017-12-27 アンダーソン・パワー・プロダクツ・インコーポレーテッドAnderson Power Products Incorporated 中出力電気コネクタ用の小型ラッチ機構

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2985558B2 (ja) * 1993-03-09 1999-12-06 トヨタ自動車株式会社 運転状態検出装置
JP3668116B2 (ja) 1999-09-24 2005-07-06 三洋電機株式会社 眼鏡無し立体映像表示装置
JP6036065B2 (ja) * 2012-09-14 2016-11-30 富士通株式会社 注視位置検出装置及び注視位置検出方法
JP2014071519A (ja) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd 状態判定装置、運転支援システム、状態判定方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195582A (ja) 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP6255388B2 (ja) 2012-04-27 2017-12-27 アンダーソン・パワー・プロダクツ・インコーポレーテッドAnderson Power Products Incorporated 中出力電気コネクタ用の小型ラッチ機構

Also Published As

Publication number Publication date
US20230388479A1 (en) 2023-11-30
EP4239406A1 (en) 2023-09-06
WO2022091864A1 (ja) 2022-05-05
JPWO2022091864A1 (ja) 2022-05-05
CN116547604A (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
JP7466687B2 (ja) 検出装置および画像表示システム
JP7441333B2 (ja) 3次元表示装置、画像表示システムおよび移動体
WO2021201161A1 (ja) 検出装置および画像表示モジュール
JP7141975B2 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
EP3988990B1 (en) Head-up display, head-up display system, mobile object, and design method for head-up display
JP2021166031A (ja) 検出装置および画像表示モジュール
JP7337023B2 (ja) 画像表示システム
JP7362518B2 (ja) カメラ装置、ウインドシールドおよび画像表示モジュール
JP7332764B2 (ja) 画像表示モジュール
JP7461215B2 (ja) 画像表示モジュール
JP7498053B2 (ja) カメラシステムおよび運転支援システム
JP7250582B2 (ja) 画像表示モジュール、移動体、及び光学系
WO2022186189A1 (ja) 撮像装置および3次元表示装置
JP7173836B2 (ja) コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
WO2021235287A1 (ja) 視点検出装置および表示装置
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402

R150 Certificate of patent or registration of utility model

Ref document number: 7466687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150