JP2021166031A - 検出装置および画像表示モジュール - Google Patents

検出装置および画像表示モジュール Download PDF

Info

Publication number
JP2021166031A
JP2021166031A JP2020175409A JP2020175409A JP2021166031A JP 2021166031 A JP2021166031 A JP 2021166031A JP 2020175409 A JP2020175409 A JP 2020175409A JP 2020175409 A JP2020175409 A JP 2020175409A JP 2021166031 A JP2021166031 A JP 2021166031A
Authority
JP
Japan
Prior art keywords
image
unit
detection device
template
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020175409A
Other languages
English (en)
Other versions
JP7536590B2 (ja
Inventor
薫 草深
Kaoru Kusafuka
昭典 佐藤
Akinori Sato
充弘 村田
Mitsuhiro Murata
歩樹 林下
Ayuki HAYASHISHITA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to CN202180027474.3A priority Critical patent/CN115398493A/zh
Priority to US17/916,682 priority patent/US20230156178A1/en
Priority to EP21782012.5A priority patent/EP4131158A4/en
Priority to PCT/JP2021/014006 priority patent/WO2021201161A1/ja
Publication of JP2021166031A publication Critical patent/JP2021166031A/ja
Application granted granted Critical
Publication of JP7536590B2 publication Critical patent/JP7536590B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 必要な演算量を低減すること、連続して検出することが可能である検出装置および画像表示システムを提供する。
【解決手段】 検出装置50は、カメラ11と検出部15とを備える。カメラ11は、人の顔を撮像するように構成される。検出部15は、カメラ11から出力された撮像画像から人の眼の位置を、テンプレートマッチングによって検出するように構成される。
【選択図】図3

Description

本開示は、検出装置および画像表示モジュールに関する。
従来、利用者の眼の位置検出を行う場合、カメラで利用者の眼を撮像した撮像画像を用いて、瞳孔の位置を示す位置データを取得する。例えば、3次元表示装置において、位置データが示す瞳孔の位置に基づいて、利用者の左眼および右眼にそれぞれ対応する画像を視認させるように、画像をディスプレイに表示させている(例えば、特許文献1)
特開2001−166259号公報
従来の瞳孔位置の検出は、多くの演算量を必要とする。また、瞳孔位置は、利用者が瞬きなどによって眼を閉じていると検出することができない。
本開示の一実施形態に係る検出装置は、カメラと検出部とを備える。カメラは、人の顔を撮像するように構成される。検出部は、前記カメラから出力された撮像画像から人の眼の位置を、テンプレートマッチングによって検出するように構成される。
本開示の一実施形態に係る画像表示システムは、表示部とバリア部とカメラと検出部と制御部とを備える。表示部は、人の両眼に対して光学系を介して投影される視差画像を表示するように構成される。バリア部は、前記視差画像の画像光の進行方向を規定することによって、前記両眼に視差を与えるように構成される。カメラは、人の顔を撮像するように構成される。検出部は、前記カメラから出力された撮像画像から人の両眼の位置を、テンプレートマッチングによって検出するように構成される。制御部は、前記検出部で検出された人の両眼の位置に応じて前記表示部を制御する。
本開示の一実施形態に係る検出装置および画像表示システムにおいては、必要な演算量を低減すること、連続して検出することが可能である。
検出装置が搭載された移動体の概略構成の一例を示す図である。 テンプレートマッチングを説明するための模式図である。 3次元投影システムの概略構成の一例を示す図である。 運転者の眼と表示部とバリア部との関係を示す模式図である。 検出装置のテンプレート画像生成処理の一例を説明するためのフロー図である。 検出装置のテンプレートマッチング処理の一例を説明するためのフロー図である。 検出装置のテンプレートマッチング処理の他の例を説明するためのフロー図である。 3次元投影システムの概略構成の他の例を示す図である。 検出装置のテンプレートマッチング処理の他の例を説明するためのフロー図である。 検出装置のテンプレートマッチング処理の他の例を説明するためのフロー図である。
以下、本開示の実施形態について、図面を参照しながら詳細に説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
図1に示されるように、本開示の一実施形態に係る検出装置50は、移動体10に搭載されてよい。検出装置50は、カメラ11と、検出部15と、を備える。移動体10は、3次元投影システム100を備えてよい。3次元投影システム100は、検出装置50と、3次元投影装置12と、を備える。
本開示における「移動体」は、例えば車両、船舶、及び航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、及び滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、及びトロリーバス等を含んでよい。産業車両は、例えば農業及び建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフト及びゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、及びタンカー等を含んでよい。航空機は、例えば固定翼機及び回転翼機等を含んでよい。
以下では、移動体10が、乗用車である場合を例として説明する。移動体10は、乗用車に限らず、上記例のいずれかであってよい。カメラ11は、移動体10に取り付けられてよい。カメラ11は、移動体10の運転者13の顔(人の顔)を含む画像を撮像するように構成される。カメラ11の取り付け位置は、移動体10の内部及び外部において任意である。例えば、カメラ11は、移動体10のダッシュボード内に位置してよい。
カメラ11は、可視光カメラまたは赤外線カメラであってよい。カメラ11は、可視光カメラと赤外線カメラの両方の機能を有していてよい。カメラ11は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含んでよい。
カメラ11で撮像された画像は、検出部15に出力される。検出部15は、カメラ11から出力された撮像画像から運転者13の眼5の位置を、テンプレートマッチングによって検出するように構成される。カメラ11からは、全てのフレームで検出部15に出力されてよく、検出部15は、全てのフレームでテンプレートマッチングによって眼5の位置を検出してよい。運転者13の眼5の位置は、瞳孔位置であってよい。テンプレートマッチングは、対象画像からテンプレート画像に最も適合する位置を探索する画像処理である。本開示の検出装置50において、対象画像は、カメラ11から出力された撮像画像51である。テンプレート画像52は、運転者13の眼5または運転者13の眼5との相対的な位置関係が特定されている顔の部位を含む。テンプレート画像52が含む運転者13の眼5は、両眼であってよく、右眼のみまたは左眼のみであってよい。運転者13の眼5との相対的な位置関係が特定されている顔の部位とは、例えば、眉毛または鼻などであってよい。図2に示す例では、テンプレート画像52は、運転者13の眼5として両眼を含む。
従来のような撮像画像からの瞳孔位置検出は、撮像画像が利用者の瞳孔を含むことが必須である。撮像画像に瞳孔が含まれていなければ、瞳孔位置を検出することができない。例えば、利用者が、瞬きなどで眼を閉じている時に撮像された画像からは、瞳孔位置を検出することができない。本開示によるテンプレートマッチングは、テンプレート画像52と最も適合する位置を探索するので、撮像画像51に瞳孔が含まれていない場合でも、テンプレート画像52に含まれる瞳孔以外の特徴を利用して、撮像画像51の最も適合する位置を探索することができる。テンプレート画像52は、瞳孔より大きい画像であるので、同じ大きさの撮像画像51を検出対象としたときに、テンプレートマッチングに要する演算量は、瞳孔検出に要する演算量よりも低減される。演算量の低減によって、検出部15は、瞳孔検出に比べて検出結果の出力にかかる演算速度を高速化できる。
テンプレート画像52の形状は、撮像画像51の形状に応じた形状であってよい。撮像画像51が矩形状であれば、テンプレート画像52は矩形状であってよい。テンプレート画像52の形状は、撮像画像51の形状と相似関係である必要はないが、相似関係であってよい。以下では、図2に示すように、撮像画像51およびテンプレート画像52が、矩形状である例について説明する。
検出装置50による検出結果は、運転者13の眼5(両眼)の瞳孔位置を示す座標情報であってよい。テンプレートマッチングでは、撮像画像51において、テンプレート画像52に最も適合する位置の座標が決定される。テンプレートマッチングによって決定される適合位置の座標は、例えば、テンプレート画像52の代表位置の座標に対応する座標であってよい。テンプレート画像52の代表位置は、例えば、いずれか1つの頂点位置またはテンプレート画像52の中心位置であってよい。テンプレート画像52に含まれる瞳孔位置の座標と、例えば、テンプレート画像52の代表位置との相対的な座標位置関係を予め特定しておけばよい。これにより、テンプレートマッチングによって、撮像画像51における適合位置の座標が決定されると、決定された座標と予め特定された座標位置関係とによって、撮像画像51における瞳孔位置の座標情報を決定することができる。例えば、運転者13が眼5を閉じていて、撮像画像51に瞳孔が含まれていない場合であっても、眼が開いていれば検出されたであろうと推定される瞳孔位置の座標情報を決定することができる。本開示の検出装置50は、運転者13が瞬きなどで眼5閉じた場合でも瞳孔位置の座標情報を決定できるので、途切れることなく連続して座標情報を出力することができる。
検出装置50は、例えば、センサを含んでよい。センサは、超音波センサ又は光センサ等であってよい。カメラ11は、センサによって運転者13の頭部の位置を検出するように構成され、頭部の位置に基づいて、運転者13の眼5の位置を検出するように構成されうる。カメラ11は、2つ以上のセンサによって、運転者13の眼5の位置を三次元空間の座標として検出するように構成されうる。
検出装置50は、検出した眼5の瞳孔位置に関する座標情報を3次元投影装置12に出力するように構成される。この座標情報に基づいて、3次元投影装置12は、投影する画像を制御するように構成してよい。検出装置50は、有線通信又は無線通信を介して眼5の瞳孔位置を示す情報を3次元投影装置12へ出力するように構成してよい。有線通信は、例えばCAN(Controller Area Network)等を含みうる。
検出装置50は、検出部15が外部装置であってよい。カメラ11は、撮像画像51を外部の検出部15に出力するように構成してよい。この外部の検出部15では、カメラ11から出力された画像から、テンプレートマッチングによって運転者13の眼5の瞳孔位置を検出するように構成されてよい。この外部の検出部15は、検出した眼5の瞳孔位置に関する座標情報を3次元投影装置12に出力するように構成してよい。この座標情報に基づいて、3次元投影装置12は、投影する画像を制御するように構成してよい。カメラ11は、有線通信又は無線通信を介して撮像した画像を外部の検出部15へ出力するように構成してよい。外部の検出部15は、有線通信又は無線通信を介して座標情報を3次元投影装置12へ出力するように構成してよい。有線通信は、例えばCAN等を含みうる。
3次元投影装置12の位置は、移動体10の内部及び外部において任意である。例えば、3次元投影装置12は、移動体10のダッシュボード内に位置してよい。3次元投影装置12は、ウインドシールド25に向けて画像光を射出するように構成される。
ウインドシールド25は、3次元投影装置12から射出された画像光を反射するように構成される。ウインドシールド25で反射された画像光は、アイボックス16に到達する。アイボックス16は、例えば運転者13の体格、姿勢、及び姿勢の変化等を考慮して、運転者13の眼5が存在しうると想定される実空間上の領域である。アイボックス16の形状は任意である。アイボックス16は、平面的又は立体的な領域を含んでよい。図1に示されている実線の矢印は、3次元投影装置12から射出される画像光の少なくとも一部がアイボックス16まで到達する経路を示す。画像光が進む経路は、光路とも称される。運転者13の眼5がアイボックス16内に位置する場合、運転者13は、アイボックス16に到達する画像光によって、虚像14を視認可能である。虚像14は、ウインドシールド25から眼5に到達する経路を移動体10の前方に延長した経路(図では、一点鎖線で示されている直線)の上に位置する。3次元投影装置12は、運転者13に虚像14を視認させることによって、ヘッドアップディスプレイとして機能しうる。図1において、運転者13の眼5が並ぶ方向は、x軸方向に対応する。鉛直方向は、y軸方向に対応する。カメラ11の撮像範囲は、アイボックス16を含む。
図3に示されるように、3次元投影装置12は、3次元表示装置17と、光学素子18とを備える。3次元投影装置12は、画像表示モジュールとも称されうる。3次元表示装置17は、バックライト19と、表示面20aを有する表示部20と、バリア部21と、制御部24とを備えうる。3次元表示装置17は、通信部22をさらに備えてよい。3次元表示装置17は、記憶部23をさらに備えてよい。
光学素子18は、第1ミラー18aと、第2ミラー18bとを含んでよい。第1ミラー18a及び第2ミラー18bの少なくとも一方は、光学的なパワーを有してよい。本実施形態において、第1ミラー18aは、光学的なパワーを有する凹面鏡であるとする。第2ミラー18bは、平面鏡であるとする。光学素子18は、3次元表示装置17に表示された画像を拡大する拡大光学系として機能してよい。図3に示される一点鎖線の矢印は、3次元表示装置17から射出される画像光の少なくとも一部が、第1ミラー18a及び第2ミラー18bによって反射され、3次元投影装置12の外部に射出される際の経路を示す。3次元投影装置12の外部に射出された画像光は、ウインドシールド25に到達し、ウインドシールド25で反射されて運転者13の眼5に到達する。その結果、運転者13は、3次元表示装置17に表示された画像を視認できる。
光学素子18とウインドシールド25とは、3次元表示装置17から射出させる画像光を運転者13の眼5に到達させうるように構成される。光学素子18とウインドシールド25とは、光学系を構成してよい。光学系は、3次元表示装置17から射出される画像光を一点鎖線で示されている光路に沿って運転者13の眼5に到達させるように構成される。光学系は、運転者13に視認させる画像が拡大したり縮小したりするように、画像光の進行方向を制御するように構成してよい。光学系は、運転者13に視認させる画像の形状を所定の行列に基づいて変形させるように、画像光の進行方向を制御するように構成してよい。
光学素子18は、例示される構成に限られない。ミラーは、凹面鏡であってよいし、凸面鏡であってよいし、平面鏡であってよい。ミラーが凹面鏡又は凸面鏡である場合、その形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。光学素子18を構成する要素の数は、2つに限られず、1つであってよいし、3つ以上であってよい。光学素子18は、ミラーに限られずレンズを含んでよい。レンズは、凹面レンズであってよいし、凸面レンズであってよい。レンズの形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。
バックライト19は、画像光の光路上において、運転者13から見て、表示部20及びバリア部21よりも遠い側に位置する。バックライト19は、バリア部21と表示部20とに向けて光を射出する。バックライト19が射出した光の少なくとも一部は、一点鎖線で示されている光路に沿って進行し、運転者13の眼5に到達する。バックライト19は、LED(Light Emission Diode)又は有機EL若しくは無機EL等の発光素子を含んでよい。バックライト19は、発光強度、及び、その分布を制御可能に構成されてよい。
表示部20は、表示パネルを含む。表示部20は、例えば、LCD(Liquid Crystal Display)等の液晶デバイスであってよい。本実施形態において、表示部20は、透過型の液晶表示パネルを含むとする。表示部20は、この例に限られず、種々の表示パネルを含んでよい。
表示部20は、複数の画素を有し、各画素においてバックライト19から入射する光の透過率を制御し、運転者13の眼5に到達する画像光として射出するように構成される。運転者13は、表示部20の各画素から射出される画像光によって構成される画像を視認する。
バリア部21は、入射してくる光の進行方向を規定するように構成される。図3の例に示すように、バリア部21が表示部20よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、バリア部21に入射し、さらに表示部20に入射する。この場合、バリア部21は、バックライト19から射出される光の一部を遮ったり減衰させたりし、他の一部を表示部20に向けて透過させるように構成される。表示部20は、バリア部21によって規定された方向に進行する入射光を、同じ方向に進行する画像光としてそのまま射出する。表示部20がバリア部21よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、表示部20に入射し、さらにバリア部21に入射する。この場合、バリア部21は、表示部20から射出される画像光の一部を遮ったり減衰させたりし、他の一部を運転者13の眼5に向けて透過させるように構成される。
表示部20とバリア部21とのどちらが運転者13の近くに位置するかにかかわらず、バリア部21は、画像光の進行方向を制御できるように構成される。バリア部21は、表示部20から射出される画像光の一部を運転者13の左眼5L及び右眼5R(図4参照)のいずれかに到達させ、画像光の他の一部を運転者13の左眼5L及び右眼5Rの他方に到達させるように構成される。つまり、バリア部21は、画像光の少なくとも一部の進行方向を運転者13の左眼5Lと右眼5Rとに分けるように構成される。左眼5L及び右眼5Rはそれぞれ、第1眼及び第2眼ともいう。本実施形態において、バリア部21は、バックライト19と表示部20との間に位置する。つまり、バックライト19から射出される光は、先にバリア部21に入射し、次に表示部20に入射する。
バリア部21によって画像光の進行方向が規定されることによって、運転者13の左眼5L及び右眼5Rそれぞれに異なる画像光が到達しうる。その結果、運転者13は、左眼5L及び右眼5Rそれぞれで異なる画像を視認しうる。
図4に示されるように、表示部20は、表示面20a上に、運転者13の左眼5Lで視認される左眼視認領域201Lと、運転者13の右眼5Rで視認される右眼視認領域201Rとを含む。表示部20は、運転者13の左眼5Lに視認させる左眼画像と、運転者13の右眼5Rに視認させる右眼画像とを含む視差画像を表示するように構成される。視差画像は、運転者13の左眼5L及び右眼5Rそれぞれに投影される画像であって、運転者13の両眼に視差を与える画像であるとする。表示部20は、左眼視認領域201Lに左眼画像を表示し、右眼視認領域201Rに右眼画像を表示するように構成される。つまり、表示部20は、左眼視認領域201Lと右眼視認領域201Rとに視差画像を表示するように構成される。左眼視認領域201Lと右眼視認領域201Rとは、視差方向を表すu軸方向に並んでいるとする。左眼視認領域201L及び右眼視認領域201Rは、視差方向に直交するv軸方向に沿って延在してよいし、v軸方向に対して所定角度で傾斜する方向に延在してよい。つまり、左眼視認領域201L及び右眼視認領域201Rは、視差方向の成分を含む所定方向に沿って交互に並んでいてよい。左眼視認領域201Lと右眼視認領域201Rとが交互に並ぶピッチは、視差画像ピッチともいう。左眼視認領域201Lと右眼視認領域201Rとは、間隔をあけて位置していてよいし、互いに隣接していてよい。表示部20は、表示面20a上に、平面画像を表示する表示領域をさらに有していてよい。平面画像は、運転者13の眼5に視差を与えず、立体視されない画像であるとする。
図4に示されるように、バリア部21は、開口領域21bと、遮光面21aとを有する。バリア部21が、画像光の光路上において、運転者13から見て表示部20よりも近い側に位置する場合、バリア部21は、表示部20から射出される画像光の透過率を制御するように構成される。開口領域21bは、表示部20からバリア部21に入射する光を透過させるように構成される。開口領域21bは、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば100%であってよいし、100%に近い値であってよい。遮光面21aは、表示部20からバリア部21に入射する光を遮るように構成される。遮光面21aは、第2所定値以下の透過率で光を透過させてよい。第2所定値は、例えば0%であってよいし、0%に近い値であってよい。第1所定値は、第2所定値より大きい。
開口領域21bと遮光面21aとは、視差方向を表すu軸方向に交互に並ぶとする。開口領域21bと遮光面21aとの境界は、図4に例示されているように視差方向に直交するv軸方向に沿ってよいし、v軸方向に対して所定角度で傾斜する方向に沿ってよい。言い換えれば、開口領域21bと遮光面21aとは、視差方向の成分を含む所定方向に沿って交互に並んでよい。
本実施形態では、バリア部21は、画像光の光路上において、運転者13から見て表示部20よりも遠い側に位置している。バリア部21は、バックライト19から表示部20に向けて入射する光の透過率を制御するように構成される。開口領域21bは、バックライト19から表示部20に向けて入射する光を透過させるように構成される。遮光面21aは、バックライト19から表示部20に入射する光を遮るように構成される。このようにすることで、表示部20に入射する光の進行方向は、所定方向に限定される。その結果、画像光の一部は、バリア部21によって運転者13の左眼5Lに到達するように制御されうる。画像光の他の一部は、バリア部21によって運転者13の右眼5Rに到達するように制御されうる。
バリア部21は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に基づいて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域又は光の透過率が低い領域を任意の形状に形成しうる。バリア部21が液晶シャッターで構成される場合、開口領域21bは、第1所定値以上の透過率を有してよい。バリア部21が液晶シャッターで構成される場合、遮光面21aは、第2所定値以下の透過率を有してよい。第1所定値は、第2所定値より高い値に設定されてよい。第1所定値に対する第2所定値の比率は、一例では、1/100に設定されてよい。第1所定値に対する第2所定値の比率は、他の例では、1/1000に設定されてもよい。開口領域21bと遮光面21aとの形状が変更可能に構成されるバリア部21は、アクティブバリアとも称される。
制御部24は、表示部20を制御するように構成される。バリア部21がアクティブバリアである場合、制御部24は、バリア部21を制御するように構成してよい。制御部24は、バックライト19を制御するように構成してよい。制御部24は、検出装置50から運転者13の眼5の瞳孔位置に関する座標情報を取得し、その座標情報に基づいて表示部20を制御するように構成される。制御部24は、座標情報に基づいてバリア部21、及びバックライト19の少なくとも一方を制御するように構成されうる。制御部24は、カメラ11から出力された画像を受信し、受信した画像から運転者13の眼5を検出してよい。言い換えると、制御部24が、検出部15と同等の機能を有し、検出部15を兼ねるように構成されてよい。制御部24は、検出した眼5の瞳孔位置に基づいて表示部20を制御するように構成されてよい。制御部24は、検出した眼5の瞳孔位置に基づいて、バリア部21及びバックライト19の少なくとも一方を制御するように構成されうる。制御部24および検出部15は、例えばプロセッサとして構成される。制御部24および検出部15は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部24および検出部15は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
通信部22は、外部装置と通信可能なインタフェースを含んでよい。外部装置は、例えば検出装置50を含んでよい。外部装置は、例えば表示部20に表示する画像情報を提供するように構成されてよい。通信部22は、検出装置50などの外部装置から各種情報を取得し、制御部24に出力してよい。本開示における「通信可能なインタフェース」は、例えば物理コネクタ、及び無線通信機を含んでよい。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタを含んでよい。電気コネクタは、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、又はRCA端子に対応するコネクタを含んでよい。電気コネクタは、EIAJ CP−121aAに規定されるS端子に対応するコネクタ、又はEIAJ RC−5237に規定されるD端子に対応するコネクタを含んでよい。電気コネクタは、HDMI(登録商標)規格に準拠するコネクタ、又はBNC(British Naval Connector又はBaby-series N Connector等)を含む同軸ケーブルに対応するコネクタを含んでよい。光コネクタは、IEC 61754に準拠する種々のコネクタを含んでよい。無線通信機は、Bluetooth(登録商標)、及びIEEE8021aを含む各規格に準拠する無線通信機を含んでよい。無線通信機は、少なくとも1つのアンテナを含む。
記憶部23は、各種情報、又は3次元表示装置17の各構成部を動作させるためのプログラム等を格納するように構成されてよい。記憶部23は、例えば半導体メモリ等で構成されてよい。記憶部23は、制御部24のワークメモリとして機能してよい。記憶部23は、制御部24に含まれてよい。
図4に示されるように、バックライト19から射出された光は、バリア部21と表示部20とを透過して運転者13の眼5に到達する。バックライト19から射出された光が眼5に到達するまでの経路は、破線で表されている。バリア部21の開口領域21bを透過して右眼5Rに到達する光は、表示部20の右眼視認領域201Rを透過する。つまり、右眼5Rは、開口領域21bを透過した光によって右眼視認領域201Rを視認できる。バリア部21の開口領域21bを透過して左眼5Lに到達する光は、表示部20の左眼視認領域201Lを透過する。つまり、左眼5Lは、開口領域21bを透過した光によって左眼視認領域201Lを視認できる。
表示部20は、右眼視認領域201R及び左眼視認領域201Lに、それぞれ右眼画像及び左眼画像を表示するように構成される。これによって、バリア部21は、左眼画像に係る画像光を左眼5Lに到達させ、右眼画像に係る画像光を右眼5Rに到達させるように構成される。つまり、開口領域21bは、左眼画像に係る画像光を運転者13の左眼5Lに到達させ、右眼画像に係る画像光を運転者13の右眼5Rに到達させるように構成される。このようにすることで、3次元表示装置17は、運転者13の両眼に対して視差画像を投影できる。運転者13は、左眼5Lと右眼5Rとで視差画像を見ることによって、画像を立体視できる。
バリア部21の開口領域21bを透過し、表示部20の表示面20aから射出された画像光の少なくとも一部は、光学素子18を介してウインドシールド25に到達する。画像光は、ウインドシールド25で反射されて運転者13の眼5に到達する。これにより、運転者13の眼5はウインドシールド25よりもz軸の負の方向の側に位置する第2虚像14bを視認できる。第2虚像14bは、表示面20aが表示している画像に対応する。バリア部21の開口領域21bと遮光面21aとは、ウインドシールド25の前方であって第2虚像14bのz軸の負の方向側に第1虚像14aをつくる。図1に示すように、運転者13は、見かけ上、第2虚像14bの位置に表示部20が存在し、第1虚像14aの位置にバリア部21が存在するかのように、画像を視認しうる。
表示面20aに表示される画像に係る画像光は、バリア部21によって規定される方向に向けて、3次元表示装置17から射出される。光学素子18は、ウインドシールド25に向けて射出するように構成される。光学素子18は、画像光を反射したり屈折させたりするように構成されうる。ウインドシールド25は、画像光を反射し、運転者13の眼5に向けて進行させるように構成される。画像光が運転者13の眼5に入射することによって、運転者13は、視差画像を虚像14として視認する。運転者13は、虚像14を視認することによって立体視できる。虚像14のうち視差画像に対応する画像は、視差虚像とも称される。視差虚像は、光学系を介して投影される視差画像であるともいえる。虚像14のうち平面画像に対応する画像は、平面虚像とも称される。平面虚像は、光学系を介して投影される平面画像であるともいえる。
検出部15は、テンプレートマッチングにおいて、撮像画像51全体を探索範囲としてよい。検出部15は、テンプレートマッチングにおいて、撮像画像51の一部の領域を探索範囲としてよい。探索範囲となる一部の領域は、撮像画像51に含まれる運転者13の顔を含む領域であってよい。検出部15は、テンプレート画像52による探索開始前に、カメラ11で撮像した撮像画像51に含まれる運転者13の顔検出を行い、検出された顔を含む所定の大きさ(撮像画像51全体より小さい)の探索範囲を設定する。検出部15は、設定された探索範囲内をテンプレート画像52で探索してテンプレートマッチングを行なってよい。テンプレート画像52による探索範囲が、撮像画像51全体である場合に比べて小さいので、テンプレートマッチングに係る演算量を低減できる。演算量の低減によって、検出部15は、検出結果の出力にかかる演算速度を高速化できる。
検出部15は、探索開始前に、カメラで撮像した撮像画像51からテンプレート画像52を生成するように構成される。検出部15は、撮像画像51を対象に瞳孔検出を行い、検出された瞳孔を含む所定の周辺領域をテンプレート画像52としてよい。テンプレート画像52として生成する所定の周辺領域は、例えば、3次元投影装置12におけるアイボックス16に応じた領域であってよい。
テンプレート画像生成処理について、フロー図を用いて説明する。検出装置50は、例えば、図5のフロー図に示すテンプレート画像生成処理を実行してよい。検出装置50は、テンプレート画像生成処理を、例えば、3次元投影システム100の起動時(電源オン時)に開始してよい。まず、ステップA1において、カメラ11が撮像して撮像画像51を取得し、検出部15に出力する。カメラ11の撮像画像51には、例えば、移動体10の座席に着席した運転者13の顔が含まれる。次に、ステップA2で、検出部15は、撮像画像51から、アイボックス16を含む第1領域を切り出し、ステップA3で、切り出した第1領域を対象に顔検出を行い、運転者の顔が検出されたかどうかを判断する。顔が検出されていれば、ステップA4に進み、検出されていなければ、ステップA1に戻り、再度カメラ11による撮像を行う。
ステップA4では、検出部15が、検出された顔を含む第2領域を第1領域から切り出し、ステップA5で、検出部15は、第2領域を対象に瞳孔検出を行い、瞳孔が検出されたかどうかを判断する。瞳孔が検出されていれば、ステップA6に進み、検出されていなければ、ステップA1に戻り、再度カメラ11による撮像を行う。ステップA6では、検出部15が、検出された瞳孔を含む瞳孔周辺領域をテンプレート画像52として抽出して、テンプレート画像生成処理を終了する。検出部15は、抽出したテンプレート画像52を、例えば、検出部15が有する記憶領域または記憶部23に記憶してよい。検出部15は、例えば、瞳孔周辺のアイボックス16と同じ大きさの領域をテンプレート画像52として抽出してよい。また、検出部15は、テンプレート画像52とともに、テンプレート画像52の代表位置と瞳孔位置との相対的な座標位置関係を記憶してよい。
テンプレート画像52は、3次元投影システム100が起動している間は、検出部15の記憶領域に一時的に記憶されてよい。テンプレート画像52は、例えば、撮像された運転者13と関連付けられて記憶部23に記憶されてよい。記憶部23に記憶されたテンプレート画像52は、例えば、次回以降の3次元投影システム100起動時に、検出部15によって記憶部23から読み出されることで、テンプレート画像生成処理を省略することができる。検出部15は、再度テンプレート画像生成処理を実行することで、記憶部23に記憶されたテンプレート画像52を更新(書換え)し得る。
テンプレートマッチング処理について、フロー図を用いて説明する。検出装置50は、例えば、図6のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50は、例えば、3次元投影システム100の起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶されたテンプレート画像52を用いる場合、検出装置50は、3次元投影システム100の起動時にテンプレートマッチング処理を開始してよい。
まず、ステップB1において、検出部15が、カメラ11から撮像画像51を取得する。ステップB2では、検出部15が、テンプレート画像52が抽出された位置周辺の領域を探索範囲として撮像画像51から切り出す。テンプレート画像52が抽出された位置座標は、テンプレート画像52と関連付けて記憶しておけばよい。ステップB3で、検出部15は、テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。検出部15は、テンプレートマッチングによって、探索範囲内でテンプレート画像52との適合度が最も高い位置とその適合度を決定する。ステップB4では、検出部15が、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB5に進み、閾値未満であれば、ステップB1に戻り、再度カメラ11による撮像を行う。ステップB5で、検出部15は、探索範囲内でテンプレート画像52との適合度が最も高い位置の座標と予め特定された相対的な座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定し、テンプレートマッチング処理を終了する。決定された瞳孔位置の座標情報は、検出装置50から3次元投影装置12に出力される。3次元投影装置12では、検出装置50から取得した瞳孔位置の座標情報を用いて、制御部24が、表示部20に表示する視差画像を制御する。
移動体10の運転席は、例えば、前後方向に移動可能に構成されている。また、移動体10の運転中に運転者13の姿勢が変化することもある。運転席の前後位置または運転者13の姿勢が変化し、運転者13の顔がz方向に移動した場合を考える。運転者13の顔がz方向の正方向に移動した場合、撮像画像51には、移動前に比べて運転者13の顔が小さく撮像される。運転者13の顔がz方向の負方向に移動した場合、撮像画像51には、移動前に比べて運転者13の顔が大きく撮像される。この場合、テンプレート画像52を変倍処理して、変倍処理後のテンプレート画像52を用いてテンプレートマッチングすればよい。例えば、拡大率の異なる複数のテンプレート画像52を用いてテンプレートマッチングしてよい。例えば、縮小率の異なる複数のテンプレート画像52を用いてテンプレートマッチングしてよい。
他の例のテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50は、例えば、図7のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50は、例えば、3次元投影システム100の起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶されたテンプレート画像52を用いる場合、検出装置50は、3次元投影システム100の起動時にテンプレートマッチング処理を開始してよい。
図6のステップB1〜B4と、図7のステップC1〜C4とは同じ動作を実行するので、説明は省略する。検出部15は、ステップC5において、テンプレート画像52の変倍率を複数変更してテンプレート画像に変倍処理を施す。検出部15は、変倍処理後のテンプレート画像52を用いてテンプレートマッチングを行う。検出装置50は、運転者13の姿勢がどのように変化したかは検出しないので、変倍処理としては、拡大処理も縮小処理もいずれも行う。変倍処理後のテンプレート画像52は複数生成されるので、検出部15は、複数のテンプレート画像52でテンプレートマッチングを行い、適合度が最も高いテンプレート画像52を決定する。ステップC6で、検出部15は、適合度が最も高いテンプレート画像52の変倍率に基づいて、運転者のz方向の位置を推定する。ステップC7では、ステップB5と同様に撮像画像51における瞳孔位置の座標を決定したのち、推定したz方向の位置に基づいて瞳孔位置の座標を補正し、テンプレートマッチング処理を終了する。決定された瞳孔位置の座標情報は、検出装置50から3次元投影装置12に出力される。
他の例の3次元投影システム100Aについて説明する。図8に示されるように、3次元投影システム100Aにおいて、検出装置50Aは、カメラ11と、検出部15Aと、予測部30と、を備える。3次元投影システム100Aの検出装置50A以外の構成は、前述の3次元投影システム100と同様であるので、同じ参照符号を付して、詳細な説明は省略する。予測部30は、検出部15が検出した複数の眼5の位置に基づいて、現在時刻より後の時刻における眼5の位置を予測するように構成されている。本実施形態の眼5の位置も、上記と同様に運転者13の眼5の瞳孔位置を示す座標情報であってよい。複数の眼5の位置とは、検出された時刻がそれぞれ異なる眼5の位置を含む。予測部30は、検出時刻と座標情報との組み合わせである予測用データを複数用いて、未来の眼5の位置を予測し、予測位置として出力するように構成されてよい。検出部15Aは、眼5の位置を検出すると、座標情報と検出時刻とを予測用データとして、例えば、検出部15が有する記憶領域、予測部30が有する記憶領域または記憶部23に順次記憶してよい。未来の眼5の位置とは、記憶された複数の予測用データに対する未来をいう。
予測部30による眼5の位置の予測方法は、例えば、予測関数を用いる方法であってよい。予測関数は、記憶された複数の予測用データから導き出される関数である。予測関数は、予め実験等によって定められた係数を用いた関数式を、検出部15Aが有する記憶領域、予測部30が有する記憶領域または記憶部23に記憶してよい。予測関数は、予測部30が、眼5の位置の予測を行うごとに更新してよい。
予測部30は、予測すべき未来の時刻を予測関数に入力し、入力された時刻における眼5の位置(予測位置)の座標情報を出力する。予測すべき未来の時刻は、次にテンプレートマッチングを実行する時刻であって、例えば、カメラ11から次のフレームが入力される時刻であってよい。前述のとおり、検出部15Aは、テンプレートマッチングにおいて、撮像画像51の一部の領域を探索範囲としてよい。検出部15Aは、予測部30が予測した眼5の位置を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている。検出部15Aは、撮像画像51において、予測部30が出力した予測位置を含む領域を予測領域として設定し、設定した予測領域をテンプレートマッチングにおける探索範囲とする。予測位置を含む予測領域は、撮像画像51より小さくテンプレート画像52より大きい領域であって、領域内に予測位置を含んでいればよい。例えば、予測領域の中心座標が、予測位置の座標と一致する領域であってよい。本実施形態のテンプレートマッチングにおける探索範囲の形状および大きさは、例えば、テンプレート画像と相似関係を有していてよい。
検出部15Aは、このような領域を探索範囲としてテンプレートマッチングを実行する。本実施形態のテンプレートマッチングは、探索範囲が異なる以外は、前述のテンプレートマッチングと同様である。テンプレートマッチングでは、探索範囲である予測領域において、テンプレート画像52と最も適合する位置を探索する。検出結果は、運転者13の眼5の瞳孔位置を示す座標情報であってよい。本実施形態の探索範囲となる予測領域は、予測部30が出力した予測位置を含むので、探索範囲をより小さくしても、探索範囲内に眼5の瞳孔位置が含まれている可能性が高い。探索範囲をより小さくすることによって、テンプレートマッチングに要する演算量は、低減される。演算量の低減によって、検出部15Aは、検出結果の出力にかかる演算速度を高速化できる。
予測部30は、検出部15Aが検出した複数の眼5の位置に基づいて、さらに、眼5の位置の変化速度を算出するように構成されていてよい。上記のように、座標情報と検出時刻とが予測用データとして記憶されており、複数の予測データを使用すれば、眼5の位置の変化速度が算出できる。例えば、2つの予測用データの差分により、座標情報から眼5の位置の移動距離が算出され、検出時刻から時間が算出されるので、眼5の位置の変化速度が算出できる。また、移動距離は、x軸方向成分とy軸方向成分とをそれぞれ算出することができ、眼5の位置の変化速度もx軸方向成分とy軸方向成分とをそれぞれ算出できる。
検出部15Aは、予測部30が算出した変化速度に応じてテンプレートマッチングにおける探索範囲の大きさを変更するように構成されている。予測部30が算出した変化速度が大きいということは、眼5の位置の移動距離が大きいことが予測される。例えば、算出された変化速度のx軸方向成分と変化速度のy軸方向成分とを比較したときに、変化速度の成分が大きい方向に眼5の位置の移動距離が大きいことが予測される。本実施形態では、眼5の位置を予測することで、テンプレートマッチングにおける探索範囲を小さく設定することができるが、変化速度の成分が大きい方向においては、眼5の位置が、予測位置からずれることにより、探索範囲から外れるおそれがある。眼5の位置が探索範囲外とならないように、例えば、検出部15Aは、予測位置を含む予測領域を、変化速度の成分が大きい方向に広くしてよい。検出部15Aは、このように広くした領域を探索範囲としてテンプレートマッチングを実行する。
瞳孔位置の予測を含むテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50Aは、例えば、図9のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50Aは、例えば、3次元投影システム100Aの起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶されたテンプレート画像52を用いる場合、検出装置50Aは、3次元投影システム100Aの起動時にテンプレートマッチング処理を開始してよい。
まず、ステップB11において、検出部15Aが、カメラ11から撮像画像51を取得する。ステップB12では、検出部15Aが、探索範囲を撮像画像51から切り出す。ステップB12で切り出される探索範囲は、後述のステップB17で決定された探索範囲である。ステップB17が実行されておらず探索範囲が予め決定されていない場合は、テンプレート画像52が抽出された位置周辺の領域を探索範囲としてよい。ステップB13で、検出部15Aは、テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。検出部15Aは、テンプレートマッチングによって、探索範囲内でテンプレート画像52との適合度が最も高い位置とその適合度とを決定する。ステップB14では、検出部15Aが、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB15に進み、閾値未満であれば、ステップB1に戻り、新たにカメラ11から撮像画像51を取得する。ステップB15で、検出部15Aは、探索範囲内でテンプレート画像52との適合度が最も高い位置の座標と予め特定された相対的な座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定する。決定された瞳孔位置の座標情報は、検出装置50から3次元投影装置12に出力される。3次元投影装置12では、検出装置50から取得した瞳孔位置の座標情報を用いて、制御部24が、表示部20に表示する視差画像を制御する。
ステップB16で、予測部30は、未来の瞳孔位置を予測し、予測位置として出力する。予測部30は、例えば、ステップB15で決定された瞳孔位置の座標情報と検出時刻との組み合わせである最新の予測用データと、記憶されている過去の予測用データとに基づいて予測関数を更新する。予測部30は、更新された予測関数を用いて瞳孔位置を予測し、予測位置を出力する。ステップB17で、検出部15Aは、予測部30から出力された予測位置を含む領域を探索範囲として決定し、ステップB11に戻る。
前述のように、運転者13の顔は、前後に移動することがある。また、運転者13が首を傾げるなどした場合には、運転者13の顔が傾くことがある。運転者13の顔が前後に移動すると、撮像画像51の運転者13の顔は、大きくまたは小さく写り、拡大処理または縮小処理した場合と類似する。運転者13の顔が傾くと、撮像画像の運転者13の顔は、回転処理した場合と類似する。予測部30が瞳孔位置を予測したのち、検出部15Aが、予測位置と直前の瞳孔位置とを比較する。比較した結果、例えば、眼間距離が変化していれば、検出部15Aは、テンプレート画像52を、眼間距離に応じた変倍率のテンプレート画像52に更新する。検出部15Aは、テンプレート画像52として、例えば、変倍処理による拡大率の異なる複数のテンプレート画像52および変倍処理による縮小率の異なる複数のテンプレート画像52を予め作成しておき、眼間距離に応じたテンプレート画像52を選択してよい。予測部30が、左眼の瞳孔位置と右眼の瞳孔位置とをそれぞれ予測することで、検出部15Aが、直前の左眼の瞳孔位置と右眼の瞳孔位置との比較によって、眼間距離の変化を検出してよい。
また、検出部15Aが、予測位置と直前の瞳孔位置とを比較した結果、瞳孔位置が傾いていれば、検出部15Aは、テンプレート画像52を、傾き変化に応じた回転角度のテンプレート画像52に更新する。検出部15Aは、テンプレート画像52として、例えば、回転処理による回転角度の異なる複数のテンプレート画像52を予め作成しておき、傾き変化に応じたテンプレート画像52を選択してよい。予測部30が、左眼の瞳孔位置と右眼の瞳孔位置とをそれぞれ予測することで、検出部15Aが、直前の左眼の瞳孔位置と右眼の瞳孔位置との比較によって、y軸方向の位置変化から傾き変化を検出してよい。運転者13の顔が傾いた場合、左眼の瞳孔位置と右眼の瞳孔位置とのそれぞれのy軸方向の位置(y座標)が、互いに異なる方向に変化する。例えば、左眼の瞳孔のy軸方向の位置が上方向に変化し、右眼の瞳孔のy軸方向の位置が下方向に変化していれば、傾き変化が生じている。検出部15Aは、左眼および右眼のy軸方向の位置変化の大きさに基づいて回転角度を算出してよい。
テンプレート画像の更新を含むテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50Aは、例えば、図10のフロー図に示すテンプレートマッチング処理を実行してよい。ステップC11において、検出部15Aが、カメラ11から撮像画像51を取得する。ステップC12では、検出部15Aが、探索範囲を撮像画像51から切り出す。ステップC12で切り出される探索範囲は、後述のステップC18で決定された探索範囲である。ステップC18が実行されておらず探索範囲が予め決定されていない場合は、テンプレート画像52が抽出された位置周辺の領域を探索範囲としてよい。ステップC13で、検出部15Aは、更新されたテンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。テンプレート画像52は、後述のステップC17で更新されたテンプレート画像52である。検出部15Aは、テンプレートマッチングによって、探索範囲内でテンプレート画像52との適合度が最も高い位置とその適合度とを決定する。ステップC14では、検出部15Aが、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップC15に進み、閾値未満であれば、ステップC11に戻り、新たにカメラ11から撮像画像51を取得する。ステップC15で、検出部15Aは、探索範囲内でテンプレート画像52との適合度が最も高い位置の座標と予め特定された相対的な座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定する。決定された瞳孔位置の座標情報は、検出装置50から3次元投影装置12に出力される。3次元投影装置12では、検出装置50から取得した瞳孔位置の座標情報を用いて、制御部24が、表示部20に表示する視差画像を制御する。
ステップC16で、予測部30は、未来の瞳孔位置を予測し、予測位置として出力する。ステップC17で、検出部15Aは、テンプレート画像52を更新する。検出部15Aは、予測位置と直前の瞳孔位置とを比較し、比較結果に応じて、少なくとも変倍処理または回転処理したテンプレート画像52に更新する。ステップC18で、検出部15Aは、予測部30から出力された予測位置を含む領域を探索範囲として決定し、ステップC11に戻る。
本開示に係る構成は、以上説明した実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
本開示に係る構成を説明する図は、模式的なものである。図面上の寸法比率等は、現実のものと必ずしも一致しない。
本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1眼は、第2眼と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
5 眼(5L:左眼、5R:右眼)
10 移動体
11 カメラ
12 3次元投影装置
13 運転者
14 虚像(14a:第1虚像、14b:第2虚像)
15,15A 検出部
16 アイボックス
17 3次元表示装置
18 光学素子(18a:第1ミラー、18b:第2ミラー)
19 バックライト
20 表示部(20a:表示面)
201L 左眼視認領域
201R 右眼視認領域
21 バリア部(21a:遮光面、21b:開口領域)
22 通信部
23 記憶部
24 制御部
25 ウインドシールド
30 予測部
50,50A 検出装置
100,100A 3次元投影システム(画像表示システム)

Claims (11)

  1. 人の顔を撮像するように構成されるカメラと、
    前記カメラから出力された撮像画像から人の眼の位置を、テンプレートマッチングによって検出するように構成される検出部と、を備える検出装置。
  2. 請求項1に記載の検出装置であって、
    前記検出部は、前記撮像画像から人の顔を検出し、顔を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている、検出装置。
  3. 請求項1に記載の検出装置であって、
    前記検出部が検出した複数の眼の位置に基づいて、現在時刻より後の時刻における眼の位置を予測する予測部をさらに備え、
    前記検出部は、前記予測部が予測した眼の位置を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている、検出装置。
  4. 請求項3に記載の検出装置であって、
    前記予測部は、前記検出部が検出した複数の眼の位置に基づいて、眼の位置の変化速度を算出し、
    前記検出部は、テンプレートマッチングにおける探索範囲の大きさを、前記予測部が算出した変化速度に応じた大きさとするように構成されている、検出装置。
  5. 請求項3または4記載の検出装置であって、
    前記検出部は、テンプレートマッチングにおいて、変倍処理された複数のテンプレート画像を用いるように構成されている、検出装置。
  6. 請求項3〜5のいずれか1つに記載の検出装置であって、
    前記検出部は、テンプレートマッチングにおいて、回転処理された複数のテンプレート画像を用いるように構成されている、検出装置。
  7. 請求項1〜6のいずれか1つに記載の検出装置であって、
    前記検出部は、テンプレートマッチングにおいて、人の眼または人の眼との相対的な位置関係が特定されている顔の他の部位を含むテンプレート画像を用いるように構成されている、検出装置。
  8. 請求項7に記載の検出装置であって、
    前記検出部は、前記撮像画像から前記テンプレート画像を生成するように構成されている、検出装置。
  9. 請求項7に記載の検出装置であって、
    予め生成された前記テンプレート画像と利用者とが関連付けられて記憶される記憶部をさらに備える、検出装置。
  10. 人の両眼に対して光学系を介して投影される視差画像を表示するように構成される表示部と、
    前記視差画像の画像光の進行方向を規定することによって、前記両眼に視差を与えるように構成されるバリア部と、
    人の顔を撮像するように構成されるカメラと、
    前記カメラから出力された撮像画像から人の両眼の位置を、テンプレートマッチングによって検出するように構成される検出部と、
    前記検出部で検出された人の両眼の位置に応じて前記表示部を制御する制御部と、を備える画像表示システム。
  11. 請求項10記載の画像表示システムであって、
    前記検出部は、テンプレートマッチングにおいて、アイボックスに応じた領域をテンプレート画像に用いるように構成されている、画像表示システム。
JP2020175409A 2020-04-02 2020-10-19 検出装置および画像表示モジュール Active JP7536590B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180027474.3A CN115398493A (zh) 2020-04-02 2021-03-31 检测装置以及图像显示模块
US17/916,682 US20230156178A1 (en) 2020-04-02 2021-03-31 Detection device and image display module
EP21782012.5A EP4131158A4 (en) 2020-04-02 2021-03-31 DETECTION DEVICE AND IMAGE DISPLAY MODULE
PCT/JP2021/014006 WO2021201161A1 (ja) 2020-04-02 2021-03-31 検出装置および画像表示モジュール

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020066989 2020-04-02
JP2020066989 2020-04-02

Publications (2)

Publication Number Publication Date
JP2021166031A true JP2021166031A (ja) 2021-10-14
JP7536590B2 JP7536590B2 (ja) 2024-08-20

Family

ID=78021854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175409A Active JP7536590B2 (ja) 2020-04-02 2020-10-19 検出装置および画像表示モジュール

Country Status (1)

Country Link
JP (1) JP7536590B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195582A (ja) 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
WO2006121088A1 (ja) 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP4843787B2 (ja) 2006-05-11 2011-12-21 国立大学法人 筑波大学 被写体追尾方法及び装置
JP5872401B2 (ja) 2012-07-10 2016-03-01 セコム株式会社 領域分割装置
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR102463169B1 (ko) 2015-09-07 2022-11-04 삼성전자주식회사 시점 추적 방법 및 장치
JP2017182739A (ja) 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
KR102134140B1 (ko) 2016-12-07 2020-07-15 교세라 가부시키가이샤 광원 장치, 디스플레이 장치, 이동체, 3차원 투영 장치, 3차원 투영 시스템, 화상 투영 장치, 및 화상 표시 장치

Also Published As

Publication number Publication date
JP7536590B2 (ja) 2024-08-20

Similar Documents

Publication Publication Date Title
WO2022131137A1 (ja) 3次元表示装置、画像表示システムおよび移動体
WO2021201161A1 (ja) 検出装置および画像表示モジュール
JP7536590B2 (ja) 検出装置および画像表示モジュール
WO2022091864A1 (ja) 検出装置および画像表示システム
WO2021177315A1 (ja) カメラ装置、ウインドシールドおよび画像表示モジュール
JP7337023B2 (ja) 画像表示システム
JP7141975B2 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
WO2022024814A1 (ja) カメラシステムおよび運転支援システム
WO2022186189A1 (ja) 撮像装置および3次元表示装置
JP7332764B2 (ja) 画像表示モジュール
JP7173836B2 (ja) コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
JP7250582B2 (ja) 画像表示モジュール、移動体、及び光学系
JP7461215B2 (ja) 画像表示モジュール
JP2022021866A (ja) カメラシステムおよび画像表示システム
WO2021235287A1 (ja) 視点検出装置および表示装置
WO2024181153A1 (ja) 虚像表示装置、虚像表示方法、プログラム、及び移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240807

R150 Certificate of patent or registration of utility model

Ref document number: 7536590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150