JP6214752B2 - 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法 - Google Patents

表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法 Download PDF

Info

Publication number
JP6214752B2
JP6214752B2 JP2016503828A JP2016503828A JP6214752B2 JP 6214752 B2 JP6214752 B2 JP 6214752B2 JP 2016503828 A JP2016503828 A JP 2016503828A JP 2016503828 A JP2016503828 A JP 2016503828A JP 6214752 B2 JP6214752 B2 JP 6214752B2
Authority
JP
Japan
Prior art keywords
gaze
display
unit
line
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016503828A
Other languages
English (en)
Other versions
JPWO2015125243A1 (ja
Inventor
朝子 重田
朝子 重田
貴久 青柳
貴久 青柳
哲司 羽下
哲司 羽下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2015125243A1 publication Critical patent/JPWO2015125243A1/ja
Application granted granted Critical
Publication of JP6214752B2 publication Critical patent/JP6214752B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Vascular Medicine (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、視線方向検出装置による視線方向検出情報のキャリブレーションを制御する表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法に関する。
近年、視線方向検出装置により検出された対象者、例えば運転者の視線方向を用いて様々な処理を行うシステムが提案されている。例えば、脇見運転および居眠り運転の検出を行う検出装置、インテリジェントパネルなどを視線で操作するヒューマンマシンインタフェース(HMI)など、視線方向検出装置を用いたシステムが数多く提案されている。
また、視線方向検出装置における視線方向の検出には様々な手法が提案されており、検出対象者の目に赤外線発光ダイオード(赤外線LED)の光を照射し、その角膜表面における反射像と瞳孔の位置関係から視線の向きを検出する角膜反射法などが有名である。
視線方向検出装置による視線方向検出では、一般に対象者の個人差に起因した検出誤差を伴うため、対象者ごとの検出誤差を補正する、いわゆるキャリブレーションを実施して検出精度を確保する必要がある。また同一対象者であっても、前回のキャリブレーションからの時間経過で環境が変化した場合、再び検出誤差が発生する可能性がある。従って、キャリブレーションは定期的に実施することが望ましい。
視線方向検出装置のキャリブレーションは、基本的に2点以上の基準点の測定が必要であり、測定した基準点が多いほど視線方向検出情報のばらつきが平坦化されて、キャリブレーションの精度も向上する。例えば、一般的に四角形の表示部を有する装置においては、特に、角部近傍の4点と対角線の交点である表示部の中央点で視線方向検出情報のキャリブレーションを速やかにとることが望ましいとされている。
しかしながら、多数の基準点、例えば上述の例では5点を測定するためには、対象者に予め定めた5点の基準点にそれぞれに視線を向けさせるなど、対象者にとって煩わしい操作を強いることとなり負担となる。そのため、対象者が意図せずとも自動でキャリブレーションを実施する装置が求められており、以下の文献で提案されている。
例えば、特許文献1,2には、基準点となる注視対象物に車両装備品を用いることで、運転者が意図せずとも自動でキャリブレーションを実施する装置が提案されている。
なお、注視対象物としての車両装備品としては、ルームミラー、サイドミラー、ナビゲーションシステム、エアコン、ヘッドアップディスプレイなどが挙げられている。
特許文献1は、運転者の視線方向を検出し、その結果に基づいて運転者が注視している車両装備品を推定する。そして、運転者から見た当該車両装備品の方向を視線方向の基準として予め定めておき、この基準となる視線方向と視線方向検出装置で検出した視線方向との誤差に基づいて、キャリブレーションを実施している。また、特許文献2では、運転者が各機器の操作を行っているときの視線とこの操作が行われている機器の位置を対応させることで視線方向検出装置のキャリブレーションを実施している。なお、この特許文献2には、運転者の注視点の分布状態に基づいて、分布状態の中心に注視対象物が存在すると推定する場合も開示されている。
特開2010−30361号公報 特開平9−238905号公報
特許文献1,2は、運転者に意識させずにキャリブレーションを完了することを目的として運転者から視認可能な車両装備品を注視対象物としている。
しかしながら、車両装備品は運転者にいつ見られるか分からないため、2点以上の基準点が測定されるまでに長時間を要する可能性がある。
このため、特許文献1,2に開示される従来の技術では、適正なキャリブレーションを速やかに行うことができず、視線方向検出情報に検出誤差がある状態が長時間継続する可能性があり、この間、上述の視線方向検出装置を用いたシステムを精度良く操作できる保証がない。
また、特許文献1,2は、車両装備品を注視対象物としているので、一般にキャリブレーションの注視対象物とされているものに比してそのサイズが大きい。このため運転者が例えば予め定めた基準点に集中して注視を行う可能性は低く、視線方向検出装置の視線方向検出情報のばらつきが大きくなるという問題点を有する。ゆえに同じ車両装備品を見たとしても、その視線方向のばらつきも大きいことから、キャリブレーション精度を向上させることが困難である。
さらに特許文献2のようにルームミラーおよびサイドミラーが注視対象物である場合、必ずしもルームミラーまたはサイドミラーの中心部に障害物が映るとは限らない。このため例えばルームミラーの中心部に基準点となる視線方向を設定していたとしても、運転者がルームミラーの中心部を見るとは限らないため、ずれが生じる。
よって運転者がミラー越しに障害物を見ているときに収集された注視点の分布状態を用いて視線方向を検出する場合であっても、検出結果に偏りがある可能性は高い。
さらに、運転者が注視した注視点の分布状態に基づいてキャリブレーションを行おうとするならば、運転者がルームミラーやサイドミラーを何度も注視する必要があり時間がかかる。
さらに車載器の操作スイッチを注視対象物とした場合、運転者が操作スイッチの中心点を見て操作を行うとは限らない。この場合、操作スイッチを小さくすれば、視線方向検出情報のばらつきが小さくなることが予想される。しかしながら、操作スイッチを小さくするとその視認性あるいはこの操作スイッチを利用する機器の操作性が下がることが懸念される。
この発明は、上記のような課題を解決するためになされたもので、対象者の視線方向の検出についてのキャリブレーションを精度よくかつ的確に行うことができるキャリブレーション制御装置、キャリブレーション制御方法、およびこれを用いた視線方向検出システムを得ることを目的とする。
この発明は、上記のような課題を解決するためになされたもので、対象者の視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができる表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法を得ることを目的とする。
この発明に係る表示制御装置は、表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて視線方向検出装置のキャリブレーションを制御する表示制御装置であって、視線方向検出装置が検出した視線方向検出情報と表示物の表示情報とに基づいて車両の乗員がその視線方向に存在する注視対象物を注視しているか否かを判定する視線状態判定部と、注視対象物の表示情報および注視対象物の表示態様にかかる画面制御情報を出力するものであって、車両の乗員が注視対象物を注視していると判定されたとき注視対象物の表示態様を変化させることにより車両の乗員の視線を誘導する視線誘導部と、視線誘導部が出力した画面制御情報に基づき表示部を制御する表示制御情報を出力する表示制御部と、車両の乗員が注視対象物を注視していると判定されたとき視線方向検出装置に向けてキャリブレーション制御信号を出力するキャリブレーション制御部とを備え、注視対象物は、表示部としてのインテリジェントパネルまたはカーナビゲーション装置の表示部が表示するアイコン、ボタン、あるいは表示部としてのヘッドアップディスプレイが表示するマーキングであり、視線誘導部は、車両の乗員が注視していると判定された第1の注視対象物とこれに引き続き注視されるべき第2の注視対象物とを表示部の異なる位置に配置させ、第2の注視対象物は、第1の注視対象物で選択された操作を決定する決定キーである
この発明によれば、対象者の視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができるという効果がある。
この発明の実施の形態1に係る視線方向検出システムの構成を示すブロック図である。 図1の視線方向検出装置の構成を示すブロック図である。 図1の視線状態判定部の構成を示すブロック図である。 図1のキャリブレーション制御部の構成を示すブロック図である。 図1の視線誘導部の構成を示すブロック図である。 図1の表示制御部の構成を示すブロック図である。 この発明の実施の形態1に係る表示制御装置の動作を示すフローチャートである。 注視対象物を基準点に向けて縮小して視線誘導する表示画面の例を示す図である。 注視対象物と次に注視すべき対象物を異なる位置に配置して視線誘導する表示画面の例を示す図である。 注視対象物を移動して視線誘導する表示画面の例を示す図である。 注視対象物を移動して視線誘導する表示画面の他例を示す図である。 画面遷移するときに視線誘導する表示画面の例を示す図である。 視線誘導モードの解除処理を示すフローチャートである。 この発明の実施の形態2に係る視線方向検出システムの構成を示すブロック図である。
以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る視線方向検出システムの構成を示すブロック図である。図1に示す視線方向検出システムは、例えば車両などの移動体に搭載されて対象者としての運転者の視線方向を検出するシステムであり、視線方向検出装置1、表示制御装置2および表示部3を備えて構成される。
視線方向検出装置1は、車室内の運転者の前方に設置されて運転者の視線方向を含む視線方向検出情報を出力する。視線方向検出装置1により検出された対象者の視線方向検出情報は、例えば、脇見運転および居眠り運転の検出を行う検出装置やインテリジェントパネルなどを視線で操作するHMIに利用される。
表示制御装置2は、表示部3が表示する表示物を注視対象物とし、この注視対象物に基づいて視線方向検出装置1が出力する視線方向検出情報のキャリブレーションを制御する表示制御装置であり、視線状態判定部20、キャリブレーション制御部21、視線誘導部22および表示制御部23を備える。
なお、注視対象物とは、表示部3が表示して運転者に注視される基準点として使用される表示物で、予め定められているものである。これは、例えば、表示部としてのインテリジェントパネルまたはカーナビゲーション装置の表示部が表示するアイコン、ボタン、あるいは表示部としてのヘッドアップディスプレイ(以下、HUDと略す)が表示するマーキングなどが挙げられる。なお、基準点は、表示部に応じて任意に定められているものであって、視線方向検出情報のキャリブレーションを実行するのに望ましい位置に設定されている。また上述では基準点として5点を例示したが、適用される表示部に応じてそれよりも少ない基準点でもよいし、逆にそれよりも多い基準点を設定しても良い。
表示部3は、表示制御装置2から得た表示制御情報に応じて画面表示を変化させる表示部であり、例えば車室内の運転者の前方に設置される。
なお、表示部3は、インテリジェントパネルのように車両情報、ナビゲーション情報、オーディオ情報、エアコン情報などを表示する表示装置であってもよい。また、カーナビゲーションシステムやディスプレイオーディオ、HUDなどであってもよい。
また図1において破線で示す情報の流れは、後述する実施の形態において必要なものに過ぎず、必ずしも必要なものではない。よって破線で示す情報の流れについては必要な部分で説明することとし、ここではその説明を割愛する。
図1において、視線方向検出装置1は、運転者の視線方向を検出し視線方向検出情報を視線状態判定部20に供給する。視線状態判定部20は、この視線方向検出情報と後述する視線誘導部22から得られる注視対象物の表示情報とを入手する。視線状態判定部20は、これらの情報に基づき、運転者の視線方向に上述したアイコンなどの注視対象物があるか否かを判定する。さらに視線状態判定部20は、注視対象物がある場合は運転者がそれを注視しているか否かを判定する。視線状態判定部20は、これらの結果として視線状態情報を出力する。この視線状態情報は、キャリブレーション制御部21および視線誘導部22に与えられる。
視線誘導部22では、視線状態情報に基づいて運転者の視線を誘導する。例えば運転者が注視対象物として特定のアイコンを注視していると判定された場合、視線誘導部22は、このアイコンの表示範囲を基準点に向けて縮小することにより運転者の視線を基準点に向けて誘導する。すなわち視線誘導部22は、当該アイコンの表示範囲を基準点に向けて縮小することで、運転者の視線を無意識のうちに基準点に誘導する。これは運転者が特定のアイコンを注視していると判定された場合に、視線誘導部22が当該アイコンの表示範囲を基準点に向けて縮小するよう画面制御情報を表示制御部23に供給することで実現される。表示制御部23は、当該画面制御情報を受け、これに基づいて表示制御情報を生成し表示部3において当該アイコンを基準点に向けて縮小する。
視線誘導部22は、さらに注視対象物の表示情報も出力する。これは注視対象物としてのアイコンの位置、すなわち基準点の位置情報などを含むものである。
注視対象物の表示情報は、視線方向検出装置1および視線状態判定部20に与えられる。すなわち、視線方向検出装置1は、視線方向検出情報を出力するとともに、注視対象物の表示情報を得る。ここで視線方向検出装置1は、注視対象物の位置が分かれば運転者の視線方向を算出することができる。よって視線方向検出装置1は、視線方向検出情報と上述の算出により求めた運転者の視線方向とに基づいて、視線方向検出情報をキャリブレーションすることが可能になる。
一方、キャリブレーションを実行するタイミングなどについては、キャリブレーション制御部21から視線方向検出装置1に与えられるキャリブレーション制御信号に従う。具体的には、視線状態判定部20から出力される視線状態情報に基づいて、例えば、運転者が特定のアイコンを注視しており、かつ、所定時間経過した場合に、状態が安定していると判定して、その時に視線方向検出情報のキャリブレーションを実行する旨をキャリブレーション制御信号にて指示する。
なお、上述の各部の動作は一例を示して概要を説明したものであり、以下、詳細に説明する。また破線部については、追って必要なときに後述する。
図2は、図1の視線方向検出装置1の構成を示すブロック図である。視線方向検出装置1は、図2に示すように赤外線LED(発光ダイオード)10、視線検出用カメラ11、視線方向検出部12、キャリブレーション部13およびメモリ14を備えて構成される。
赤外線LED10は、様々なパターンの赤外光を運転者の目に照射するLEDである。例えば、人の目に感じにくい近赤外線を照射する。また視線検出用カメラ11は、赤外線LED10により赤外光が照射された運転者の顔または眼の映像を取得する。視線検出用カメラ11には、赤外光を撮影可能なCCDなどが使用される。
視線方向検出部12は、視線検出用カメラ11で撮影された映像データを画像解析して視線方向を表す視線方向検出情報を検出し出力する。視線方向検出情報の検出方法としては、一般に赤外光を使用する角膜反射法が知られているが、その他の方法を用いてもよい。また、赤外線LED10を用いずに、視線検出用カメラ11のみを用い、撮影された映像データから画像解析で視線方向を検出してもよい。
キャリブレーション部13は、視線方向検出部12による視線方向検出情報のキャリブレーション処理を行う機能を有する。すなわち、視線方向検出部12による視線方向検出情報と当該視線方向に存在する注視対象物の表示情報に基づいて、視線方向検出情報のキャリブレーションを実行する。キャリブレーションの実行タイミングは、キャリブレーション制御部21からのキャリブレーション制御情報に従う。
例えばキャリブレーション部13は、視線方向検出部12に検出された視線方向検出情報を得る。またキャリブレーション部13は、視線方向検出部12に検出された視線方向に存在する注視対象物の表示情報を表示制御装置2から得る。注視対象物の表示情報としては、該当するアイコンなどの位置、サイズ情報、移動状態などのデータがあげられ、これらの情報を用いて、視線方向検出情報に対するキャリブレーションデータを算出する。キャリブレーション部13が算出したキャリブレーションデータは視線方向検出部12に設定される。また視線方向検出部12は、キャリブレーションデータを用いて視線方向を検出する算出処理を補正する。これにより、キャリブレーションされた視線方向検出情報を算出することができる。
メモリ14は、キャリブレーションデータの算出に使用する情報を格納する記憶部である。例えば、キャリブレーション部13は、運転者が所定の注視対象物を注視したときの視線方向検出情報をメモリ14に格納する。またキャリブレーション部13は、視線方向検出部12に検出された当該注視対象物の表示情報として、その表示範囲、基準点の位置、および、その移動状態などのデータを格納する。これらの情報は、同一の注視対象物を見たときの情報としてメモリ14に蓄積しておき、その蓄積した情報をキャリブレーション部13などで平均値、移動平均など所定の処理をして、当該注視対象物に対して確からしいキャリブレーションデータを算出して用いる。
なおキャリブレーションデータの算出には、上述のようにメモリ14に蓄積して格納されている全ての情報を平均化などの処理をして使用してもよいが、正規分布を算出することなどにより所定以上の信頼性がある一部の情報を抽出して算出するようにしてもよい。
図3は図1の視線状態判定部20の構成を示すブロック図である。視線状態判定部20は、視線方向検出装置1が検出した視線方向検出情報および視線誘導部22からの注視対象物の表示情報に基づいて、運転者が視線方向の注視対象物を注視しているか否かを判定する判定部である。その構成として、図3に示すように対象物判定部200および注視状態判定部201を備える。
対象物判定部200は、視線方向検出装置1が検出した視線方向検出情報および視線誘導部22からの注視対象物の表示情報に基づいて、運転者の視線方向に注視対象物があるか否かを判定する。
例えば対象物判定部200は、表示部3において運転者の視線方向から所定範囲内にある表示領域に予め定めた注視対象物としてのアイコンなどがあるかどうかを判定する。ここで所定範囲内とは、表示部3上において視線方向検出装置1が検出した視線方向を中心として、例えば半径4〜5cm程度の円の範囲内をいう。
なお、キャリブレーションが一度も実施されていない段階では、視線方向のオフセット誤差が大きいため、運転者が注視対象物を注視しても運転者の視線方向から上述の所定範囲内にある表示領域に当該注視対象物が入っていないことも考えられる。この場合には、対象物判定部200は、視線方向に最も近い注視対象物を運転者が注視したと判定してもよい。また、運転者の視線方向を中心として表示部3上に描かれる半径4〜5cmの円の範囲内に複数の注視対象物が存在した場合においても、運転者の視線方向に最も近い位置に表示されている表示物を注視対象物とする。
注視状態判定部201は、視線方向検出装置1が検出した視線方向検出情報に基づいて、運転者による注視対象物の注視状態を判定する。
例えば、視線方向検出装置1が検出した視線方向検出情報にあまりブレがない状態では運転者が注視対象物を注視していると判定する。他方、運転者の視線方向検出情報が大きく変化している状態では運転者が注視対象物を注視しておらず視線が移動していると判定する。ここで運転者が注視対象物を注視していることの判定は、例えば視線方向検出情報が注視対象物の表示範囲と同じ面積の範囲内にあることで行う。または視線方向検出情報が当該面積の範囲内を逸脱している場合であっても、平均化すれば当該面積の範囲内にあるならば、運転者が当該注視対象物を注視していると判定しても良い。
また、注視状態判定部201は、視線状態情報をキャリブレーション制御部21および視線誘導部22に出力する。ここで視線状態情報とは、運転者の視線方向に注視対象物があるかないかを示す情報および運転者が当該注視対象物を注視しているか否かを示す注視状態にかかる情報をいう。
図4は図1のキャリブレーション制御部21の構成を示すブロック図である。キャリブレーション制御部21は、視線方向検出装置1による運転者の視線方向検出情報のキャリブレーション処理を制御するキャリブレーション制御情報を生成して出力する。その構成としては、図4に示すように、制御判定部210および制御命令出力部211を備える。
制御判定部210は、視線状態判定部20から与えられる視線状態情報、すなわち注視対象物の有無および注視状態に基づいて、キャリブレーション処理の制御内容を判定する。また、制御判定部210は、この判定に基づいて、制御命令出力部211に向けて適切なキャリブレーション制御情報を出力する。
例えば、制御判定部210は、運転者の視線方向に注視対象物があり、かつ運転者が注視対象物を注視していることが検出された場合、視線方向検出装置1に対し視線方向検出情報のキャリブレーションを開始するべきであると判定する。
これを受けて制御命令出力部211は、キャリブレーションを開始する旨のキャリブレーション制御情報を視線方向検出装置1へ出力する。具体的には、視線方向検出装置1の視線方向検出部12に対して、キャリブレーションデータ保存開始命令を与える。
このとき図1に示す視線誘導部22は、制御命令出力部211が視線方向検出装置1にキャリブレーションデータ保存開始命令を出力したときに、運転者が注視している注視対象物の位置情報を含む注視対象物の表示情報を出力する。これにより視線方向検出部12は、検出した運転者の視線方向と注視対象物の位置(運転者の視線方向の真値)とを持つこととなる。
なお後述するが、制御命令出力部211が出力する制御命令としては、例えば、キャリブレーションデータ保存開始命令、キャリブレーションデータ保存停止命令、キャリブレーションデータ算出命令、キャリブレーションデータ更新命令などの制御命令がある。
図5は図1の視線誘導部22の構成を示すブロック図である。視線誘導部22は、運転者が注視していると視線状態判定部20が判定した注視対象物を用いて運転者の視線誘導を行う。その構成としては、図5に示すように表示配置可変部220および対象物表示可変部221を備える。
表示配置可変部220は、視線状態判定部20から入力した視線状態情報および表示状態管理部222から入手した現在の配置情報に基づいて、注視対象物を表示する配置を変更する。
例えば、運転者が第1の注視対象物を注視していると判定された場合に、これに引き続き注視されるべき第2の注視対象物を第1の注視対象物とは異なる位置に配置する画面配置変更情報を生成して表示状態管理部222へ出力する。
例示すると、第1の注視対象物が操作内容の選択キーであり、第2の注視対象物が選択キーで選択された操作内容を決定する決定キーである場合である。このとき表示配置可変部220は、第1の注視対象物である選択キーに対して第2の注視対象物である決定キーを表示部3の対角上に配置する。すなわち、表示配置可変部220は、現在の配置情報として第1の注視対象物である選択キーの配置情報を表示状態管理部222から取り込む。これに基づいて表示配置可変部220は、第2の注視対象物である決定キーを表示部3の対角上に配置する旨を指示する画面配置変更情報を表示状態管理部222に出力する。表示状態管理部222は、上述した表示配置可変部からの画面配置変更情報に基づき画面制御情報を表示制御部23に向けて出力する。同時に表示状態管理部222は、注視対象物の表示情報を視線状態判定部20と視線検出装置1に出力する。このようにすることで、視線誘導部22は、運転者が選択キーを注視した後に対角上を移動して決定キーに至るように運転者の視線を誘導する。これにより、表示部3の対角位置である2点においてそれぞれ視線方向検出情報のキャリブレーションを実施することができる。
なお第1の注視対象物である選択キーと第2の注視対象物である決定キーは、必ずしも同時に描画されている必要はない。例えば、第1の注視対象物である選択キーを表示する第1の画面から第2の注視対象物である決定キーを表示する第2の画面へ遷移したときに、第1の画面における選択キーの位置と第2の画面における決定キーの位置が互いに対角となるように配置してもよい。
対象物表示可変部221は、視線状態判定部20から入力した視線状態情報および表示状態管理部222から入手した現在の表示情報に基づいて注視対象物の表示態様を変更する。対象物表示可変部221は、例えば、注視対象物を縮小する縮小率と縮小させるときの基準点の位置、注視対象物を画面上で移動させる場合はその移動角度(移動方向)および移動速度など表示態様の変更を示す表示変更情報を生成して表示状態管理部222へ出力する。
ここで、例えば、運転者が注視対象物を注視していると判定された場合に、その注視対象物を基準点に向けて縮小させることで、基準点を注視するように運転者の視線が誘導される。これにより、運転者が注視対象物のどの部分を見ていても基準点に運転者の視線を誘導する。よって運転者の真の視線方向が基準点であるとしてキャリブレーションを実行することで、精度よく視線方向検出情報のキャリブレーションを実行することができる。
また、運転者が注視していると判定された注視対象物を予め定められた方向へ移動させることにより、注視対象物の動きを追うように運転者の視線が誘導される。これにより視線検出装置1で検出した視線の動きを示す角度情報と、実際に移動させた注視対象物の移動情報から得た真の角度情報とを比較することにより、視線が変化した角度についてキャリブレーションを実行することができる。
なお表示状態管理部222は、上述の画面配置変更情報あるいは表示変更情報を受けるとともに、これらの情報に基づいて画面制御情報を生成して表示制御部23に供給する。同時に表示状態管理部222は、注視対象物の表示情報を視線状態判定部20と視線検出装置1に向けて出力する。
図6は図1の表示制御部23の構成を示すブロック図である。表示制御部23は、表示部3の表示を制御する表示制御部である。また、表示制御部23は、視線誘導部22から入力した画面制御情報に従った表示制御情報を生成して表示部3に供給することにより、表示部3において運転者の視線を誘導する。その構成としては、図6に示すように画面制御情報処理部230および表示出力部231を備える。
画面制御情報処理部230は、視線誘導部22から入力した画面制御情報に基づいて、これに従った表示となるような表示情報を生成して表示出力部231へ出力する。
表示出力部231は、画面制御情報処理部230から入力した表示情報に基づいて表示制御情報を生成して表示部3に出力する。これにより、表示部3は、画面制御情報処理部230が生成した表示情報に基づき、運転者の視線を誘導する表示を行う。
視線状態判定部20、キャリブレーション制御部21、視線誘導部22および表示制御部23は、例えば、この実施の形態1に特有な処理が記述されたプログラムをマイクロコンピュータが実行することで、ハードウェアとソフトウェアとが協働した具体的な手段として実現することができる。なお上述のプログラムは、例えばマイクロコンピュータと電気的に接続されたROM(Read Only Memory)に記述しておくことができる。またマイクロコンピュータが実施した各種の算出結果を一時的に記憶しておく記憶装置としてマイクロコンピュータと電気的に接続されたRAM(Randam Access Memory)を用いることができる。
次に動作について説明する。
図7は、この発明の実施の形態1に係る表示制御装置2の動作を示すフローチャートであり、図1に示す視線方向検出装置1が検出する運転者の視線方向検出情報のキャリブレーションを行う例を示している。ここで図7のフローチャートは、キーオンした時に動作開始するものとする。
また前処理として、図1に示す視線方向検出システムの各構成に電源が投入されたときに、視線方向検出装置1、表示制御装置2および表示部3において必要な初期化処理がそれぞれ実行されているものとする。この初期化の際に、視線方向検出装置1のキャリブレーション部13が、メモリ14に既に登録されているキャリブレーションデータを読み出して視線方向検出部12に設定してもよい。
初期化処理が完了すると、視線方向検出装置1は運転者の視線方向検出を開始し、この視線方向検出情報を表示制御装置2へ逐次出力する。
表示制御装置2の視線状態判定部20は、視線方向検出装置1から入力した視線方向検出情報と視線誘導部22から与えられる注視対象物の表示情報に基づいて、運転者の視線方向付近にある表示部3の表示領域に注視対象物があり、かつこれを運転者が注視している注視状態であるか否かを判定する(ステップST1)。
具体的には、視線状態判定部20の対象物判定部200が、視線方向検出装置1が検出した視線方向検出情報と視線誘導部22から入力した注視対象物の表示情報に基づいて、表示部3に現在表示されている注視対象物の中に、運転者に注視されている注視対象物があるか否かを判定する。
運転者の視線方向付近にある表示部3の表示領域に注視対象物があることは、例えば、上述したように、運転者の視線方向を中心として表示部3上に描かれる半径4〜5cmの円の範囲内に注視対象物があることで判定する。但し、視線方向検出装置1のキャリブレーションを1度も行ったことがない場合は、運転者の視線方向に最も近い位置に表示されている表示物を注視対象物とする。また、運転者の視線方向を中心として表示部3上に描かれる半径4〜5cmの円の範囲内に複数の注視対象物が存在した場合においても、運転者の視線方向に最も近い位置に表示されている表示物を注視対象物とする。
運転者が注視対象物を注視していることは、例えば、所定時間(例えば、0.5秒)経過するまでの間、運転者の視線検出情報のブレが所定範囲以内(例えば、注視対象物の表示面積と同等程度の面積の範囲内)であることで判定する。あるいは、所定時間の視線の移動量の平均値が、当該面積の範囲内であることで判定する。
運転者の視線方向付近に注視対象物がない、あるいは視線方向付近にある注視対象物を明らかに注視していない場合(ステップST1;NO)、ステップST1の処理に戻り、上述の判定を繰り返す。
一方、運転者の視線方向付近に注視対象物があり、かつこれを運転者が注視している場合(ステップST1;YES)、視線状態判定部20は、運転者が注視している注視対象物の有無に関する情報(注視対象物がある場合はその識別番号)とその注視状態を視線誘導部22へ出力する。
視線誘導部22は、運転者が注視していると判定された注視対象物に基づいて運転者の視線誘導を指示する画面制御情報を生成して表示制御部23へ出力する(ステップST2)。そして、表示制御部23が、視線誘導部22から入力した画面制御情報に従い、運転者の視線を誘導する表示を表示部3に行わせるべく表示制御信号を表示部3に向けて出力する(ステップST3)。
以下、対象物表示可変部221の動作と、表示配置可変部220の動作のそれぞれについて説明する。
まず、視線誘導部22の対象物表示可変部221は、注視対象物の注視状態に基づいて注視対象物の表示態様を変更する指示情報を生成するものである。
例えば、視線状態判定部20から得た視線状態情報に基づいて、運転者が注視していると判定された注視対象物の識別番号から当該注視対象物を特定する。そして対象物表示可変部221は、特定された注視対象物の現在の表示情報に基づいて当該注視対象物が縮小されていないことを検知した場合には、当該注視対象物を予め定めた基準点に向かって縮小するよう表示する表示変更情報を生成する機能を有する。あるいは対象物表示可変部221は、特定された注視対象物の現在の表示情報に基づいて当該注視対象物を表示部3上で移動させる表示変更情報を生成する機能を有する。表示状態管理部222は、これらの表示変更情報に基づいて画面制御情報を生成して表示制御部23へ出力する。ここで特定された注視対象物にかかる画面制御情報は、例えば、注視対象物を縮小する縮小率、縮小させるときの基準点の位置あるいは縮小させる速度などの情報あるいは該当対象物を画面で移動させる移動角度(移動方向)および移動速度などを示す情報である。表示制御部23の画面制御情報処理部230は、視線誘導部22から入力した画面制御情報に基づいて、これに従った表示となるような表示を表示部3に行わせる表示情報を生成して表示出力部231へ出力する。表示出力部231は、この表示情報を受け表示制御情報を生成して表示部3に向けて出力する。そして表示部3における注視対象物を運転者の視線を誘導するための表示態様に変化させる。この表示の詳細は、図8、図10、図11を用いて後述する。
また視線誘導部22の表示配置可変部220は、運転者が注視していると判定された注視対象物の識別番号および注視状態に基づいて、当該注視対象物に引き続いて注視されるべき注視対象物について表示部3での配置を変更するものである。
例えば、当該注視対象物の識別番号から注視対象物が予め定めた種類の表示物、例えば機能を選択する操作内容にかかる選択キーであると判定された場合に当該注視対象物を第1の注視対象物とする。そして、これに引き続いて注視されるべき注視対象物として操作内容を決定する決定キーを第2の注視対象物とする。このとき表示配置可変部220は、表示状態管理部222から現在の表示情報を得て、これに基づいて第1の注視対象物とは異なる位置に第2の注視対象物を配置する画面配置変更情報を生成し表示状態管理部222に出力する機能を有する。表示状態管理部222は、画面配置変更情報に基づいて画面制御情報を生成し、表示制御部23へ出力する。
表示制御部23の画面制御情報処理部230は、視線誘導部22から入力した画面制御情報に基づいて、これに従った表示となるような表示を表示部3に行わせる表示情報を生成して表示出力部231へ出力する。表示出力部231は、この表示情報を受け表示制御情報を生成して表示部3に向けて出力する。この表示の詳細は、図9、図12を用いて後述する。
視線誘導部22は、注視対象物の位置を含む注視対象物の表示情報を視線状態判定部20に出力するとともに視線方向検出装置1に向けて出力する(ステップST4)。これにより視線検出装置1は、視線方向検出情報と、真の視線方向である注視対象物の表示情報とを有することとなる。よって視線方向検出装置1は、両者を比較することにより視線方向検出情報を真の視線方向に合わせるべくキャリブレーションの算出を実行することが可能となる。
キャリブレーション制御部21は、キャリブレーション制御信号を視線検出装置1に向けて出力する(ステップST5)。例えば、キャリブレーション制御部21は、運転者が注視対象物を注視していると判定され(ステップST1)、表示部3で視線誘導の表示が行われた後(ステップST2、ステップST3)、視線方向検出装置1に対してキャリブレーションデータ測定の開始し測定されたキャリブレーションデータを保存する旨を指示するキャリブレーションデータ保存開始命令を出力する。ここでキャリブレーションデータとは視線方向検出情報のキャリブレーションを実行するために必要な情報で、例えば、視線方向検出情報と運転者の真の視線方向とのずれにかかわる情報である。
これにより視線方向検出装置1は、例えば1秒間に30回(30Hz)の頻度でキャリブレーションデータを測定し、これをメモリ14に保存する。なおメモリ14に格納するサンプル数は、各基準点において30個程度あれば十分である。即ち、運転者が注視していると判定する条件として0.5秒の間、視線がブレていないと判定してから1秒程度あれば当該基準点におけるキャリブレーションは終了してもよい。従ってキャリブレーション制御部21は、上述のキャリブレーションデータ保存開始命令を出力してから所定時間、例えば1〜2秒後にキャリブレーションデータ保存停止命令を出力すればよい。これによりメモリ14へのキャリブレーションデータの保存が停止する。
キャリブレーションデータのサンプルが集まれば、キャリブレーション部13は、信頼性のあるキャリブレーションデータを算出することができる。よってキャリブレーション制御部21は、キャリブレーションデータ保存停止命令を出力した後、視線方向検出装置1に対して、キャリブレーションデータ算出命令を出力する。これに基づきキャリブレーション部13は、キャリブレーションデータを算出する。そして得られたキャリブレーションデータは、メモリ14に送られ記憶あるいは情報の更新がなされる。このためキャリブレーション制御部21は、キャリブレーションデータ算出命令に引き続いて、視線方向検出装置1に対してキャリブレーションデータ更新命令を出力する(ステップST5)。
以上のように、ステップST5でいう制御命令には、キャリブレーションデータ保存開始命令、キャリブレーションデータ保存停止命令、キャリブレーションデータ算出命令、キャリブレーションデータ更新命令などの制御命令が含まれる。
また、上述ではキャリブレーション保存開始命令を出力してから1〜2秒の所定時間後にキャリブレーションデータ保存停止命令を出力するようにした。しかしながら所定時間が経過する前に運転者が注視対象物を注視しなくなったと判定されたときには、速やかにキャリブレーションデータ保存停止命令を出力する。運転者が注視対象物を注視していない状態では、当該注視対象物に対する視線検出情報のキャリブレーションを実施することはできないからである。
あるいは運転者が所定のスイッチを押下することによりキャリブレーション保存開始命令を出力し、再度のスイッチの押下によりキャリブレーションデータ保存停止命令を出力するようにしてもよい。これは運転者の意思に基づいてキャリブレーションを実施するので、その間は、運転者が注視対象物を注視していると考えられるからである。
さらには、運転者が操作キーを注視した後、この操作内容を決定する決定キーを押下することにより当該操作内容を決定する装置の場合は、運転者が操作キーの注視から視線を移動して決定キーを注視していると判定されたときにキャリブレーション保存開始命令を出力し、運転者が決定キーを押下したときにキャリブレーションデータ保存停止命令を出力するようにしてもよい。これは運転者が決定キーを押下するときには決定キーを注視していると判定されてから決定キーを押下するまでには1〜2秒程度の所定時間が十分経過していると推定されるからである。
視線方向検出部12は、上述の処理により得られたキャリブレーションデータを用いて視線方向を検出する算出処理を補正する。これにより、運転者ごとにキャリブレーションされた視線方向検出を実施できる。
なお同一の運転者であっても、キャリブレーションを実施してからの時間経過によって環境が変化すると、再び検出誤差が発生する可能性がある。このため、キャリブレーション処理は定期的あるいは所定のトリガ(例えば乗車するときなど)ごとに実行することが望ましい。この実施の形態1では、キーオンをトリガとして図7のフローチャートが実行されるので、キーオンされる毎に視線方向検出情報のキャリブレーションが実行されることになる。なおキャリブレーションを実行するトリガは、キーオンに限定されるわけではなく、当業者であればいろいろな態様が考えられる。
次に視線誘導処理について具体例を挙げて説明する。
図8は、注視対象物を縮小して視線誘導する表示画面の例を示す図である。図8(a)は、表示部3が運転席の前方のインストルメントパネル(以下、インパネと略す)に配置されたインパネディスプレイである場合を示している。また図8(b)は、表示部3が運転席前方のフロントガラスあるいはハンドルとフロントガラスとの間に設けられた投影板などに情報を投影表示するHUDである場合を示している。視線方向検出装置1は、表示部3付近の位置に設けられ、運転者に対面して赤外線発光ダイオードの光を照射する。
本実施の形態では、図8(a)および図8(c)に示すように表示部3が表示画面3aに表示する表示物を運転者が注視すべき注視対象物4としている。例えば、予め定めたアイコン画像、ボタン画像、マーキングなどを注視対象物4とし、これらを識別する識別番号を視線誘導部22に設定しておく。
なお注視対象物4は、表示部3に表示される任意の表示物を注視対象物としても良いし、あるいは予め定めた表示物を注視対象物としても良い。また図8(a)または(b)に破線で示すように注視対象物4を表示部3の中央部に設定しても良い。
視線誘導部22の対象物表示可変部221は、表示画面3aに表示される注視対象物4のうち、視線状態判定部20によって運転者がある注視対象物4を注視していると判定されたとき、この注視対象物4を基準点に向かって縮小する表示変更情報を生成する。この表示変更情報は、注視対象物4を縮小するときの縮小率、縮小させるときの基準点の位置あるいは縮小させる速度などの情報である。
表示状態管理部222は、表示変更情報と現在の表示情報とに基づいて画面制御情報を生成し、表示制御部23に出力する。表示制御部23は画面制御情報を受け、表示制御情報を生成して表示部3に向けて出力する。これにより図8(a)のインパネディスプレイの場合は、左上の注視対象物4がその中心に向かって徐々に縮小して表示される。同様に図8(b)のHUDでは右上の注視対象物4がその中心に向かって徐々に縮小して表示される。ここで注視対象物4の縮小表示は、図8(c)に示すものが考えられる。1つは注視対象物4の中心を基準点とし、この基準点に向かって徐々に縮小しながら表示するものである。あるいは注視対象物が矩形状のものである場合は、その4隅のうちいずれか1点を基準点とし、この基準点に向かって徐々に縮小しながら表示されるものである。すなわち注視対象物の縮小は、必ずしも注視対象物の中心に向かって縮小するものでなくても良い。このように運転者が注視対象物4を注視し、これに続いて注視対象物の表示サイズが縮小される表示変化によって運転者の視線が基準点に向かって誘導される。
従って、運転者が注視対象物4の基準点を注視することになり、当該基準点における視線方向検出情報のキャリブレーション精度が向上する。
図9は、注視対象物とその次に注視すべき対象物を異なる位置に配置して視線誘導する表示画面の例を示す図であり、図9(a)および図9(b)は表示部3がインパネディスプレイである場合を示している。図9(a)および(b)において、表示画面の左側には第1の注視対象物となる選択キーが複数個並べられている。他方、画面の右側の上下の隅にはそれぞれ第2の注視対象物となる決定キー4bと取消キー4cとが配置されている。ここで選択キーとは上述したごとく機能内容を表すキーで、決定キーは選択キーで選択した機能内容を決定するキーである。また取消キーは、選択キーで選択した機能内容を取り消すもので、一旦選択したキーを取り消して別の選択キーを選ぶためのキーである。
ここで、運転者が第1の注視対象物として左上の選択キー4aを注視したとき、選択キー4aを徐々に縮小して表示し、この状態で選択キー4aについてキャリブレーションデータを取得する。これは図7のフローチャートにおいて、運転者が左上の選択キー4aを注視した状態であると判定され(ステップST1)、ステップST2、3により選択キー4aが縮小表示され、ステップST4で注視対象物としての選択キー4aの表示情報が出力され、ステップST5でキャリブレーション制御信号が出力されることで実行される。
次に第2の注視対象物として運転者が決定キー4bを注視した場合は、同様に決定キー4bを徐々に縮小して表示し、この状態で決定キー4bについてキャリブレーションデータを取得する。このときも上述の図7のフローチャートが同様に実行される。これにより図9(b)において実線aで示す如く運転者の視線が移動したときに、表示部3の対角の2点で視線方向検出情報のキャリブレーションを実行することができる。また第2の注視対象物として運転者が取消キー4cを注視した場合は、同様に取消キー4cを徐々に縮小して表示し、この状態で取消キー4cについてキャリブレーションデータを取得する。これにより図9(b)において破線bで示す如く運転者の視線が移動したときに、表示部3の一辺の2点で視線方向検出情報のキャリブレーションを実行することができる。
なお第1の注視対象物として運転者がいずれの選択キー4を注視するかは不明である。
しかしながら図9の例では表示画面の左下の選択キー4を選択した場合は、続いて決定キー4bを注視すれば、表示部3の一辺の2点で視線方向検出情報のキャリブレーションを実施することができる。同様に決定キー4bではなく取消キー4cを中止した場合は、表示部3の対角の2点で視線方向検出情報のキャリブレーションを実施することができる。
あるいは選択キーを注視した後、続いて運転者が注視するのは決定キー4bである可能性が高いと考えられることから、表示画面の左下の選択キー4を選択した場合は、決定キー4bと取消キー4cの表示を入れ替えても良い。視線方向検出情報のキャリブレーションの精度を高めるには、最初は、表示部3の一辺の2点よりも表示部3の対角の2点でキャリブレーションデータを取得することが望ましい。従って、運転者が注視した選択キーに応じて決定キーあるいは取消キーなどの位置を変更することにより、視線方向検出情報のキャリブレーションの精度を高めることができる。このときは図7のフローチャートにおいて、左下の選択キー4aを縮小表示した後、ステップST2、3により決定キー4bと取消キー4cの配置を入れ替える。これは視線誘導部22の表示配置可変部220により実行される。その後、運転者が右上に移動して表示された決定キーを注視したと判定すると、図7のフローチャートにより右上に移動して表示された決定キーを縮小表示してキャリブレーションデータを取得する。
本実施の形態では、選択キー4aで選択された操作を最終的に決定する場合、一般的に決定キー4bが操作されることを利用して、運転者が注視していると判定された注視対象物が選択キー(第1の注視対象物)4aであると、これに引き続き注視されるべき決定キー(第2の注視対象物)4bを、表示部3の表示画面3aで異なる位置に配置する。
これにより運転者が選択キー4aを注視すると、選択キー4aの表示サイズが縮小されて基準点に視線が誘導され、その注視状態から決定キー4bへ視線が誘導される。
具体的には、視線誘導部22の対象物表示可変部221が、注視対象物の注視状態に基づいて、注視対象物を縮小する表示変更情報を生成する。
表示管理部222は、現在の表示状態と表示変更情報に基づいて画面制御情報を出力する。この画面制御情報は、現在の表示状態から基準点に向けて縮小した表示態様となるよう指示するものである。その結果、注視対象物は、基準点に向かって所定の大きさになるまで徐々に縮小してゆくこととなる。なお所定の大きさとは、キャリブレーションデータを取得するのに十分小さい状態をいい、例えば5mmから1cm程度を一辺とする矩形、あるいは当該寸法を直径とする円あるいはその他の形状である。
上述したように選択キー4aと決定キー4bを表示画面3aで互いに異なる位置に配置することで、運転者の視線は選択キー4aから決定キー4bへ自然に誘導される。
従って、キャリブレーション時間の短縮化とキャリブレーション精度の向上を図ることができる。
また、注視対象物を選択キー4aとし、これに引き続き注視されるべき注視対象物を決定キー4bとする場合を示したが、これに限定されるものではない。
例えば、操作者によらず収集したアイコン操作の履歴から、運転者が最初に注視されたアイコン(第1の注視対象物)に引き続き選択される選択率を求め、この選択率が閾値を超えるアイコンを第2の注視対象物としてもよい。
図10は、注視対象物を移動して視線誘導する表示画面の例を示す図であり、図10(a)から図10(d)は表示部3がインパネディスプレイである場合を示している。
本実施の形態では、図10(a)に示すように運転者が注視対象物を注視している場合、図10(b)に示すように注視対象物4を予め定められた方向c1へ移動させる。
具体的には、対象物表示可変部221は、視線状態情報により運転者が注視対象物を注視していると判定されたとき、注視対象物を移動する表示変更情報を生成する。表示変更情報は、注視対象物を移動するときの移動の角度(方向c1)および移動速度などにかかる情報である。対象物表示可変部221は、表示状態管理部222から現在の表示情報を入手し、表示変更情報を表示状態管理部222に出力することにより、図10(b)に示すように注視対象物4を表示画面3aで例えば左側から右側に向かって移動させる。
このように運転者が注視した注視対象物4を移動させる表示変化によって運転者の視線が予め定められた方向c1に誘導される。従って、視線が誘導して移動前と移動後の注視対象物に対してキャリブレーションデータを取得することができ、キャリブレーション精度が向上する。
すなわち、本実施の形態1において、注視対象物を縮小することは必ずしも必要なものではない。なお注視対象物を図10(a)から(b)の状態に移動させるには、上述の図7のフローチャートを実行することにより可能である。
さらに、移動させる注視対象物4としては、例えば図10(c)に示すような開封済みのメールアイコンなどが挙げられる。開封済みメールを削除する場合、図10(d)に示すように、メールアイコンをゴミ箱アイコンに捨てるイメージで、注視対象物4であるメールアイコンをゴミ箱アイコン4dの方向c2へ移動させる。
これにより、運転者の視線は、メールアイコンを最初に注視した位置からゴミ箱アイコン4dの位置まで誘導される。このとき、メールアイコンとゴミ箱アイコン4dとを対角上に配置しておけば、選択キーと決定キーの場合と同様にキャリブレーションデータを取得することが可能となる。
図11は、注視対象物を移動して視線誘導する表示画面の他例を示す図であり、図11(a)から図11(c)は表示部3がインパネディスプレイである場合を示している。
表示領域dは、表示部3の表示画面3aの位置(表示領域)のうちで、視線方向検出情報のキャリブレーション精度が最も悪い位置である。ここでキャリブレーション精度が最も悪いというのは、まだ一度もキャリブレーションが実行されていない位置、あるいは過去にキャリブレーションを実行した者のうち最も精度が悪い位置というものが考えられる。本実施の形態では、注視対象物をキャリブレーション精度が最も悪い表示領域dに移動しかつ縮小状態とする。なお図1に破線により例示して示すように、過去のキャリブレーションにおける視線方向検出情報のキャリブレーション精度が最も悪い位置は視線方向検出装置1から得るものである。例えばキャリブレーション精度にかかるキャリブレーション精度情報を視線誘導部22に導入するようにしても良い。なおその他の破線部分については、ここでは必要ないので後述にて説明する。
具体的には、視線誘導部22の対象物表示可変部221は、視線検出装置1から得るキャリブレーション精度が最も悪い位置にかかる情報と、表示状態管理部222から得る現在の表示情報とに基づいて、注視対象物4を表示領域dへ移動する表示変更情報を生成する。また対象物表示可変部221は、表示状態管理部から得た現在の表示情報に基づいて注視対象物を徐々に縮小する表示変更情報を生成する。これらを両立する表示変更情報は表示状態管理部222に与えられる。表示状態管理部222は、この表示変更情報に基づいて、注視対象物4を縮小させながら表示領域dへ移動する画面制御情報を生成する。これにより、図11(b)に示すように注視対象物4を縮小させながら表示領域dへ移動させる。このようにすることで、表示領域dでキャリブレーションが実行されるので、表示領域dにおけるキャリブレーション精度を向上させることができる。
なお、図11(b)に示すように注視対象物を縮小しつつ移動させて表示領域dに至る場合の他、図11(c)に示すように注視対象物が表示領域dに到達したときに縮小させてもよい。あるいは注視対象物の縮小表示は必ずしも必要ではなく、省略しても良い。
なお上述では、注視対象物をキャリブレーション精度が最も悪い位置を含む表示領域dに移動する例を記載した。しかしながら、これは必ずしも予め定められた基準点に移動するものに限られるものではなく、原則として、優先的に表示領域dに移動させればよいというものである。例えば、キャリブレーション精度がよかったとしても、キーオンしてから一度も視線方向検出情報のキャリブレーションを実施していない表示領域があれば、まずはそちらを優先するという考え方もできるからである。
図12は、画面遷移するときに視線誘導する表示画面の例を示す図であって、図12(a)から図12(c)は表示部3がインパネディスプレイである場合を示している。
図12(a)において、運転者が注視して縮小されているアイコン(第1の注視対象物)Aには、これに引き続いて注視されるべきアイコン(第2の注視対象物)4−1が関連付けられている。例えば、操作者によらず収集したアイコン操作の履歴から運転者が最初に注視したアイコン(第1の注視対象物)に引き続き選択されるアイコン操作の選択率を求め、この選択率が閾値を超える操作に対応するアイコンを第2の注視対象物とすることで上述の関連付けを実行する。なおアイコン操作の履歴に基づく関連付けについては当業者であれば容易に想到し得るため、ここでは説明を割愛する。
図12の動作においては、視線誘導部22の表示配置可変部220が、注視対象物の識別番号から、注視対象物が第1の注視対象物であると判定された場合に、これに引き続いて注視されるべき第2の注視対象物を特定する。ここで引き続いて注視されるべき第2の注視対象物とは、選択率が最も高い注視対象物4−1である。
次に、表示配置可変部220は、第1の注視対象物を表示した表示画面3a−1とは異なる表示画面であって、表示画面3a−1から遷移して表示される表示画面3a−2において、第2の注視対象物を第1の注視対象物と対角になる位置に配置する画面配置変更情報を生成して出力する。
表示制御部23は、この画面配置変更情報に従い、表示画面3a−1に表示されていた第1の注視対象物としての注視対象物Aに対して、表示画面3a−2における第2の注視対象物としての注視対象物4−1を対角となる位置に配置する。
本実施の形態では、運転者が注視していると判定された第1の注視対象物が表示される表示画面(第1の表示画面)3a−1から、第2の注視対象物が表示される表示画面(第2の表示画面)3a−2へ画面遷移する。このとき第1および第2の注視対象物は、表示画面3a−1と表示画面3a−2とで対角となる位置にそれぞれ配置される。
例えば、図12(b)に示すように、表示画面3a−1における“AUDIO”ボタンを操作したときに、これ引き続き操作される可能性が高い楽曲のアーティストを選択するための“アーティスト”ボタンを表示画面3a−2の対角位置に配置する。
このようにすることで、図12(c)に示すように、画面遷移を介して運転者の視線が対角線上に誘導され、距離aを移動することになる。このため、キャリブレーションに必要なキャリブレーションデータを縦横の2次元について効率的に取得することができ、キャリブレーション精度の向上を速やかに図ることができる。
なお上述では第1の注視対象物に対して第2の注視対象物を対角位置に表示する例を示したが、これに限らない。例えば図12(a)において注視対象物Aを注視したと判定したとき、その後の画面遷移において注視対象物4−1を右上、左下あるいは画面の中央部など任意の位置に表示するようにしても良い。この任意の表示位置については、キャリブレーションの精度、あるいはキャリブレーションを一度も実施していない基準点などの状況が考慮されても良い。
なお、上述したキャリブレーション処理は、表示部3で運転者の視線を誘導する表示を行うものであり、この運転者の視線を誘導する表示が常に行われる場合、運転者が違和感を持つ可能性がある。
そこで、視線方向検出情報のキャリブレーション精度が予め定めた閾値Aを超えている場合は、視線方向検出情報の精度は十分であると判定して視線誘導モードを解除してもよい。ここで予め定めた閾値Aとは視線方向検出情報に基づいて装置を操作する上において、大きな支障なく操作が可能と判断される適切な値に設定される。
図13は視線誘導モードの解除処理を示すフローチャートである。
図13のフローチャートは、キースイッチのオンをトリガとして起動するものであって、図7で示したフローチャートとは直接的には関係なく実行される。このフローチャートの制御思想は、キーオンしてから所定時間、例えば5〜10分間は運転者の視線を誘導する表示を実行する。そして5〜10分間が経過した時点で視線方向検出装置1の視線方向検出情報の精度が対象とする装置を操作する上で十分な精度を有していると判定された場合は、運転者の視線を誘導する表示を終了する。他方、視線方向検出装置1の視線方向検出情報の精度が対象とする装置を操作する上で十分な精度を有していない場合は、さらに5〜10分間ほど運転者の視線を誘導する表示を実行し、上述の十分な精度を有しているかどうかを判定する。これにより運転者の視線を誘導する表示を必要以上に実行することを抑止するというものである。
以下、図13のフローチャートに沿って説明する。
まず、キャリブレーション制御部21が、最初はキーオンをトリガとしてタイマを起動し、タイマが所定時間、例えば10分間を経過したか否かを判定する(ステップST11)。ここで、所定時間が経過していなければ(ステップST11;NO)、ステップST11の判定を繰り返す。
所定時間が経過した場合(ステップST11;YES)、キャリブレーション制御部21が、キーオンしてから所定時間経過するまでの間の処理で得られたキャリブレーション精度が予め定めた閾値Aを超えているかどうかを判定する(ステップST12)。ここで上述では、キャリブレーション精度情報は、視線方向検出装置1から視線誘導部22に与えられる旨記載したが、この情報はキャリブレーション制御部21にも与えられるようにしても良い。参考として図1に破線にて示す。
キャリブレーション精度が閾値Aを超えていると判定した場合(ステップST12;YES)、キャリブレーション制御部21は、視線方向検出装置1に対してキャリブレーション処理を停止するよう指示するとともに、この判定結果を視線誘導部22に通知する。
視線誘導部22は、この判定結果を受けると視線誘導モードを解除する(ステップST13)。このとき、視線誘導部22は、視線誘導のための画面配置変更情報および表示変更情報を生成せず、表示部3は運転者の視線を誘導する表示を行わない。
一方、キャリブレーション精度が閾値A以下であると判定した場合(ステップST12;NO)、キャリブレーション制御部21は、視線方向検出装置1によるキャリブレーション処理を継続する。すなわち、ステップST15でタイマを初期化してステップST11に処理を戻すことにより、ここから更に所定時間経過するまで運転者の視線を誘導する表示を実行する。
なお上記実施の形態1では予め定められた注視対象物として特定のアイコンなどを例示して説明したが、注視対象物は必ずしも予め定められていなくても良い。
運転者が注視した任意のアイコンなどを注視対象物として、上述と同様に運転者の視線誘導することも可能である。
以上のように、この実施の形態1によれば、運転者の視線を予め定められた方向または位置に誘導するため、この誘導の前後でキャリブレーションデータを測定すれば、複数の基準点でキャリブレーションデータを得ることが可能である。また視線を所定の方向または位置に誘導することにより、視線が移動する角度についてキャリブレーションデータを得ることができる。これにより、視線方向検出のキャリブレーションを精度よくかつ速やかに行うことができる。
また、この実施の形態1によれば、視線誘導部22が、運転者が注視していると判定された注視対象物を基準点に向かって縮小させるので、運転者の視線が注視対象物の基準点へ誘導されて基準点ごとの測定精度を向上させることができる。これによりキャリブレーション精度の向上を図ることができる。
さらに、この実施の形態1によれば、視線誘導部22が、運転者が注視していると判定された第1の注視対象物とこれに引き続き注視されるべき第2の注視対象物を表示部3の異なる位置に配置させる。このようにすることで、第1の注視対象物から第2の注視対象物へ運転者の視線が誘導され、視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができる。
さらに、この実施の形態1によれば、第1および第2の注視対象物が、表示部3の表示画面3aの対角位置に配置される。このようにすることで、キャリブレーションデータを縦横の2次元について得ることが可能であり、視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができる。
さらに、この実施の形態1によれば、第1の表示画面で第1の注視対象物を注視した後、第2の表示画面に画面遷移したとき、第2の注視対象物を第1の注視対象物とは対角となる位置に配置する。
このようにすることでも、視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができる。
さらに、この実施の形態1によれば、視線誘導部22が、運転者が注視していると判定された注視対象物を表示部3の表示画面3aの予め定められた方向へ移動させる。
このようにすることで、視線の移動角度についてもキャリブレーションを実行することができるので視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができる。
さらに、この実施の形態1によれば、注視対象物が表示部3の表示画面3aの予め定められた位置へ移動される。このようにすることで、視線方向検出情報のキャリブレーションを精度よくかつ速やかに行うことができる。
さらに、この実施の形態1によれば、注視対象物が表示部3の表示画面3aの予め定められた位置のうち、視線方向検出のキャリブレーション精度が最も悪い位置に優先的に移動される。そして望ましくは、かつ、縮小状態となる。このようにすることで、該当位置でキャリブレーションが実施されるので、該当位置におけるキャリブレーション精度を速やかに向上させることができる。
さらに、この実施の形態1によれば、キャリブレーション制御部21が予め定めた条件に応じてキャリブレーションを制御する。このように構成することで、キャリブレーションの開始と終了を適切なタイミングで行うことが可能である。
特に、この条件が運転者のスイッチ操作である場合は、運転者が意図するタイミングでキャリブレーションを行うことができる。
また、上記タイミングとして運転者が注視対象物を注視してからの時間経過を用いる場合、運転者が意識せずにキャリブレーション測定を行うことができる。例えば、運転者が車両を運転している間にキャリブレーションを行う場合に好適である。
さらに、この実施の形態1によれば、視線誘導部22が、視線方向検出情報のキャリブレーション精度が予め定めた閾値を超えて十分高い精度を有している場合、視線誘導を解除する。これにより、運転者の視線を誘導する表示を常時行うことを抑止して運転者の違和感を抱かせることがないようにすることができる。
実施の形態2.
図14は、この発明の実施の形態2に係る視線方向検出システムの構成を示すブロック図である。視線方向検出部12に検出された視線方向検出情報は、運転者の個人差に起因する誤差がある。このため視線方向検出情報の検出精度を確保するためには、運転者ごとにキャリブレーションを実行することが望ましい。
図14に示す視線方向検出システムは、実施の形態1と同様に車両などの移動体に搭載されて運転者の視線方向を検出するシステムであり、視線方向検出装置1、表示制御装置2Aおよび表示部3を備えて構成される。なお、図14において図1と同様の構成には同一符号を付して説明を省略する。
実施の形態2に係る表示制御装置2Aは、実施の形態1の構成に加え、個人認証部24を備える。個人認証部24は、運転者ごとの認証情報に基づいて運転者の認証を行う。例えば、認証情報としては、運転者の顔を撮影した撮影情報、運転者の生態情報、運転者が所有する携帯端末の機器情報などがある。
個人認証部24は、これら情報と運転者個人ごとの登録情報とを照合して、予め登録された運転者であるかどうかを認証する。個人認証部24の認証結果はキャリブレーション制御部21へ出力される。
キャリブレーション制御部21は、個人認証部24が認証した運転者についてのキャリブレーションを行うよう視線方向検出装置1に指示する。
例えば、キャリブレーション部13に対し、個人認証部24が認証した運転者に関する視線方向検出情報のキャリブレーションデータを算出させる。すなわち、メモリ14には個人ごとに対応してキャリブレーションデータが格納される。
また、視線方向検出部12に対して、メモリ14に格納されているキャリブレーションデータのうち、個人認証部24が認証した運転者に対応するキャリブレーションデータを用いて、視線方向を検出する算出処理を補正させる。
このようにすることで、個人認証部24に認証された運転者ごとに視線方向検出情報のキャリブレーションを実施できる。
視線状態判定部20、キャリブレーション制御部21、視線誘導部22、表示制御部23および個人認証部24は、上述した実施の形態1と同様に、例えば、この実施の形態2に特有な処理が記述されたプログラムをマイクロコンピュータが実行することで、ハードウェアとソフトウェアとが協働した具体的な手段として実現することができる。
以上のように、この実施の形態2によれば、表示制御装置2Aは、対象者の認証を行う個人認証部24をさらに備える。これによりキャリブレーション制御部21は、個人認証部24に認証された対象者ごとのキャリブレーションデータを用いて、視線方向検出装置1が出力する視線方向検出情報を対象者ごとにキャリブレーションを実行することができる。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明に係る表示制御装置は、対象者の視線方向検出情報についてのキャリブレーションを精度よくかつ速やかに行うことができるので、例えば、運転者の視線方向を利用して運転を支援する運転支援システムに好適である。
1 視線方向検出装置、2,2A キャリブレーション制御装置、3 表示部、3a,3a−1,3a−2,3b 表示画面、4,4b,4c,4d,4−1〜4−4 注視対象物、4a 縮小した注視対象物、5 スイッチ、10 赤外線LED、11 視線検出用カメラ、12 視線方向検出部、13 補正部、14 メモリ、20 視線状態判定部、21 キャリブレーション制御部、22 視線誘導部、23 表示制御部、24 個人認証部、200 対象物判定部、201 注視状態判定部、210 制御判定部、211 制御命令出力部、220 表示配置可変部、221 対象物表示可変部、230 表示状態管理部、231 表示出力部。

Claims (17)

  1. 表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて視線方向検出装置のキャリブレーションを制御する表示制御装置であって、
    前記視線方向検出装置が検出した視線方向検出情報と前記注視対象物の表示情報とに基づいて車両の乗員がその視線方向に存在する前記注視対象物を注視しているか否かを判定する視線状態判定部と、
    前記注視対象物の表示情報および前記注視対象物の表示態様にかかる画面制御情報を出力するものであって、前記車両の乗員が前記注視対象物を注視していると判定されたとき前記注視対象物の表示態様を変化させることにより前記車両の乗員の視線を誘導する視線誘導部と、
    前記視線誘導部が出力した前記画面制御情報に基づき前記表示部を制御する表示制御情報を出力する表示制御部と、
    前記車両の乗員が前記注視対象物を注視していると判定されたとき前記視線方向検出装置に向けてキャリブレーション制御信号を出力するキャリブレーション制御部とを備え、
    前記注視対象物は、前記表示部としてのインテリジェントパネルまたはカーナビゲーション装置の前記表示部が表示するアイコン、ボタン、あるいは前記表示部としてのヘッドアップディスプレイが表示するマーキングであり、
    前記視線誘導部は、前記車両の乗員が注視していると判定された第1の注視対象物とこれに引き続き注視されるべき第2の注視対象物とを前記表示部の異なる位置に配置させ、
    前記第2の注視対象物は、前記第1の注視対象物で選択された操作を決定する決定キーであること
    を特徴とする表示制御装置。
  2. 前記視線誘導部は、前記車両の乗員が注視していると判定された前記注視対象物を基準点に向かって縮小させること
    を特徴とする請求項1記載の表示制御装置。
  3. 前記視線誘導部は、前記第1および前記第2の注視対象物を前記表示部の表示画面の対角位置に配置させること
    を特徴とする請求項記載の表示制御装置。
  4. 前記視線誘導部は、前記第1の注視対象物を表示する第1の表示画面から前記第2の注視対象物を表示する第2の表示画面へ遷移した場合に、前記第1および前記第2の注視対象物を前記第1および前記第2の表示画面で互いに対角となる位置にそれぞれ配置させること
    を特徴とする請求項記載の表示制御装置。
  5. 前記視線誘導部は、前記車両の乗員が注視していると判定された前記注視対象物を前記表示部の表示画面の予め定められた方向へ移動させること
    を特徴とする請求項1記載の表示制御装置。
  6. 前記視線誘導部は、前記注視対象物を、前記表示部の表示画面の予め定められた位置へ移動させること
    を特徴とする請求項1記載の表示制御装置。
  7. 前記視線誘導部は、前記表示部の表示画面に予め定められた複数の基準点のうち視線方向検出情報のキャリブレーション精度が最も悪い基準点に前記注視対象物を優先的に移動させ、かつ縮小状態とすること
    を特徴とする請求項記載の表示制御装置。
  8. 前記車両の乗員の認証を行う個人認証部を備え、
    前記キャリブレーション制御部は、前記個人認証部に認証された前記車両の乗員の個人認識情報と共にキャリブレーション制御信号を出力すること
    を特徴とする請求項1記載の表示制御装置。
  9. 前記キャリブレーション制御部は、予め定めた条件に応じて前記キャリブレーション制御信号を出力すること
    を特徴とする請求項1記載の表示制御装置。
  10. 前記キャリブレーション制御部は、前記車両の乗員によるスイッチ操作を受け付けたとき前記キャリブレーション制御信号として少なくともキャリブレーションデータ保存開始命令、もしくは保存停止命令を出力すること
    を特徴とする請求項記載の表示制御装置。
  11. 前記キャリブレーション制御部は、前記車両の乗員が前記注視対象物を注視していると前記視線状態判定部が判定したとき前記キャリブレーション制御信号として少なくともキャリブレーションデータ保存開始命令を出力すること
    を特徴とする請求項記載の表示制御装置。
  12. 前記キャリブレーション制御部は、前記車両の乗員による注視状態が予め定めた時間を経過したとき前記キャリブレーション制御信号として少なくともキャリブレーションデータ保存停止命令を出力すること
    を特徴とする請求項記載の表示制御装置。
  13. 前記視線誘導部は、前記視線方向検出装置のキャリブレーション精度が予め定めた閾値を超えている場合は、前記視線の誘導を解除すること
    を特徴とする請求項1記載の表示制御装置。
  14. 表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて視線方向検出装置のキャリブレーションを制御する表示制御装置の制御方法であって、
    視線状態判定部が、前記視線方向検出装置が検出した視線方向検出情報と前記注視対象物の表示情報とに基づいて車両の乗員がその視線方向に存在する前記注視対象物を注視しているか否かを判定し、
    視線誘導部が、前記注視対象物の表示情報および前記注視対象物の表示態様にかかる画面制御情報を出力するとともに、前記車両の乗員が前記注視対象物を注視していると判定されたとき前記注視対象物の表示態様を変化させることにより前記車両の乗員の視線を誘導し、
    表示制御部が、前記視線誘導部が出力した前記画面制御情報に基づき前記表示部を制御する表示制御情報を出力し、
    キャリブレーション制御部が、前記車両の乗員が前記注視対象物を注視していると判定されたとき前記視線方向検出装置に向けてキャリブレーション制御信号を出力し、
    前記注視対象物は、前記表示部としてのインテリジェントパネルまたはカーナビゲーション装置の前記表示部が表示するアイコン、ボタン、あるいは前記表示部としてのヘッドアップディスプレイが表示するマーキングであり、
    前記視線誘導部は、前記車両の乗員が注視していると判定された第1の注視対象物とこれに引き続き注視されるべき第2の注視対象物とを前記表示部の異なる位置に配置させ、
    前記第2の注視対象物は、前記第1の注視対象物で選択された操作を決定する決定キーであること
    を特徴とする表示制御装置の制御方法。
  15. 車両の乗員の視線方向を検出する視線方向検出装置と、表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて前記視線方向検出装置のキャリブレーションを制御する表示制御装置と、前記表示制御装置からの表示制御情報に基づき表示を行う表示部とを備える視線方向検出システムであって、
    前記表示制御装置は、
    前記表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて前記視線方向検出装置のキャリブレーションを制御する前記表示制御装置であって、
    前記視線方向検出装置が検出した視線方向検出情報と前記注視対象物の表示情報とに基づいて前記車両の乗員がその視線方向に存在する前記注視対象物を注視しているか否かを判定する視線状態判定部と、
    前記注視対象物の表示情報および前記注視対象物の表示態様にかかる画面制御情報を出力するものであって、前記車両の乗員が前記注視対象物を注視していると判定されたとき前記注視対象物の表示態様を変化させることにより前記車両の乗員の視線を誘導する視線誘導部と、
    前記視線誘導部が出力した前記画面制御情報に基づき前記表示部を制御する表示制御情報を出力する表示制御部と、
    前記車両の乗員が前記注視対象物を注視していると判定されたとき前記視線方向検出装置に向けてキャリブレーション制御信号を出力するキャリブレーション制御部とを備え、
    前記注視対象物は、前記表示部としてのインテリジェントパネルまたはカーナビゲーション装置の前記表示部が表示するアイコン、ボタン、あるいは前記表示部としてのヘッドアップディスプレイが表示するマーキングであり、
    前記視線誘導部は、前記車両の乗員が注視していると判定された第1の注視対象物とこれに引き続き注視されるべき第2の注視対象物とを前記表示部の異なる位置に配置させ、
    前記第2の注視対象物は、前記第1の注視対象物で選択された操作を決定する決定キーであり、
    前記視線方向検出装置は、
    前記車両の乗員の視線方向検出情報を検出する視線方向検出部と、
    前記表示制御装置が出力するキャリブレーション制御信号に従って、前記視線方向検出部が検出した視線検出方向情報と前記表示制御装置から得た前記注視対象物の表示情報とに基づきキャリブレーションデータを算出するキャリブレーション部と、
    前記キャリブレーションデータを記憶する記憶部と
    を備える視線方向検出システム。
  16. 前記視線方向検出装置のキャリブレーション部は、前記車両の乗員の個人認識情報とともに前記キャリブレーション制御信号を出力すること
    を特徴とする請求項15記載の視線方向検出システム。
  17. 車両の乗員の視線方向を検出する視線方向検出装置と、表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて視線方向検出装置のキャリブレーションを制御する表示制御装置と、表示制御装置からの表示制御情報に基づき表示を行う表示部とを備える視線方向検出システムのキャリブレーション制御方法であって、
    前記表示部が表示する表示物を注視対象物とし、この注視対象物に基づいて視線方向検出装置のキャリブレーションを制御する方法であって、
    視線状態判定部が、前記視線方向検出装置が検出した視線方向検出情報と前記注視対象物の表示情報とに基づいて前記車両の乗員がその視線方向に存在する前記注視対象物を注視しているか否かを判定し、
    視線誘導部が、前記注視対象物の表示情報および前記注視対象物の表示態様にかかる画面制御情報を出力するとともに、前記車両の乗員が前記注視対象物を注視していると判定されたとき前記注視対象物の表示態様を変化させることにより前記車両の乗員の視線を誘導し、
    表示制御部が、前記視線誘導部が出力した前記画面制御情報に基づき前記表示部を制御する表示制御情報を出力し、
    キャリブレーション制御部が、前記車両の乗員が前記注視対象物を注視していると判定されたとき前記視線方向検出装置に向けてキャリブレーション制御信号を出力し、
    視線方向検出部が前記車両の乗員の視線方向検出情報を検出し、
    キャリブレーション部が、前記表示制御装置が出力するキャリブレーション制御信号に従って、前記視線方向検出部が検出した視線検出方向情報と前記表示制御装置から得た前記注視対象物の表示情報とに基づきキャリブレーションデータを算出し、
    記憶部が前記キャリブレーションデータを記憶し、
    前記注視対象物は、前記表示部としてのインテリジェントパネルまたはカーナビゲーション装置の前記表示部が表示するアイコン、ボタン、あるいは前記表示部としてのヘッドアップディスプレイが表示するマーキングであり、
    前記視線誘導部は、前記車両の乗員が注視していると判定された第1の注視対象物とこれに引き続き注視されるべき第2の注視対象物とを前記表示部の異なる位置に配置させ、
    前記第2の注視対象物は、前記第1の注視対象物で選択された操作を決定する決定キーであること
    を特徴とする視線方向検出システムのキャリブレーション制御方法。
JP2016503828A 2014-02-19 2014-02-19 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法 Expired - Fee Related JP6214752B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/053929 WO2015125243A1 (ja) 2014-02-19 2014-02-19 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法

Publications (2)

Publication Number Publication Date
JPWO2015125243A1 JPWO2015125243A1 (ja) 2017-03-30
JP6214752B2 true JP6214752B2 (ja) 2017-10-18

Family

ID=53877778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016503828A Expired - Fee Related JP6214752B2 (ja) 2014-02-19 2014-02-19 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法

Country Status (5)

Country Link
US (1) US9785235B2 (ja)
JP (1) JP6214752B2 (ja)
CN (1) CN106028913B (ja)
DE (1) DE112014006382B4 (ja)
WO (1) WO2015125243A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US20150310758A1 (en) * 2014-04-26 2015-10-29 The Travelers Indemnity Company Systems, methods, and apparatus for generating customized virtual reality experiences
KR101662636B1 (ko) * 2014-07-14 2016-10-07 엔에이치엔엔터테인먼트 주식회사 영상 몰입 유도 장치 및 이를 이용한 영상 몰입 유도 방법
GB2528446B (en) * 2014-07-21 2021-08-04 Tobii Tech Ab Method and apparatus for detecting and following an eye and/or the gaze direction thereof
CN107111355B (zh) * 2014-11-03 2021-03-12 宝马股份公司 用于校准眼睛跟踪系统的方法和系统
US10303247B2 (en) * 2015-01-16 2019-05-28 Hewlett-Packard Development Company, L.P. User gaze detection
CN107407977B (zh) * 2015-03-05 2020-12-08 索尼公司 信息处理设备、控制方法及程序
JP2017004117A (ja) * 2015-06-05 2017-01-05 富士通テン株式会社 視線検出装置および視線検出方法
JP6553418B2 (ja) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 表示制御方法、表示制御装置及び制御プログラム
JP2017097759A (ja) * 2015-11-27 2017-06-01 株式会社デンソー 視線方向検出装置、及び視線方向検出システム
JP6450305B2 (ja) * 2015-12-01 2019-01-09 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
JP2017129898A (ja) * 2016-01-18 2017-07-27 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017134558A (ja) * 2016-01-27 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
JP6313355B2 (ja) * 2016-03-31 2018-04-18 株式会社Subaru 車両周囲監視装置
EP3242228A1 (en) * 2016-05-02 2017-11-08 Artag SARL Managing the display of assets in augmented reality mode
DE102016210288A1 (de) * 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
JP2018097398A (ja) * 2016-12-07 2018-06-21 トヨタ自動車株式会社 視線推定システム
US10452138B1 (en) * 2017-01-30 2019-10-22 Facebook Technologies, Llc Scanning retinal imaging system for characterization of eye trackers
US10761602B1 (en) 2017-03-14 2020-09-01 Facebook Technologies, Llc Full field retinal imaging system for characterization of eye trackers
JP2018163558A (ja) * 2017-03-27 2018-10-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10304209B2 (en) * 2017-04-19 2019-05-28 The Nielsen Company (Us), Llc Methods and systems to increase accuracy of eye tracking
CN107742512B (zh) * 2017-11-07 2020-09-01 北京京东方光电科技有限公司 一种显示驱动电路、其驱动方法及显示装置
DE102018127756A1 (de) * 2017-11-15 2019-05-16 Omron Corporation Fahrerüberwachungsvorrichtung, verfahren und programm
CN111527374B (zh) * 2018-01-05 2021-10-22 三菱电机株式会社 视线方向校正装置、视线方向校正方法及视线方向校正程序
US10884492B2 (en) * 2018-07-20 2021-01-05 Avegant Corp. Relative position based eye-tracking system
JP7219041B2 (ja) * 2018-10-05 2023-02-07 現代自動車株式会社 注視検出装置及びその輻輳制御方法
JP2020071773A (ja) * 2018-11-01 2020-05-07 アイシン精機株式会社 視線検出装置
DE102019004692B3 (de) * 2019-07-03 2020-11-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung von Bilddaten der Augen, von Augenpositionen und/oder einer Blickrichtung eines Fahrzeugnutzers in einem Fahrzeug
SE1950971A1 (en) * 2019-08-23 2021-02-24 Your Speech Factory Ab Electronic device and method for conducting a users gaze direction
WO2021148125A1 (en) * 2020-01-23 2021-07-29 Volvo Truck Corporation A method for adapting to a driver position an image displayed on a monitor in a vehicle cab
US11740465B2 (en) * 2020-03-27 2023-08-29 Apple Inc. Optical systems with authentication and privacy capabilities
GB202009876D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
GB202009874D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
JP7367637B2 (ja) * 2020-08-26 2023-10-24 トヨタ自動車株式会社 顔情報取得装置および顔情報取得方法
JP7322862B2 (ja) * 2020-11-04 2023-08-08 トヨタ自動車株式会社 車外情報表示制御装置、車外情報表示制御方法及びプログラム
JP2022103717A (ja) * 2020-12-28 2022-07-08 株式会社Subaru 視線キャリブレーションシステム
CN114938418A (zh) * 2021-02-04 2022-08-23 佳能株式会社 具有视线检测功能的取景器单元、摄像设备和附接配件
US11886634B2 (en) * 2021-03-19 2024-01-30 Nvidia Corporation Personalized calibration functions for user gaze detection in autonomous driving applications
US20230055268A1 (en) * 2021-08-18 2023-02-23 Meta Platforms Technologies, Llc Binary-encoded illumination for corneal glint detection
US20230176377A1 (en) 2021-12-06 2023-06-08 Facebook Technologies, Llc Directional illuminator and display apparatus with switchable diffuser
US12002290B2 (en) * 2022-02-25 2024-06-04 Eyetech Digital Systems, Inc. Systems and methods for hybrid edge/cloud processing of eye-tracking image data
US11733531B1 (en) * 2022-03-16 2023-08-22 GM Global Technology Operations LLC Active heads up display system
US11912429B2 (en) * 2022-04-05 2024-02-27 Gulfstream Aerospace Corporation System and methodology to provide an augmented view of an environment below an obstructing structure of an aircraft
DE102023100331B3 (de) 2023-01-09 2024-04-18 Audi Aktiengesellschaft Anzeigesystem und Verfahren zum Darstellen eines Anzeigeinhalts

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3304408B2 (ja) 1992-07-16 2002-07-22 キヤノン株式会社 視線検出装置および視線検出装置を有する機器
DE69333674T2 (de) * 1992-06-02 2006-02-02 Canon K.K. Optisches Gerät zur Rotationsdetektion eines Augapfels eines Beobachters
JP3785669B2 (ja) 1996-03-05 2006-06-14 日産自動車株式会社 視線方向計測装置
JP3654625B2 (ja) 2000-01-31 2005-06-02 株式会社モリタ製作所 眼球運動検査装置
JP2006044596A (ja) * 2004-08-09 2006-02-16 Denso Corp 車両用表示装置
JP4497305B2 (ja) * 2004-12-08 2010-07-07 株式会社デンソー 運転者状態判定装置
JP4649319B2 (ja) * 2005-11-21 2011-03-09 日本電信電話株式会社 視線検出装置、視線検出方法、および視線検出プログラム
JP5092776B2 (ja) 2008-02-06 2012-12-05 株式会社デンソー 視線方向検出装置及び視線方向検出方法
JP5109750B2 (ja) 2008-03-26 2012-12-26 トヨタ自動車株式会社 運転者状態検出装置、意識状態検出方法
JP2010030361A (ja) 2008-07-25 2010-02-12 Toyota Motor Corp 運転状態監視装置
JP4710935B2 (ja) 2008-08-06 2011-06-29 セイコーエプソン株式会社 電気光学装置及び電子機器
WO2010071928A1 (en) * 2008-12-22 2010-07-01 Seeing Machines Limited Automatic calibration of a gaze direction algorithm from user behaviour
JP5664064B2 (ja) * 2010-09-22 2015-02-04 富士通株式会社 視線検出装置および補正係数算出プログラム
JP2013255781A (ja) * 2012-05-16 2013-12-26 Taika:Kk 視線検出ユニットとディスプレイ用ポインティングデバイスのための注視点の調整方法

Also Published As

Publication number Publication date
DE112014006382B4 (de) 2019-01-17
DE112014006382T5 (de) 2016-11-24
CN106028913B (zh) 2018-03-30
CN106028913A (zh) 2016-10-12
US9785235B2 (en) 2017-10-10
WO2015125243A1 (ja) 2015-08-27
JPWO2015125243A1 (ja) 2017-03-30
US20160342205A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6214752B2 (ja) 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法
JP5992130B2 (ja) 自動調整装置、自動調整システムおよび自動調整方法
US9753535B2 (en) Visual line input apparatus
KR101071777B1 (ko) 차재 기기의 조작장치
US8106783B2 (en) Input apparatus, remote controller and operating device for vehicle
US20160132126A1 (en) System for information transmission in a motor vehicle
RU2617621C2 (ru) Способ и устройство для отображения кисти руки оператора элемента управления транспортного средства
JP2007045169A (ja) 車両用情報処理装置
GB2501575A (en) Interacting with vehicle controls through gesture recognition
JP5092776B2 (ja) 視線方向検出装置及び視線方向検出方法
US20160107574A1 (en) Control unit for a motor vehicle having a camera for the driver's face, and method for imaging the face of a vehicle occupant
WO2015146037A1 (ja) 車両用表示入力装置
JP2009227246A (ja) 車両用操作入力装置
JP6176070B2 (ja) 視線方向検知装置
JP2014149640A (ja) ジェスチャ操作装置及びジェスチャ操作プログラム
JP2018055264A (ja) ジェスチャ検出装置
JP2008249648A (ja) 車載機器の誤操作防止装置および誤操作防止方法
JP5136948B2 (ja) 車両用操作装置
JP6565305B2 (ja) 車両の安全運転促進方法及び車両の安全運転促進装置
JP2006327526A (ja) 車載機器の操作装置
KR101704065B1 (ko) 차량 인터랙션 시스템
US20200218347A1 (en) Control system, vehicle and method for controlling multiple facilities
JP6390380B2 (ja) 表示操作装置
CN114954486A (zh) 车辆的乘员监视装置
JPH05270296A (ja) 車両用操作装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R150 Certificate of patent or registration of utility model

Ref document number: 6214752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees