JP6911841B2 - 画像処理装置及び画像処理方法、並びに移動体 - Google Patents

画像処理装置及び画像処理方法、並びに移動体 Download PDF

Info

Publication number
JP6911841B2
JP6911841B2 JP2018516341A JP2018516341A JP6911841B2 JP 6911841 B2 JP6911841 B2 JP 6911841B2 JP 2018516341 A JP2018516341 A JP 2018516341A JP 2018516341 A JP2018516341 A JP 2018516341A JP 6911841 B2 JP6911841 B2 JP 6911841B2
Authority
JP
Japan
Prior art keywords
driver
image
unit
vehicle
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018516341A
Other languages
English (en)
Other versions
JPWO2017195405A1 (ja
Inventor
英史 大場
英史 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017195405A1 publication Critical patent/JPWO2017195405A1/ja
Priority to JP2021109603A priority Critical patent/JP7226479B2/ja
Application granted granted Critical
Publication of JP6911841B2 publication Critical patent/JP6911841B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means

Description

本明細書で開示する技術は、主に車載カメラで撮像した画像を処理する画像処理装置及び画像処理方法、並びに移動体に係り、特に、車載カメラで撮像した運転者の画像を処理する画像処理装置及び画像処理方法、並びに移動体に関する。
車内カメラを用いて運転者の状態を把握するシステムが知られている。例えば、頭部姿勢やまばたきなどの運転者の状態をカメラでとらえ、運転者の状態認識をして居眠りや疲労を早期に検出して、運転者に休憩を施すなどして無理な運転を予防するシステムが検討され、一部では既に製品化されている(例えば、特許文献1、2を参照のこと)。
また、運転者のアクセルやブレーキ・ペダルやステアリングの操作推移を時系列的に継続解析してその動作安定性の変化を観測し、運転者の運転注意度を推定して判別する安全予防装置なども研究されている。
今後、先進安全運転システム(ADAS)のさらなる普及が進むと、走行中に一定条件を満たせば運転者の介在が無くても車両は走行を維持できる割合が増し、さらには自律走行する車両の割合が徐々に増加し、運転者が車両走行に一切の操舵に拘わらなくて済むようになると予想される。また、運転者が介在不要となる専用走行レーンやレーン区間などが社会インフラ的に導入されると、その区間で走行中の車両では運転者が意識的に前方注意運転の操舵ループから分離し、走行車両周辺の認知シーケンスが滞ることが発生し、その認知欠落走行時間も増加することになる。すなわち、部分又は完全自動運転の導入により、運転者は常に高い注意度で前方へ視線を向けて運転する必要性が減ると、運転者は、運転行動から一時的又は長期間にまたがり注意緊張状態から解放される。
上記のような事象が多くなると、車両走行中の運転者が運転の注意ループから離れてしまうことが考えられる。例えば、運転者が、車両走行中であるにも拘らず、前方や周囲認知とはまったく異なることを考えたり、極端な場合では寝たり、前方認知する搭乗姿勢から掛け離れた姿勢で同乗者と会話したり、スマートフォンを操作したりする。運転者が一旦運転の注意ループから離れた際に、前方事故などの予想外の事態が発生して緊急に操舵ループに復帰するには、運転者の瞬時の意識回復と周辺状況把握が不可欠となる。
要約すると、部分又は完全自動運転の導入により、運転者が運転行動から一時的又は長期間にまたがり注意緊張状態から解放されるが、逆に、本来であれば自動運転に頼れない運転区間の運転時でも、運転者は慣れから走行時に注意低下を伴う運転行動をとりがちである。
完全自動運転を目指して部分自動運転が普及する段階では、高い注意状態の運転ループから分断した運転行動が頻発することが懸念される。現行の法規制では、運転者を車両制御から切り離すことを制度上許容していないので、自動運転からの復帰時における運転行動はこれまで問題とならなかった。今後の制度見直しにより、運転者が運転に介在しない運転行動が普及し始めると、運転行動への復帰時における注意低下が問題視されることが予想される。
出発してから目的地で完全に停車するまでの完全な自動運転が可能な技術が確立しない限り、運転終了までの間に運転者が自動運転から手動運転に移行する可能性が残る。運転者は、手動運転に移行する際に、周囲環境を認知又は理解して、車両の運転・操舵を引き継ぐ必要がある。寝ぼけまなこの状態や夢見の精神状態など、運転者が周辺環境や運転状況の認知又は理解が低下している状態で自動運転から手動運転に引き継ぐと、不完全な操舵に移行して、重大な事故を誘発するリスクを伴う。
このため、運転者が自動運転の緊急時対応として手動運転に復帰する際に、周囲環境を認知把握する精神的意識レベルの回復状態を、自動運転制御を行なう運転補助システム側で確認する必要がある。
車内カメラを用いて運転者の状態を把握する既存のシステムは、基本的に定姿勢の運転者を観測することを前提としている。ところが、運転者は、運転に集中している状態では定姿勢であるが、注意緊張状態から解放されると姿勢や頭部が広範囲で移動するフリースタイルとなる。このため、既存のシステムは、注意緊張状態から解放された運転者を観測するのにも適しているとは言い難く、運転者の手動運転能力を高い精度で判定するのは困難であると思料される。
特開2010−262478号公報 特開2015−127937号公報 特開2015−226766号公報
本明細書で開示する技術の目的は、車載カメラで撮像した運転者の画像を好適に処理することができる、優れた画像処理装置及び画像処理方法、並びに移動体を提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
車両の運転者の画像を第1のフレームレートで取得する第1の画像取得部と、
前記画像のうち前記運転者の眼を含む領域を決定する領域決定部と、
前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得部と、
を具備する画像処理装置である。
本明細書で開示する技術の第2の側面によれば、第1の側面に係る画像処理装置は、前記第2のフレームレートで取得する前記領域を画像処理して、前記運転者の意識レベルを認識又は判別する処理部をさらに備えている。
本明細書で開示する技術の第3の側面によれば、第2の側面に係る画像処理装置は、前記処理部により認識又は判別された前記運転者の意識レベルに応じて、前記車両の運転モードの切り替えを制御する制御部をさらに備えている。
本明細書で開示する技術の第4の側面によれば、第3の側面に係る画像処理装置の前記制御部は、前記運転者の意識レベルが所定以下であれば、前記車両の自動運転から手動運転への切り替えを制限又は禁止するように構成されている。
本明細書で開示する技術の第5の側面によれば、第2の側面に係る画像処理装置は、前記運転者の意識レベルが所定以下のときに警告を行なう警告部をさらに備えている。
本明細書で開示する技術の第6の側面によれば、第1の側面に係る画像処理装置の前記領域決定部は、前記運転者の頭部又は上半身の回転又は移動に応じて前記領域の位置を補正するように構成されている。
本明細書で開示する技術の第7の側面によれば、第2の側面に係る画像処理装置の前記処理部は、前記領域内の画像に基づいて、前記運転者の眼球運動をトラッキングした結果に基づいて、前記運転者の意識レベルを認識又は判別するように構成されている。
本明細書で開示する技術の第8の側面によれば、第2の側面に係る画像処理装置の前記処理部は、前記運転者の眼球のサッケード、ドリフト、マイクロサッケード、又はトレモアのうち少なくとも1つの動作をトラッキングするように構成されている。
本明細書で開示する技術の第9の側面によれば、第7の側面に係る画像処理装置の前記処理部は、前記運転者の眼球運動とサリエンシーマップとの比較結果に基づいて前記運転者の意識レベルを認識又は判別するように構成されている。
本明細書で開示する技術の第10の側面によれば、第9の側面に係る画像処理装置は、前記運転者の状態又は前記車両の走行状況に応じたサリエンシーマップを生成するサリエンシーマップ生成部をさらに備えている。そして、前記処理部は、前記サリエンシーマップ生成部が生成した前記サリエンシーマップを用いて前記運転者の意識レベルを認識又は判別するように構成されている。
本明細書で開示する技術の第11の側面によれば、第10の側面に係る画像処理装置の前記サリエンシーマップ生成部は、前記車両の周辺で検出される障害物の情報に基づいて前記サリエンシーマップを生成するように構成されている。
本明細書で開示する技術の第12の側面によれば、第11の側面に係る画像処理装置は、仮想的な障害物を擬似的にヘッド・アップ・ディスプレイに表示する表示部をさらに備えている。そして、前記サリエンシーマップ生成部は、前記表示部が表示する仮想的な障害物の情報をさらに加えて前記サリエンシーマップを生成するように構成されている。
本明細書で開示する技術の第13の側面によれば、第7の側面に係る画像処理装置は、前記運転者の眼球運動の個人特性を学習する学習部をさらに備えている。
本明細書で開示する技術の第14の側面によれば、第7の側面に係る画像処理装置の前記処理部は、前記個人特性を適用して、前記運転者の意識レベルを認識又は判別するように構成されている。
本明細書で開示する技術の第15の側面によれば、第7の側面に係る画像処理装置の前記処理部は、前記運転者の利き目を判定して、前記領域に含まれる少なくともき目の画像に基づいて、前記運転者の意識レベルを認識又は判別するように構成されている。
また、本明細書で開示する技術の第16の側面は、
車両の運転者の画像を第1のフレームレートで取得する第1の画像取得ステップと、
前記画像のうち前記運転者の眼を含む領域を決定する領域決定ステップと、
前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得ステップと、
を有する画像処理方法である。
また、本明細書で開示する技術の第17の側面は、
運転者を撮像する撮像部と、
前記運転者を撮像する画像を第1のフレームレートで取得する第1の画像取得部と、
前記画像のうち前記運転者の眼を含む領域を決定する領域決定部と、
前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得部と、
前記第2のフレームレートで取得する前記領域を画像処理して、前記運転者の意識レベルを認識又は判別する処理部と、
前記処理部により認識又は判別された前記運転者の意識レベルに応じて、運転モードの切り替えを制御する制御部と、
を具備する移動体である。本明細書で開示する技術の第18の側面によれば、前記撮像部は、第1半導体基板、第2半導体基板、第3半導体基板からなる3枚の半導体基板を積層して構成されている。そして、前記第1半導体基板には、画素が形成され、前記第2半導体基板には、前記画像を記憶する記憶部が形成され、前記第3半導体基板には、前記第1の画像取得部、前記第2の画像取得部、前記領域決定部、前記処理部、前記制御部のうち少なくとも1つが形成されている。
本明細書で開示する技術によれば、車載カメラで撮像した運転者の画像を好適に処理することができる、優れた画像処理装置及び画像処理方法、並びに移動体を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用した車載カメラ100による撮像動作を説明するための図である。 図2は、取り込み枠の部分が像を選択的に高速よく出し処理する構成例を示した図である。 図3は、高速読み出しを実現するIC−IC間のインターフェース配線図の一例を示した図である。 図4は、画素領域と信号処理回路領域を積層した積層イメージ・センサーの構成例を示した図である。 図5は、画素領域とメモリー領域と信号処理回路領域を積層した積層イメージ・センサーの構成例を示した図である。 図6は、車載カメラの撮像画像に基づいて運転者が対象物を認知する意識レベルを取得するための処理手順を示したフローチャートである。 図7は、車載カメラの撮像画像に基づいて運転者が対象物を認知する意識レベルを取得する画像処理装置700の機能的構成を模式的に示した図である。 図8Aは、運転者の眼球のトラッキングと運転者の意識レベルの認識を行なうための処理手順(前半)を示したフローチャートである。 図8Bは、運転者の眼球のトラッキングと運転者の意識レベルの認識を行なうための処理手順(後半)を示したフローチャートである。 図9は、高フレームレートで眼球のサッケード動作のトラッキングを行なうための処理手順を示したフローチャートである。 図10Aは、運転者の振る舞いと同時並行して実施される各処理(前半)をまとめた図である。 図10Bは、運転者の振る舞いと同時並行して実施される各処理(後半)をまとめた図である。 図11は、車両が前方へ定常走行中に、進行道路周辺にいる歩行者を運転者が視認する際の動作を説明するための図である。 図12は、人の視野の構成を模式的に示した図である。 図13は静止した状態で見たときの中心視野と周辺視野の認知視覚情報を例示した図である。 図14は、中心視野にない物を見るシーケンスを説明するための図である。 図15は、車両が定常走行時の運転者の視線(眼球)及び頭部の動作を例示した図である。 図16は、車両の定常走行時において、運転者が中心視野にない物を見るシーケンスを例示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
車両が部分自動運転又は完全自動運転などの運転モードの際に、緊急時対応として、運転者が介在する手動運転に復帰しなければならない場合がある。その際、車両の自動運転制御を司る制御システム側では、運転者の環境認知把握の精神的意識レベルの回復状態を確認してから手動運転に復帰させるべきである。したがって、運転者の精神的意識レベルの確認方法が重要である。
例えば、ボクシングの試合のレフリーがダウンした選手にするように、運転者の手を握って運転者による握り返しの反応を確認したり、運転者の目線の安定性や返事の受け答えを観察したりすることで、運転者の意識回復状態を正確に判断することができ、理想的である。しかしながら、本出願時の技術水準では、このようなインタラクティブな確認方法を実現することは困難である。
運転者に対する能動的な入力に対する運転者の応答をモニタリングして意識状態を判定する方法によれば、疑似的にボクシングのレフリーと同等の運転者の意識状態の確認を行なうことができる。
しかしながら、走行中の車両の運転者の脳波を、非接触な方法で測定する安価な装置を開発することは、本出願時の技術水準では困難である。また、脳電図(Electroencephalogram:EEG)で調べる脳波や、MRI(Magnetic Resonanse Imaging)などで調べる脳磁図(Magnetoencephalogram:MEG)を得るには、大掛かりな装置が必要であり、医学的学術用途で用いることはできても、一般の人が日常生活の上で利用できるものではない。要するに、運転者の判断能力を瞬時に確認するのに脳波を測定する方法は現実的ではない。
そこで、本明細書では、運転者の視線の意図的に周囲環境を把握しようとする行動をモニタリングすることで、運転者の意思判別能力を比較的手軽で且つ有効に判断して、運転者の周囲環境を認知把握する精神的意識レベルの回復状態を時々刻々直接読み解く技術について、以下で開示する。
まず、人の目の動きの特徴について考察する。
人が対象物を認知判断する際の通常の動作として、周辺視野でぼやけて存在している対象物を見たいという意識上の欲求が発生すると、眼球、頭部、姿勢の順に動かして、必要に応じて対象物が中心視野に入るようにする。具体的には、眼球動作は、まず中心視野周辺では単独回転で対象物を捉えて眼球回転のみで中心視野に対象物が見えるようにする。対象物が眼球回転のみでは捕捉できない範囲の方角にある場合には、さらに頭部や姿勢移動の動きに先行して眼球回転で対象物を追い、その後、頭部と姿勢の回転と続く。
このとき、体や頭部に比べて眼球の回転慣性力が極めて小さいという人体的(アナトミカル)特徴により、いち早く眼球を注意方角に向けることができ、追って頭部などが回る。したがって、物を見る際の眼球の運動は、注意方角の方向を一度素早く回転して、それに続く頭部の回転を打ち消すように、頭部に対して逆回転を行なう。
一方、視線が同じ場所にとどまっているように見える間も、眼球はサッケード(Saccade)動作やマイクロサッケード(Micro Saccade)動作と呼ばれる俊敏で小刻みに回転する眼球運動を行なうように進化してきた。
サッケード動作やマイクロサッケード動作は、人が覚醒時特有で行なう俊敏な衝動性の眼球運動である。具体的には、カクカクカクとした飛び飛びの回転加速と一方向を向いたら停止の小刻みの動きからなる俊敏で細かな眼球運動である。この種の眼球運動を行なう理由の1つとして、常に回転を連続し続けるよりは、一定方向に静止して見た方が画像の流れを抑える方が、同一の桿体細胞や錐体細胞で一定期間だけ同じ投影画像を取得して視覚的事象を捉え易くなる、ということが挙げられる。また、他の理由として、一定以上同じ明るさに晒され続けると今度は視覚受光感度が低下して対象を取れ得られなくなることが挙げられ、対象を捉え終わった後でも頭部回転の打消しを行なった後でも目的とした視線方向周辺でマイクロサッケード動作を繰り返し行なう。
さらに、この飛び飛びの眼鏡動作の間に眼球が一時停止する際に眼底に投影される実世界空間の像と、人が脳内で認知する像は、必ずしも絶対位置として認知するのではない。仮に眼球のサッケード回転運動で見る対象物との方角ずれがある状態でも、眼から脳への伝達が行なわれる間に、網膜で捉えた投影光学像は一次視覚野,視野連合野、高次連合野へと引き継がれ、最後の高次連合野と人の記憶などとの参照で対象物の知能的認知が行なわれる。
網膜に投影された実世界空間の絶対座標と、脳内で認知される認知座標が時々刻々と認知作業の中で補正される。この認知補正は、人の意識の中で起きている事象のために、直接観測することはできない。この仮説が正しいことは、以下で裏付けされる。例えば、視線を軸に頭部を回転させた際、眼球はその回転を打ち消す飛び飛びの回転運動を無意識のうちに行なうが、上斜筋や下斜筋が連続して回転できる眼球の回転量はわずかである。さらに、追従が可能な回転量を超えると、眼球の回転を駆動する上斜筋や下斜筋のストレスを解放するために、高速なサッケード動作で元の無回転状態に戻し、改めて頭部回転の打消しを繰り返すが、その際に人は世界空間の認知外界が回転した意識は感じない。つまり、眼球の座標から見た実世界空間の網膜投影画像が飛び飛びの回転をしても、知覚意識上ではこのような高速復元回転は認知されない。
つまり、眼が見た(若しくは、網膜に投影された)実世界空間が一次視覚野から視野連合に伝達される過程で、眼球のサッケード動作やマイクロサッケード動作に伴う人体的な視線方向と実認知方向との際の補正が常に行なわれている結果、サッケード動作やマイクロサッケード動作の動的解析から視線と世界空間との相関をとらないと、必ずしも正確な意識状態の判別を行なうことができない。
上記のことから、通常のカメラを用いて例えば60fps程度の更新レートで眼球運動を捕捉してトラッキング運動を解析した際の精度では、運転者の意識レベルを素早く判断するには十分とは言えない。高精度の視線認識システムでも、理想的な環境で測定しても、その視線方角認識・検出精度はせいぜい0.5度程度とされている。一般に、計測による絶対的な物理的計測精度がこのように0.5度程度とされるのは、知覚絶対アドレスが網膜上に投影された知覚神経細胞上の絶対投影位置が常に一致している仮定によるためであり、実際の認知アドレスは知覚野などで補間補正されているために物理的方角と認知方角のズレが起因して誤差が発生すると考えられる。
眼球のサッケード動作やマイクロサッケード動作を常に高速でトラッキングし、且つ、運転者の姿勢にとらわれないフリースタイルの状態でモニタリングすることができれば、運転者が世界空間を認識し対象物を認知する意識レベルをある程度高い精度で取得することが可能となる。
続いて、人の視覚野眼球運動について考察しておく。
人の視覚が環境の周辺状況を詳細に認知する仕組みは、単に視線を詳細に知覚したい特定の対象物の方向に向けて、高精細に見ることができる中心視野の方向を絶対空間座標で正確に捉える、ということで実現する訳ではない。
眼球は、目的とする対象物を詳細に知覚するために一気に回転し、又は、対象物が中心視野から離れている場合には、狭い眼球回転の範囲を超えているために頭部回転で補うことになる。その際に、眼球のサッケード動作は、頭部動作に同調して眼球が回転するのではなく、回転で一気に目的とする方向を振り向き、頭部移動が伴った段階で中心視野の方向が目的とする対象物を捉え、眼球の人体構造的に無理のない段階で頭部の移動を相殺する形で、目的とする対象物に中心視野を合わせる動作となり、その後、高精細な情報を取得するための認知作業が開始される。
その際の眼球の回転移動は、頭部回転を一対一で完全に相殺するのではなく、小刻みな相殺回転からなるサッケード動作を繰り返し行ない、相殺する数段のステップの飛び飛びの急速な眼鏡の方向追尾で構成される。その都度の眼球回転に伴う実空間の網膜への虚像の映り込みは、投影面の絶対座標で認知されるのではなく、投影位置のずれを補正して、脳内で位置の解釈を無意識のうちに繰り返し実施している。そのため、一般に眼球の運動解析から得られる視線認識の向きは、さほど正確には求められないとされている。
しかし、この誤差の多くは物理工学的実空間の投影点の脳と認知座標が時々刻々補正させられていることに関係していることが原因である。また、対象物のどれだけの期間中心視野で見ることで認知が完結終了するかは、その人の同一条件の認知経験などさまざまな要因で決まり、さらにはその覚醒度とも大きく関わっている。
したがって、運転者が走行中に環境認識をしている際の眼球運動と実空間上に存在する物体の空間配置の方角情報の認知遅延を正確に解析することで、運転者の運転に対する覚醒復帰能力を高精度で早期に把握することが期待される。
特に、非常時を含めた完全自動運転が実現されない車両や、部分自動運転などの場合、緊急時には運転者への早期の制御引き渡しシーケンスが求められている。しかしながら、不完全な状況認識下の運転者に運転操作の引き渡しを行なうと、結果的に状況把握喪失を伴う運転の誤動作を完全に避けることができない。また、運転者が周辺状況の把握が不十分のままに操作判断が必要な状況で車両操舵権を引き渡されると、運転者の脳の判断能力を超えることになりパニック状態で結果的に正常な判断・行動のシーケンスが働かなくなる。一旦パニック状態に陥ると、思考・行動の余裕ができるまで、たとえ危険が迫った状態を視覚的に見えたとしても認知・判断行動を司る神経認知ネットワークが完全な渋滞状態となり行動全体が停滞してしまうことが知られている。
そこで、高速走行中の運転者の視線動作とサリエンシー(顕著性、Saliency)マップや障害物情報より得られる運転者の注意視線移動をしそうな視覚情報に対する連続トラッキングを継続的にモニタリングすることが可能であれば、その時々での運転者の有効な状態確認を実現することが可能となる。
図11に示すような、車両1101が前方へ定常走行中に、進行道路周辺にいる歩行者1102を運転者1103が視認する際の動作について考察する。
運転者1103が注意視点移動して見ている歩行者1102が、その運転者1103固有の視野角を外れると、頭部回転と眼球回転を併用して振り向き確認を総合的に行なう。人の視線移動で状況判断を行なうシーケンスは、視線移動で目的とする物体の特徴的内容を認知することで終了する。その物体が初めから中心視野にない場合は、対象物がありそうな方へ振り向き、必要があれば頭部回転と身体移動を伴って、その物体を網膜上の中心視野に移動させて、知覚野で判断に足りる情報量に達した時点で上記状況判断のシーケンスは終了する。このことは、一般の運転者と、職業上の自動車レースなどで俊敏な判断が求められる運転者と、の視線の動きの解析から伺うことができる。つまり、職業上の自動車レースなどで俊敏な判断が求められている運転者はサリエンシーマップ(Saliency Map)で視線の移動先での固視時間は極めて短く、且つ多くの対象物へ視線を高速に頻繁に見渡して的確な判断を常に行なっている結果、個別の対象物を固視する期間がない程度頻繁に視線移動を繰り返すが、固視して視線停留をしなくても判断に必要な知覚の閾値に達していると考えられる。経験から少ない刺激でも判断が付くことの表れである。
眼球のサッケード動作、頭部回転、身体回転及び移動の順で動きは低速である。また、眼球のサッケード動作でカバーできる範囲は限られている。
なお、脳科学的に見た認知においては、物理的な眼球の網膜上の対象物の中心視野投影を補間する形で、投影された実空間の2次元情報の厳密な位置に対する位置ずれや回転を脳神経上で移動補間して認知することで、実際の眼球の小刻みな回転を含むサッケード動作を意識上感じることがない。
従来の視線トラッキングの考えでは、眼球の正確な物理的方向を検知することが可能であれば、被観測者が視覚で捉える認知対象を、その物理的な測定精度で正確に把握できると考えられていた。
しかしながら、実際には、眼球が小刻みで非連続の飛び飛びに対象物の目視を行なっていても、認知神経が対象物の記憶配置から補間して解釈して3次元の外界解釈を行なうので、例えば頭部回転をしても我々が意識上感じる空間の画像は回転しない。また、頭部を高速な左右に回転してわずかながら水平回転する感覚はあるにしても、水平空間は水平のままである。
水平方向へ視線移動をした場合、眼球は、まず周辺視野で輝度や彩度位置や時間的変化の大きいところを目指して、その方角へサッケード移動して、対象物の方角が中心視野に入るように捉えようとする。その方角に目を向けている無理のない範囲であれば、そのまま眼球の回転移動のみに頼り、対象物の方角を捉えようと試みる。対象物が穏やかな眼球回転の範囲外にある場合は、眼球移動と同時に頭部回転も始め、必要に応じて身体の回転や移動も行なう。
頭部は、眼球単体に比べて重量があることから、急な回転は首に負担がかかり、スポーツ競技中など短期間の特殊な状況以外ではあまり行なわない。
(手動運転により)車両が通常の直線走行する際の運転者の視線移動の多くは、眼球回転による回転だけでまかなうことができる。このため、一般的に、運転者の状態認識には頭部の大きな動きを考慮したトラッキング装置は必ずしも必要ない。
ところが、自動運転が普及して運転者が必ずしも通常の姿勢で前方視線になっていない場合や、CMS(Camera Monitor System)の画面を観察する場合などは、頭部と眼球移動を広範囲に且つ連動してトラッキングしないと、瞬時の運転者意識状態の把握が困難となり、自動運転から手動運転への数秒乃至1秒以下での引継ぎ判断処理が困難である。
図12には、人の視野の構成を模式的に示している。図示のように、人の水平方向の最大視野角は約200度あり、正面方向の高分解能で見ることができる中心視野と、その左右の低い分解能で主に動きを検知する周辺視野からなる。また、図13には、観察者(運転者)が静止した状態で見たときの中心視野と周辺視野の認知視覚情報を例示している。固視する中心視野外の周辺に行くに従って、ぼけて見え、さらに彩度も周辺に行くほど鈍った状態で見える。
人(運転者)が中心視野にない物を見るシーケンスについて、図14を参照しながら考察する。このシーケンスでは、変化や意思によって特定方向へ中心視野を移動して状況把握を行なう。
中心視野にない物を見るシーケンスは、参照番号1401で示す迅速な眼球回転と、参照番号1402で示す眼球を追う頭部回転を含んでいる。頭部回転が対象物に追い付いているときには、眼球は、頭部回転を打ち消すために、頭部に対して相対的に逆回転を行なう。なお、振り向きの過程で、中心視野が対象物に近づき追い越しが発生すると、頭部回転に対する打ち消し、いわゆる代償性眼球運動(Compensatory Eye Movement)という視野安定のための回転に移行する。また、対象物が無限遠にない場合には、複眼の距離に応じたいわゆる輻輳眼球運動(Vergence Eye Movement)を並行して行なう。
車両が定常走行時の運転者の視線(眼球)及び頭部の動作について、図15を参照しながら説明する。同図中、参照番号1501は、前方すなわち車両1512の進行方向である。また、参照番号1502は、運転者1511の頭部の向きであり、車両の進行方向1501に対して頭部の水平回転角だけ回転している。また、参照番号1503は、運転者の視線の方向であり、頭部に対して視線の水平回転角だけさらに回転している。そして、視線1503の方角の±1.5度が中心視野となる。
車両の定常走行時において、運転者が中心視野にない物を見るシーケンスは、例えば、図16並びに以下に示す通りとなる。ここでは、図15に示すように、運転者の視線1503からさらに角度αだけ回転した周辺視野に、歩行者1513などの対象物が出現してきたときを想定する。
(0)定常の走行では、運転者は視線を前方へ向けて運転している。
(1)ここで、前方以外への注意誘発が発生したとする。例えば、障害物となり得る歩行者などが出現した場合、外界からの動視力に刺激される場合、交差点を曲がったりドア・ミラーを確認したりする運転手の意思に基づく視線移動が挙げられる。
(2)運転者は、確認したい対象物が中心視野に入るように眼球の回転を開始する。対象物の視野角が視線移動範囲外であれば、さらに頭部や人体姿勢の回転に及ぶ。
(3)その際に、負荷の低い順で、眼球回転、頭部回転、姿勢回転を起こすことで、対象物を中心視野に入れる行動をとる。
(4)眼球回転は、最も負荷が小さく、且つ、高速な動きができる部分でその動きは小刻みのサッケード動作で構成されることが知られている。
(5)運転者は、対象物の方向へ眼球の高速回転を始める。振り向き量が眼球回転では不十分、又は眼球の動作範囲に無理が掛かっている状態では、頭部回転や姿勢運動で補う頭部移動の途中で、眼球回転でカバーできる範囲内に対象物が入ってきたときには、中心視野で対象物を視覚的に捕捉する作業を開始する。そして、対象物の事象を理解するために、眼の焦点を合わせ、両眼注視(Vergence Eye Movement)を開始する。なお、対象物が中心視野からその外へ緩やかに移動しているような場合には、眼球は、瞬時の対象物の方向へ振り向き、途中で頭部の回転が追従することで十分な振り向きが確保されると、今度は頭部に対する回転を打ち消す方向へ逆回転、すなわち代償性眼球運動(Compensatory Eye Movement)を行なって、安定視線を探る。
(6)上記の一連の振り向き動作と脳内の認知作業は高速に並行して進む。認知作業は、眼球の向きが対象物に安定してから開始されるのではなく、眼球の小刻みのサッケード動作中も知覚的に微小衝動性眼球運動(Miniature Eye Movement)を補正解釈して状況認知が進む。
(7)つまり、外界観測者としての運転者は、対象物を中心視野の絶対的座標に投影された実世界空間の解釈を行なうのではなく、認知行動の中で、サッケード動作による眼球の微動回転の際に発生するずれを補正しながら認知して空間解釈を行なう。このため、眼球の物理的絶対方向の検出を行なっていても、観察者はその方角は必ずしも認知し、理解しているとは限らない。
(8)認知行動の意識としては、解剖学的な眼球の向きが認知の向きと同時刻的に完全に合致していることが推察される。その良い例が、目線を軸にして頭部を回転した際に、眼球がわずかに動く眼球回転により頭部回転を補う回転で緩やかな回転を打ち消しつつも、眼球回転の範囲を超えるとサッケード動作で眼球が回転するにも拘らず、認知上ではそれをまったく意識することなく、実空間は回転せず静止していると認知している、という我々の環境認知で裏付けられる。
(9)頭部移動の途中(回転をし終わる前に)、眼球回転でカバーできる範囲内の中心視野の向きが到達すると、観察者としての運転者は、中心視野に入った対象物を凝視又は固視して視覚的に捕捉を開始し、対象物の事象を理解するために目の焦点位置合わせ、視覚野へさらには連合視野へより多くの高精細な情報を含んだ情報伝達が行なわれ、記憶との概念の照合が進む。
例えば、立った子供を中心視野で捉えて詳細が見えるに従い、服の色や手を挙げていること、学生らしい服を羽織って笑顔でいること、さらには記憶がある人ならそれが誰であるかを認知して、これら知覚認知が順を追って、又は一部では並行して進む。
この間、サッケード動作で対象物を高速で追い、特に対象物が中心視野に入り始めると目の焦点合わせが並行して両眼注視が開始する。さらに、頭部姿勢が楽な位置になるまで頭部回転を進め、回転減速停止へと進む。ある程度、視認を意識した方角になれば、続いて眼球は方角近傍でマイクロサッケード動作を繰り返し、その間に認知が進む。
自動車運転の場合、運転者は、多くの車両周辺環境を把握しながら走行する行動の中で、視線を完全に特定の対象物に静止して凝視することはない。ある視線方向で見える対象物について運転操舵判断に必要な認知が必要なレベルに達すると、より優先度の高い対象物の把握のために次に認知をしたい別の方角へ、サッケード動作や頭部移動などが無意識若しくは意識下で開始される。
これら一連の眼球動作は、運転者の運転に影響し得る周辺環境の認知を優先する覚醒状態にあるかに関わる。眼球のサッケード動作の探索動作が実世界空間のサリエンシーマップの方角と連動して振り向いている場合は、運転者は運転に対する高い意識状態にあることが関連付けられる。サリエンシーマップは、対象物の視覚的特徴に起因して運転者の注意を惹く方角を機械演算的に解析して2次元分布マップ化したものである。
滞留静止した眼球の状態観測ではなく、サッケード動作のような時系列的に連続して絶え間なく起こる眼球運動を観測することにより、運転者の意識状態を判別することが可能である。部分又は完全自動運転中の運転者はフリースタイルの状態であり、頭部が広範囲で移動する中で、運転者の時系列的に連続して絶え間なく起こる眼球運動を継続して観測することができれば、運転者に電極や装着物を取り付けなくても、運転者の意識状態を時々刻々トラッキングすることが可能となる。
眼球のサッケード動作やマイクロサッケード動作を常に高速でトラッキングし、且つ、運転者の姿勢にとらわれないフリースタイルの状態でモニタリングすることができれば、運転者が世界空間を認識し対象物を認知する意識レベルをある程度高い精度で取得することが可能となる。
部分又は完全自動運転から手動運転に移行する際の運転者の意識状態の判定処理に適用する場合、運転者の姿勢や頭部が集中運転姿勢のときよりも広範囲で移動するフリースタイルの状態であることが想定される。より広範囲で高精度な運転者の意識状態のトラッキングを実現するためには、運転者の頭部位置を継続的に捕捉し、且つ、広い視野角の中でも眼球のサッケード動作をトラッキングする必要がある。
広範囲の運転者の視線トラッキングを実現するためには、カメラで検出した運転者の頭部を常に機械的に追いかける装置が考えられる。しかしながら、このような機械的なトラッキング装置の信頼性が極めて高くないと、車両のライフサイクルで修理やメンテナンスを繰り返し行なう必要がある。付言すれば、保安基準とし定められた事故時の乗員負傷要因にならないようにするための、その機械仕掛けによる負傷要因を低減する多くの回避対応が必要となる。
また、被験者の頭部に装着して眼球運動を測定する装置について提案がなされているが(例えば、特許文献3を参照のこと)、装着負荷が発生する。部分又は完全自動運転時であっても運転者は頭部に装置を着用し続けなければならず、煩わしく、且つ、自動運転であるにも拘らず十分な解放感を得られない。また、手動運転時に頭部に装置を装着すると、運転者にとって煩わしいだけでなく視界の妨げにもなる。
視線認識の技術は本出願以前にも多く提案されてきた。しかしながら、サッケード動作やマイクロサッケード動作では眼球が極めて高速に移動するため、停留眼球の検出とは異なる。俊敏なサッケード動作やマイクロサッケード動作を検出するには、高フレームレートのカメラで眼球運動を捕捉して眼球運動を解析しなければならない。例えば60fps程度のフレームレートでは、運転者の意識レベルを素早く判別するには十分とは言えない。ここで、高フレームレートのカメラを使用すると、データレートが高くなり、視線検出などを行なうセンサーから後段の信号処理プロセッサーに長い配線からなる伝送路を介してデータを転送すると、伝送損失に相当するエネルギー放射が発生し、多くの熱的・電磁放射的エネルギー損失を誘発するという問題が新たに浮上する。さらに、通常のイメージ・センサーの信号読み出し系統では、全画像を1つの読み出し経路から一定レートで吐き出すために、エネルギー損失が大きくなる。また、このようなエネルギー損失の対策が容易でないことから、より低周波での回路駆動が余儀なくされ、その結果、高性能の視線検出が困難になる。
そこで、本明細書では、機械的な追尾機能なしで、静的に設置(固定)された1台以上のカメラを用いて、運転者の姿勢や頭部を広視野角で捉えつつ、眼の位置の画像に関しては眼球のサッケード動作を高速に捕捉するようにする技術について提案する。
本明細書で開示する技術の概要について、図1を参照しながら説明する。
車載カメラ(いわゆるドライブモニターカメラなど)100は、運転席に着座した運転者を撮像する。但し、車両が自動運転モード(部分又は完全自動運転の双方を含む)と手動運転モード間で切り替わり、運転者は、集中運転姿勢にあるとは限らず、注意緊張状態から解放されて姿勢や頭部が広範囲で移動するフリースタイル状態にあることが想定される。したがって、車載カメラ100は、参照番号101で示す、広範囲のエリアを視野角に持つ。俊敏なサッケード動作やマイクロサッケード動作を検出するには、例えば1000fps程度の高フレームレートで運転者の眼球とその詳細運動を捕捉する必要があるが、撮像エリア101が広範囲であるため、別体にした場合に後段の信号処理プロセッサーに撮像信号を伝送する際の伝送損失に起因するエネルギー損失、ひいてはそのエネルギー放出である電極不要輻射ノイズの発生などの技術的困難を考慮して、車載カメラ100は、広範囲エリア101については、例えば60fps程度の低速で運転者を撮像することを許容する。
広範囲エリア101で撮像することで、フリースタイルの状態であっても、ほぼ間違いなく運転者の頭部を捕捉して、運転者の眼球位置をトラッキングすることが可能である。
次いで、広範囲エリア101の撮像画像を画像解析して、運転者の目に対応する狭い領域からなる取り込み枠102を決定する。運転者はフリースタイルの状態であり、取り込み枠102の位置は時々刻々と移動することが想定される。そこで、取り込み枠102を中速能動的な位置補正することが好ましい。
そして、取り込み枠102内では、1000fps程度の高速な眼球撮像、並びに高速な画像認識を実施して、眼球のサッケード動作のトラッキングを実現する。
要するに、車載カメラ100で広いアイリプス(eyelips)101を低解像度で撮像しつつ、その画像解析で把握した眼球位置をフレーム毎に補正し、その眼球位置に対しては局所的な高速処理を並行することで、眼球運動のうちサッケード動作のトラッキングを実現するという訳である。すなわち、車載カメラ100の撮像画像のうち、取り込み枠102に限定して能動的な局所高速眼球トラッキングを実施することで、装着負荷を発生することなく、眼球運動のサッケード動作のモニタリングが可能になる。
例えば、図2に示すように、(通常の)撮像素子201に、画像認識処理を実施する論理IC(Integrated Circuit)202を貼り合わせ、IC−IC間で眼球位置を含む部分画像(すなわち、取り込み枠102)の画像データのみを選択的に高速伝送するように構成することで、撮像素子201と画像認識処理IC202間のインターフェース配線203をシリコン貫通電極(through−silicon via、TSV)として最小にするとともに、画像認識処理IC202の受信負荷を抑制して、取り込み枠102の部分画像を選択的に高速フレームレートで読み出し処理することができる。この結果、運転者の頭部位置が固定されないフリースタイルの状態であっても、眼球位置のトラッキングが可能となり、眼球運動のサッケード動作を常時モニタリングすることが容易になる。
図3には、撮像素子201と画像認識処理IC202間のインターフェース配線図に寄生するインピーダンス要因の一例を模式的に示している。図2に示したようなシリコン貫通電極で貼り合わせるようにすることでこのインターフェース配線の配線長を最小化し、寄生インピーダンスを減らすことでノイズ減となる余分な配線の負荷を大幅に低減することが可能になることから、さらなる高速局所画像解析が可能となり、2重のメリットがある。
図4には、画素領域410と信号処理回路領域420を積層し、部分画像の画像データを選択的に高速伝送することが可能な積層イメージ・センサー400の構成例を示している。
カメラ信号処理部421は、例えば60fps程度の低速のフレームレートで画素領域410の全領域の画像データを読み出して、通常のカメラ信号処理を実施する。
一方、顔位置トラッキング部422は、画素領域410の全領域から運転者の顔領域をトラッキングする。眼領域検出部423は、顔位置トラッキング部422がトラッキングしている顔領域から、運転者の眼を検出して、両眼の部分画像の画像データを含む取り込み枠(前述)を決定する。そして、高速読み出し部424は、決定した取り込み枠の部分画像を、選択的に画像データの高速読み出しを行なう。
また、図5には、画素領域510と信号処理回路領域520とメモリー領域530を積層し、部分画像の画像データを選択的に高速伝送することが可能なメモリー搭載積層イメージ・センサー500の構成例を示している。メモリー搭載積層イメージ・センサー500は、1000fps程度の高フレームレートで撮像された画像データを一度メモリー領域530に格納する。そして、格納された画像データは、所望のフレームレートで読み出される。
カメラ信号処理部521は、例えば60fps程度の低速のフレームレートで画素領域510の全領域の画像データを読み出して、通常のカメラ信号処理を実施する。1000fpsで取り込まれた画像データの一部の画像データを用いて60fps程度の低速のフレームレートで読み出すことで、カメラ信号処理の処理負荷を低減することができる。
また、画素領域510の全領域の画像データは、メモリー領域530に一旦取り込まれる。顔位置トラッキング部522は、画素領域510の全領域から運転者の顔領域をトラッキングし、顔画像書き込み部523は、メモリー領域530に顔画像531の書き込みを行なう。そして、選択高速読み出し部524は、顔画像531から運転者の眼を検出して取り込み枠を決定すると、その取り込み枠532の画像データの選択的高速読み出しを行なう。例えば、取り込み枠532の画像データは最初に取り込まれた画像データと同じ1000fps程度の高フレームレートで読み出される。このような構成をとることで、取り込み枠532内のみを信号処理することができるので、1000fps程度の高フレームレートで読み出されたとしても信号処理負荷を抑えることができる。また、メモリー搭載積層イメージ・センサー500を用いることで、1つのイメージ・センサーで異なるフレームレートの画像を読み出すことが可能となり、2つのイメージ・センサーを用いる場合と比較して部品点数の削減およびコストの削減を図ることができる。
図6には、車載カメラの撮像画像に基づいて、フリースタイルの状態であることが想定される運転者の、対象物を認知する意識レベルを取得するための処理手順をフローチャートの形式で示している。車載カメラは、例えば図4や図5に示した積層イメージ・センサー400又は500を想定している。
まず、車載カメラ(ドライバー・モニター・カメラ)を用いて、例えば60fps程度の低速且つ低解像度で、運転者の頭部アイリプスを囲う広範囲610を撮像する(ステップS601)。
次いで、車載カメラの撮像画像の全領域から、運転者の顔領域611の位置をトラッキングする(ステップS602)。
そして、トラッキングしている顔領域から、運転者の眼を含む領域を検出すると(ステップS603)、眼の位置のトラッキングを開始して、両眼を含む取り込み枠612の位置を時々刻々と補正しながら、取り込み枠612の部分画像の画像データについて、例えば1000fps程度の選択的高速読み出しを行なう(ステップS604)。
次いで、高速読み出しした部分画像を用いて、運転者の眼球運動のうちサッケード動作のトラッキングを行なう(ステップS605)。なお、サッケード動作には個人的な特徴があることから、被験者となる運転者毎に学習した結果に基づいて、サッケード動作のトラッキングを行なうようにしてもよい(後述)。
そして、トラッキングした眼球のトラッキング動作に基づいて、運転者が観察しようとしている対象物を推定し(ステップS606)、さらにはその対象物を認知する意識レベル、すなわち運転者の覚醒度を推定する。
図7には、車載カメラの撮像画像に基づいて運転者が対象物を認知する意識レベルを取得する画像処理装置700の機能的構成を模式的に示している。各機能モジュール701〜709は、それぞれ専用のハードウェア回路として構成することができるが、CPU(Central Processing Unit)が所定のプログラムコードを実行するシーケンスとして実現することもできる。以下、各部の動作について説明する。
車載カメラは、運転者の頭部アイリプスを囲う範囲を撮像していることを想定している。状態検出部701は、車載カメラの撮像画像の全領域710から、運転者の頭部並びに上半身の状態を検出して、運転者の顔領域をトラッキングする。
エリア選択指定部702は、状態検出部701がトラッキングしている顔領域の中から、選択高速読み出しすべき選択高速読み出しエリア(上記の取り込み枠と同等のエリア)712を指定する。
眼球サッケード解析処理部703は、眼球のサッケード動作の解析のために、車載カメラの撮像画像の全領域710のうち、指定された選択高速読み出しエリア712の部分画像についてのみ、例えば1000fps程度の選択的高速読み出しを行なう。
単一眼球動作解析部704は、眼球サッケード解析処理部703による運転者の左右それぞれの眼球毎のサッケード動作の眼球運動解析を行なう。例えば、運転者のき目を判定して、単一眼球動作解析部704は、き目に対してのみ眼球のサッケード動作の解析を行なうようにしてもよい。また、病気による眼球運動の不安定性があることも知られているので、これら運転者固有の特性を加味した評価が望ましい。さらには左右の眼球にはき目としてより知覚へ寄与する目があることが知られているので、覚醒判断により効果的な方の片目解析を用いるようにしてもよい。
なお、サッケード動作には個人的な特徴があることから、単一眼球動作解析部704は、被験者となる運転者毎に学習した結果に基づいて、サッケード動作のトラッキングを行なうようにしてもよい(後述)。
方角推定部705は、状態検出部701が検出した運転者の頭部並びに上半身の状態と、単一眼球動作解析部704による運転者の左右の各眼のサッケード動作の解析結果に基づいて、運転者の視線、頭部の移動並びに回転、及び上半身の移動並びに回転を解析して、運転者の視線移動の方角を推定する。
障害物情報取得部706は、例えば車両に搭載された、ミリ波レーダーやLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)といったセンサー、ステレオカメラ又は単眼カメラなどの車載カメラからの情報に基づいて、車両の周囲に存在する障害物の方角や車両までの距離などの情報を取得する。ここで言う障害物は、車両が部分又は完全自動運転から手動運転に切り替わる際に、運転者が高い意識レベルで認知すべき対象物と言い換えることもできる。
擬似ターゲット投影部707は、運転者の視点方角に擬似ターゲットを、例えばヘッド・アップ・ディスプレイに投影させて、表示する。
サリエンシーマップ生成部708は、対象物の視覚的特徴に起因して運転者が自然と見てしまう位置の確率分布であるサリエンシーマップを生成する。具体的には、サリエンシーマップ生成部708は、障害物情報取得部706が取得した車両周辺の障害物の情報からの運転者視線を向け得るサリエンシーマップを形成する。また、サリエンシーマップ生成部708は、必要に応じて、車両前方の実空間に実在する障害物に、擬似ターゲット投影部707が表示する擬似ターゲットを加えてサリエンシーマップを形成する。
覚醒度判定部709は、方角推定部705が推定した運転者の視線移動の方角と、サリエンシーマップ生成部708が生成したサリエンシーマップの相関を検出して、運転者が障害物を認知する意識レベル、すなわち運転者の障害物に対する覚醒度を判定する。
覚醒度判定部709で実施する処理について補足する。覚醒度判定部709は、車両の走行中に、運転者が車両前方の実空間で発生する各々の事象に対してどれくらいの頻度、俊敏性、正確性で観察し、当該運転者固有の認知癖とその検出タイミングでの動作特性変化の有無や反応劣化の度合いを評価する。
車両前方の景色が極めて単調なときなど、運転者があまり視線に集中しないというケースも発生し得る。そこで、覚醒度判定部709を常に安定して利用するために、擬似ターゲット投影部707が運転者の視点方角にダミーの仮想障害物の画像すなわち擬似ターゲットをヘッド・アップ・ディスプレイなどで適宜表示して、覚醒度判定部709は、運転者が擬似ターゲットに対して正確に反応するかどうかをモニタリングすることも有効である。
図8A及び図8Bには、画像処理装置700を用いて運転者の眼球のトラッキングと運転者の意識レベルの認識を行なうための処理手順をフローチャートの形式で示している。
まず、ドライバー・モニター・カメラなどの車載カメラで、例えば60fps程度の低速且つ低解像度で撮像した広域画像を取り込む(ステップS801)。
次いで、取り込んだ広域画像(若しくは、車載カメラの視野)内に運転者の頭部位置がカバーされているか否かをチェックする(ステップS802)。
ここで、運転者の頭部位置が広域画像内にカバーされていない場合には(ステップS802のNo)、検出対象外処理を実施するようにしてもよい(ステップS821)。
一方、運転者の頭部位置が広域画像内にカバーされている場合には(ステップS802のYes)、車載カメラの撮像画像の全領域から、運転者の頭部位置を検出し(ステップS803)、次いで、検出した頭部位置に基づいて眼球を包含する範囲を推定して、眼球トラッキング用の取り込み枠の座標を検出し(ステップS804)、この取り込み枠の画像データを1000fps程度の高フレームレートで読み出して、運転者の眼球のサッケード動作のトラッキングを並列して実施する(ステップS805)。また、運転者の注意先予測と予測に対する一致度、又は一致割合などの詳細動作解析を累計的に実施して、眼球の移動先を推定し、眼球の時系列トラッキングを行なう(ステップS806)。
そして、ステップS803における運転者の頭部位置の検出結果と、ステップS806における眼球のサッケード動作の解析結果に基づいて、運転者の頭部並びに上半身の回転開始の兆候を解析する(ステップS807)。
ステップS807の兆候解析は、頭部移動などにより眼球の相対位置が取り込み枠から外れる前兆動作を捉え、取り込み枠のリセット読み出しアドレスを適宜更新するために行なう。高速に動く眼球のサッケード動作から、適切な移動推定解析を行ない、移動先の取り込み枠の設定を行なうことで、眼球トラッキング・ロストを防ぐ。
次いで、サッケード解析から運転者の上半身の回転開始を推定し、眼球の回転でカバーできる範囲内か否かをチェックする(ステップS808)。
眼球の回転でカバーできる範囲内でない場合には(ステップS808のNo)、眼球のサッケード動作のみでは車両の操舵に必要な視野情報を得ることはできないので、運転者は頭部並びに上半身の回転に移行し、頭部移動を補って眼球の連続トラッキングを行なう。
一方、眼球の回転でカバーできる範囲内である場合には(ステップS808のYes)、運転者個人の応答特性を勘案した注視推移解析を実施する(ステップS810)。
また、眼球の回転でカバーできる範囲内でない場合には(ステップS808のNo)、眼球のサッケード動作のみでは車両の操舵に必要な視野情報を得ることはできないので、頭部並びに上半身の回転の計測と、この回転に伴う絶対方角を推定して(ステップS809)、運転者個人の応答特性を勘案した注視推移解析を実施する(ステップS810)。
運転者個人の応答特性を勘案した注視推移解析では(ステップS810)、基本的に、推定された運転者の視線移動の方角とサリエンシーマップの相関を検出して、注視推移すなわち運転者の障害物に対する覚醒度を判定する。例えば、眼球のサッケード動作の探索動作が実世界空間のサリエンシーマップの方角と連動して振り向いている場合は、運転者は運転に対する高い意識状態にあることが関連付けられる。
ここで、運転者個人の応答特性を勘案した注視推移解析では(ステップS810)、視線挙動特性に大きな個人差があることを勘案して、運転者を個人認証して(ステップS812)、特定された個人の視線挙動特性に基づく注視推移解析処理を行なう。
また、運転者個人の応答特性を勘案した注視推移解析では(ステップS810)、運転者状態に応じて運転者の視線挙動特性が変化することを勘案して、車両に搭載された各種センサーで検出された運転者の状態を示す各パラメーターを参照して(ステップS813)、注視推移解析処理を行なう。
また、車両が走行する環境条件や障害物の情報に応じて、運転者の注視推移解析に用いるサリエンシーマップを生成する(ステップS820)。サリエンシーマップは、対象物の視覚的特徴に起因して運転者が自然と見てしまう位置の確率分布である。
ステップS820では、車両周辺の障害物の情報からの運転者視線を向け得るサリエンシーマップを形成する。このため、ステップS816では、ミリ波レーダーやLIDARといったセンサー、ステレオカメラ又は単眼カメラなどの車載カメラからの情報に基づいて、車両前方の障害物の方角及び相対距離を検出して、速度マップを生成する。ステップS817では、ステップS816における検出物のうち運転者がより注意を払うことが推測される対象物すなわち走行進路上又はその近傍の非路面物(障害物候補)の自車走行の時系列推移から推測して近い将来に自車走行進路と干渉することが予測される物を分類区分する。また、ステップS818では、運転者の覚醒度をより有効にモニタリングするために、運転者の視点方角にダミーの仮想障害物の画像すなわち擬似ターゲットをヘッド・アップ・ディスプレイなどで適宜表示する。ステップS819では、検出された実在の障害物や、ヘッド・アップ・ディスプレイに表示される擬似ターゲットを、運転者から見た視点方位へ座標変換する。そして、ステップS820では、座標変換した後の障害物や擬似ターゲットの情報から、運転者視線を向け得る、走行状況・状態に応じたサリエンシーマップを形成する。サリエンシーマップを生成する方法の詳細については、後述に譲る。
また、ステップS814では、車両が走行する時間帯や天候、日照条件、路面状況といった環境条件を取得し、ステップS820では、このような環境条件を勘案して、サリエンシーマップを生成する。
また、ステップS810では、障害物の候補となる物体に対する運転者毎の視線応答特性を個人特性ルックアップテーブルなどで参照して、運転者個人の応答特性を勘案した注視推移解析を実施する。
運転者の眼球運動は、障害物若しくはその候補となる物体に対する視線応答特性には個人差がある。このため、本実施形態では、視線応答特性など運転者の眼球運動に関する個人特性を個人特性ルックアップテーブルで管理するようにし、また、ステップS810における解析結果に基づいて運転者の個人特性を逐次学習するようにする。
最後に、ステップS811では、運転者の視線移動の方角とサリエンシーマップとの相関結果に基づいて、運転者が障害物を認知する意識レベル、すなわち運転者の障害物に対する覚醒状態をダイナミックに判定する。
ステップS811で認識される運転者の意識レベルは、車両を部分又は完全自動運転から手動運転へ、運転モードを切り替えようとしているときに、運転モードの切り替えを許可するか、又は、制限若しくは禁止するかを決定する際に用いられる。運転者が障害物を認知する意識レベルが十分高ければ、自動運転から手動運転への切り替えが許可される。一方、運転者が障害物を認知する意識レベルが低ければ、運転者はまだ手動運転に対応できず危険であることから、手動運転への切り替えが制限又は禁止される。また、運転者の意識レベルが低いときには、運転モードの切り替え時や、さらには手動運転の期間中に、車内でアラーム音を発生させる、運転者にタクタイル又は電気的な刺激を与えるなど、警告を行なうようにしてもよい。なお、緊急事態対処のため、運転者の意識状態がある程度もうろうとしている状態であっても、特殊な条件下では状況によって例えば車両を段階的に減速、徐行、停車などの自動運転への運転者介在制御が行なわれる仕組みでもよい。
図8A及び図8Bに示したフローチャート中の定義済みの処理の幾つかについて、以下補足しておく。
ステップS804の眼球トラッキング用の取り込み枠の座標の設定処理では、動作開始直後にまず、撮像画像の全領域から頭部位置を検出できた時点で予測される眼球を包含する範囲の位置推定を行なう。そして、その眼球の推定位置に合わせて、高フレームレートで眼球をトラッキングするための取り込み枠の座標設定を行なう。運転動作が継続中に、運転者の頭部移動や眼球移動トラッキング情報のフィードバックを掛けて、移動予測をして、取り込み枠をダイナミックに可変移動して、車載カメラの視野の範囲内で取り込み枠から眼球が外れることがないようにする。なお、複数のカメラ・システムを車内に設置している場合で、隣接するカメラ・システムの視野に跨る範囲で運転者の眼球位置が移動する場合には、隣接するカメラ・システム間で運転者のトラッキングを引き継ぐようにしてもよい。
ステップS805の眼球のサッケード動作のトラッキングは、図4や図5に示したような積層イメージ・センサーを用いて実施することを想定しており、取り込み枠という狭い範囲の必要な階調の部分画像データを、画素領域の下層に積層された信号処理ICへ、選択的に伝送して高速にトラッキングすることが可能である。画素領域の取り込み枠と積層下層の信号処理ICは直結され、配線ループを形成する必要がないことから、伝送路のインピーダンス不整合や寄生容量といった要因を最小限に抑えることができ、負荷が減ることで負荷駆動に比例する電磁輻射の影響を抑制することが可能であり、さらには駆動対象を低容量化して消費エネルギーも低減することができるので、EMI(Electro Magnetic Interference)やEMC(Electro Magnetic Compatibility)特性を大幅に向上させることができる。
図9には、ステップS805において、イメージ・センサーの画素領域の一部の取り込み枠から、高フレームレートで眼球のサッケード動作のトラッキングを行なうための処理手順をフローチャートの形式で示している。
まず、イメージ・センサーの画素領域全体から特定アドレスの高フレームレート読み出しを行なう取り込み枠のアドレス及びサイズを設定する(ステップS901)。
そして、画素領域において、蓄積セルのリセット(ステップS902)、光電変換信号の蓄積(ステップS903)、画素信号の増幅及び読み出し(ステップS904)の各処理を、繰り返し実施する。
次いで、画素領域から読み出した画素信号を、画素領域の下層に積層された信号回路領域に伝送する(ステップS905)。その際、画素信号のうち必要な階調信号のみが伝送される。また、画素領域の取り込み枠の画素信号は、図3に例示したインターフェース配線を介して、信号回路領域に直結出力され、低ノイズ化されるという点を十分理解されたい。
以降は、信号回路領域での処理となる。
まず、瞳の輪郭や参照光の反射中心といった、取り込み枠内の局所眼球部の解析と位置算出に必要な情報を抽出する(ステップS906)。
次いで、メモリー領域を利用した局所比較演算により、低いデータレートで、眼球の移動推移を解析する(ステップS907)。ここでは、メモリー領域は、信号回路領域に積層され(例えば、図5を参照のこと)、又は信号回路領域と同一の層に配置されていることを想定している。ステップS907では、サッケード、ドリフト(Drift)、マイクロサッケード、トレモア(Tremoir)といった特異な眼球運動に関するデータが抽出される。
そして、眼球の時系列で連続する回転すなわちサッケード動作をトラッキングする(ステップS908)。
ここで、ステップS809で得られた頭部移動推定情報を取得して、ステップS901で設定した取り込み枠の座標をシフトする必要があるか否かをチェックする(ステップS909)。
取り込み枠の座標をシフトする必要がない場合は(ステップS909のNo)、取り込み枠の座標修正を行なうことなく、そのままステップS901に戻り、上記と同様の処理を繰り返す。また、取り込み枠の座標をシフトする必要がある場合は(ステップS909のYes)、取り込み枠の移動先として最適な座標を指定してから(ステップS910)、ステップS901に戻り、上記と同様の処理を繰り返す。
ステップS809について補足すると、眼球の加速動作解析を行なうことで、眼球を補う頭部又は上半身の回転が必要か否かを予測することができる。また、それらの回転が発生すると頭部に対する相対的回転角を打ち消す回転をするため、視線解析はこれらを包含して行なう必要がある。また、覚醒レベルが低い状態で何かを見ようとするとき、心理的に確認するべきという前提がある。このため、覚醒レベルが低下している中で例えば頭部や上半身を一所懸命移動させようとして、眼球がその動作を追うような異常な特性が現れたりもする。このことから、眼球の視線解析と併せて頭部や上半身の経時的な振る舞いの特性解析は、運転者の覚醒レベルを判断する大きな手掛かりになる。眼球の動作範囲、加速特性を相補的に用いることで、運転者の状態をより正確に判定することが可能になる。
ステップS810について補足すると、車両の走行中における運転者の周辺環境に対する視線注意は、複数の要因が複雑に絡み合って決まる。つまり、走行中の前方シーンの単純な物理光学的なシーンの光エネルギーとしての視覚情報だけで注視推移を解析することはできない。
但し、大きく分ければ、運転目的に沿った走行設定ルート上を走行中に、視覚、聴覚、思考的注意に基づいて、走行前方から入る光エネルギーを捉えた視覚的な像を選択的に注視し、その解釈をするステップで、注視推移解析は構成される。最初の視線移動(サッケード動作や頭部移動による)は、誘発要因を受けた視線移動のトリガーに対するフィードバックとして発生する。走行に無関係又は注意を向ける必要のない対象物から光学的な刺激を受けただけでは、必ずしも最初の視線移動は伴わない。
光エネルギーとして取り込まれる情報は、受容細胞で信号として受けて、その信号を双極細胞へとの引き継ぎ、さらには思考を伴う神経節細胞を経由して視覚野の脳へ伝達される。運転者が受容する最初の段階の情報は、通常、周辺視野に広がるぼんやりとした情報であり、その後は時間的光強度微分が大きい対象物などの顕著度が高い方向に視線を動かし、おおよその目的に向いた状態で狭い中心窩や傍中心窩で対象物を捉えることができるようになる。とりわけ、中心窩と傍中心窩で得られる対象物の詳細像やその詳細像を獲得するまでの目の焦点合わせの遅延により、後段での知覚・認知にも状況に応じた遅延が生じる。
この一連の過程で、目の疲れや何らかの体調変動要因により、目の焦点の合焦能力の低下が一時的に起きていると、眼球の固視の際の停留時間が長くなる。特に、逐次新しい視覚情報が周辺視野に入り込んでくる中で、優先度の高い情報が急に入り込んで来なければ、その停留時間は長くなる。また、目の焦点を合焦しなくても、経験的な知見から視認対象の内容に合点(若しくは、解釈が完了)すれば、その対象物を理解するための視線の停留は無用になる。その場合、視線を固視するのではなく、遂次入力される次に優先度が高い対象物へとサッケード動作が開始する。例えば、白線などの道路の境界線は走行条件を規定する重要な情報であるが、わざわざ視線を凝らしてみる必要はなく、運転に慣れた運転者であれば通常の走行時に敢えて厳密な白線位置を固視することはない。
他方で、目の焦点機能の低下で、固視の際の眼球滞留期間が長くなっても、目の疲れや視力低下などで運転者の合焦能力を超え、時間をいくら長く掛けても合わない状況となれば、運転者は状況把握緊急度に応じてむしろ近傍探索へ早期に視線移行することで、周辺のぼやけた像のまま確証度を上げる動作へ移行することもある。固視停留からマイクロサッケードなどへの移行頻度や範囲などは、運転者に固有の経験的特性となる。つまり、運転者の固視やサッケード動作の総合的な眼球運動の振る舞いを、目的とする運転に合わせ且つ認証済み運転者毎に個別に解析することで、運転者固有の状態把握が精度良く行なわれる。
固視微動と呼ばれる眼球運動は、動作特性により、比較的大きく速いマイクロサッケード、大きくてゆっくりとしたドリフト、小さくて高周波数のトレモアの各状態に分類される。環境条件(晴天視界良好、雨天、夜間、吹雪、対向車グレア、…)、生理物理的視覚状態(目の焦点合わせが良い状態、疲れなどで合焦に時間を要する状況など)、運転者固有の意識状態(一次視野→視覚野連合→高次連合野といった要素解釈や記憶参照など神経信号の伝達に直結する脳内意識状態を反映した要素)に応じて、状態が推移する。また、高次連合野では無条件での対象物の記憶参照ではなく、目的とする旅程に関連する重要要素を探索することが運転操舵判別目的の視線移動では優先となるため、視線移動分析と並行して、旅程に応じた視線移動先ターゲットのランキングが運転者に発生する。
これら高次のファクターが状況に応じて複雑に相関し合って運転者の視線行動に繋がり、且つ、その相互の影響や重み付けは運転者固有の経験特性に依存する。このため、運転者固有の意識状態判別は、それら特徴をある程度類型的に蓄積学習して同一車両や類似環境走行時に運転者の状態判別の指標にすることが好ましい。運転者の視線特性を統計的に見れば運転者の意識状態は運転環境に応じた一定の傾向特性があるため、例えば疲労が増している傾向を捉えて休憩を促したりブレーキの制動開始特性を改善するためにこのような状態では制動装置の応答特性を早めたりすることが考えられる。しかし、それら統計的傾向から定めた閾値に基づく判定では、実際の各固有の運転者の詳細な意識レベルの判別は難しく、結果的に自動運転から手動運転への運転操舵引継ぎ判定を行なうには適さない。運転者固有の状態をより正確に把握するには、その運転者固有の特性を基に判別が必要であり、また運転環境や状況に応じて判別条件も変わってくる。つまり、運転者の意識状態を決定付ける可変値は多次元であり、相関する可変条件は必ずしも独立した直交座標変数で表現できない。相関するパラメーターがアクセル・ペダル操作、ブレーキ操作、ステアリング操作、着座姿勢、目視確認範囲、それぞれの路面状態依存性、天候依存性、自車積載状況依存性、走行道路状態や用途依存性、呼吸状態など複雑で且つ異なるパラメーター間の連動性も運転者の癖などで変わる。ここで近年盛んに応用が始まっている深層学習などの人工知能による学習方法では、学習器自体が多次元の情報を基に相関する次元に自己選択重み付けを繰り返して認識を行なうため固体別特徴の多い運転者の個人状態判別に対して有効な手法であり、また能動的に時々刻々と変化する運転者や環境変化に適合した学習方法と言える。
その上で、運転者状態の確認シーケンスとして、例えば最終判断のフィードバック・アクティブ反応を確認することが有効である。
ここで言う、運転者の状態に応じたフィードバック・アクティブ反応の例として、例えば運転者の判断能力低下が想定された場合、ヘッド・アップ・ディスプレイで可変的知的判断反応が必要なブレーキ・ペダルのソフト操作を反応応答ボタン操作、特定ジェスチャー操作の組み合わせなどが想定される。ヘッド・アップ・ディスプレイでダミーの道路標識を表示し、そこに視認される数値反応などが一例である。
運転者の走行周辺環境に対する視線注意は、運転者個人のその時々の疲労や精神状態、経験などによって、視線方角に対する注意レベルが能動的に変わる。但し、その大局的分布は経時的に穏やかな変化であり、概ね同じような走行環境、体調や精神状態であれば似た分布特性となることが期待される。この注意レベル分布曲線を複数段階のレベルに分類し、さらには中心視力のレベルを分類して、現在走行中の運転者の周辺注意状況をその運転者固有のサリエンシーマップと時系列視線移動先特徴の相関比較をすることで、運転者の注意レベルのステータスを把握することが可能となる。
運転者が一次的な睡魔に襲われるなどして、急激な変化点がある一方で、ステップS807などで前兆を捉えることも可能である。したがって、ステップS810による注視推移解析は、例えば部分又は完全自動運転から手動運転に移行する際の運転者の覚醒復帰状態判断として有効である。
とりわけ、運転者の知能的判断に基づいた運転継続をする際に、思考神経回路を伝達して状況の判断が不可欠である。一次視野→視覚野連合→高次連合野といった要素解釈や記憶参照など神経信号の伝達に直結する脳内意識状態を反映した要素の分析に色濃く影響が現れるのは、運転者が視線を向けた対象物の状況解釈である。通常、対象理解は中心視野で行なわれるため、運転者の覚醒状態は固視の際のダイナミックな振る舞いに大いに反映される。従来、運転者のこれら特徴的な細やかな動きは運転者状態の解析的用途で一部製品化されているが、運転者の長期にわたる振る舞いを非装着型の装置で運転者が意識せずに累計して分析するものは存在しなかった。これに対し、本明細書で開示する技術によれば、フリースタイルの状態で広範囲に移動する運転者の高速で微小な眼球の振る舞いを捕捉することができるととともに、微小な眼球の振る舞いと運転状況や環境相関を機械学習により運転者固有の特性として把握し、眼球の振る舞いと特性とを比較できるようになることで、時々刻々変化する運転環境でも運転者覚醒状態を精度よく把握することが可能となる。
以上をまとめると、ステップS810では、固視停留期間、マイクロサッケードの発生量と探索範囲解析など運転者固有特性を詳細に解析し、その運転者特有の累積学習特性と逐次発生する運転者の直近の視線解析から、運転者の状態を推測することが可能となる。
中心視野に対する視覚野の注意レベルの分布とは別に、意識的又は無意識的のいずれにせよ、眼球単独の注意レベル分布の狭まりを補うために、周辺視線移動を適度に繰り返して知覚喪失を低減することも行なわれる。加齢に伴う周辺視野の注意レベルの低下や疲労時の注意レベルの低下がある場合、例えば右左折時の歩行者巻き込み事故を低減するには、積極的な視線移動が有効である。サリエンシーマップで顕著性の高い対象物を追うように眼球が視線移動前の周辺視野方向へのサッケード動作を行なう頻度と固視停留期間の相関から、周辺視野の注意レベル低下を補うサッケード動作であるかどうかを検知することができる。
さらに、注意が必要な対象物に振り向いてから実際の詳細理解のための固視、いわゆる停留期間で脳内知覚野判断が進行し(例えば、歩行者の影を周辺視野で捉え、サッケード動作で眼球が回転振り向き、固視の過程で目が合焦して歩行者の表情観察や姿勢などから歩行者が自車の進路へ侵入するか立ち止まろうとしているかなどを詳細判断する)、視覚野を通じて状況の確証がある程度得られると、視線を周辺視野におぼろげに感じ取る他の注意対象の探索スイープ動作へと移る。優先して確認すべき対象物が他にあれば、サリエンシーマップで顕著性が高い方向へ適宜視線を移動させて状況の確認を進める。このような順次確認すべき対象物の分布こそが、本実施形態において運転者の注視推移解析に用いるサリエンシーマップである。
つまり、本実施形態において使用するのは、運転者が確率的に何を見る可能性が高いかを示した運転者視線方向のマップである。ステップS820では、純粋な運転者視線画像の汎用的なサリエンシーマップに、運転操作で重要となる自車進路での障害発生確率を重み付け加算したマップにすることが有効である。ステップS820の詳細については、後述に譲る。
運転者の視線移動、すなわち運転者が状況判断を終えて次の対象物へ視線を移動させるか否かは、運転者の視線から見た外界の顕著性に影響される。
運転者は、走行中の車両進路方向とその周辺の路面を含む対象物を、同時並行的に判断する必要がある。運転者は、複合的に現れるさまざまな環境シーンにおいて、重要度、認知・理解度に応じて適宜順を追って車両進路方向とその周辺を見渡しながら、走行作業を継続する。運転者は、環境条件などの走行状況や、自分の状態(生理物理的視覚状態、運転者固有の意識状態)に応じて、サッケード動作、マイクロサッケード動作、ドリフト、トレモアといった特異な眼球運動をする。
固視停留期間、マイクロサッケードの期間は、他方で認知しようとする対象依存性を伴うため、サリエンシーマップ上に顕著性が高めに出る対象物の分類と相関をとることで、より正確に運転者の状態(覚醒度レベル)を判定することが可能となる。その際、認識距離や外部環境も変動要因ファクターとなる。例えば、高速道路出口標識は、出る目的がなければ流し目程度となるが、右左折禁止標識や時間帯制限の道路標識であれば時間帯の認知解釈を終える必要があるので長めとなる。また、交差点の優先道路側なら左右確認は必ずしも認知解釈しないが、その逆なら左右確認を一定範囲行なう。また、遠方にある信号機の緑矢印などは、単なる赤信号に比べ眼球を固視して時間的に長めの時間を眺める傾向があるが、視力が極めて良好な運転者であれば敢えて固視する必要がなくその間の差異は顕著でない。
ステップS811について補足すると、サリエンシーマップは、環境条件(市街地、高速道路、夜間、雨天、吹雪など)に応じて重点的に視線を向ける注意対象に重み付けして作成する。また、途中で環境条件が変化したときには、重み付け特性を更新する。市街地、とりわけ渋滞中の左右割り込みやすり抜けバイクへの注意やスクールゾーン走行時は左右を広範囲に確認する視線動作が行なわれる。市街地の中でも通常専用横断歩道により歩行者の飛び出しがあまり想定されない環境では、短中距離前方や信号機などへの視線振分け率が高くなる。また、市街地専用道との道路分岐や進入がない走行プランルートなら、主に中遠方に高い分視線分布を示す。また、悪天候で視野が良くない環境での走行や雨天での走行の際、運転者は前方へ注意を集中させる傾向が強まることから、周辺への視線移動は少なく、中距離範囲への視線探索が多くなる。但し、同じ環境下であっても例えば同じ運転者の過去のインシデントや事故経験に基づき、特定の状況に対してより敏感に反応し、注意対象への固視頻度が高くなることがある。また、同じ雨天時でも、タクシーなどの職業運転者はとりわけ空車時に路肩歩行者の振る舞いを間欠的に確認する動作が起こるなど、同じ環境条件でも運転者のニーズ状態に応じて特徴的振る舞いが異なる。これらの複数の運転旅程の度に運転者固有特性蓄積学習しておき、その学習された特徴とルックアップテーブルなどを用いて比較し、現状の運転者状態推移が可能となる。
ステップS812で実施される個人認証について補足する。運転者の視線挙動特性に大きな個人差があることから、ステップS810における運転者の注視推移解析は、運転者を固体特定し、個人応答特性を勘案して実施される。固体特定のためには個人認証は望ましいシステムであるが、必ずしも運転者の顔や目・虹彩認証などから生体情報を取得するような生体認証である必要はなく、特定個人コード、指紋認証、音声認証、静脈認証などでもよく、特定の認証方法には限定されない。
ステップS813で実施される運転者状態の取得方法について補足する。運転者の状態判定に適用できるセンサーや情報解析方法について、本出願時において既に数多く提案されている。例えば、運転者のブレーキやアクセル・ペダルの操作の仕方、頻度、踏み加減、ステアリング・ハンドルの操作安定性、接触型又は非接触型の心拍数解析、並びに心拍数に基づく精神状態分析、アルコール摂取量分析器、体臭解析による疲労分析、脳波分析、心電図、体温や体温分布、運転中の姿勢解析、呼吸解析、音波又は音声やハプティックス系振動に対するアクティブ応答性反応などを利用して運転者状態を取得することができる。これらのうち2以上の方法を併用して、運転者の状態分析値を補間するのに利用することにより、運転者の状態を高い精度で認識することがさらに可能となる。
ステップS814で取得する環境条件について補足する。運転者は、昼間に整った車両専用車線を走行している間は、比較的リラックスした状態で走行(運転操舵)が可能である。他方で、例えば街灯の暗い夜間の走行で、人や動物など前方視界以外から不意な障害物が侵入するおそれがある環境や、視界が妨げられた雨天や霧、雪の中の走行、逆光を浴びながらの走行、凍結路面でリスクがある道路、橋の上、トンネルの中、横風の強い走行環境、野生動物注意道路標識が設置された道路、不慣れな道路での走行、事故多発地点での走行など、環境ファクターにより運転者の周辺環境に対する注意度は大きくなってくる。そのため、周辺環境の確認頻度や確認のための視線移動の範囲など、上記の環境ファクターを考慮することにより、運転者の動的状態をより高精度に分析することができるようになる。
ステップS816で実施する処理について補足する。ステップS816では、ミリ波レーダーやLIDARといったセンサー、ステレオカメラ又は単眼カメラなどの車載カメラを始めとする各種周辺環境センシングで取得可能な情報を取得し、検出した障害物などの対象物のラベリングとその位置など、統合的に方角、距離、(相対距離・相対速度・相対加速度)に変換してマップ生成処理を行なう。そして、ステップS819では、運転者視点に座標変換を行なうことで、検出した各障害物が運転者にとってどのような方角や速度であるかを示すデータをダイナミックに生成する。
ステップS817で実施する、走行進路上の障害物の分離処理について補足する。走行方向の路面を投影した俯瞰データから、車両が進む予定の進捗ルート上にあり、そのまま継続して前進走行した際に自車にとって走行障害となるリスクが高い対象物を分離する。つまり、車両前方で検出した障害物のうち、運転者がより注意を払うことが推測される対象物を、運転者の視線移動や視線固視の頻度が高まる対象物として分離する。
ステップS818で実施する、擬似ターゲットの表示処理について補足する。眼のサッケード動作を中心に運転者の状態認識判定を行なう際、走行中の道路とその周辺環境があまりに単調であると、運転者の視線と実環境の相関をモニタリングできる頻度が低下し、的確なタイミングで運転者の反応を高精度に調べることが容易でなくなる。そこで、仮想画像からなる擬似ターゲットを表示し、運転者が複数の擬似ターゲットに応じて適切な応答特性で正確に反応できたかどうかを試験する。例えばヘッド・アップ・ディスプレイのような非接触型視覚入力装置を用いて、擬似ターゲットを運転者に見える形で表示する。運転者の意識状態の判別が目的であるため、方角に限らず、意識的知覚活動確認を含めて例えば色や数値といった判断応答フィードバックを特徴付けて、擬似ターゲットの表示を行なうようにしてもよい。運転者の応答形態が基本的には視線のサッケード動作などの振る舞いを解析した想定の事例としているが、口頭の応答返答、口頭応答の音声解析、ジェスチャー応答の解析、ボタン操作などの運転者の認知判断に伴うアクションの解析ができれば、眼球の動作解析を必ずしも行なう必要はない。しかしながら、視線を用いるメリットは、運転者が無意識にシームレスで自然な振る舞いの中で意識状態の判別を行なえる点にある。勿論、他の方式と組み合わせることにより、さらに正確な運転者の意識状態の把握を行なうようにしてもよい。
ステップS820で実施する、走行状況に応じたサリエンシーマップの生成処理について補足する。走行中に運転者が周辺環境をどのように観察するかは走行状況によって大きく変わってくる。例えば、空いた高速道路で前方車間距離も十分確保されており、前方注意があまりに不要な状況と、夜間の市街地で歩行者がいつ飛び出してくるか分からない状況、路面が雪や凍結で滑りそうな環境やスクールゾーンなど、運転者の経験や慣れなどから視線移動は固有の特徴の基で周囲を確認しながら運転することとなる。車両の走行状況や運転者の状態に応じたサリエンシーマップは、運転者固有の特徴であり、運転者の走行履歴の情報を蓄積し、学習を通して構築される。さらには、サリエンシーマップは、環境依存、体調依存などで変化する特性であるため、環境状況に応じて運転者の走行履歴を分類して記録し、類似する走行環境の度に参照して、そのマップに対する視線の動的応答特性を時系列解析することで、運転者の注意レベルを逆算出し、類推をする。
ステップS821で実施される検出対象外処理は、画像処理装置700の用途や利用状況によって異なる。例えば完全自動運転中の車両の運転者の覚醒状態のダイナミック・モニタリングなどで、運転者の覚醒状態への復帰能力の時系列管理に用いる場合には、復帰能力判別で能力不足の場合には安全な徐行走行、待避停止への移行や停車シーケンスへ移行することが想定される。また、例えばCMSなどの運転者の視線モニタリング用途など、運転者の状態推移をモニタリングすることがクリティカルな判断に直結しない場合には、適宜アラーム音や警告を提示するようにしてもよい。また、自動運転の普及で、運転者が運転席の定姿勢状態ではなくフリースタイルの状態で車内の広範囲で移動する場合には、1つのカメラ・システムでは運転者を捕捉しきれないことが想定されるので、複数のカメラ・システムを車内に設置して隣接するカメラ・システム間で運転者のトラッキングを引き継ぐという利用形態も考えられる。
図10A及び図10Bには、運転者の振る舞いと同時並行して実施される運転者の視線解析、注意状態(覚醒度レベル)把握、サリエンシーマップ生成、各種センサー(運転者状態パラメーター)入力の各処理についてまとめている。
車両が前方を向いて直進走行し、運転者の状況を観測しているときに、運転者の周辺視野へ高い顕著性の事項が発現する(ステップS1001)。すると、運転者は、周辺視野からの刺激を受けて、運転者にとって重要に関連する方角を検知して(ステップS1002)、眼球のサッケード動作が開始する(ステップS1003)。
ここで、眼球のサッケード動作による小刻みな回転では視線回転角が足りなくて対象物を捕捉できないときには、運転者は頭部回転、上半身回転を続けて行なう(ステップS1004)。なお、運転者の周辺環境認知は視覚的情報のみに頼っているのではなく、例えば聴覚、振動、匂いや救急車両などが発するフラッシュライトの光の点滅といった他の感覚も判断の一要因としている。そして、周辺視野には入っていない後方からの衝撃音や折衝や追突音、一瞬のフラッシュライト点滅などを察知したらまずは頭部や体勢変更してそれを追う形で眼球移動が後追いとなるケースも発生し得るので、眼球のサッケード回転が必ずしも最初の振り向き動作のトリガーとなる訳ではない。
そして、運転者が頭部や上半身を回転した場合、視線を目的とする方角に保つために、眼球を補正回転させる(ステップS1005)。すなわち、一旦頭部に対して眼球を大きく回転し、頭部に対する行き過ぎ回転を打ち消すようにする。頭部装着型の視線検出装置では頭部に対する相対的眼球運動解析のためにこの打ち消しの補正処理が必要となるが、フリースタイル状態の運転者の検出では車両に固定された座標空間を基準の眼球運動の計測が行なわれので、状況に応じて検出の際に適宜補正する程度でもよい。
上記のようにして対象物の捕捉が終わるのと合わせて、固視による詳細観察に入り、同時に合焦して中心視野での詳細観察に進む(ステップS1006)。
上記のシーケンスで、固視と詳細観察の作業で、実際に対象物を観察する際に、物理的な視線方向と脳内の認知空間は必ずしも一致しない(ステップS1007)。
詳細に言うと、固視の際の眼球の物理的方角は、いわゆるマイクロサッケード動作やドリフト、トレモアといった可変的な振る舞いをする(ステップS1008)。
通常、運転者が読書のときのように1つの事項の詳細解釈を目指していない場合には、固視の際に眼球の停留期間はわずかであり、マイクロサッケード動作やドリフト、トレモアを複合的に繰り返し起こすほどではなく、次の対象物を探索する大きなサッケード動作へ移行して(ステップS1009)、次の対象物への視線の移動を開始する(ステップS1010)。
運転者の眼球がサッケード動作を開始したこと(ステップS1003)に同期して、運転者の視線解析処理として、眼球のサッケード動作のトラッキングが行なわれる(ステップS1011)。そして、眼球のサッケード動作のトラッキング結果に基づいて、運転者の注意状態の把握処理として、視線移動先のターゲットを推定する(ステップS1021)。
また、運転者の眼球の補正回転(ステップS1005)に同期して、運転者の視線解析処理として、眼球のサッケード回転と頭部又は上半身の回転解析から運転者の実空間視線方角を換算してから(ステップS1012)、眼球の主移動サッケードの目標視線方角解析の結果とサリエンシーマップの相関を比較する(ステップS1013)。運転者の物理的な視線方角と脳内の認知空間は必ずしも完全一致しないが(ステップS1007)、人の脳内の知覚状態は直接計測できないので、運転者の視線解析処理としては、実際には次の工程の観察へ移行する(ステップS1014)。
そして、運転者の注意状態の把握処理として、最寄り顕著性極大値との距離計測などによりサリエンシーマップ上に配置された対象物と視線移動ターゲット先との一致度を判定して(ステップS1022)、直近の一定期間(分単位)累計の一致度を計算する(ステップS1023)。ここで、運転者の走行時の環境に応じた注意レベル視線方角依存グラフの個人特性を学習する(ステップS1024)。なお、近年睡眠時無呼吸症候群と呼ばれる疾患により覚醒状態であっても急激な睡魔に襲われ、急激に覚醒が落ちる症状が報告されている。このため、前後推移の観測で完結的に意識状態が低下する状況を経過観測することも重要である。一定期間とする上記定期観測の頻度や間隔は運転者特性に合わせて行なうことが望ましい。
運転者の眼球は固視の際にマイクロサッケード、ドリフト、トレモアといった特異な動作をするが(ステップS1008)、運転者の視線解析処理としては、眼球の主移動サッケードに続くマイクロサッケード、ドリフト、トレモアなどの動的な変化、範囲、方角の特徴を解析する(ステップS1015)。
また、運転者の注意状態の把握処理として、固視の対象物の観察との相関特徴を解析するとともに、運転者がより注意を払うことが推測される対象物を分類する(ステップS1025)。ここで、運転者の特定の対象物に応じたマイクロサッケード、ドリフト、及びトレモアの特徴を分析するとともに個人特性として学習する(ステップS1026)。
サリエンシーマップ生成処理として、継続的な走行中に車両の全方向の阻害情報を、車両に搭載された各センサーから収集し統合して、運転者視点方角のマップを前段で生成する(ステップS1031)。
そして、ミリ波レーダーやLIDARなどの各センサーから継続的な車両の全方向の阻害情報(障害物の方角及び相対距離)を入力して(ステップS1041)、サリエンシーマップ生成処理として、歩行者、信号機、道路標識、路上の落下物、先方走行車、前方割り込み車両などの障害物の視覚刺激顕著性の方角マップを生成する(ステップS1032)。そして、車両の進行に応じて、常に新しいサリエンシーマップに更新する(ステップS1033)。
また、サリエンシーマップ生成の際に、画像解析から機械的に得たサリエンシーマップに対して走行状況や状態に応じて分布重み付けを行なう。また、途中で環境条件(昼、夜間、雨天、高速走行時、疲労時)が変化したときには(ステップS1042)、環境条件に応じた運転者固有の重み付け特性を更新する(ステップS1034)。
また、サリエンシーマップ生成処理では、運転者の覚醒度をより有効にモニタリングするために、運転者の視点方角にダミーの仮想障害物の画像すなわち擬似ターゲットをヘッド・アップ・ディスプレイなどで適宜表示して、擬似ターゲットに対する視線応答特性を見て判別する(ステップS1035)。走行中の道路とその周辺環境があまりに単調であると、運転者の視線と実環境の相関をモニタリングできる頻度が低下し、的確なタイミングで運転者の反応を高精度に調べることが容易でなくなるからである。運転者の状態認識に運転者視線解析を主に説明しているが、運転者の思考判断応答結果と組み合わせ判定を行なってもよい。例えば車室内での音声案内に対する試行結果判断を運転者の発声応答として検出をする手法や、ヘッド・アップ・ディスプレイへ表示した特定パターンを音声解析に沿って視線移動させる手法や、モールス信号などを模した特定パターンのボタン押し操作反応など検出結果に運転者の思考シーケンスを経て得られるアクティブでシームレスな手法が運転者覚醒状態判別に有効で堅牢な方法である。
また、サリエンシーマップ生成処理では、運転者の視線探索特性に基づいて、視線停留・固視特性の傾向の学習を累計的に実施し、走行環境と運転者状態に応じて分類し、重み付け特性を更新する(ステップS1036)。
また、サリエンシーマップ生成処理では、運転の阻害などの要因となる状況を認知した結果から、実際の制動、ステアリング回避動作までの遅延特性の学習と遅延特性の更新を行なう(ステップS1037)。ここで言う運転阻害要因の状況認知は、実際には、高確率で障害物となり得るサリエンシーマップ上の対象物への視線固視又は停留の有無を認知することである。
運転者は、周辺環境認知シーケンスで、知覚野で危険状態を認知したり応答必要性を認知したりすると、危険に対する回避又は対策行動に移行する(ステップS1016)。このような行動は、ブレーキやアクセルなどのペダル、ハンドル、スイッチの操作や、発される音声、ジェスチャー検出、その他のセンサーによって検出することができる(ステップS1043)。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、自動車(ガソリン車及びディーゼル車を含む)、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナル・モビリティーなどさまざまな車両、さらには道路を走行する車両以外の形態の移動体に適用して、運転者の眼球のサッケード動作のトラッキングに基づいて運転者の覚醒度を取得することができる。勿論、移動体の運転者に限定されず、さまざまな作業を実施している人間の覚醒度を取得するために、同様に本明細書で開示する技術を利用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)車両の運転者の画像を第1のフレームレートで取得する第1の画像取得部と、
前記画像のうち前記運転者の眼を含む領域を決定する領域決定部と、
前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得部と、
を具備する画像処理装置。
(1−1)前記第1の画像取得部は、前記車両に搭載されたカメラで前記運転者の頭部アイリプスを含む広範囲を撮像した画像を取得する、
上記(1)に記載の画像処理装置。
(2)前記第2のフレームレートで取得する前記領域を画像処理して、前記運転者の意識レベルを認識又は判別する処理部をさらに備える、
上記(1)に記載の画像処理装置。
(3)前記処理部により認識又は判別された前記運転者の意識レベルに応じて、前記車両の運転モードの切り替えを制御する制御部をさらに備える、
上記(2)に記載の画像処理装置。
(4)前記制御部は、前記運転者の意識レベルが所定以下であれば、前記車両の自動運転から手動運転への切り替えを制限又は禁止する、
上記(3)に記載の画像処理装置。
(5)前記運転者の意識レベルが所定以下のときに警告を行なう警告部をさらに備える、
上記(2)に記載の画像処理装置。
(6)前記領域決定部は、前記運転者の頭部又は上半身の回転又は移動に応じて前記領域の位置を補正する、
上記(1)に記載の画像処理装置。
(7)前記処理部は、前記領域内の画像に基づいて、前記運転者の眼球運動をトラッキングした結果に基づいて、前記運転者の意識レベルを認識又は判別する、
上記(2)に記載の画像処理装置。
(8)前記処理部は、前記運転者の眼球のサッケード、ドリフト、マイクロサッケード、又はトレモアのうち少なくとも1つの動作をトラッキングする、
上記(2)に記載の画像処理装置。
(9)前記処理部は、前記運転者の眼球運動とサリエンシーマップとの比較結果に基づいて前記運転者の意識レベルを認識又は判別する、
上記(7)又は(8)のいずれかに記載の画像処理装置。
(10)前記運転者の状態又は前記車両の走行状況に応じたサリエンシーマップを生成するサリエンシーマップ生成部をさらに備え、
前記処理部は、前記サリエンシーマップ生成部が生成した前記サリエンシーマップを用いて前記運転者の意識レベルを認識又は判別する、
上記(9)に記載の画像処理装置。
(11)前記サリエンシーマップ生成部は、前記車両の周辺で検出される障害物の情報に基づいて前記サリエンシーマップを生成する、
上記(10)に記載の画像処理装置。
(12)仮想的な障害物を擬似的にヘッド・アップ・ディスプレイに表示する表示部をさらに備え、
前記サリエンシーマップ生成部は、前記表示部が表示する仮想的な障害物の情報をさらに加えて前記サリエンシーマップを生成する、
上記(11)に記載の画像処理装置。
(13)前記運転者の眼球運動の個人特性を学習する学習部をさらに備える、
上記(7)に記載の画像処理装置。
(14)前記処理部は、前記個人特性を適用して、前記運転者の意識レベルを認識又は判別する、
上記(13)に記載の画像処理装置。
(15)前記処理部は、前記運転者のき目を判定して、前記領域に含まれる少なくともき目の画像に基づいて、前記運転者の意識レベルを認識又は判別する、
上記(7)に記載の画像処理装置。
(16)車両の運転者の画像を第1のフレームレートで取得する第1の画像取得ステップと、
前記画像のうち前記運転者の眼を含む領域を決定する領域決定ステップと、
前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得ステップと、
を有する画像処理方法。
(17)運転者を撮像する撮像部と、
前記運転者を撮像する画像を第1のフレームレートで取得する第1の画像取得部と、
前記画像のうち前記運転者の眼を含む領域を決定する領域決定部と、
前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得部と、
前記第2のフレームレートで取得する前記領域を画像処理して、前記運転者の意識レベルを認識又は判別する処理部と、
前記処理部により認識又は判別された前記運転者の意識レベルに応じて、運転モードの切り替えを制御する制御部と、
を具備する移動体。
(18)前記撮像部は、第1半導体基板、第2半導体基板、第3半導体基板からなる3枚の半導体基板を積層して構成され、
前記第1半導体基板には、画素が形成され、
前記第2半導体基板には、前記画像を記憶する記憶部が形成され、
前記第3半導体基板には、前記第1の画像取得部、前記第2の画像取得部、前記領域決定部、前記処理部、前記制御部のうち少なくとも1つが形成されている、上記(17)に記載の移動体。
100…車載カメラ
201…撮像素子、202…画像認識処理IC
203…インターフェース配線
400…積層イメージ・センサー、410…画素領域
420…信号処理回路領域、421…カメラ信号処理部
422…顔位置トラッキング部、423…眼領域検出部
424…高速読み出し部
500…メモリー搭載積層イメージ・センサー、510…画素領域
520…信号処理回路領域、530…メモリー領域
521…カメラ信号処理部、522…顔位置トラッキング部
523…顔画像書き込み部
524…選択高速読み出し部
700…画像処理装置、701…状態検出部
702…エリア選択指定部、703…眼球サッケード解析処理部
704…単一眼球動作解析部、705…方角推定部
706…障害物情報取得部、707…擬似ターゲット投影部
708…サリエンシーマップ生成部、709…覚醒度判定部
701…全領域、712…選択高速読み出しエリア

Claims (13)

  1. 車両の運転者の画像を第1のフレームレートで取得する第1の画像取得部と、
    前記画像のうち前記運転者の眼を含む領域を決定する領域決定部と、
    前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得部と、
    前記車両周辺の障害物の情報からの前記運転者が視線を向け得るサリエンシーマップを生成するサリエンシーマップ生成部と、
    前記第2のフレームレートで取得する前記領域内の画像に基づいて、前記運転者の眼球運動をトラッキングして、前記運転者の眼球運動と前記サリエンシーマップとの比較結果に基づいて前記運転者の意識レベルを認識又は判別する処理部と、
    を具備する画像処理装置。
  2. 前記処理部により認識又は判別された前記運転者の意識レベルに応じて、前記車両の運転モードの切り替えを制御する制御部をさらに備える、
    請求項1に記載の画像処理装置。
  3. 前記制御部は、前記運転者の意識レベルが所定以下であれば、前記車両の自動運転から手動運転への切り替えを制限又は禁止する、
    請求項2に記載の画像処理装置。
  4. 前記運転者の意識レベルが所定以下のときに警告を行なう警告部をさらに備える、
    請求項に記載の画像処理装置。
  5. 前記領域決定部は、前記運転者の頭部又は上半身の回転又は移動に応じて前記領域の位置を補正する、
    請求項1に記載の画像処理装置。
  6. 前記処理部は、前記運転者の眼球のサッケード、ドリフト、マイクロサッケード、又はトレモアのうち少なくとも1つの動作をトラッキングする、
    請求項1に記載の画像処理装置。
  7. 仮想的な障害物を擬似的にヘッド・アップ・ディスプレイに表示する表示部をさらに備え、
    前記サリエンシーマップ生成部は、前記表示部が表示する仮想的な障害物の情報をさらに加えて前記サリエンシーマップを生成する、
    請求項に記載の画像処理装置。
  8. 前記運転者の眼球運動の個人特性を学習する学習部をさらに備える、
    請求項に記載の画像処理装置。
  9. 前記処理部は、前記個人特性を適用して、前記運転者の意識レベルを認識又は判別する、
    請求項に記載の画像処理装置。
  10. 前記処理部は、前記運転者の利き目を判定して、前記領域に含まれる少なくとも利き目の画像に基づいて、前記運転者の意識レベルを認識又は判別する、
    請求項に記載の画像処理装置。
  11. 車両の運転者の画像を第1のフレームレートで取得する第1の画像取得ステップと、
    前記画像のうち前記運転者の眼を含む領域を決定する領域決定ステップと、
    前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得ステップと、
    前記車両周辺の障害物の情報からの前記運転者が視線を向け得るサリエンシーマップを生成するサリエンシーマップ生成ステップと、
    前記第2のフレームレートで取得する前記領域内の画像に基づいて、前記運転者の眼球運動をトラッキングして、前記運転者の眼球運動と前記サリエンシーマップとの比較結果に基づいて前記運転者の意識レベルを認識又は判別する処理ステップと、
    を有する画像処理方法。
  12. 運転者を撮像する撮像部と、
    前記運転者を撮像する画像を第1のフレームレートで取得する第1の画像取得部と、
    前記画像のうち前記運転者の眼を含む領域を決定する領域決定部と、
    前記領域の画像を前記第1のフレームレートよりも高い第2のフレームレートで取得する第2の画像取得部と、
    前記車両周辺の障害物の情報からの前記運転者が視線を向け得るサリエンシーマップを生成するサリエンシーマップ生成部と、
    前記第2のフレームレートで取得する前記領域内の画像に基づいて、前記運転者の眼球運動をトラッキングして、前記運転者の眼球運動と前記サリエンシーマップとの比較結果に基づいて前記運転者の意識レベルを認識又は判別する処理部と、
    前記処理部により認識又は判別された前記運転者の意識レベルに応じて、運転モードの切り替えを制御する制御部と、
    を具備する移動体。
  13. 前記撮像部は、第1半導体基板、第2半導体基板、第3半導体基板からなる3枚の半導体基板を積層して構成され、
    前記第1半導体基板には、画素が形成され、
    前記第2半導体基板には、前記画像を記憶する記憶部が形成され、
    前記第3半導体基板には、前記第1の画像取得部、前記第2の画像取得部、前記領域決定部、前記処理部、前記制御部のうち少なくとも1つが形成されている、請求項12に記載の移動体。
JP2018516341A 2016-05-11 2017-01-31 画像処理装置及び画像処理方法、並びに移動体 Active JP6911841B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021109603A JP7226479B2 (ja) 2016-05-11 2021-06-30 画像処理装置及び画像処理方法、並びに移動体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016095674 2016-05-11
JP2016095674 2016-05-11
PCT/JP2017/003315 WO2017195405A1 (ja) 2016-05-11 2017-01-31 画像処理装置及び画像処理方法、並びに移動体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021109603A Division JP7226479B2 (ja) 2016-05-11 2021-06-30 画像処理装置及び画像処理方法、並びに移動体

Publications (2)

Publication Number Publication Date
JPWO2017195405A1 JPWO2017195405A1 (ja) 2019-03-07
JP6911841B2 true JP6911841B2 (ja) 2021-07-28

Family

ID=60267548

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018516341A Active JP6911841B2 (ja) 2016-05-11 2017-01-31 画像処理装置及び画像処理方法、並びに移動体
JP2021109603A Active JP7226479B2 (ja) 2016-05-11 2021-06-30 画像処理装置及び画像処理方法、並びに移動体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021109603A Active JP7226479B2 (ja) 2016-05-11 2021-06-30 画像処理装置及び画像処理方法、並びに移動体

Country Status (5)

Country Link
US (1) US20190143989A1 (ja)
EP (1) EP3438948B1 (ja)
JP (2) JP6911841B2 (ja)
CN (2) CN109074748B (ja)
WO (1) WO2017195405A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021168167A (ja) * 2016-05-11 2021-10-21 ソニーグループ株式会社 画像処理装置及び画像処理方法、並びに移動体

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015218964A1 (de) * 2015-09-30 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Ermitteln von Verkehrsteilnehmern mit Interaktionspotential
JP6686869B2 (ja) * 2016-12-22 2020-04-22 株式会社デンソー 運転交代制御装置、及び運転交代制御方法
US10607399B2 (en) * 2017-05-22 2020-03-31 Htc Corporation Head-mounted display system, method for adaptively adjusting hidden area mask, and computer readable medium
US11430230B2 (en) * 2017-12-27 2022-08-30 Pioneer Corporation Storage device and excitement suppression device
CN111656396B (zh) * 2018-02-02 2024-01-09 三菱电机株式会社 落下物检测装置、车载系统、车辆及计算机可读取的记录介质
WO2019151266A1 (ja) * 2018-02-05 2019-08-08 ソニー株式会社 情報処理装置、移動装置、および方法、並びにプログラム
CN112135762A (zh) * 2018-03-28 2020-12-25 阿达姆齿轮科技有限公司 基于认知状态的无缝激励
CN112041910B (zh) * 2018-03-30 2023-08-18 索尼半导体解决方案公司 信息处理装置、移动设备、方法和程序
JP7210929B2 (ja) * 2018-08-07 2023-01-24 トヨタ自動車株式会社 運転意識推定装置
WO2020039530A1 (ja) * 2018-08-23 2020-02-27 三菱電機株式会社 運転者選定装置および運転者選定方法
CN109435962A (zh) * 2018-10-25 2019-03-08 北京海纳川汽车部件股份有限公司 自动驾驶车辆的控制方法、装置及具有其的自动驾驶车辆
JP7204421B2 (ja) * 2018-10-25 2023-01-16 キヤノン株式会社 検知装置およびその制御方法
JP7263734B2 (ja) * 2018-10-29 2023-04-25 株式会社アイシン 視認対象判定装置
JP7222216B2 (ja) * 2018-10-29 2023-02-15 株式会社アイシン 運転支援装置
US11200438B2 (en) 2018-12-07 2021-12-14 Dus Operating Inc. Sequential training method for heterogeneous convolutional neural network
CN109445443A (zh) * 2018-12-24 2019-03-08 江苏集萃微纳自动化系统与装备技术研究所有限公司 一种辅助自动驾驶的座椅及其自动驾驶方法
US11505181B2 (en) * 2019-01-04 2022-11-22 Toyota Motor Engineering & Manufacturing North America, Inc. System, method, and computer-readable storage medium for vehicle collision avoidance on the highway
US11068069B2 (en) * 2019-02-04 2021-07-20 Dus Operating Inc. Vehicle control with facial and gesture recognition using a convolutional neural network
CN109875583B (zh) * 2019-02-19 2021-01-29 京东方科技集团股份有限公司 一种基于ar技术的疲劳驾驶检测系统及方法
GB2582292B (en) * 2019-03-13 2022-05-25 Jaguar Land Rover Ltd Vehicle control system
JP2020149507A (ja) * 2019-03-14 2020-09-17 本田技研工業株式会社 乗員観察装置
CN110263641A (zh) * 2019-05-17 2019-09-20 成都旷视金智科技有限公司 疲劳检测方法、装置及可读存储介质
CN110261131B (zh) * 2019-06-21 2021-06-29 北京迈格威科技有限公司 汽车模拟驾驶舱图像数据处理方法及装置
JP7282176B2 (ja) * 2019-07-11 2023-05-26 三菱電機株式会社 制御装置
JP7285155B2 (ja) * 2019-07-16 2023-06-01 株式会社Subaru 車両の乗員保護システム
US11904866B2 (en) 2019-07-31 2024-02-20 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for brain-machine interfaces and EEG-based driver identification
JP7276083B2 (ja) * 2019-11-11 2023-05-18 マツダ株式会社 運転者状態推定装置
JP7342637B2 (ja) * 2019-11-11 2023-09-12 マツダ株式会社 車両制御装置および運転者状態判定方法
JP7415459B2 (ja) * 2019-11-11 2024-01-17 マツダ株式会社 車両制御装置及び運転者状態判定方法
JP7342636B2 (ja) * 2019-11-11 2023-09-12 マツダ株式会社 車両制御装置および運転者状態判定方法
JP7415460B2 (ja) * 2019-11-11 2024-01-17 マツダ株式会社 車両制御装置及び運転者状態判定方法
JP7342635B2 (ja) * 2019-11-11 2023-09-12 マツダ株式会社 運転者状態推定装置および運転者状態推定方法
JP7405570B2 (ja) 2019-11-13 2023-12-26 パイオニア株式会社 視認負荷量推定装置
KR20210073135A (ko) 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
DE112020006551T5 (de) * 2020-01-17 2022-11-17 Sony Semiconductor Solutions Corporation Datenverarbeitungsvorrichtung, datenverarbeitungssystem, datenverarbeitungsverfahren und datenverarbeitungsprogramm
JP7409184B2 (ja) * 2020-03-19 2024-01-09 マツダ株式会社 状態推定装置
CN113696897B (zh) * 2020-05-07 2023-06-23 沃尔沃汽车公司 驾驶员分神预警方法和驾驶员分神预警系统
JP7465738B2 (ja) 2020-07-17 2024-04-11 京セラ株式会社 電子機器、情報処理装置、覚醒度算出方法および覚醒度算出プログラム
JP7160867B2 (ja) * 2020-07-17 2022-10-25 京セラ株式会社 電子機器、情報処理装置、推定方法、および推定プログラム
JP7433155B2 (ja) 2020-07-17 2024-02-19 京セラ株式会社 電子機器、情報処理装置、推定方法、および推定プログラム
CN111898210A (zh) * 2020-08-03 2020-11-06 吉林大学 一种驾驶员眼椭圆建立方法
CN112380935B (zh) * 2020-11-03 2023-05-26 深圳技术大学 面向自动驾驶的人机协同感知方法及系统
CN112508848B (zh) * 2020-11-06 2024-03-26 上海亨临光电科技有限公司 一种基于深度学习多任务端到端的遥感图像船舶旋转目标检测方法
JP7332644B2 (ja) 2021-03-12 2023-08-23 本田技研工業株式会社 注意喚起システム、及び注意喚起方法
CN113173168A (zh) * 2021-04-30 2021-07-27 重庆工程职业技术学院 车辆智能驾驶控制系统及方法
CN113238652B (zh) * 2021-05-11 2023-07-14 北京字跳网络技术有限公司 视线估计方法、装置、设备及存储介质
US11861916B2 (en) * 2021-10-05 2024-01-02 Yazaki Corporation Driver alertness monitoring system

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06301782A (ja) * 1993-04-16 1994-10-28 N T T Data Tsushin Kk 監視装置
JP4898026B2 (ja) * 2001-06-29 2012-03-14 本田技研工業株式会社 ステレオカメラを使用した顔・視線認識装置
WO2005098777A1 (en) * 2004-03-22 2005-10-20 Volvo Technology Corporation Method and system for perceptual suitability test of a driver
JP4380412B2 (ja) * 2004-05-10 2009-12-09 株式会社デンソー 撮像制御装置及びプログラム
JP2006043429A (ja) * 2004-06-28 2006-02-16 Nissan Motor Co Ltd 視認負荷判断装置
JP2006293909A (ja) * 2005-04-14 2006-10-26 Denso Corp 運転者の視線方向検出装置
JP4475164B2 (ja) * 2005-04-26 2010-06-09 日本ビクター株式会社 監視システム及び監視方法
JP2006327527A (ja) * 2005-05-30 2006-12-07 Honda Motor Co Ltd 車両の走行安全装置
JP5036814B2 (ja) * 2006-06-11 2012-09-26 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置
JP4826506B2 (ja) * 2007-02-27 2011-11-30 日産自動車株式会社 視線推定装置
JP4888838B2 (ja) * 2008-05-12 2012-02-29 トヨタ自動車株式会社 運転者撮像装置および運転者撮像方法
JP4992891B2 (ja) * 2008-12-18 2012-08-08 トヨタ自動車株式会社 覚醒度判定装置
US8396249B1 (en) * 2008-12-23 2013-03-12 Hrl Laboratories, Llc Robot control based on saliency and invariant spatial representations using hierarchical spatial working memory
JP5177011B2 (ja) * 2009-02-25 2013-04-03 株式会社デンソー 開眼度特定装置
US9460601B2 (en) * 2009-09-20 2016-10-04 Tibet MIMAR Driver distraction and drowsiness warning and sleepiness reduction for accident avoidance
CN101877051A (zh) * 2009-10-30 2010-11-03 江苏大学 驾驶人注意力状态监测方法和装置
BR112012017199A2 (pt) * 2009-12-25 2018-07-31 Ricoh Co Ltd aparelho para identificação de objetos, aparelho para controle de corpos em movimento e aparelho para fornecer informações
JP5630518B2 (ja) * 2012-03-14 2014-11-26 株式会社デンソー 運転支援装置
JP6047318B2 (ja) * 2012-07-06 2016-12-21 矢崎総業株式会社 ドライバ状態検出装置及びドライバ状態報知装置
EP2696259B1 (en) * 2012-08-09 2021-10-13 Tobii AB Fast wake-up in a gaze tracking system
US9405982B2 (en) * 2013-01-18 2016-08-02 GM Global Technology Operations LLC Driver gaze detection system
JP2014179892A (ja) * 2013-03-15 2014-09-25 Nikon Corp 撮像装置
JP2015011579A (ja) * 2013-06-28 2015-01-19 株式会社東芝 視線検出装置、及び視線検出方法
JP6273823B2 (ja) * 2013-12-19 2018-02-07 株式会社デンソー 状態推定装置、および状態推定プログラム
CN104724157A (zh) * 2013-12-20 2015-06-24 青岛盛嘉信息科技有限公司 一种对人眼位置准确定位的方法
CN103956027A (zh) * 2014-04-04 2014-07-30 驻马店市金格尔电气设备有限公司 一种驾驶员人眼疲劳检测装置及检测方法
WO2015174963A1 (en) * 2014-05-13 2015-11-19 American Vehicular Sciences, LLC Driver health and fatigue monitoring system and method
KR101659027B1 (ko) * 2014-05-15 2016-09-23 엘지전자 주식회사 이동 단말기 및 차량 제어 장치
US20150339589A1 (en) * 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
JP6620395B2 (ja) * 2014-08-28 2019-12-18 株式会社ニコン 撮像装置
JP6201927B2 (ja) * 2014-08-01 2017-09-27 トヨタ自動車株式会社 車両制御装置
JP6468755B2 (ja) * 2014-08-22 2019-02-13 国立大学法人静岡大学 特徴点検出システム、特徴点検出方法、および特徴点検出プログラム
JP6149824B2 (ja) * 2014-08-22 2017-06-21 トヨタ自動車株式会社 車載装置、車載装置の制御方法及び車載装置の制御プログラム
JP6301782B2 (ja) 2014-08-27 2018-03-28 ファナック株式会社 物品を種類毎に供給する物品供給装置
US9747812B2 (en) * 2014-10-22 2017-08-29 Honda Motor Co., Ltd. Saliency based awareness modeling
JP6323318B2 (ja) * 2014-12-12 2018-05-16 ソニー株式会社 車両制御装置および車両制御方法、並びにプログラム
CN117087697A (zh) * 2014-12-12 2023-11-21 索尼公司 自动驾驶控制设备以及自动驾驶控制方法和程序
JP6578784B2 (ja) * 2015-07-24 2019-09-25 株式会社デンソー 状態推定装置および状態推定プログラム
US9786192B2 (en) * 2015-10-14 2017-10-10 Toyota Motor Engineering & Manufacturing North America, Inc. Assessing driver readiness for transition between operational modes of an autonomous vehicle
CN109074748B (zh) * 2016-05-11 2022-04-08 索尼公司 图像处理设备、图像处理方法和可移动体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021168167A (ja) * 2016-05-11 2021-10-21 ソニーグループ株式会社 画像処理装置及び画像処理方法、並びに移動体
JP7226479B2 (ja) 2016-05-11 2023-02-21 ソニーグループ株式会社 画像処理装置及び画像処理方法、並びに移動体

Also Published As

Publication number Publication date
WO2017195405A1 (ja) 2017-11-16
CN109074748A (zh) 2018-12-21
JP7226479B2 (ja) 2023-02-21
CN114666499A (zh) 2022-06-24
CN109074748B (zh) 2022-04-08
US20190143989A1 (en) 2019-05-16
JP2021168167A (ja) 2021-10-21
EP3438948A4 (en) 2019-05-01
EP3438948A1 (en) 2019-02-06
EP3438948B1 (en) 2023-08-30
JPWO2017195405A1 (ja) 2019-03-07

Similar Documents

Publication Publication Date Title
JP6911841B2 (ja) 画像処理装置及び画像処理方法、並びに移動体
JP7080598B2 (ja) 車両制御装置および車両制御方法
JP7204739B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7155122B2 (ja) 車両制御装置及び車両制御方法
US11738757B2 (en) Information processing device, moving apparatus, method, and program
US20230211810A1 (en) Information processing device, mobile device, information processing system, and method
CN113056390A (zh) 情境驾驶员监控系统
US20230054024A1 (en) Information processing apparatus, information processing system, information processing method, and information processing program
KR20200113202A (ko) 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램
JP7357006B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
US11447140B2 (en) Cognitive tunneling mitigation device for driving
JP7342636B2 (ja) 車両制御装置および運転者状態判定方法
JP7342637B2 (ja) 車両制御装置および運転者状態判定方法
CN113276821A (zh) 驾驶员状态推断装置
CN113276822A (zh) 驾驶员状态推断装置
JP7238193B2 (ja) 車両制御装置および車両制御方法
WO2022172724A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R151 Written notification of patent or utility model registration

Ref document number: 6911841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151