JP7263734B2 - 視認対象判定装置 - Google Patents

視認対象判定装置 Download PDF

Info

Publication number
JP7263734B2
JP7263734B2 JP2018203134A JP2018203134A JP7263734B2 JP 7263734 B2 JP7263734 B2 JP 7263734B2 JP 2018203134 A JP2018203134 A JP 2018203134A JP 2018203134 A JP2018203134 A JP 2018203134A JP 7263734 B2 JP7263734 B2 JP 7263734B2
Authority
JP
Japan
Prior art keywords
line
vehicle
sight
driver
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203134A
Other languages
English (en)
Other versions
JP2020071528A (ja
Inventor
俊介 小暮
晋 大須賀
信一郎 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2018203134A priority Critical patent/JP7263734B2/ja
Priority to US16/663,532 priority patent/US10977506B2/en
Priority to DE102019128839.8A priority patent/DE102019128839A1/de
Publication of JP2020071528A publication Critical patent/JP2020071528A/ja
Application granted granted Critical
Publication of JP7263734B2 publication Critical patent/JP7263734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明の実施形態は、視認対象判定装置に関する。
画面に表示された映像の顕著領域を取得し、取得した顕著領域とユーザの視線方向の検出結果との相関を算出し、当該相関の算出結果に基づいて、映像に対するユーザの関心度を推定する技術が開示されている。
国際公開第2012/105196号公報 特開2013-41545号公報 特開2016-73357号公報 特開2016-130959号公報
しかしながら、上記技術は、画面に表示された映像を見るユーザのように、ユーザが動かない場合における映像に対するユーザの関心度を推定することを前提しているため、車両の運転者のように、車両と共に運転者が動いている場合に、運転者が見ている視認対象物を高精度に判定することは難しい場合がある。
そこで、実施形態の課題の一つは、車両の運転者の視線が向けられている視認対象物の判定精度を向上させることが可能な視認対象判定装置を提供することである。
実施形態の視認対象判定装置は、一例として、車両の運転者の視線方向を検出する視線検出部と、車両の走行状態を示す車両情報を取得する車両情報取得部と、撮像部によって車両の周辺を撮像して得られる撮像画像を取得する画像取得部と、視線方向の検出結果に基づいて、撮像画像内において運転者の視線が向けられている注視領域を抽出する注視領域物抽出部と、撮像画像に含まれる物体を認識し、撮像画像および車両情報に基づいて、前記車両がどのように動くかを予測して、撮像画像のトップダウンサリエンシーマップを生成し、認識された物体のうち、トップダウンサリエンシーマップにおいてサリエンシーを有する物体を、運転者の視線が向けられている視認対象物の候補として検出する候補検出部と、注視領域の抽出結果および視認対象物の候補の検出結果に基づいて、運転者の視線が向けられている視認対象物を判定する視認対象判定部と、を備える。よって、一例として、車両の運転者の視線が向けられている視認対象物の判定精度を向上させることができる。
また、実施形態の視認対象判定装置は、一例として、候補検出部は、画像取得部により取得される撮像画像のうち所定の位置において取得された撮像画像に基づいてトップダウンサリエンシーマップを生成し、視線検出部は、トップダウンサリエンシーマップに基づいて、運転者が向けた全ての視線方向の候補のうち、車両の運転に関連する視線方向の候補を視線方向として検出する。よって、一例として、車両の運転中において運転者が視線方向を向けるべき視認対象物に対して、運転者の視線方向が向けられているか否かの判定精度を向上させることができる。
また、実施形態の視認対象判定装置は、一例として、視線検出部は、さらに、運転者の顔の向きを検出し、候補検出部は、さらに、検出した顔の向きに基づいて、視認対象物の候補に対して運転者の視線が向けられている信頼度を算出し、視認対象判定部は、撮像画像内における注視領域と視認対象物の候補間の距離、および視認対象物の候補の信頼度に基づいて、運転者の視線が向けられている視認対象物を判定する。よって、一例として、候補検出部によって複数の物体が視認対象物の候補として検出された場合や、複数の視認対象物の候補の位置が注視領域抽出部により抽出された注視領域と一致しない場合でも、視認対象物の判定精度を向上させることができる。
また、実施形態の視認対象判定装置は、一例として、注視領域抽出部は、撮像画像内において運転者の視線が向けられている領域のうち、尤もらしい領域を注視領域として抽出する。よって、一例として、運転者の視線が向いている視認対象物の判定精度をより向上させることができる。
図1は、第1の実施形態にかかる視認対象判定装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。 図2は、第1の実施形態にかかる車両が有する撮像装置の配置の一例を示す図である。 図3は、第1の実施形態にかかる車両の機能構成の一例を示すブロック図である。 図4は、第1の実施形態にかかる車両が有するECUの機能的構成を示すブロック図である。 図5は、第1の実施形態にかかる車両の注視領域抽出部によって注視領域を抽出する処理の一例を説明するための図である。 図6は、第1の実施形態にかかる車両の候補検出部によってトップダウンサリエンシーマップを生成する処理の一例を説明するための図である。 図7は、第1の実施形態にかかる車両の視認対象判定部による視認対象物の判定処理の一例を説明するための図である。 図8は、第2の実施形態にかかる車両の機能構成の一例を示すブロック図である。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。
本実施形態にかかる視認対象判定装置を搭載する車両は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であっても良いし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であっても良いし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であっても良い。また、車両は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両における車輪の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。
(第1の実施形態)
図1は、第1の実施形態にかかる視認対象判定装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。図2は、第1の実施形態にかかる車両が有する撮像装置の配置の一例を示す図である。図1に示されるように、車両1は、車体2と、操舵部4と、モニタ装置11と、を備える。
車体2は、運転者(不図示)が乗車する車室2aを有する。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。操舵部4は、例えば、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置8(図3参照)や音声出力装置9(図3参照)が設けられている。表示装置8は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electroluminescent Display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置は8、例えば、タッチパネル等、透明な操作入力部10(図3参照)で覆われている。
乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置において手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。
また、図2に示すように、ハンドルコラム202には、ドライバモニタカメラ201が設置されている。このドライバモニタカメラ201は、例えば、CCD(Charge Coupled Device)カメラ等である。ドライバモニタカメラ201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角および姿勢が調整されている。このドライバモニタカメラ201は、運転者302の顔を順次撮像し、撮像により得た画像についての画像データを順次出力する。
また、図1に示されるように、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)設けられている。
また、図1に示されるように、車両1は、複数の撮像部15(車載カメラ)を搭載する。本実施形態では、車両1は、例えば、4つの撮像部15a~15dを搭載する。撮像部15は、CCDまたはCIS(CMOS Image Sensor)等の撮像素子を有するデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲を撮像可能である。そして、撮像部15は、車両1の周囲を撮像して得られた撮像画像を出力する。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には、例えば、140°~220°の範囲を撮像可能である。また、撮像部15の光軸は、斜め下方に向けて設定されている場合もある。
具体的には、撮像部15aは、例えば、車体2の後側の端部に位置し、トランクリッドの下方の壁部に設けられている。そして、撮像部15aは、車両1の周囲のうち、当該車両1の後方の領域を撮像可能である。撮像部15bは、例えば、車体2の右側の端部に位置し、右側のドアミラーに設けられている。そして、撮像部15bは、車両1の周囲のうち、当該車両の側方の領域を撮像可能である。撮像部15cは、例えば、車体2の前側、すなわち、車両1の前後方向の前方側の端部に位置し、フロントバンパやフロントグリル等に設けられている。そして、撮像部15cは、車両1の周囲のうち、当該車両1の前方の領域を撮像可能である。撮像部15dは、例えば、車体2の左側、すなわち、車幅方向の左側の端部に位置し、左側のドアミラーに設けられている。そして、撮像部15dは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。
次に、図3を用いて、本実施形態にかかる車両の機能構成について説明する。図3は、第1の実施形態にかかる車両の機能構成の一例を示すブロック図である。図3に例示されるように、車両1は、ECU(Engine Control Unit)14、モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。
操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。
ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。
ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。
舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。本実施形態では、舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。アクセルセンサ20は、加速操作部の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。
シフトセンサ21は、変速操作部の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。
ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、例えば、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、SSD(Solid State Drive、フラッシュメモリ)14f等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。
ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。表示制御部14dは、ECU14での演算処理のうち、主として、車両1の外部を撮像可能に設けられた撮像部15の撮像で得られた画像データを用いた画像処理や、表示装置で表示される画像データの合成等を実行する。音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置で出力される音声データの処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。
CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
図4は、第1の実施形態にかかる車両が有するECUの機能的構成を示すブロック図である。図4に示されるように、ECU14は、視線検出部400、画像取得部401、車両情報取得部402、注視領域抽出部403、候補検出部404、および視認対象判定部405を主に備えている。図4に示す、視線検出部400、画像取得部401、車両情報取得部402、注視領域抽出部403、候補検出部404、および視認対象判定部405は、ECU14が有するCPU14aが、ROM14bに記憶されたプログラムを実行することで実現される。これらの構成は、ハードウェアで実現するように構成しても良い。本実施形態では、ECU14が視認対象判定装置として機能する。
画像取得部401は、撮像部15によって車両1の進行方向を撮像して得られる撮像画像を取得する取得部として機能する。本実施形態では、画像取得部401は、撮像部15の撮像により得られる撮像画像を取得しているが、車両1が有するLIDAR(Light Detection and Ranging)、TOF(Time Of Flight)カメラ、ミリ波レーダー、超音波センサ等によって計測した車両1と周辺の物体との間の距離の測定結果を表す画像を撮像画像として取得しても良い。また、本実施形態では、画像取得部401は、ドライバモニタカメラ201により運転者302を撮像して得られる撮像画像を取得する。
車両情報取得部402は、車両情報を取得する取得部として機能する。ここで、車両情報は、車両1の走行状態を示す情報であり、例えば、舵角センサ19により検出される操舵部4の操舵量、車輪速センサ22により検出される車輪3の回転数に基づく車両1の速度である。
視線検出部400は、車両1の運転者302の視線方向を検出する。また、視線検出部400は、運転者302の顔の向きを検出する。本実施形態では、視線検出部400は、ドライバモニタカメラ201により運転者302を撮像して得られる撮像画像から、運転者302の顔および目の画像を検出し、検出した顔および目の画像に基づいて、運転者302の視線方向および顔の向きを検出する。
注視領域抽出部403は、視線検出部400による視線方向の検出結果に基づいて、画像取得部401により取得される撮像画像内において運転者302の視線が向けられている注視領域を抽出する。
候補検出部404は、画像取得部401により取得される撮像画像に含まれる物体を認識する物体認識処理を実行する。また、候補検出部404は、画像取得部401により取得される撮像画像および車両情報取得部402により取得される車両情報に基づいて、撮像画像のトップダウンサリエンシーマップを生成する。
ここで、トップダウンサリエンシーマップは、運転者302の見る順番や、体格、癖等の個人差、撮像画像が得られたシーンの曖昧性、視線検出部400により検出される視線方向の揺らぎ等を吸収した、一義的に決まるサリエンシーマップである。
そして、候補検出部404は、物体認識処理により認識された物体の位置とトップダウンサリエンシーマップとを比較して、当該認識された物体のうち、トップダウンサリエンシーマップにおいてサリエンシーを有する物体を、運転者302が注視する可能性が高い視認対象物の候補(運転者302の視線が向けられている視認対象物の候補)として検出する。本実施形態では、候補検出部404は、認識された物体のうち、トップダウンサリエンシーマップにおいて予め設定されたサリエンシー以上のサリエンシーを有する物体を視認対象物の候補として検出する。
視認対象判定部405は、注視領域抽出部403による注視領域の抽出結果および候補検出部404により視認対象物の候補の検出結果に基づいて、運転者302の視線が向けられている視認対象物を判定する。
このように、候補検出部404におけるトップダウンサリエンシーマップの作成に車両情報を用いることにより、車両1がどのように動くかを予測してトップダウンサリエンシーマップを作成することが可能となる。そして、車両1がどのように動くかは、運転者302が周囲の何に着目するかとの関係が深い。
そのため、車両情報を用いてトップダウンサリエンシーマップを生成することにより、車両1の運転者302が視線を向ける可能性が高い視認対象物に対してサリエンシーを示すトップダウンサリエンシーマップの生成精度を向上させることができる。その結果、車両1の運転者302の視線が向けられている視認対象物の判定精度を向上させることができる。
次に、図5を用いて、本実施形態にかかる車両1の注視領域抽出部403によって注視領域を抽出する処理の一例について説明する。図5は、第1の実施形態にかかる車両の注視領域抽出部によって注視領域を抽出する処理の一例を説明するための図である。
本実施形態では、図5に示すように、視線検出部400は、ドライバモニタカメラ201の撮像により得られる撮像画像G1から、運転者302の顔501および目502を検出する。そして、視線検出部400は、検出した顔501の角度および目502の動き等に基づいて、運転者302の視線方向を検出する(ステップS510)。
図5に示すように、注視領域抽出部403は、視線検出部400により検出される視線方向に基づいて、画像取得部401により取得される撮像画像G2(例えば、車両1の前方を撮像して得られる撮像画像)に対して運転者302の視線が向けられている注視領域503~505を重畳する(ステップS511)。
次に、図5に示すように、注視領域抽出部403は、視線検出部400により検出される視線方向に基づく注視領域503~504の分布を用いて、当該特定した注視領域503~505のうち運転者302の視線が向けられている可能性が高い注視領域(例えば、注視領域504)を識別可能な注視領域尤度マップM1を作成する(ステップS512)。
すなわち、注視領域抽出部403は、視線検出部400により検出される視線方向に基づいて、撮像画像G1内において運転者302の視線が向けられている領域のうち、尤もらしい領域を注視領域として抽出する。これにより、運転者302の視線が向けられている可能性がより高い注視領域に基づいて、視認対象物の判定を行えるので、運転者302の視線が向いている視認対象物の判定精度をより向上させることができる。
次に、図6を用いて、本実施形態にかかる車両1の候補検出部404によってトップダウンサリエンシーマップを生成する処理の一例について説明する。図6は、第1の実施形態にかかる車両の候補検出部によってトップダウンサリエンシーマップを生成する処理の一例を説明するための図である。
本実施形態では、図6に示すように、候補検出部404は、画像取得部401により取得される撮像画像G2(車両1の前方を撮像して得られる撮像画像)に対して、物体認識処理を実行して、撮像画像G2内に含まれる物体601~603を認識する(ステップS610)。
また、本実施形態では、図6に示すように、候補検出部404は、撮像画像G2内に含まれる物体601~603を区別する物体区別処理を実行する(ステップS611)。また、図6に示すように、候補検出部404は、撮像画像G2および車両情報に基づいて、車両1とその周辺の物体との間の距離を特定可能とする画像(以下、仮想3Dデータと言う)を生成する3Dデータ生成処理を実行する(ステップS612)。
さらに、候補検出部404は、図6に示すように、撮像画像G2および車両情報に基づいて、撮像画像G2内に含まれる物体のオプティカルフローを求めるオプティカルフロー算出処理を実行する(ステップS613)。そして、候補検出部404は、図6に示すように、撮像画像G2に含まれる物体601~603の認識結果、撮像画像G2の物体区別処理の実行結果、仮想3Dデータ、および撮像画像G2内に含まれる物体601~603のオプティカルフローの算出結果に基づいて、車両1がどのように動くかを予測して運転者302が視線を向ける可能性が高い物体601,602にサリエンシーを有するトップダウンサリエンシーマップM2を生成するサリエンシーマップ生成処理を実行する(ステップS614)。
次に、候補検出部404は、図6に示すように、撮像画像G2から認識した物体601,602,603の位置とトップダウンサリエンシーマップM2とを比較して、当該認識した物体601,602,603のうち、運転者302が注視する可能性が高い物体601,602を視認対象物の候補として検出する(ステップS615)。
さらに、候補検出部404は、視線検出部400により検出した顔501(図5参照)の向きに基づいて、検出した視線対象物の候補に対して、運転者302の視線が向けられている信頼度を算出する。本実施形態では、候補検出部404は、視線検出部400により検出した顔501(図5参照)の向きに存在する視認対象物の候補の信頼度が高くなるように、視認対象物の候補に対して信頼度を付与する。例えば、候補検出部404は、顔501の向きが車両1の前方を向いている場合には、撮像画像G2に含まれる視認対象物の候補である物体601よりも、視認対象物の候補である物体602に対して高い信頼度を付与する。
次に、図7を用いて、本実施形態にかかる車両1の視認対象判定部405による視認対象物の判定処理の一例について説明する。図7は、第1の実施形態にかかる車両の視認対象判定部による視認対象物の判定処理の一例を説明するための図である。
視認対象判定部405は、図7に示すように、図5のステップS512により生成される注視領域尤度マップM1と、図6のステップS615により撮像画像G2から検出される視認対象物の候補(物体601,602)とを比較して、運転者302の視線が向けられている視認対象物(例えば、物体602)を判定する。
本実施形態では、視認対象判定部405は、検出される撮像画像G2内における、注視領域抽出部403により抽出された注視領域504,505(すなわち、注視領域尤度マップM1においてサリエンシー有する領域)と、候補検出部404により検出される視認対象物の候補である物体601,602との間の距離を求める。そして、視認対象判定部405は、注視領域504と視認対象物の候補である物体601,602との間の距離、および視認対象物の候補である物体601,602の信頼度に基づいて、運転者302の視線が向けられている視認対象物を判定する。
例えば、視認対象判定部405は、物体602と注視領域504間の距離と物体602に付与される信頼度との積が、物体601と注視領域504間の距離と物体602に付与される信頼度との積よりも大きい場合、視認対象判定部405は、物体602(道路上の他の車両)を、運転者302の視線が向けられている視認対象物と判定する。
これにより、候補検出部404によって複数の物体が視認対象物の候補として検出された場合や、複数の視認対象物の候補の位置が注視領域抽出部403により抽出された注視領域と一致しない場合であっても、運転者302の視線が向けられている可能性が高い視認対象物の候補を視認対象物と判定できるので、視認対象物の判定精度を向上させることができる。
このように、第1の実施形態にかかる車両1によれば、車両情報を用いてトップダウンサリエンシーマップを生成することにより、車両1の運転者302が視線を向ける可能性が高い視認対象物に対してサリエンシーを示すトップダウンサリエンシーマップの生成精度を向上させることができるので、車両1の運転者302の視線が向けられている視認対象物の判定精度を向上させることができる。
(第2の実施形態)
本実施形態は、運転者が向けた全ての視線方向の候補のうち、車両の運転に関連する視線方向の候補を、運転者の視線方向として検出する例である。以下の説明では、第1の実施形態と同様の構成については説明を省略する。
図8は、第2の実施形態にかかる車両が有するECUの機能的構成の一例を示すブロック図である。図8に示すように、ECU800は、視線検出部801、画像取得部401、車両情報取得部402、注視領域抽出部403、候補検出部802、および視認対象判定部405を主に備えている。図8に示す、視線検出部801、画像取得部401、車両情報取得部402、注視領域抽出部403、候補検出部802、および視認対象判定部405は、ECU800が有するCPU14aが、ROM14bに記憶されたプログラムを実行することで実現される。これらの構成は、ハードウェアで実現するように構成しても良い。
候補検出部802は、画像取得部401により取得される撮像画像のうち所定の位置において取得された撮像画像に基づいて、トップダウンサリエンシーマップを生成する。ここで、所定の位置は、予め設定された位置であり、車両1の運転に関連する視線方向が検出される位置である。例えば、所定の位置は、交差点、交通信号機の設置位置、カーブ、分岐など、車両1の運転者302が運転に関連する視線を向ける可能性が高い位置である。これにより、車両1の運転において運転者302が視線を向ける可能性が高い物体に対して高いサリエンシーを有するトップダウンサリエンシーマップを生成できるので、運転者302の視線が向けられている視認対象物の判定精度を向上させることができる。
視線検出部801は、運転者302が向けた全ての視線方向を視線方向の候補として検出する。本実施形態では、視線検出部801は、ドライバモニタカメラ201の撮像により得られる撮像画像に含まれる顔および目の画像に基づく、運転者302の全ての視線方向を、視線方向の候補として検出する。次いで、視線検出部801は、視線方向の候補と候補検出部802により生成されるトップダウンサリエンシーマップとを比較する。そして、視線検出部801は、視線方向の候補のうち車両1の運転に関連する視線方向の候補を、運転者302の視線方向として検出する。本実施形態では、視線検出部801は、視線方向の候補のうち、トップダウンサリエンシーマップにおいてサリエンシーを有する物体に対する視線方向の候補を、運転者302の視線方向として検出する。
車両1の運転者302が運転中に向ける視線方向には、車両1の運転に実質的に関連する視線方向に加えて、車両1の運転に関連しない視線方向(例えば、商業看板や空等に対する視線方向、道に迷っている場合の視線方向)も含まれる。車両1の運転に実質的に関連する視線方向の検出は、車両1の周囲の運転に関連する物体に対して運転者302が視線方向を向けている否かを判定するアプリケーション(例えば、歩行者の見落としを判定するアプリケーション)において重要である。また、車両1の運転に関連しない視線方向は、看板の情報を拡大したり、看板の詳細な情報を提供したりするアプリケーションにおいて重要であるが、車両1の周囲の運転に関連する物体に対して運転者302が視線方向を向けている否かを判定するアプリケーションにおける重要度は低い。
視線検出部801により検出される視線方向を、サリエンシーマップを用いて補正する技術が開発されているが、当該検出される視線方向が、車両1の運転に関連する視線方向か否かに関わらずに補正される。そのため、当該技術では、車両1の運転に関連しない視線方向についても、車両1の運転に関連する物体に対して運転者302が視線方向を向けているか否かの判定に用いられてしまい、車両1の運転に関連する物体に対して運転者302が視線方向を向けているか否かの判定精度が低下する可能性がある。
そこで、本実施形態では、視線検出部801は、トップダウンサリエンシーマップに基づいて、運転者302が向けた全ての視線方向の候補のうち、車両1の運転に関連する視線方向の候補を、運転者302の視線方向として検出する。これにより、車両1の運転に関連しない視線方向に基づいて、車両1の運転中に運転者302が視線方向を向けるべき視認対象物に対して、運転者302が視線方向を向けているか否かが判定されることを防止できる。その結果、車両1の運転中において運転者302が視線方向を向けるべき視認対象物に対して、運転者302が視線方向を向けているか否かの判定精度を向上させることができる。
このように、第2の実施形態にかかる車両1によれば、車両1の運転に関連しない視線方向に基づいて、車両1の運転中に運転者302が視線方向を向けるべき視認対象物に対して、運転者302の視線方向が向けられているか否かが判定されることを防止できるので、車両1の運転中において運転者302が視線方向を向けるべき視認対象物に対して、運転者302の視線方向が向けられているか否かの判定精度を向上させることができる。
1 車両
14,800 ECU
14a CPU
14b ROM
14c RAM
14f SSD
15 撮像部
201 ドライバモニタカメラ
400,801 視線検出部
401 画像取得部
402 車両情報取得部
403 注視領域抽出部
404,802 候補検出部
405 視認対象判定部

Claims (5)

  1. 車両の運転者の視線方向を検出する視線検出部と、
    前記車両の走行状態を示す車両情報を取得する車両情報取得部と、
    撮像部によって前記車両の周辺を撮像して得られる撮像画像を取得する画像取得部と、
    前記視線方向の検出結果に基づいて、前記撮像画像内において前記運転者の視線が向けられている注視領域を抽出する注視領域抽出部と、
    前記撮像画像に含まれる物体を認識し、前記撮像画像および前記車両情報に基づいて、前記車両がどのように動くかを予測して、前記撮像画像のトップダウンサリエンシーマップを生成し、前記認識された物体のうち、前記トップダウンサリエンシーマップにおいてサリエンシーを有する物体を、前記運転者の視線が向けられている視認対象物の候補として検出する候補検出部と、
    前記注視領域の抽出結果および前記視認対象物の候補の検出結果に基づいて、前記運転者の視線が向けられている視認対象物を判定する視認対象判定部と、
    を備える視認対象判定装置。
  2. 前記候補検出部は、前記画像取得部により取得される前記撮像画像のうち所定の位置において取得された前記撮像画像に基づいて前記トップダウンサリエンシーマップを生成し、
    前記視線検出部は、前記トップダウンサリエンシーマップに基づいて、前記運転者が向けた全ての視線方向の候補のうち、前記車両の運転に関連する前記視線方向の候補を前記視線方向として検出する請求項1に記載の視認対象判定装置。
  3. 前記視線検出部は、さらに、前記運転者の顔の向きを検出し、
    前記候補検出部は、さらに、検出した前記顔の向きに基づいて、前記視認対象物の候補に対して前記運転者の視線が向けられている信頼度を算出し、
    前記視認対象判定部は、前記撮像画像内における前記注視領域と前記視認対象物の候補間の距離、および前記視認対象物の候補の前記信頼度に基づいて、前記運転者の視線が向けられている視認対象物を判定する請求項1または2に記載の視認対象判定装置。
  4. 前記注視領域抽出部は、前記撮像画像内において前記運転者の視線が向けられている領域のうち、尤もらしい領域を前記注視領域として抽出する請求項1から3のいずれか一に記載の視認対象判定装置。
  5. 前記候補検出部は、前記撮像画像に含まれる物体を認識し、前記撮像画像および前記車両情報に基づいて前記車両とその周辺の物体の間の距離を特定可能な画像である仮想3Dデータを生成し、前記撮像画像および前記車両情報に基づいて前記撮像画像に含まれる物体のオプティカルフローを算出し、前記撮像画像に含まれる前記物体の認識結果と前記3D仮想データと前記撮像画像に含まれる前記物体のオプティカルフローの算出結果とに基づいて、前記車両がどのように動くかを予測して、前記撮像画像のトップダウンサリエンシーマップを生成する、
    請求項1に記載の視認対象判定装置。
JP2018203134A 2018-10-29 2018-10-29 視認対象判定装置 Active JP7263734B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018203134A JP7263734B2 (ja) 2018-10-29 2018-10-29 視認対象判定装置
US16/663,532 US10977506B2 (en) 2018-10-29 2019-10-25 Apparatus for determining visual confirmation target
DE102019128839.8A DE102019128839A1 (de) 2018-10-29 2019-10-25 Gerät zur Bestimmung des visuellen Bestätigungsziels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203134A JP7263734B2 (ja) 2018-10-29 2018-10-29 視認対象判定装置

Publications (2)

Publication Number Publication Date
JP2020071528A JP2020071528A (ja) 2020-05-07
JP7263734B2 true JP7263734B2 (ja) 2023-04-25

Family

ID=70325334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203134A Active JP7263734B2 (ja) 2018-10-29 2018-10-29 視認対象判定装置

Country Status (3)

Country Link
US (1) US10977506B2 (ja)
JP (1) JP7263734B2 (ja)
DE (1) DE102019128839A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111712852B (zh) * 2018-02-19 2023-08-11 三菱电机株式会社 乘客状态检测装置、系统和方法
CN116070173B (zh) * 2023-03-07 2023-07-18 之江实验室 一种跨模态任务指令理解的指读方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008772A (ja) 2009-05-28 2011-01-13 Honda Research Inst Europe Gmbh 動的注意モジュールを備えた運転者支援システムまたはロボット
JP2012247847A (ja) 2011-05-25 2012-12-13 Denso Corp 車両用情報伝達制御装置、及び、情報伝達制御方法
US20160291690A1 (en) 2014-05-08 2016-10-06 Sony Corporation Portable electronic equipment and method of controlling a portable electronic equipment
WO2017195405A1 (ja) 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JP2017224067A (ja) 2016-06-14 2017-12-21 大学共同利用機関法人自然科学研究機構 わき見状態判定装置
WO2018145028A1 (en) 2017-02-06 2018-08-09 Honda Motor Co., Ltd. Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4277081B2 (ja) * 2004-03-17 2009-06-10 株式会社デンソー 運転支援装置
US7884705B2 (en) * 2005-12-12 2011-02-08 Panasonic Corporation Safety-drive assistance device
JP5036814B2 (ja) * 2006-06-11 2012-09-26 ボルボ テクノロジー コーポレイション 視覚的関心場所の決定および分析のための方法および装置
FR2968187B1 (fr) * 2010-12-03 2013-11-29 Gen Electric Procede de suivi d'une dose de rayonnement
JP5278461B2 (ja) * 2011-02-03 2013-09-04 株式会社デンソー 視線検出装置および視線検出方法
JP5841538B2 (ja) 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
JP5654962B2 (ja) 2011-08-19 2015-01-14 日本放送協会 視線位置推定装置及び視線位置推定プログラム
JP6292054B2 (ja) * 2013-11-29 2018-03-14 富士通株式会社 運転支援装置、方法、及びプログラム
JP6547268B2 (ja) 2014-10-02 2019-07-24 富士通株式会社 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム
US9747812B2 (en) * 2014-10-22 2017-08-29 Honda Motor Co., Ltd. Saliency based awareness modeling
JP6320942B2 (ja) 2015-01-14 2018-05-09 株式会社デンソーアイティーラボラトリ 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法
JP6563798B2 (ja) * 2015-12-17 2019-08-21 大学共同利用機関法人自然科学研究機構 視覚認知支援システムおよび視認対象物の検出システム
JP7222216B2 (ja) * 2018-10-29 2023-02-15 株式会社アイシン 運転支援装置
US10882398B2 (en) * 2019-02-13 2021-01-05 Xevo Inc. System and method for correlating user attention direction and outside view

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008772A (ja) 2009-05-28 2011-01-13 Honda Research Inst Europe Gmbh 動的注意モジュールを備えた運転者支援システムまたはロボット
JP2012247847A (ja) 2011-05-25 2012-12-13 Denso Corp 車両用情報伝達制御装置、及び、情報伝達制御方法
US20160291690A1 (en) 2014-05-08 2016-10-06 Sony Corporation Portable electronic equipment and method of controlling a portable electronic equipment
WO2017195405A1 (ja) 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
JP2017224067A (ja) 2016-06-14 2017-12-21 大学共同利用機関法人自然科学研究機構 わき見状態判定装置
WO2018145028A1 (en) 2017-02-06 2018-08-09 Honda Motor Co., Ltd. Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jannik Fritsch et al.,Towards a Human-like Vision System for Driver Assistance,2008 IEEE Intelligent Vehicles Symposium,米国,IEEE,2008年06月04日,p. 275 - 282

Also Published As

Publication number Publication date
DE102019128839A1 (de) 2020-04-30
US20200134336A1 (en) 2020-04-30
JP2020071528A (ja) 2020-05-07
US10977506B2 (en) 2021-04-13

Similar Documents

Publication Publication Date Title
US9886859B2 (en) Parking assistance device
JP6507626B2 (ja) 車両周辺監視装置
WO2014051125A1 (ja) 駐車支援装置、駐車支援方法およびプログラム
JP7222216B2 (ja) 運転支援装置
US10055994B2 (en) Parking assistance device
EP3291545B1 (en) Display control device
JP7039879B2 (ja) 表示制御装置
US11648932B2 (en) Periphery monitoring device
JP7091624B2 (ja) 画像処理装置
JP6554866B2 (ja) 画像表示制御装置
CN110997409B (zh) 周边监控装置
JP7263734B2 (ja) 視認対象判定装置
JP7283514B2 (ja) 表示制御装置
JP2021154969A (ja) 障害物検知装置、障害物検知方法、および、プログラム
JP7009785B2 (ja) 周辺監視装置
US11301701B2 (en) Specific area detection device
JP7130923B2 (ja) 表示制御装置
JP7114919B2 (ja) 走行支援装置
JP7380073B2 (ja) 駐車支援装置
JP7383973B2 (ja) 駐車支援装置
JP7380058B2 (ja) 駐車支援装置
US20230093819A1 (en) Parking assistance device
JP2023073089A (ja) 駐車支援装置
JP2020071773A (ja) 視線検出装置
JP2021064149A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150