JPWO2007105792A1 - 監視装置および監視方法、制御装置および制御方法、並びにプログラム - Google Patents

監視装置および監視方法、制御装置および制御方法、並びにプログラム Download PDF

Info

Publication number
JPWO2007105792A1
JPWO2007105792A1 JP2008505202A JP2008505202A JPWO2007105792A1 JP WO2007105792 A1 JPWO2007105792 A1 JP WO2007105792A1 JP 2008505202 A JP2008505202 A JP 2008505202A JP 2008505202 A JP2008505202 A JP 2008505202A JP WO2007105792 A1 JPWO2007105792 A1 JP WO2007105792A1
Authority
JP
Japan
Prior art keywords
face
person
driver
determination
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008505202A
Other languages
English (en)
Other versions
JP5120249B2 (ja
Inventor
美希 松岡
美希 松岡
安藤 丹一
丹一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2008505202A priority Critical patent/JP5120249B2/ja
Publication of JPWO2007105792A1 publication Critical patent/JPWO2007105792A1/ja
Application granted granted Critical
Publication of JP5120249B2 publication Critical patent/JP5120249B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)

Abstract

本発明は、人の顔向きや視線方向の情報を用いて、人の動作または状態に対応する処理を装置に行わせることができるようにする監視装置および監視方法、制御装置および制御方法、並びにプログラムに関する。対象検出部251は、対象物を検出する。顔向き視線方向検出部252は、人の顔向きおよび視線方向を検出し、検出された対象物と、人の顔向きまたは視線方向との関係に基づいて、人の動作または状態を判定し、その判定結果を顔向き視線方向情報利用部253−1乃至253−3に通知する。顔向き視線方向情報利用部253−1乃至253−3は、判定結果に基づいて、装置に所定の処理を実行させる。本発明は、例えば、車載システムに適用できる。

Description

本発明は、監視装置および監視方法、制御装置および制御方法、並びにプログラムに関し、特に、人の顔向きや視線方向の情報を用いて、人の動作または状態に対応する処理を装置に行わせることができるようにする監視装置および監視方法、制御装置および制御方法、並びにプログラムに関する。
車を運転する運転者の視線方向を検出し、運転中の居眠りや脇見運転などを防止するなど、運転者を支援するシステムが提案されている(例えば、特許文献1参照)。
特開2002−352228号公報
しかしながら、従来から提案されているシステムでは、運転者の顔向きと視線方向についての情報を、装置の制御に十分活用しているとは言い難かった。
本発明は、このような状況に鑑みてなされたものであり、人の顔向きや視線方向の情報を用いて、人の動作または状態に対応する処理を装置に行わせることができるようにするものである。
本発明の第1の側面の監視装置は、人の動作または状態を利用して装置の制御を行う制御装置に、前記人の動作または状態を出力する監視装置であって、人の顔向きを検出する顔向き検出手段と、前記人の視線方向を検出する視線方向検出手段と、前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定し、その判定結果を前記制御装置に出力する判定手段とを備える。
本発明の第1の側面の監視装置においては、人の顔向きが検出され、人の視線方向が検出され、さらに、人の視界に入る対象物と、人の顔向きまたは視線方向との関係に基づいて、人の動作または状態が判定され、その判定結果が制御装置に出力される。これにより、対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
この顔向き検出手段、視線方向検出手段、および判定手段は、例えば、顔向き検出部、視線方向検出部、および判定部として機能するCPUなどによって、それぞれ構成される。
前記対象物を判定対象リストに登録する登録手段をさらに設け、前記判定手段には、前記判定対象リストに登録されている前記対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定させることができる。これにより、登録された対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
この登録手段は、例えば、対象リスト登録部として機能するCPUなどによって構成される。
前記対象物には、時間の経過とともに前記人の視界に出現し、または前記人の視界から消滅する動的な対象物と、時間の経過に関わらず前記人の視界に入る静的な対象物とがあり、前記登録手段には、前記制御装置から、前記判定対象リストに登録する登録要求が供給された前記静的な対象物を、前記判定対象リストに登録させることができる。これにより、静的な対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
前記登録手段には、前記動的な対象物を検出する対象物検出装置から、前記判定対象リストに登録する登録要求が供給された前記動的な対象物を、前記判定対象リストに登録させることができる。これにより、動的な対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
この対象物検出装置は、例えば、撮像装置、画像処理装置、物体センサ、レーザ式または電波式のレーダ装置、レーザレーダ装置、前方画像監視装置、後方画像監視装置、または、室内画像監視装置などにより構成される。
前記判定対象リストには、前記対象物ごとに、判定を実行する時期、前記判定結果を通知する前記制御装置、および前記判定対象リストから前記対象物を削除する条件が少なくとも登録され、前記判定手段には、前記判定対象リストの前記判定を実行する時期に、前記人の動作または状態を判定させることができる。
前記人の顔の位置を検出する顔位置検出手段と、前記対象物の位置を、前記人の顔の位置を基準とする位置に変換する位置変換手段とをさらに設け、前記判定手段には、前記人の顔の位置を基準とする、前記対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定させることができる。これにより、人の顔の位置を基準とする、対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
この顔位置検出手段および位置変換手段は、顔検出部および顔向き視線方向変換部として機能するCPUなどによって、それぞれ構成される。
前記人の顔の器官の状態を検出する器官状態検出手段をさらに設け、前記判定手段には、前記人の顔の器官の状態にも基づいて、前記人の動作または状態を判定させることができる。これにより、顔の器官の状態にも基づく人の動作または状態に対応する処理を、装置に行わせることができる。
この器官状態検出手段は、例えば、器官状態検出部として機能するCPUなどによって構成される。
本発明の第1の側面の制御方法は、人の動作または状態を利用して装置の制御を行う制御装置に、前記人の動作または状態を出力する監視装置の監視方法であって、前記人の顔向きを検出し、前記人の視線方向を検出し、前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定し、その判定結果を前記制御装置に出力するステップを含む。
本発明の第1の側面のプログラムは、人の動作または状態を利用して装置の制御を行う制御装置に、前記人の動作または状態を出力する処理を、コンピュータに実行させるプログラムであって、前記人の顔向きを検出し、前記人の視線方向を検出し、前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定し、その判定結果を前記制御装置に出力するステップを含む。
本発明の第1の側面の制御方法およびプログラムにおいては、人の顔向きが検出され、人の視線方向が検出され、さらに、人の視界に入る対象物と、人の顔向きまたは視線方向との関係に基づいて、人の動作または状態が判定され、その判定結果が制御装置に出力される。これにより、対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
本発明の第2の側面の制御装置は、監視装置から出力される人の動作または状態を利用して装置の制御を行う制御装置であって、前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて前記人の動作または状態を判定する判定対象リストに、前記装置の一部を前記対象物として登録することを前記監視装置に要求し、その要求に応じて前記監視装置から返信されてくる前記判定の結果を利用して、前記装置に所定の処理を実行させる。
本発明の第2の側面の制御装置においては、人の視界に入る対象物と、人の顔向きまたは視線方向との関係に基づいて人の動作または状態を判定する判定対象リストに、装置の一部を対象物として登録することが監視装置に要求され、その要求に応じて監視装置から返信されてくる判定の結果を利用して、装置に所定の処理を実行させるようになされている。これにより、対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
この制御装置は、例えば、オーバヘッド情報提示装置、エンジン制御装置、セキュリティ装置、パワーステアリング制御装置、オートシート制御装置、オートミラー制御装置、パワーウィンドウ制御装置、エアコン制御装置、オーディオ装置、ナビゲーション装置、音声応答装置、またはハンズフリー制御装置などにより構成される。
本発明の第2の側面の制御方法は、監視装置から出力される人の動作または状態を利用して装置の制御を行う制御装置の制御方法であって、前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて前記人の動作または状態を判定する判定対象リストに、前記装置の一部を前記対象物として登録することを前記監視装置に要求し、その要求に応じて前記監視装置から返信されてくる前記判定の結果を利用して、前記装置に所定の処理を実行させるステップを含む。
本発明の第2の側面のプログラムは、監視装置から出力される人の動作または状態を利用して行う装置の制御を、コンピュータを実行させるプログラムであって、前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて前記人の動作または状態を判定する判定対象リストに、前記装置の一部を前記対象物として登録することを前記監視装置に要求し、その要求に応じて前記監視装置から返信されてくる前記判定の結果を利用して、前記装置に所定の処理を実行させるステップを含む。
本発明の第2の側面の制御方法およびプログラムにおいては、人の視界に入る対象物と、人の顔向きまたは視線方向との関係に基づいて人の動作または状態を判定する判定対象リストに、装置の一部を対象物として登録することが監視装置に要求され、その要求に応じて監視装置から返信されてくる判定の結果を利用して、装置に所定の処理を実行させるようになされている。これにより、対象物と顔向きまたは視線方向との関係に基づく人の動作または状態に対応する処理を、装置に行わせることができる。
本発明によれば、人の顔向きや視線方向の情報を用いて、人の動作または状態に対応する処理を装置に行わせることができる。
人が対象物を見るときの視線方向を説明する図である。 人が対象物を見るときの視線方向を説明する図である。 人の顔向きと視線方向との関係を説明する図である。 本発明を適用した車載システムの一実施の形態の構成例を示すブロック図である。 運転席に座った運転者の視界に入る対象物の例を示す図である。 運転者の視界に入る対象物を複数の領域に分類した例を示す図である。 車外の対象物の例を示す図である。 運転者が見たときの方向と、レーザレーダ装置および前方画像監視装置が検出する方向との違いについて説明する図である。 運転者から見たときの方向と、後方画像監視装置が検出するとの違いについて説明する図である。 運転者監視装置のハードウエア構成例を示すブロック図である。 車載システムの機能的構成を表す機能ブロック図である。 顔向き視線方向検出部の詳細な構成例を示すブロック図である。 対象リスト記憶部において対象物のリストを記憶するときのデータ構造であるリンクリストについて説明する図である。 対象物の属性情報の構成例を示す図である。 対象物検出処理について説明するフローチャートである。 顔向き視線方向検出処理について説明するフローチャートである。 リスト登録処理について説明するフローチャートである。 判定処理について説明するフローチャートである。 顔向き視線方向利用処理について説明するフローチャートである。 最終視線方向の計算方法について説明する図である。 最終視線方向の計算方法について説明する図である。
符号の説明
1 車載システム
11 監視装置
251 対象検出部
252 顔向き視線方向検出部
253−1乃至253−3 顔向き視線方向情報利用部
271 撮像部
272 顔検出部
273 顔向き検出部
274 視線方向検出部
275 器官状態検出部
276 対象リスト登録部
277 顔向き視線方向変換部
278 対象リスト記憶部
279 判定部
人の動作または状態を検出して装置の制御を行うことで、装置の利用に関する利便性が高まる。人の動作または状態を利用して装置の制御を行う場合、人の視界に入る対象物に応じて人の状態を判定することで、装置の制御を適切に行うことができる。
人の顔の向き(以下、顔向きと称する)と視線の方向(以下、視線方向と称する)をそれぞれ検出して、人の視界に入る対象物と顔向きおよび視線方向との関係に応じて人の状態を判定することで、人の顔向きまたは視線方向の一方のみを検出して、人の視界に入る対象物と顔向きまたは視線方向との関係に応じて人の状態を判定する場合よりも、装置の制御を適切に行うことができる。
顔向きまたは視線方向と対象物との関係の変化に応じて人の状態を判定することで、装置の制御をより適切に行うことができる。
顔向きと対象物との関係、および視線方向と対象物との関係の変化の違いに応じて人の状態を判定することで、装置の制御をより適切に行うことができる。
対象検出部を備えて所定の対象物を検出して管理することで、動的に出現する対象物に対応することが可能となり、装置の制御をより適切に行うことができる。
対象物を個別に管理することで、対象物ごとに装置の制御が異なる場合に対応することが可能となり、装置の制御をより適切に行うことができる。
時間の経過とともに、人の視界に入る対象物が変化する場合、各時点で存在している対象物に応じて人の状態を判定することで、装置の制御をより適切に行うことができる。
さらに、検出または登録されている対象物が、人が見るべき対象物であるか、または、見るべきではない対象物であるかに応じて人の状態を判定することで、より適切に装置の制御を行うことができる。
また、検出または登録されている対象物が、注意すべき対象物であるかに応じて人の状態を判定することで、より適切に装置の制御を行うことができる。
さらに、顔向きおよび視線方向が、対象物の方向を向いた時間、または、向いていなかった時間の長さに応じて人の状態を判定することで、より適切に装置の制御を行うことができる。
また、判定を行う時期を設定できるようにすることで、対象物と顔向きまたは視線方向との関係に応じた人の状態を適切なタイミングで判定することが可能となり、より適切に装置の制御を行うことができる。
さらに、対象物ごとに判定を行う時期を設定できるようにすることで、判定の頻度に求められる程度に対応して対象物と顔向きまたは視線方向との関係に応じて人の状態を判定することが可能となり、より適切に装置の制御を行うことができる。
また、人の状態または対象物の状態に応じて見るべき度合いや注意すべき度合いを変えることで、装置の制御をより適切に行うことができる。
人が対象物に顔や視線を向けるとき、人はその対象物に関心がある。例えば、人が美術館で絵画の前にじっと立って絵画を見る場合には、人の顔向きまたは視線方向と絵画との相対的関係は時間経過とともに変化しない。即ち、図1のAに示すように、人の顔向きは、対象物である絵画の方向となる。また、視線方向は、絵画のいずれかの部分あるいは全体を見るための動作を行い、図1のBに示すように、絵画内の関心がある領域付近を動くことがある。この対象物を見る動作が、顔向きと視線方向が対象物の方向とほぼ一致する基本的な動作である。
すなわち、人は所定の対象物に関心がありそれを見ようとするときには、対象物の方向に顔を向け、視線方向は視野内の対象物に対応する領域(対象領域)内で動く。したがって、顔向きまたは視線方向と対象物(対象領域)との関係を検出することで、対象物に対する人の関心の度合いがわかる。
具体的には、対象物の方向に対して顔向きまたは視線方向が近いほど、対象物への関心の度合いが高いと判定することができる。視線方向は対象物の方向とほぼ一致していて、顔向きが視線方向と異なる方向を向いているときは、顔向きが視線方向と一致しているとき(顔向きと視線方向の双方が対象物の方向を向いているとき)よりも、関心の度合いが低いと判定することができる。なお、顔向きと視線方向の差が大きいほど対象物に対する関心度を示す値が小さくなるように関心度を出力してもよい。
人が、特定の対象物に強い関心を持つと対象物を注視することがある。関心が特に強いときには、他の対象物には目を向けないので、特定の対象物を注視している時間が長くなる。対象物を注視する動作は、視線方向が対象の特定箇所に固定されるのが特徴である。対象物が人に対して移動する場合には、対象物の動きに追従するため、顔向きと視線方向が同じ方向に同じだけ変化する。
すなわち、視線方向が同じ方向に存在する対象物に長い時間向けられているときには、人が対象物に強い関心を持つことがわかる。
対象物が人に対して相対的に移動して、対象物の方向が変化したことが検出されたときに、顔向きと視線方向が同時に対象物と同じように移動したことが検出されたときには、人が対象物の動きを追っていることがわかる。
人は、顔向きの正面方向に関心の度合いが高い。このため、対象物の見える方向が変化したことが対象検出部によって検出されたときに、顔向きと視線方向の双方がほぼ対象物の方向に追従して変化している場合には、移動している対象物に対して関心の度合いが高いと判定することができる。顔向きが対象物の動きに追従せず、視線方向のみが追従している場合には、対象物に関心はあるが、顔向きと視線方向の双方が追従している場合よりも関心の度合いが低いと判定することができる。また、顔向きと視線方向の双方が対象物の動きと無関係に変化している場合には、対象物への関心が非常に低いと判定することができる。
以上のように、顔向きおよび視線方向と対象物との関係を検出し、個々の対象物について、関心の度合いを求めることで、複数の対象物のそれぞれに、人がどの程度の関心を持っているかを検出し、それぞれ出力することができる。
なお、対象物は、人から見たとき2次元の対象領域とみなすことができ、人の顔向きおよび視線方向が、その対象領域を通過するかどうかで、人が対象物を見ているかどうかを判断することができる。
人が見た対象物を認識して対象物の存在を把握するためには、所定の時間を必要とする。したがって、対象物が人の視線方向に存在していた時間を用いて、人が対象物の存在を把握した可能性があるかどうかを判定することができる。すなわち、人が対象物の方向に所定時間以上視線を向けていなかったときには、その人は対象物を認識していないと判定し、所定時間以上視線を向けていたときには、その人は対象物を認識していたと判定することができる。
さらに、顔向きを加味して判定することで、判定の精度を高めることができる。人は、顔向きの正面方向に関心が高い。このため、顔向きの正面方向の対象物に視線を向けた対象物の方が、顔向きの正面方向とは大きく異なる方向に存在する対象物に、顔を向けずに視線のみを向けた対象物よりも関心の度合いが高い。したがって、所定時間以上視線を向けていたときに対象物を認識していた程度が視線方向と顔向きの方向が近いほど高いと判定することができる。
人が対象物を見ている場合には、人の視線方向は、図2のAに示すように、常に対象領域内を通過するが、図2のBに示すように、視線方向が対象領域内に定まっていない場合には、人は、その対象物を見ていないと判断することができる。
直進状態の車において、顔向きを車の正面方向に向けた状態で、視線方向が横目で正面方向と大きく異なる方向を長時間見ている場合、脇見をしていることになるが顔向きのみで運転者の状態を検出する方法では脇見状態を検出することができない。しかしながら、運転者の顔向きと視線方向の双方を独立して検出すれば、顔向きが車の正面方向のほぼ一定の方向を向いていたとしても、視線方向が車の正面方向の所定の範囲内を超えて変化する場合には、適切に前方に気を配っていないと判定することができる。
また、直進状態の車において、運転者が前方に気を配っている場合には、運転者は、顔向きがほぼ一定の方向を向き、前方に存在する先行車両、道路標識、道路の白線、信号機、歩行者、または、障害物などが存在する方向に視線を向ける。また、信号機の無い交差点で右から交差点に進行してくる車がある場合には、運転者はその車のほうに視線を向ける。このような視線方向が特定の方向のみを見ていない状態では、視線方向のみを検出して運転者を監視するのでは、運転者が適切に前方を見ているのかを正確に判定することができない。しかしながら、運転者の顔向きと視線方向の双方を独立に検出し、顔向きがほぼ一定の方向を向き、かつ、視線方向が車の正面方向の所定の範囲内で変化している場合には、適切に前方に気を配っていると判定することができる。
見るべき対象物のうち、車が進行する道路の方向は、道路がカーブしているときには、車の進行に応じて変化する。このとき、車が進行する道路が見える方向の変化に応じて、顔向きのみを変化させる場合、視線方向のみを変化させる場合、および、顔向きと視線方向の両方を変化させる場合がある。運転者が進行方向の道路を見ているときには、視線方向または顔向きが車の正面方向を向いていなくても、脇見しているわけではない。運転者の顔向きと視線方向の双方を独立して検出し、顔向きが、見るべき対象物である車の進行方向の道路の方向を向いていて、かつ、視線方向が、見るべき対象物である車の進行方向の道路の方向付近の所定の範囲内で変化している場合には、運転者が適切に前方に気を配っていると判定することができる。
次に、図3を参照して、人の顔向きと視線方向との関係を説明する。
図3のAは、人が最も単純な首振りの動きを行った場合の顔向きと視線方向を示している。この場合、顔向きと視線方向は同じ向きとなっている。特に何かの対象物を見ようとしたり、何かの意思を表そうとはしていない場合に、このような単純な首振り動作が行われる。
図3のBは、人が左右または後方にある対象物を見ようとして振り返る首振りの動きを行った場合の顔向きと視線方向を示している。例えば、右後方で音が発生すると、人は何が起きたかを確認するために頭を右に向ける。また例えば、人は、他の人の声が右後方から聞こえてきて、しばらくしてそれが知っている人の声であることがわかり、話しかけようとする場合に右に振り向く。また、後方で発生した音が突発的なものである場合には、人は反射的に右方向を振り向くこともある。このような場合、視線方向が先に右方向に移動し、顔向きが遅れて右方向に移動する動きとなる。
図3のCは、否定の意思を表すために首振りの動きを行った場合の顔向きと視線方向を示している。人が否定の意思を表すために首を2回横に振っているときには、顔向きは左右に変動するが、その間の視線方向は変化していない。即ち、対象物を見る動作が継続されている。
また、人が特定の対象物を注視しているときに、他人や装置からなにかを問いかけられ、無意識に首を縦や横に振る首振り動作を行う場合も、図3のCに示すように、視線方向が変化せず、顔向きだけが変化する動きになる。
その他、例えば、肩が凝ったときや首が痛いときなどに頭部を回したり倒したりする動作を行うことがあるが、この動作を、車を運転中の運転者が行うときには、視線は前方に向けておく必要があるので、図3のCに示すような、視線方向は前方のままで、顔向きが変化する動きとなる。また、図3のCに示す顔向きおよび視線方向の変化は、運転中では、強い横加速度がかかるコーナリングのときに、外部からの加速度によって頭部が横に倒れるときにも発生する。加速度センサを備える構成にして、顔向きと併せて加速度を検出することで、外部から加えられた力によって顔向きが変わったのか(顔が動いたのか)、運転者が自らの意思で顔向きを変えたのか(顔を動かしたのか)を識別することができる。
なお、人は、通常、前方か手に触れる対象物を見ることが多く、視線方向も目の高さ付近に集中するので、横方向の顔向きおよび視線方向の動きが多くなる。従って、人の顔向きや視線方向が縦の動きをする場合は、人の状態が特別な状態であることが多い。例えば、首(頭)が縦に瞬間的に動くとき、即ち、顔向きが上下方向に瞬間的に動くときには、覚醒度が大きく低下している状態である可能性がある。人の覚醒度がわずかに低下した状態では、顔向きや視線方向はそのままとなることもあるが、その場合は、瞬きの間隔やまぶたを閉じている時間の長さの変化によって人の状態を検出することができる。
その他、人の顔向きや視線方向が縦の動きをする場合は、例えば、人からの問いかけに対して肯定の意思を示すときに首を縦に振ることがある。足元で音がするなど関心事項が発生した場合に、足元の方向を見るために頭を下に向けることがある。車の運転中には、基本的に前方を見るべきであるので、縦方向の動きは、安全上、特に重要である。
以上のように、顔向きや視線方向の動きは、対象物の方向との関係で特徴があり、対象物の方向と顔向きおよび視線方向との関係、即ち、対象物の方向と顔向きおよび視線方向との時間的な経過を知ることで、人の関心事項や人の動作および状態を把握することができる。そして、顔向きや視線方向を検出する対象者が車の運転者で、顔や視線を向ける対象物が前方の道路や車の装置(装備)である場合には、人の関心事項や人の動作および状態を把握することができれば、それに応じて装置の制御することができ、運転者の操作を簡易なものにしたり、より安全な運転を行うことができるようになる。
以下では、運転者の顔向きや視線の方向に応じて、車の装置に所定の動作を行わせるようにした実施の形態について説明する。
図4は、本発明を適用した車載システムの一実施の形態の構成例を示している。
車に搭載される制御装置である図4の車載システム1は、運転者監視装置11、オーバヘッド情報提示装置12、レーザレーダ装置13、前方画像監視装置14、後方画像監視装置15、室内画像監視装置16、エンジン制御装置17、セキュリティ装置18、パワーステアリング制御装置19、オートシート制御装置20、オートミラー制御装置21、パワーウィンドウ制御装置22、エアコン制御装置23、オーディオ装置24、ナビゲーション装置25、音声応答装置26、ハンズフリー制御装置27、および車載バス28により構成されている。
運転者監視装置11は、運転者を撮像し、運転者の顔の位置を検出し、そこからさらに顔向きと視線方向を検出する。また、運転者監視装置11は、車載バス28を介して接続されている他の装置から供給される登録要求に従い、運転者が視認する対象である対象物を内部のリストに登録する。そして、運転者監視装置11は、検出した顔向きと視線方向と対象物との関係に基づいて運転者の状態または動作についての判定を行い、その結果得られる判定結果を、車載バス28を介して接続されているその他の装置に供給する。
オーバヘッド情報提示装置12は、運転席前方のフロントグラスに設けられた表示部に文字や記号、または画像を投影することにより、所定の情報を運転者に提供する。例えば、オーバヘッド情報提示装置12は、現在の速度を表す数値を表示する。
レーザレーダ装置13は、所定の測定範囲内において方向を変えてレーザ光を照射し、物体から反射して返ってきたレーザ光の時間を測定することにより、検出対象となる対象物を検出する。前方画像監視装置14、後方画像監視装置15、および室内画像監視装置16のそれぞれは、撮像して得られる画像を画像処理することにより、運転者の視界に入る対象物を検出する。ここで、対象物の検出とは、その対象物までの方向および距離(方向ベクトル)と対象物の大きさ(対象領域)が求められることを言う。また、前方画像監視装置14は、車の前方(進行方向)の画像を撮像し、後方画像監視装置15は、車の後方を撮像し、室内画像監視装置16は、車の室内を撮像する点がそれぞれ異なる。前方画像監視装置14は、例えば、自分の車(以下、自車とも称する)より前方の車(以下、先行車とも称する)や歩行者、または障害物などを検出する。後方画像監視装置15は、例えば、自車より後方の車(以下、後続車とも称する)や歩行者、または障害物などを検出する。室内画像監視装置16は、例えば、同乗者や荷物、ペット、または携帯電話機などを検出する。なお、前方画像監視装置14、後方画像監視装置15、および室内画像監視装置16では、より正確に対象物を検出するために、ステレオカメラ等を採用することが可能である。
エンジン制御装置17は、車を駆動するエンジンの制御を行い、運転者監視装置11に走行状態の情報を通知する。セキュリティ装置18は、ドアロックなどのセキュリティ管理を行い、セキュリティ状態を運転者監視装置11に通知する。パワーステアリング制御装置19は、パワーステアリングの制御を行う。
オートシート制御装置20は、運転席の電動シートの制御を行い、シートポジジョンについての情報であるシートポジジョン情報を運転者監視装置11に通知する。オートミラー制御装置21は、運転者監視装置11が検出した運転者の顔の位置に合わせて電動ミラーの角度を調整し、調整後の電動ミラーの方向(角度)を、電動ミラーの大きさ(面積)とともに、運転者監視装置11に通知する。これにより、運転者監視装置11は、運転者の顔の位置、オートシート制御装置20からのシートポジション情報、およびオートミラー制御装置21からの電動ミラーの方向および大きさから、運転者が電動ミラーを介して見ることができる後方の視界を計算することができる。
パワーウィンドウ制御装置22は、ユーザによるパワーウィンドウスイッチの操作に応じて、ウィンドウの開閉を制御する。エアコン制御装置23は、エアコンの制御を行う。オーディオ装置24は、ラジオの放送局の電波を受信して音声を出力したり、CDを再生して音声を出力する。
ナビゲーション装置25は、GPS (Global Positioning System )を搭載し、所定の縮尺の地図上に車の現在位置を重畳させた画像を、LCDなどのディスプレイに表示して、運転者に進路を案内する。また、ナビゲーション装置25は、ディスプレイの角度を電動で変更することができ、運転者にとって見やすいディスプレイの角度を登録することもできる。
音声応答装置26は、運転者が発したボイスコマンドを音声認識して、そのボイスコマンドを対応する装置に供給したり、合成音声やメモリに記憶されている音声を用いて、所定の情報を運転者に報知する。
ハンズフリー制御装置27は、Bluetooth(登録商標)などの近距離無線通信により運転者所有の携帯電話機と接続し、音声データをやりとりする。
以上のように構成される車載システム1は、車を運転する運転者の顔向きおよび視線方向を検出し、その顔向きまたは視線方向と対象物との関係に基づいて、車に装着されている所定の装置(装備)を制御する。
より具体的には、路上の歩行者や対向車のような外部の物体を対象物として、運転者が対象物に顔や視線を向けたことに応じて、車載システム1が所定の装置に対応動作を行わせる。例えば、車載システム1は、暗い前方に歩行者を検出した場合、歩行者が前方にいることを強調して表示させたり、音声で歩行者の存在を通知する。
また、車載システム1は、運転者が対象物を見ていないことに対応して、所定の装置に対応動作を行わせることも可能である。例えば運転者が前方を十分な時間や頻度で見ていないときに、車載システム1が前方監視不十分状態の警告動作を行う。また例えば、車が高速道路の本線に流入するときに、運転者が本線を走行する車の方向を見ていなければ、車載システム1が本線を走行する車の方向を見るように注意を促す通知を行う。
運転者が見る対象物は、大まかには、 ・運転者自身(運転者の手など) ・運転している車のパーツ(ステアリングホイール、コンビネーションメータなど) ・車内に存在する物(携帯電話機など) ・自動者の周囲に存在する物(ガードレール、先行車など)というように分類することができる。
また、運転者が見る対象物を車内と車外とで分類すると、車内では、 ・運転者が操作する物(運転に関係するもの、運転に関係しないもの) ・表示に関係する物(運転に関係するもの、運転に関係しないもの) ・同乗者 ・荷物などがあり、車外では、 ・道路とその周辺に存在する物 ・自分の周囲の車(先行車、対向車、後続車など) ・障害物 ・道路の外の風景などがある。
また、対象物を、運転者に対して、前方にある物、後方にある物、および側方にある物、というように、運転者からの方向で分類することもできる。
図5は、運転席に座った運転者の視界に入る対象物の例を示している。
運転者は、車外を見る場合、フロントグラス51、右ウィンドウ52R、または左ウィンドウ52Lを通して対象物を見る。図5において車外にある対象物としては、ボンネット53や右ドアミラー54Rや左ドアミラー54Lがある。また、Aピラー55やBピラー56については、運転者が意識して見ることはないが、運転者が車外の歩行者などを見ようとしたときに、Aピラー55やBピラー56で視界が遮られることがあり、Aピラー55やBピラー56を対象物として登録しておくと、それらで遮られる車外の対象物を推測することができるので、対象物として登録するのが望ましい。
車内にある対象物には、運転者が操作を行う操作部と、運転者が操作を行わず、運転者に情報を伝えるための表示部とがある。操作部に含まれる対象物としては、オーディオ装置24の操作パネル24b、ナビゲーション装置25の操作パネル25b、エアコン装置60の操作パネル60b、ステアリングホイール61、ライトスイッチ、ワイパースイッチ、およびウィンカースイッチなどの取り付けられたコンビネーションスイッチ62、ハザードスイッチ63、パワーウィンドウスイッチ64などがある。表示部に含まれる対象としては、オーディオ装置24のディスプレイ24a、ナビゲーション装置25のディスプレイ25b、エアコン装置60のディスプレイ60a、オーバヘッド情報提示装置12のディスプレイ12a、コンビネーションメータ72、ATセレクタ表示部73、クロック74、ルームミラー75である。その他、車内には、携帯電話機などが置かれる場合もあり、その場合、携帯電話機も対象物となる。なお、ルームミラー75の付近には、運転者を撮像する運転者監視装置11のカメラ11aと、車の前方を撮像する前方画像監視装置14のカメラ14aとが取り付けられている。図5では、ルームミラー75の上部に運転者監視装置11のカメラ11aが取り付けられ、ルームミラー75の下部に前方画像監視装置14のカメラ14aが取り付けられている。
図6は、図5に示した運転者の視界に入る対象物を複数の領域に分類した例を示している。
運転者視界領域101Aは、運転者の視界に入る全ての対象物を含む。また、運転者視界領域101Aの中に、運転席領域101D、後方視界領域101B、および前方視界領域101Fが含まれる。なお、前方視界領域101Fは、その中に位置する後方視界領域101Bを含まない。
運転席領域101Dには、オーディオ装置24、ナビゲーション装置25、エアコン装置60、ステアリングホイール61、コンビネーションスイッチ62、ハザードスイッチ63、パワーウィンドウスイッチ64、コンビネーションメータ72、ATセレクタ表示部73、およびクロック74などが対象物として含まれている。
後方視界領域101Bには、右ドアミラー54R、左ドアミラー54L、およびルームミラー75などが対象物として含まれている。
前方視界領域101Fには、オーバヘッド情報提示装置12のディスプレイ12a、ナビゲーション装置25のディスプレイ25b、フロントグラス51、右ウィンドウ52R、左ウィンドウ52L、ボンネット53、右ドアミラー54R、左ドアミラー54L、ステアリングホイール61、コンビネーションスイッチ62、ハザードスイッチ63、コンビネーションメータ72、およびクロック74などが含まれている。
なお、運転席領域101D、後方視界領域101B、および前方視界領域101Fの各領域に含まれる対象物は、対象物の一部が領域に含まれていればよい。
図7は、ルームミラー75の下部に取り付けられている前方画像監視装置14のカメラ14aによって検出される車外の対象物の例を示している。
前方画像監視装置14のカメラ14aによって、ボンネット53、道路121、路側帯の白線122、センターライン123、ガードレール124a乃至124d、ガードレール124a乃至124dに取り付けられたリフレクタ125a乃至125i、道路標識126、信号機127、道路121上の落下物128、建築物129、先行車130、および歩行者131などが対象物として検出される。
次に、図8を参照して、前方にある対象物を、運転者が見たときの方向と、レーザレーダ装置13および前方画像監視装置14が検出したときの方向の違いについて説明する。
上述したように、前方画像監視装置14のカメラ14aは、ルームミラー75の下部に取り付けられている。従って、運転者が前方にある対象物201を見たときの方向と、前方画像監視装置14が検出する対象物201の方向には違いが生じる。車体のフロアパネル202の前部に取り付けられているレーザレーダ装置13についても同様のことが言える。
即ち、運転者は、前方にある対象物201を、実線の矢印で示される方向ベクトルVAにあるものと認識する。運転者監視装置11は、その運転者の視線方向である方向ベクトルVAを、ルームミラー75の上部に取り付けられたカメラ11aによって撮影した画像から検出する。
一方、ルームミラー75の下部に取り付けられた前方画像監視装置14のカメラ14aは、対象物201を、点線の矢印で示される方向ベクトルVBにあるものと認識する。また、車体のフロアパネル202の前方中央部分に取り付けられているレーザレーダ装置13は、対象物201を、1点鎖線の矢印で示される方向ベクトルVCにあるものと認識する。
図8の方向ベクトルVA,VB、およびVCの方向の違いは、運転者の顔の位置と、レーザレーダ装置13、および前方画像監視装置14の位置がそれぞれ異なることにより発生している。しかしながら、方向ベクトルVA,VB、およびVCは、同一の対象物201の方向を向いているので、運転者監視装置11は、運転者がレーザレーダ装置13および前方画像監視装置14によって検出された対象物201を見ていると判定するべきである。
そこで、運転者監視装置11は、運転者監視装置11、レーザレーダ装置13、および前方画像監視装置14の位置を、例えば、車体のフロアパネル202の中心部ORGを原点、前後方向をX軸、左右方向をY軸、垂直方向をZ軸とする直交座標系(以下、適宜、自動車基準座標系と称する)で登録しておき、前方画像監視装置14が検出した対象物201の方向ベクトルVBとレーザレーダ装置13が検出した対象物201の方向ベクトルVCを、運転者の顔の位置を基準とする方向ベクトルVB’およびVC’に変換する。これにより、方向ベクトルVAとVB’およびVC’とが同一となり、運転者が対象物201を見ていると判定することができる。
直交座標系の原点は、上述した車体のフロアパネル202の中心部以外にも設定することが可能であるが、計算処理量軽減のため、地球上のある地点などではなく、運転者監視装置11、レーザレーダ装置13、および前方画像監視装置14の位置が固定とされる車体上のどこかに設定するのがよい。
また、図9に示すように、運転者が、後方にある対象物203を、例えば、右ドアミラー54Rを通して見ている場合、運転者の視線方向は、実線の矢印の方向VDで表される。一方、車体のフロアパネル202の後方中央部分に取り付けられている後方画像監視装置15は、対象物203を、点線の矢印で示される方向VEとして認識する。
この場合も、後方画像監視装置15が検出した対象物203の方向VEが、運転者の顔の位置を基準とする方向に変換され、運転者が対象物203を見ていると判定することができる。なお、運転者の視線方向VDは、右ドアミラー54Rで反射されているので、運転者の位置を反射面を基準に折り返すなどの計算処理が必要である。
図10は、運転者監視装置11のハードウエア構成例を示すブロック図である。
運転者監視装置11は、カメラ211、フレームメモリ212、CPU(Central Processing Unit)213、ROM(Read Only Memory)214、フラッシュメモリ215、車載バス接続部216、および内部バス217により構成されている。
カメラ211は、CCD(Charge Coupled Device)センサやCMOS(Complementary Mental Oxide Semiconductor)センサ等の撮像センサにより構成され、運転者を撮像し、撮像した運転者の画像をフレームメモリ212に供給する。なお、カメラ211では、上述したように、より正確に距離と方向を検出することができるように、2つの撮像センサで構成しても良い。
フレームメモリ212は、カメラ211で撮像された画像のデータを記憶し、必要に応じて、CPU213、フラッシュメモリ215、車載バス接続部216などに供給する。
CPU213は、ROM214に記憶されているプログラムに従って、所定の処理、例えば、フレームメモリ212から供給された画像から、運転者の顔向きおよび視線方向を検出する処理などを行う。
ROM214は、CPU213で実行するプログラムや、プログラムの実行に必要な初期データなどを記憶する。フラッシュメモリ215は、プログラムの実行時に一時的に保存することが必要となったデータや、電源オフ後にも記憶しておくことが必要なデータを適宜記憶する。
車載バス接続部216は、車載バス28と接続し、CPU213やフレームメモリ212と車載バス28より先の各装置との間でデータをやりとりする。内部バス217は、そこに接続されているフレームメモリ212、CPU213、ROM214、フレッシュメモリ215、および車載バス接続部216どうしでやりとりされるデータを中継する。
図11は、図4の車載システム1の機能的構成を表す機能ブロック図である。
車載システム1は、機能的には、対象検出部251、顔向き視線方向検出部252、および顔向き視線方向情報利用部253−1乃至253−3により構成されている。
対象検出部251は、運転者が視認する対象となる対象物のうち、動的な対象物を検出する。動的な対象物とは、例えば、車の前方に出現した対向車や歩行者などの、時間の経過とともに運転者の視界に出現したり、視界から消滅する対象物である。なお、対象物には、動的な対象物のほかに、時間の経過に関わらず運転者の視界に入る静的な対象物がある。
対象検出部251は、検出した対象物について、登録要求を顔向き視線方向検出部252に供給する。登録要求は、対象物を、顔向きおよび視線方向との関係の判定を行う判定対象リストへ登録することを要求するコマンドである。なお、対象検出部251は、対象物の登録要求を供給するとき、その対象物の属性情報も顔向き視線方向検出部252に供給する。対象物の属性情報には、対象物を識別するID、対象物の位置(方向)および大きさ(領域)などが含まれている。一定の時間、継続的に検出される同一の対象物については、同一のIDが付与される。従って、例えば、先行する車が数台検出されたとしても、それらを区別して、認識することができる。なお、対象検出部251に通信機能を持たせ、他の外部装置が検出した対象物についても登録要求を行うようにさせることもできる。
対象検出部251は、例えば、撮像装置、画像処理装置、物体センサ、レーザ式または電波式のレーダ装置などにより構成され、図4のレーザレーダ装置13、前方画像監視装置14、後方画像監視装置15、および室内画像監視装置16に対応する。
顔向き視線方向検出部252には、対象検出部251から、動的な対象物の登録要求が、また、顔向き視線方向情報利用部253−1乃至253−3から、静的な対象物の登録要求が、属性情報とともに、それぞれ供給される。
顔向き視線方向検出部252は、運転者の顔向きと視線方向を検出するとともに、登録要求が供給された対象物と運転者の顔向きまたは視線方向との関係を判定し、判定結果を顔向き視線方向情報利用部253−1乃至253−3(のいずれか)に供給する。なお、判定結果を顔向き視線方向情報利用部253−1乃至253−3のいずれに供給するかについては、対象物の属性情報(図14を参照して後述する)に設定されている。顔向き視線方向検出部252は、図4の運転者監視装置11に対応する。
顔向き視線方向情報利用部253(253−1乃至253−3のそれぞれ)は、図4のオーバヘッド情報提示装置12、エンジン制御装置17、セキュリティ装置18、パワーステアリング制御装置19、オートシート制御装置20、オートミラー制御装置21、パワーウィンドウ制御装置22、エアコン制御装置23、オーディオ装置24、ナビゲーション装置25、音声応答装置26、およびハンズフリー制御装置27に対応する。
顔向き視線方向情報利用部253は、操作パネルなど、自分の所定の領域を、静的な対象物として、その対象物の登録要求を顔向き視線方向検出部252に供給する。
顔向き視線方向情報利用部253は、顔向き視線方向検出部252から供給される判定結果を基に所定の動作を行わせる。
例えば、顔向き視線方向情報利用部253がパワーウィンドウ制御装置22である場合、パワーウィンドウ制御装置22は、パワーウィンドウスイッチを対象物として登録要求を行う。そして、判定結果として、運転者がパワーウィンドウスイッチを見ていることが顔向き視線方向検出部252(としての運転者監視装置11)から通知された場合、パワーウィンドウ制御装置22は、所定の動作として、パワーウィンドウスイッチのライトを点灯させる。
また例えば、顔向き視線方向情報利用部253がエアコン制御装置23である場合、エアコン制御装置23は、操作パネルを対象物として登録要求を行う。そして、判定結果として、停車中に運転者がエアコン制御装置23の操作パネルを見ていることが通知された場合、エアコン制御装置23は、所定の動作として、室内灯またはエアコンの操作パネルの照明を明るくする。これにより、運転者のエアコンの操作を容易にさせる。
例えば、顔向き視線方向情報利用部253がオーディオ装置24である場合、オーディオ装置24は、操作パネルを対象物として登録要求を行う。そして、判定結果として、停車中に運転者がオーディオ装置24の操作パネルを見ていることが通知された場合、オーディオ装置24は、所定の動作として、再生中のコンテンツの詳細情報をディスプレイに表示する。ここで、コンテンツの詳細情報とは、オーディオ装置24が放送局の電波を受信して音声を出力するラジオである場合、例えば、選局されている放送局名であり、オーディオ装置24がCDプレーヤである場合、再生中のトラックのトラック番号、曲のタイトル、アーティスト名などである。
例えば、顔向き視線方向情報利用部253がナビゲーション装置25である場合、ナビゲーション装置25は、操作パネルを対象物として登録要求を行う。そして、判定結果として、停車中に運転者がナビゲーション装置25の操作パネルを見ていることが通知された場合、ナビゲーション装置25は、所定の動作として、地図をスクロールさせたり、目的地の位置設定、または項目の選択などを行う。また、運転者がナビゲーション装置25のディスプレイを走行中に長時間注視している判定結果が通知されると、ナビゲーション装置25は、警告音を発生させたり、表示を消したりさせてもよい。
例えば、顔向き視線方向情報利用部253がハンズフリー制御装置27である場合、ハンズフリー制御装置27は、近距離無線通信により接続される携帯電話機を対象物として登録要求を行う。そして、判定結果として、運転者が携帯電話機を見ていることが通知された場合、ハンズフリー制御装置27は、所定の動作として、通話や操作を行うことができない状態(ドライブモードなど)に携帯電話機をさせる。
例えば、顔向き視線方向情報利用部253が音声応答装置26である場合、音声応答装置26は、突発音や救急車のサイレンなど人が反応する特徴を持つ音を検出して、音の方向を求め、音の発生源を対象物として登録要求を行う。そして、判定結果として、運転者が音の発生源を見ていることが通知された場合、音声応答装置26は、所定の動作として、脇見の警告音を発生させる。
また、顔向き視線方向情報利用部253は、必要に応じて、自身の制御情報を顔向き視線方向検出部252に供給することができる。例えば、顔向き視線方向情報利用部253としてのオートミラー制御装置21は、調整後の電動ミラーの方向(角度)および大きさ(面積)の情報を、顔向き視線方向検出部252に通知する。
なお、図11では、車載システム1が3つの顔向き視線方向情報利用部253−1乃至253−3を有することとしているが、顔向き視線方向情報利用部253は、1つまたは2つとすることもできるし、4以上とすることもできる。或いは、顔向き視線方向情報利用部253の下図が、車載システム1の状態に応じて、最適に増減するものでもよい。
図12は、図11の顔向き視線方向検出部252の詳細な構成例を示すブロック図である。
顔向き視線方向検出部252は、撮像部271、顔検出部272、顔向き検出部273、視線方向検出部274、器官状態検出部275、対象リスト登録部276、顔向き視線方向変換部277、対象リスト記憶部278、および判定部279により構成されている。
撮像部271は、被写体としての運転者を撮像し、その結果得られる画像(信号)を顔検出部272に供給する。
顔検出部272は、撮像部271から供給された画像から、運転者の顔の領域を検出し、検出された顔の領域の画像(以下、適宜、顔画像と称する)を顔向き検出部273、視線方向検出部274、および器官状態検出部275に供給する。
また、顔検出部272は、撮像部271から供給された運転者の画像と、顔向き視線方向情報利用部253からの制御情報に基づいて、運転者の顔の位置を検出し、その検出結果、を顔の位置情報として顔向き検出部273、視線方向検出部274、器官状態検出部275、および顔向き視線方向変換部277に供給する。具体的には、顔検出部272は、撮像部271から供給される運転者の画像と、顔向き視線方向情報利用部253としてのオートシート制御装置20から供給されるシートポジション情報、および、顔向き視線方向情報利用部253としてのオートミラー制御装置21から供給される電動ミラーの方向および大きさに基づいて、運転者の顔の位置を検出する。ここで得られる運転者の顔の位置は、自動車基準座標系における座標として求められる。
顔向き検出部273は、顔検出部272から供給される運転者の顔画像から、運転者の顔向きを検出し、その検出結果を顔向き情報として判定部279に供給する。視線方向検出部274は、顔検出部272から供給される運転者の顔画像から、運転者の視線方向を検出し、その検出結果を視線方向情報として判定部279に供給する。
ここで求められる運転者の顔向きおよび視線方向は、自動車基準座標系において、運転者の顔の位置を始点とし、X軸、Y軸、またはZ軸との角度として求められる。
器官状態検出部275は、顔検出部272から供給される運転者の顔画像から、目、鼻、口、眉、および耳などの、運転者の顔の器官を検出し、その検出結果を器官情報として判定部279に供給する。器官情報としては、目、鼻、口、眉、および耳の位置についての情報のほか、運転者が瞬きした動作や、あくびをした動作などを表す情報がある。
対象リスト登録部276には、動的な対象物の登録要求が対象検出部251(図11)から供給されるとともに、静的な対象物の登録要求が顔向き視線方向情報利用部253(図11)から供給される。なお、上述したように、対象物の登録要求が供給される場合には、それと同時に、対象物の属性情報(以下、適宜、対象情報とも称する)も供給される。
対象リスト登録部276は、登録要求が供給された対象物の属性情報に含まれる対象物の位置を顔向き視線方向変換部277に供給して、対象物の位置を、運転者の顔の位置を基準にした位置に変換させる。対象リスト登録部276は、変換後の対象物の位置を顔向き視線方向変換部277から取得し、変換後の位置を含む対象情報を対象リスト記憶部278に供給することにより、対象物を判定対象リストに登録する。
例えば、車のエンジンが始動すると、静的な対象物としてのパワーウィンドウスイッチ64やエアコン装置60の操作パネル60bの登録要求が顔向き視線方向情報利用部253(図11)から対象リスト登録部276に供給される。対象リスト登録部276は、パワーウィンドウスイッチ64やエアコン装置60の操作パネル60bの属性情報を対象リスト記憶部278の判定対象リストに登録する。また例えば、ナビゲーション装置25は、ディスプレイ25aと操作パネル25bを対象リスト登録部276に登録要求する。また、ナビゲーション装置25は、ディスプレイ25aに表示された図形や操作スイッチを対象リスト登録部276に登録要求する。オーディオ装置24は、ディスプレイ24aと操作パネル24bを対象リスト登録部276に登録要求する。エアコン制御装置60は、ディスプレイ60aと操作パネル60bを対象リスト登録部276に登録要求する。パワーステアリング制御装置19は、ステアリングホイール61、コンビネーションスイッチ62、コンビネーションメータ72などを登録要求する。前方画像監視装置14は、ドアミラー54Rおよび54L、ルームミラー75、運転者の視線を遮るAピラー55などを登録要求する。
なお、静的な対象物は、工場での装置の組み立て時や販売店での装置の取り付け時に、対象物の位置が決定するので、工場組み立て後や販売店での取付後に、予め判定対象リストに登録させることができる。顔向き視線方向情報利用部253が検出することを必要とする対象物を判定対象リストに登録することにより、顔向き視線方向情報利用部253の増減に柔軟に対応することができる。
また、対象検出部251によって登録要求される動的な対象物の例としては、歩行者や障害物がある。また例えば、前方画像監視装置14は、対向車、道路標識、信号機、道路上や道路周辺に存在する物体、空などの背景、横断歩道、自車の走行する車線、対向車線の道路領域、自転車などを登録要求する。後方画像監視装置15は、後方を走行する車や、後退するときの自車周辺の障害物を登録要求する。室内画像監視装置16は、運転者や同乗者を含む人、ペットなどの動物、バッグ、荷物、ぬいぐるみ、携帯電話機などの車に搭載された荷物、シート、シートベルトなどの車の一部、車内で発生する煙など、画像処理で検出可能な対象を登録要求する。
動的に検出された対象物は、検出されなくなった時点で、対象検出部251から削除要求が供給され、対象リスト登録部276は、削除要求された対象物の属性情報を、対象リスト記憶部278の判定対象リストから削除する。また、対象リスト登録部276は、属性情報に含まれる登録削除条件を参照し、そこに記載されている登録削除の条件に合致した対象物についても、対象リスト記憶部278の判定対象リストから削除する。
顔向き視線方向変換部277には、顔検出部272から運転者の顔の位置を表す位置情報が供給される。また、顔向き視線方向変換部277には、自動車基準座標系上における、対象検出部251の位置、即ち、レーザレーダ装置13、前方画像監視装置14、後方画像監視装置15、および室内画像監視装置16それぞれの取付位置が記憶されている。従って、運転者の顔の位置が顔向き視線方向変換部277に供給されると、運転者の顔の位置を基準とする対象検出部251の位置がベクトルとして求められる。この求められたベクトルを対象検出装置ベクトルと称する。
顔向き視線方向変換部277は、対象リスト登録部276から供給される、自動車基準座標系上における対象物の位置を、運転者の顔の位置を基準にした位置に変換する。なお、運転者の顔の位置を基準にした位置は、供給される対象物の位置ベクトルから、対象検出装置ベクトルを引くことにより求めることができる。
対象リスト記憶部278は、対象リスト登録部276から供給された対象情報を、図13を参照して後述するように、リンクリストのデータ構造で記憶する。このリンクリストのデータ構造で記憶された対象情報が判定対象リストとなる。
判定部279は、顔向き検出部273、視線方向検出部274、および器官状態検出部275からそれぞれ供給される、運転者の顔向き、視線方向、および器官情報に基づいて、判定対象リストに登録されている対象物について各種の判定を行い、その結果得られる判定結果を顔向き視線方向情報利用部253に通知する。例えば、判定部279は、対象物として登録されたパワーウィンドウスイッチ64の位置と、運転者の顔向きおよび視線方向とに基づいて、運転者がパワーウィンドウスイッチ64を見ているか否かを判定し、その判定結果を顔向き視線方向情報利用部253としてのパワーウィンドウ制御装置22に通知する。
次に、図13を参照して、対象リスト記憶部278において対象物のリストを記憶するときのデータ構造であるリンクリストについて説明する。
判定対象リストは対象物の情報を記憶する機能を有する。対象物に関する情報は判定対象リストから読み出すことができる。以下の説明は例であり、判定対象リストの構成は以下に説明する構成に限定されない。対象物に関する情報が記憶されて、読み出せる構成となっていればよい。
対象リスト記憶部278では、参照される項目のうちの、先頭項目のアドレスADRSTと最終項目のアドレスADREDが予め決定されている。
そして、先頭項目であるアドレスADRSTの位置に、1つ目の対象情報B1が記憶されている位置であるアドレスAD1が記憶されている。また、1つ目の対象情報B1が記憶されているアドレスAD1の位置には、その対象情報B1と、2つ目の対象情報B2が記憶されている位置であるアドレスAD2が記憶されている。以下、同様に、アドレスAD2の位置には、対象情報B2とアドレスAD3が記憶され、アドレスAD3の位置には、対象情報B3とアドレスAD4が記憶されている。そして、アドレスAD4の位置には、対象情報B4と最終項目のアドレスADREDが記憶されている。
また、例えば、新たな対象情報B5が対象リスト記憶部278に登録される場合、アドレスADREDに代えて、対象情報B5を記憶させたアドレスが、アドレスAD4の位置の対象物情報B4の後段に記憶される。対象情報B5を記憶させたアドレスをAD5とすると、その対象情報B5が記憶されたアドレスAD5の位置には、最終項目のアドレスADREDが記憶される。
従って、対象リスト記憶部278を参照する判定部279は、それぞれに記憶されているアドレスの位置を先頭項目から最終項目までを順次参照することにより、登録されている対象情報を確認することができる。
図14は、対象情報(対象物の属性情報)の構成例を示している。
対象情報は、図14に示すように、1)ID、2)名称、3)位置、大きさ、および形状、4)登録した装置、5)通知する装置のリスト、6)出力形式、7)対象物の検出時間、8)判定時期の条件、9)登録削除条件、10)対象物の要注意度、11)対象物の説明、12)見るべき度、13)状態との対応、および14)通知内容の14項目からなっている。なお、すべての項目が必ずしも記載される必要はなく、不要な項目は省略することが可能である。以下に、各項目について説明する。
1)ID
この項目には、対象リスト記憶部278に登録された対象情報を識別するIDが記載される。
2)名称
この項目には、対象物の名称が記載される。名称は、個人名など固有の名前でも、車種や犬、猫などの分類名でもよい。また、名称は、“前方の歩行者”や“駐車禁止の標識”のような説明的な表現でもよい。無線通信装置で検出されるID(識別子)や、運転者が任意に設定したIDなどを名称としてもよい。対象物が車である場合には、車のナンバープレートに記載された登録番号を読み取って名称としてもよい。例えば、前方画像監視装置14が検出した対象物の名称を画像とともにオーバヘッド情報提示装置12に表示させることにより、運転者に通知することができる。
3)位置、大きさ、および形状
この項目には、対象物の位置、大きさ(領域)、および形状が記載される。対象物の位置は、運転者の顔の位置を基準とした位置ベクトルで表される。対象物の大きさは、2次元の領域で表すことができる。例えば、ナビゲーション装置25のディスプレイ25aについては、ディスプレイ25aの四隅を示す4つの座標で表現される矩形の領域とすることができる。形状は、球状、直方体など、対象物の見かけの形で表される。また、形状は、3次元CADデータや、その他の形式で表すことができる。例えば、運転者の目から見てふくらみのある3次元形状のボンネット53の形状を、車のCADデータを採用することができる。
4)登録した装置
この項目には、対象リスト記憶部278に登録した装置(対象検出部251や顔向き視線方向情報利用部253)が記載される。
5)通知する装置のリスト
この項目には、判定部279が判定結果を通知する対象の装置(通知対象装置)のリストが記載される。判定部279がこの項目を参照し、判定対象リストに登録された装置に判定結果を通知することで、複数の装置に通知することが可能となり、対象物を登録した装置以外の装置にも通知することが可能となる。
6)出力形式
この項目には、判定部279が判定結果を出力するときの形式が記載される。例えば、顔向きや視線方向を“3次元ベクトル形式で出力する”や“極座標形式で出力する”などのような出力形式が指定可能である。
7)対象物の検出時間
この項目には、対象物が検出された時間が記載される。あるいは、対象物が検出されていない間の時間が記載される場合もある。これにより、対象物がいつからいつまで検出されたかに応じた装置の利用が可能となる。
8)判定時期の条件
この項目には、判定部279が対象物の判定を行う判定時期の条件が記載される。判定時期の条件としては、例えば、“装置から要求があるとき”、“1秒間隔など所定の間隔”、“対象物の状態が所定の状態になったとき”、“運転者や歩行者など人の状態が所定の状態になったとき”、または、“自車、対向車、先行車など車の状態が所定の状態になったとき”などがある。また、車外に存在する対象物について、車の速度が大きくなるほど判定周期を短く設定するようにすれば、高速で走行しているときに、判定が遅れるのを防ぐことができる。車外に存在する対象物について、対象物までの距離が短いほど判定周期を短く設定するようにすれば、対象物に接近するまでの時間が短いときに、判定が遅れるのを防ぐことができる。運転者が対象物の確認をすべき程度が高い場合に、判定周期を短く設定するようにすれば、運転者が対象物を確認していないことの検出を適切に行うことができる。
9)登録削除条件
この項目には、判定対象リストから対象情報を削除する条件が記載される。条件は、例えば、“対象物を登録した装置から削除要求が送られたとき”、“登録時に設定された時間が経過したとき”、“登録された対象物を利用する装置が検出されなくなったとき”、“対象物が検出されなくなったとき”、“対象物が所定の状態になったとき”、“人が所定の状態になったとき”、または“車が所定の状態になったとき”などがある。
10)対象物の要注意度
この項目には、対象物が要注意であるかについての度合いが記載される。この項目の情報は、顔向き視線方向情報利用部253によって利用される。例えば、自車が走行している車線の前方に、歩行者、自転車、または障害物が対象物として検出されたときにはその対象物の要注意度が高く設定される。また例えば、対象物としての道路標識の要注意度が高く設定される。要注意度は複数レベルに設定してもよい。あるいは、自車の速度が大きいときに要注意度を高く設定するようにしてもよい。
11)対象物の説明
この項目には、対象物の説明や詳細情報が記載される。この項目の情報は、顔向き視線方向情報利用部253によって利用される。例えば、この項目の情報を、オーバヘッド情報提示装置12に表示させたり、音声応答装置26に音声で出力させたりすることができる。
12)見るべき度
この項目には、対象物を“見るべきである”のか、あるいは、“見るべきではない”のかを表す“見るべき度”が記載されている。この項目では、例えば、100または0などの値で、それぞれ、“見るべきである”のか、あるいは、“見るべきではない”のかが表される。例えば、運転者は走行中にエアコン装置60の操作パネル60bや、オーディオ装置24のディスプレイ24a、車側方の風景などを長時間見ると危険である。従って、これらの対象物に対しては低い“見るべき度”が設定される。一方、前方画像監視装置14で検出される前方の歩行者や自転車の飛び出しを見落とすと非常に危険であり、運転者は走行中に前方の道路領域を見て安全を確認すべきである。従って、この対象物に対しては高い“見るべき度”が設定される。
13)状態との対応
この項目には、上述した12)の“見るべき度”の程度が、運転者の状態や車の走行状態に応じて変わる場合に、運転者の状態や車の走行状態に対応させた“見るべき度”が記載される。この項目では、例えば、0乃至100の間の数値で、“見るべき度”の程度が表される。例えば、走行中にオーディオ装置24のディスプレイ24aや携帯電話機を長時間注視することは危険であるが、駐車中であれば問題がない。従って、オーディオ装置24のディスプレイ24aや携帯電話機の対象物に対して、走行中に対して低い“見るべき度”、および、運転中に対して高い“見るべき度”が記載される。また例えば、駐車中には、前方を見る必要がないが走行中には安全を確認するために前方を見る必要がある。従って、前方の対象物に対して、走行中には高い“見るべき度”、および、停車中には低い“見るべき度”が記載される。さらに例えば、燃料タンクの残量表示を長時間見つめるべきではないが、高速道路の運転中などでは、長時間燃料タンクの残量表示を見ずに走行すればガソリンが無くなることがあるので、時々確認する必要がある。速度計も同様である。これらの対象物については、運転者が見ていなかった時間の長さに応じて、高、中、低それぞれの程度の“見るべき度”が設定される。
14)通知内容
この項目には、通知内容の範囲を指定する条件が記載される。対象物ごと、あるいは通知対象装置ごとにこの項目の内容を設定することもできる。
次に、図15のフローチャートを参照して、動的な対象物の検出を行う対象検出部251の対象物検出処理について説明する。ここでは、対象検出部251として、前方画像監視装置14が処理を行う場合の例を説明する。この処理は、例えば、車載システム1が起動されたときに開始され、車載システム1が停止されるまで繰り返し実行される。なお、処理開始または終了のタイミングについては、後述する図16乃至図19のフローチャートも同様である。
初めに、ステップS1において、対象検出部251(前方画像監視装置14)が、1枚の画像を撮像し、その結果得られた画像のなかに、対象物を検出したか否かを判定する。ステップS1で、対象物を検出していないと判定した場合、対象検出部251は、処理をステップS6に進める。
一方、ステップS1で、対象物を検出したと判定された場合、ステップS2において、対象検出部251は、検出された対象物が以前と同一の対象物であるか否かを判定する。後述するように、ステップS1の処理は、定期的に、あるいは、不定期に繰り返されるため、以前に検出したものと同一の対象物が検出される場合がある。そのため、ステップS2の処理では、今回のステップS1の処理で検出された対象物が、前回のステップS1の処理で検出された対象物と同一であるか否かが判定される。
ステップS2で、検出された対象物が以前と同一の対象物ではないと判定された場合、ステップS3において、対象検出部251は、その検出された対象物の登録要求を、検出された対象物の属性情報とともに、顔向き視線方向検出部252の対象リスト登録部276に供給する。
ステップS2で、検出された対象物が以前と同一の対象物であると判定された場合、ステップS4において、対象検出部251は、その検出された対象物の属性情報のうちの2)の位置、大きさ、および形状の情報を、対象リスト登録部276に供給して、更新する。
ステップS3またはS4の処理後、ステップS5において、対象検出部251は、ステップS1の処理で撮像された画像において、他の対象物を検出したか否かを判定する。ステップS5で、他の対象物を検出したと判定された場合、対象検出部251は、処理をステップS2に戻し、上述したステップS2乃至S5の処理を繰り返す。
一方、ステップS5で、他の対象物を検出していないと判定された場合、ステップS6において、対象検出部251は、ステップS1の処理で撮像された画像において、前回の画像と比較して、検出されなくなった対象物があるか否かを判定する。ステップS6で、検出されなくなった対象物はないと判定された場合、処理は終了する。なお、前回の画像がない場合についても、ステップS6では、検出されなくなった対象物がないと判定される。
一方、ステップS6で、検出されなくなった対象物があると判定された場合、ステップS7において、対象検出部251は、検出されなくなった対象物の削除要求を顔向き視線方向検出部252の対象リスト登録部276に供給し、処理を終了する。
ステップS1乃至S7の処理は、上述したように、車載システム1が停止するまで繰り返されるので、車載システム1では、動的な対象物の検出が常に実行され、新たに検出された対象物については、登録要求が対象リスト登録部276に供給されるとともに、検出されなくなった対象物については、削除要求が対象リスト登録部276に供給される。
次に、図16のフローチャートを参照して、顔向き視線方向検出部252の顔向き視線方向検出処理について説明する。
初めに、ステップS21において、撮像部271は、被写体としての運転者を撮像し、その結果得られる画像を顔検出部272に供給する。
ステップS22において、顔検出部272は、撮像部271から供給された画像から、運転者の顔の領域を検出し、検出された顔の領域の画像(顔画像)を顔向き検出部273、視線方向検出部274、および器官状態検出部275に供給する。
ステップS23において、顔検出部272は、撮像部271によって撮像された運転者の画像と、顔向き視線方向情報利用部253からの制御情報に基づいて、運転者の顔の位置を検出し、その検出結果を顔の位置情報として、顔向き検出部273、視線方向検出部274、器官状態検出部275、および顔向き視線方向変換部277に供給する。
ステップS24において、顔向き検出部273は、顔検出部272から供給される運転者の顔画像から、運転者の顔向きを検出し、その検出結果を顔向き情報として判定部279に供給する。
ステップS25において、視線方向検出部274は、顔検出部272から供給される運転者の顔画像から、運転者の視線方向を検出し、その検出結果を視線方向情報として判定部279に供給する。
ステップS26において、器官状態検出部275は、顔検出部272から供給される運転者の顔画像から、目、鼻、口、眉、耳などの、運転者の顔の器官を検出し、その検出結果を器官情報として判定部279に供給して、処理を終了する。
次に、図17のフローチャートを参照して、顔向き視線方向検出部252のリスト登録処理について説明する。
初めに、ステップS41において、対象リスト登録部276は、対象検出部251または顔向き視線方向情報利用部253から、対象物の登録要求があったか否かを判定し、対象物の登録要求があると判定するまで待機する。
ステップS41で、対象物の登録要求があると判定された場合、ステップS42において、対象リスト登録部276は、登録要求が供給された対象物の属性情報に含まれる対象物の位置を顔向き視線方向変換部277に供給して、対象物の位置を運転者の顔の位置を基準とする位置に変換させる。顔向き視線方向変換部277は、供給された対象物の位置を、運転者の顔の位置を基準とする位置に変換する。
ステップS43において、対象リスト登録部276は、変換後の位置を含む対象情報を対象リスト記憶部278に供給することにより、対象物を判定対象リストに登録する。
ステップS44において、対象リスト登録部276は、判定対象リストから削除する対象物があるか否かを判定する。ステップS44では、対象検出部251から削除要求が供給されたか、または、対象情報のなかの登録削除条件を満たす対象物が存在した場合、判定対象リストから削除する対象物があると判定される。ステップS44で、削除する対象物がないと判定された場合、ステップS45がスキップされ、処理は終了する。
一方、ステップS44で、削除する対象物があると判定された場合、ステップS45において、対象リスト登録部276は、削除が決定された対象物を、対象リスト記憶部278の判定対象リストから削除して、処理を終了する。
次に、図18のフローチャートを参照して、判定対象リストに登録された対象物について判定する判定処理について説明する。
初めに、ステップS61において、判定部279は、対象リスト記憶部278に判定対象リストとして登録されている対象物があるか否かを判定し、登録されている対象物があると判定されるまで、ステップS61の処理が繰り返される。
そして、ステップS61で、登録されている対象物があると判定された場合、ステップS62において、判定部279は、判定対象リストから1つの対象物を選択する。ステップS61の処理後の1回目の処理では、図13を参照して説明したように、アドレスAD1の位置に記憶されている対象物が選択される。ここで選択された対象物を、以下では、選択対象物と称する。
ステップS63において、判定部279は、選択対象物が、その属性情報のうちの判定時期の条件を満足するか否かを判定する。ステップS63で、判定時期の条件を満足しないと判定された場合、処理は、ステップS64乃至S67をスキップし、ステップS68に進む。
一方、ステップS63で、判定時期の条件を満足すると判定された場合、ステップS64において、判定部279は、運転者の顔向きと対象物との関係を判定し、ステップS65において、運転者の視線方向と対象物との関係を判定し、ステップS66において、運転者の顔向きと視線方向を組み合わせて、対象物との関係を判定する。なお、ステップS64乃至S66では、必要に応じて、器官状態検出部275からの器官情報が利用される。
ステップS67において、ステップS64乃至S66で判定した判定結果を、選択対象物の属性情報の“5)通知する装置のリスト”に記載された装置(通知対象装置)に通知する。
ステップS68において、判定部279は、次の対象物が登録されているか否かを判定する。ステップS68で、次の対象物が登録されていると判定された場合、処理はステップS62に戻り、ステップS62乃至S68の処理が繰り返される。即ち、対象リスト記憶部278で選択対象物とともに記憶されているアドレスが最終項目のアドレスADRED以外を示している場合、そのアドレスに記憶されている対象物が、次の選択対象物として選択され、運転者の顔向きまたは視線方向と対象物との関係が判定され、その判定結果が通知対象装置に通知される。
一方、ステップS68で、次の対象物が登録されていないと判定された場合、即ち、対象リスト記憶部278で選択対象物とともに記憶されているアドレスが最終項目のアドレスADREDを示している場合、処理は終了する。
上述したステップS64乃至S66において、判定部279が行う判定の例についてさらに説明する。
判定部279は、登録された対象物が運転者の視線方向と同一の方向にあるかどうかにより、運転者が対象物を見ているか否かを判定して、通知する。具体的には、判定部279は、運転者の視線方向が対象物の方向および大きさからなる対象領域を向いている場合に、運転者が対象物を見ていると判定する。また反対に、運転者の視線方向が対象領域を向いていない対象物に対しては、運転者が対象物を見ていないと判定して、通知することもできる。例えば、判定部279は、高速道路で100m以上はなれて走行している先行車の方を見ているか否かを判定することができる。また、判定部279は、燃料タンクの残量アラームインジケータを見ているか否かを判定することができる。さらに、判定部279は、ディスプレイに表示された選択項目のどれを見ているかを判定することもできる。
なお、判定部279は、運転者の顔向きまたは視線方向と、運転者から見た対象物の方向との方向の差である角度情報をそのまま判定結果として通知してもよい。
運転者が顔向きや視線を回した途中の過程で、移動中の視線が対象領域を通過することがある。視線方向の移動速度が大きいときには、運転者の視線方向が通過した対象領域をよく見ていないこともある。運転者の顔向きと視線方向の双方を独立して検出していれば、顔向きと視線方向が一致して移動することが検出されるので、このような状態を正確に判定することができる。判定部279は、所定時間の間に視線方向が対象領域を向いているときに対象物を見たと判定して、判定結果を通知することができる。例えば、2秒間の視線方向の移動を解析し、例えば0.5秒以上の時間だけ、視線方向が対象領域にとどまっていなければ、見ていないと判定することができる。視線方向のとどまるべき時間は、車の速度や対象物の相対移動速度、緊急度などに応じて変化させるようにできる。所定時間の間に視線方向が対象領域に含まれた時間の比率に応じた度合いを判定結果として付加してもよい。
また、運転者が対象物を見ている場合であっても、運転者の注意力が低下してくると、対象物を向いている運転者の視線方向の細かい動きが減少する。このような運転者の視線方向の動きから、判定部279は、運転者の注意力の低下を判定し、通知する。なお、注意力の低下の判定には、運転者の瞬きの変化や表情の変化など器官情報や、運転者の体温や血圧、脈拍などの生体情報を加えてもよい。判定部279は、注意力の低下の度合いも通知してもよい。
判定部279は、運転者の顔向きまたは視線方向と、運転者から見た対象物の方向とから、運転者が脇見をしているか否かを判定し、その判定結果を通知する。具体的には、判定部279は、高度の見るべき度が設定されている対象物を運転者が見ている場合には、運転者が脇見をしていないと判定する。また、判定部279は、限度時間を設定し、高度の見るべき度が設定されている対象物であっても、設定された限度時間以上その対象物を見ている場合には、脇見であると判定することができる。なお、脇見の判定結果に脇見の程度を付加してもよい。
また、判定部279は、対象物とは関係なく、運転者の顔向きまたは視線方向から、運転者の動作を判定し、その判定結果を通知することも可能である。この場合、判定部279は、判定対象リストに登録されている全ての対象物を通知対象装置としてもよいし、判定部279自身で通知対象装置を選別してもよい。
例えば、運転者の視線方向が顔向きと同じ方向を向いたまま顔向きが移動する場合には単純な首振り運動をおこなっていると判定する。この単純な首振り運動中には、特定の方向を見ていることができないので、特定の対象物を見ていないという判定結果を通知する。
また、視界に入っていないために見えていないものを見ようとするとき、人は、見ようとする方向に首を振る動作を行う。このような動作では、視線方向角度は、顔向きの角度よりも先に振り向く先の方向に移動する動きとなる。従って、判定部279は、顔向きの角度よりも大きな角度の視線方向の変化が反復なく行われた場合に、運転者が振り返る動作を行ったと判定する。
例えば、首が疲れたとき、運転者は首を回したり、倒したり、意図的に首を動かす動作を行う。判定部279は、運転者の顔向きが縦または横に移動し、視線方向が特定の方向に向いたままであるとき、首を意図的に動かす動作を行ったと判定する。
顔を縦や横に動かした後、1秒あるいはそれ以下の短い時間停止させ、すぐに戻す運転者の動作が検出されることがある。この顔向きの動きと、視線方向の動きが一致している場合には、判定部279は、運転者が停止した方向を一瞬見る動作を行ったと判定する。また、視線方向が特定の領域付近を向いたまま顔向きが変化して元に戻った場合には、判定部279は、運転者がある対象物を見たまま頭部を動かす動作をおこなったと判定する。視線方向が特定の領域付近を向いたまま顔向きが変化してすぐ元に戻る変化が反復する場合には、運転者が対象物を見たまま頭部を動かす動作を行ったと判定する。
判定部279は、車の速度がゼロでなくて、運転者の顔向きが長時間下を向いている場合に、運転者が意識を失っていると判定する。この判定は、確実性を高めるために、音声で呼びかけを行って、反応の有無を確認してもよい。また、運転者がシートにもたれた状態で意識を失うと、顔向きが前方を向いた状態となっている場合があるので、判定部279は、運転者の視線方向が高度の見るべき度の対象物に向いていなくて、長時間特定の一定方向を向いていたら、意識を失っていると判定することもできる。
会話をしているときや、装置から質問を受けたときなどに、運転者が半ば無意識のうちに首を縦に振るうなずき動作や、否定の意思を示す首を横に振る動作を行うことがある。判定部279は、視線方向が変化せずに、顔向きだけが縦または横方向に1回から数回往復に動いたときには、このような運転者の動作も判定することができる。
次に、図19のフローチャートを参照して、顔向き視線方向情報利用部253の顔向き視線方向利用処理について説明する。なお、以下の顔向き視線方向利用処理の説明では、顔向き視線方向情報利用部253がパワーウィンドウ制御装置22である場合の例について必要に応じて補足して説明する。
初めに、ステップS81において、顔向き視線方向情報利用部253は、対象リスト記憶部273の判定対象リストに登録する静的な対象物があるか否かを判定する。ステップS81で、判定対象リストに登録する静的な対象物がないと判定された場合、処理はステップS83に進む。
一方、ステップS81で、判定対象リストに登録する静的な対象物があると判定された場合、ステップS82において、顔向き視線方向情報利用部253は、その対象物の登録要求を顔向き視線方向検出部252に供給する。例えば、パワーウィンドウ制御装置22は、パワーウィンドウスイッチ64の登録要求を供給する。
ステップS83において、顔向き視線方向情報利用部253は、判定結果が通知されたか否かを判定する。ステップS83で、判定結果が通知されていないと判定された場合、処理は終了する。
一方、ステップS83で、判定結果が通知されたと判定された場合、ステップS84において、顔向き視線方向情報利用部253は、判定部279から供給された判定結果を確認する。例えば、運転者の視線方向が、パワーウィンドウスイッチ64を向いていることを表す判定結果がパワーウィンドウ制御装置22に供給され、パワーウィンドウ制御装置22が、その内容を確認する。
ステップS85において、顔向き視線方向情報利用部253は、判定結果に対応する動作を行うか否かを判定し、判定結果に対応する動作を行わないと判定された場合、処理は終了する。
一方、ステップS85で、判定結果に対応する動作を行うと判定された場合、ステップS86において、顔向き視線方向情報利用部253は、判定結果に対応する動作を行って、処理を終了する。例えば、パワーウィンドウ制御装置22は、判定結果に対応する動作として、パワーウィンドウスイッチ64のライトを点灯させる。
以上のように、人の顔の向きや視線の方向の情報によって、人の動作または状態を識別できるので、人の動作または状態に対応する処理を装置に行わせることができる。なお、上述した例では、登録された1つの対象物に対して1つの判定を行うようにしたが、登録された複数の対象物を統合し、統合された対象物に対して判定を行うようにすることもできる。
上述した実施の形態では、ルームミラー75の上部に取り付けられている運転者監視装置11の撮像部11aが、運転者の顔向きと視線方向の両方を検出するようにしたが、運転者の視線方向をより認識しやすくするため、ルームミラー75の上部に取り付けられている運転者監視装置11の撮像部11aを運転者の顔向きを専用に検出するものとし、それとは別に、運転者を顔の正面から撮影する視線方向専用のカメラを設けるようにしてもよい。この場合、視線方向専用のカメラから検出された運転者の視線方向は、運転者の顔の正面を基準とする角度で表されるため、それを、本来求めるべき最終的な運転者の視線方向(最終視線方向)に変換する必要がある。最終視線方向は、視線方向専用のカメラで検出された視線方向角度と運転者の顔向き角度の和(最終視線方向=視線方向角度+顔向き角度)で表される。
図20と図21を参照して、運転者の顔の正面から常に撮像する視線方向専用のカメラを設けた場合の最終視線方向の計算方法について説明する。図20は、対象物が進行方向と同一の方向(自車の正面)にある場合の例を示しており、図21は、対象物が進行方向より左側20度の角度にある場合の例を示している。なお、図20および図21では、進行方向を基準方向として、基準方向から反時計回りの方向を正の角度として表している。
図20のAは、運転者が自車の正面にある対象物302を顔向き角度0度で見ている状態を上方から示している。運転者の顔の正面に視線方向専用のカメラ301が位置しており、そのカメラ301により、図20のBに示すような運転者の顔が撮像される。この場合、最終視線方向の角度は、計算するまでもなく0度である。
図20のCは、運転者が自車の正面にある対象物302を顔向き角度−30度で見ている状態を上方から示している。図20のCにおいても運転者の顔の正面に視線方向専用のカメラ301が位置しており、そのカメラ301により、図20のDに示すような運転者の顔が撮像される。この場合、視線方向専用のカメラ301の画像から検出される視線方向の角度は、顔向きの方向を基準として+30度で計算される。一方、顔向きの角度は、基準方向から−30度として検出されるので、最終視線方向は0度(最終視線方向=視線方向角度+顔向き角度=+30−30=0度)となる。
一方、図21のAは、運転者が進行方向から+20度にある対象物302を顔向き角度0度で見ている状態を上方から示している。運転者の顔の正面に視線方向専用のカメラ301が位置しており、そのカメラ301により、図21のBに示すような運転者の顔が撮像される。この場合、視線方向専用のカメラ301の画像から検出される視線方向の角度は、顔向きの方向を基準として+20度で計算される。一方、顔向きの角度は、基準方向から0度として検出されるので、最終視線方向は+20度(最終視線方向=視線方向角度+顔向き角度=+20+0=+20度)となる。
図21のCは、運転者が進行方向から+20度にある対象物302を顔向き角度−30度で見ている状態を上方から示している。図21のCにおいても運転者の顔の正面に視線方向専用のカメラ301が位置しており、そのカメラ301により、図21のDに示すような運転者の顔が撮像される。この場合、視線方向専用のカメラ301から検出される視線方向の角度は、顔向きの方向を基準として+50度で計算される。一方、顔向きの角度は、基準方向から−30度として検出されるので、最終視線方向は+20度(最終視線方向=視線方向角度+顔向き角度=+50−30=+20度)となる。
判定対象リストに記録された対象物に関する情報を用いることで、運転者の状態を的確に判定することができる。以下に具体的な例を示す。
運転者は、車内にある対象物、例えばオーディオ装置24の操作パネル24b、ナビゲーション装置25の操作パネル25b、エアコン装置60の操作パネル60b、ステアリングホイール61、ライトスイッチ、ワイパースイッチ、およびウィンカースイッチなどの取り付けられたコンビネーションスイッチ62、ハザードスイッチ63、または、パワーウィンドウスイッチ64を見る。また、運転者は運転中に前方を確認するために車外の対象物、例えばガードレール124a乃至124d、ガードレール124a乃至124dに取り付けられたリフレクタ125a乃至125i、道路標識126、信号機127、道路121上の落下物128、建築物129、先行車130、または、歩行者131の方向を見る。
運転者が視線方向や顔向きに関連して行うべき行為、行っても良い行為、並びに、行うべきでない行為は、対象物ごとに異なり、さらに状況によっても異なる。また、視線を向けて注視する必要性は対象物ごとに異なる。例えば、ガードレール124a乃至124dは視認しやすく、見落とす可能性が低いので、視線を向けて注視する必要性は低い。進行方向にいる歩行者131は見落とすと問題があるので、視線を向けて注視する必要性が高い。したがって、対象検出部251が検出した対象物であるガードレール124a乃至124dや歩行者131を判定対象リストに登録するときにガードレール124a乃至124dには見るべき度を低く設定し、歩行者131には見るべき度を高く設定することによって、見るべき度合いに応じた判定を行うことができる。
車が走行中であるかまたは停車中であるかに応じて、対象物の方向を見てもよい程度や見るべきではない程度は変化する。例えば、走行中の運転者はオーディオ装置24の操作パネル24bを注視すべきではない。しかし、停車中にオーディオ装置24の方向を注視して操作を行うことは問題がない。
オーディオ装置24が操作パネル24bに視線を向けたことを通知するように、判定対象リストへの登録を行うことで、運転者がオーディオ装置24を操作しようとする意思を検出することができ、さらに操作パネル24bの一部分である音量表示部やチャンネル表示部に視線を向けたことを検出して、オーディオ装置24に制御のための信号として出力することで操作の利便性を高めることができる。運転中にオーディオ装置24の各部に視線を向けて注視することは問題があるので、警告を通知すべきである。そこで、車が走行中である場合には、対象物であるオーディオ装置24の見るべき度を低くし、車が停車中である場合にはオーディオ装置24の見るべき度を高くすることによって、状態に応じて適切に判定することができる。
また、対象物ごとに判定を行う時期を設定できるようにすることで、判定の頻度に求められる程度に対応して対象物と顔向きまたは視線方向との関係に応じて人の状態を判定することが可能となり、より適切に装置の制御を行うことができる。
例えば、運転者の状態を人の顔向きおよび視線方向と対象物との関係に基づいて判定を行う時期を設定するようにできる。時期を設定することで、判定を行うべき適切なタイミングで判定することが可能となる。歩行者131が対象物として検出されたときに、歩行者131が検出されている間0.5秒ごとに視線を向けたかどうかを判定して出力するようにすれば、運転者が歩行者を見たかどうかがわかる。
運転者の視線方向の動きに応じてオーディオ装置24を制御することで運転者がオーディオ装置24に視線を向けたときにオーディオ装置24の操作が行えるようにすることができるが、オーディオ装置24がオフになっているときにまで、例えば、操作パネル24bの一部分である音量表示部に視線を向けたことなどを検出する必要はない。従って、例えば、自動車のエンジンがオンになったときには運転者がオーディオ装置24を見たことを検出して出力するように判定対象リストに登録し、オーディオ装置24の電源がオンになったときには、運転者が、操作パネル24bの一部分、例えば音量操作部、音質操作部を見たことを0.5秒ごとに検出するように判定対象リストの設定を変更すれば、必要なときにだけ詳細な判定が行われるようになって無駄な処理を行わないようにすることができる。これにより、判定対象リストに登録する対象物の数が増えたときに、無駄な処理を大幅に減らすことができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。

Claims (12)

  1. 人の動作または状態を利用して装置の制御を行う制御装置に、前記人の動作または状態を出力する監視装置であって、
    前記人の顔向きを検出する顔向き検出手段と、
    前記人の視線方向を検出する視線方向検出手段と、
    前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定し、その判定結果を前記制御装置に出力する判定手段と
    を備える監視装置。
  2. 前記対象物を判定対象リストに登録する登録手段をさらに備え、
    前記判定手段は、前記判定対象リストに登録されている前記対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定する
    請求項1に記載の監視装置。
  3. 前記対象物には、時間の経過とともに前記人の視界に出現し、または前記人の視界から消滅する動的な対象物と、時間の経過に関わらず前記人の視界に入る静的な対象物とがあり、
    前記登録手段は、前記制御装置から、前記判定対象リストに登録する登録要求が供給された前記静的な対象物を、前記判定対象リストに登録する
    請求項2に記載の監視装置。
  4. 前記登録手段は、前記動的な対象物を検出する対象物検出装置から、前記判定対象リストに登録する登録要求が供給された前記動的な対象物を、前記判定対象リストに登録する
    請求項3に記載の監視装置。
  5. 前記判定対象リストには、前記対象物ごとに、判定を実行する時期、前記判定結果を出力する前記制御装置、および前記判定対象リストから前記対象物を削除する条件が少なくとも登録され、
    前記判定手段は、前記判定対象リストの前記判定を実行する時期に、前記人の動作または状態を判定する
    請求項2に記載の監視装置。
  6. 前記人の顔の位置を検出する顔位置検出手段と、
    前記対象物の位置を、前記人の顔の位置を基準とする位置に変換する位置変換手段と
    をさらに備え、
    前記判定手段は、前記人の顔の位置を基準とする、前記対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定する
    請求項1に記載の監視装置。
  7. 前記人の顔の器官の状態を検出する器官状態検出手段をさらに備え、
    前記判定手段は、前記人の顔の器官の状態にも基づいて、前記人の動作または状態を判定する
    請求項1に記載の監視装置。
  8. 人の動作または状態を利用して装置の制御を行う制御装置に、前記人の動作または状態を出力する監視装置の監視方法であって、
    前記人の顔向きを検出し、
    前記人の視線方向を検出し、
    前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定し、その判定結果を前記制御装置に出力する
    ステップを含む監視方法。
  9. 人の動作または状態を利用して装置の制御を行う制御装置に、前記人の動作または状態を出力する処理を、コンピュータに実行させるプログラムであって、
    前記人の顔向きを検出し、
    前記人の視線方向を検出し、
    前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて、前記人の動作または状態を判定し、その判定結果を前記制御装置に出力する
    ステップを含むプログラム。
  10. 監視装置から出力される人の動作または状態を利用して装置の制御を行う制御装置であって、
    前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて前記人の動作または状態を判定する判定対象リストに、前記装置の一部を前記対象物として登録することを前記監視装置に要求し、その要求に応じて前記監視装置から返信されてくる前記判定の結果を利用して、前記装置に所定の処理を実行させる
    制御装置。
  11. 監視装置から出力される人の動作または状態を利用して装置の制御を行う制御装置の制御方法であって、
    前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて前記人の動作または状態を判定する判定対象リストに、前記装置の一部を前記対象物として登録することを前記監視装置に要求し、その要求に応じて前記監視装置から返信されてくる前記判定の結果を利用して、前記装置に所定の処理を実行させる
    ステップを含む制御方法。
  12. 監視装置から出力される人の動作または状態を利用して行う装置の制御を、コンピュータを実行させるプログラムであって、
    前記人の視界に入る対象物と、前記人の顔向きまたは視線方向との関係に基づいて前記人の動作または状態を判定する判定対象リストに、前記装置の一部を前記対象物として登録することを前記監視装置に要求し、その要求に応じて前記監視装置から返信されてくる前記判定の結果を利用して、前記装置に所定の処理を実行させる
    ステップを含むプログラム。
JP2008505202A 2006-03-15 2007-03-15 監視装置および監視方法、制御装置および制御方法、並びにプログラム Active JP5120249B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008505202A JP5120249B2 (ja) 2006-03-15 2007-03-15 監視装置および監視方法、制御装置および制御方法、並びにプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006071683 2006-03-15
JP2006071683 2006-03-15
PCT/JP2007/055204 WO2007105792A1 (ja) 2006-03-15 2007-03-15 監視装置および監視方法、制御装置および制御方法、並びにプログラム
JP2008505202A JP5120249B2 (ja) 2006-03-15 2007-03-15 監視装置および監視方法、制御装置および制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2007105792A1 true JPWO2007105792A1 (ja) 2009-07-30
JP5120249B2 JP5120249B2 (ja) 2013-01-16

Family

ID=38509605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008505202A Active JP5120249B2 (ja) 2006-03-15 2007-03-15 監視装置および監視方法、制御装置および制御方法、並びにプログラム

Country Status (4)

Country Link
US (1) US8406457B2 (ja)
EP (1) EP2000889B1 (ja)
JP (1) JP5120249B2 (ja)
WO (1) WO2007105792A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125783A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド 注視追跡のためのシステムおよび方法

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070152076A1 (en) * 2004-12-13 2007-07-05 Chiang Kuo C Monitoring system with a wireless transmitting/receiving module
JP4462333B2 (ja) * 2007-11-13 2010-05-12 株式会社デンソー 走行支援装置
JP4999653B2 (ja) * 2007-11-19 2012-08-15 アイシン精機株式会社 車両用ランプ制御システム
JP5145569B2 (ja) * 2007-12-19 2013-02-20 株式会社国際電気通信基礎技術研究所 対象物特定方法および装置
JP5074178B2 (ja) * 2007-12-28 2012-11-14 株式会社豊田中央研究所 運転者支援装置
US20090292958A1 (en) * 2008-05-21 2009-11-26 Kabushiki Kaisha Toshiba Electronic apparatus and state notification method
ES2407830T3 (es) * 2008-08-28 2013-06-14 Saab Ab Un sistema de seguimiento de objetivos y un procedimiento para el seguimiento de un objetivo
JP5397735B2 (ja) * 2008-09-12 2014-01-22 株式会社デンソー 車両用緊急車両接近検出システム
JP2010087598A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 撮影装置及び撮影制御方法ならびにそのプログラム、画像表示装置及び画像表示方法ならびにそのプログラム、撮影システム及びその制御方法ならびにそのプログラム
JP5225870B2 (ja) * 2008-09-30 2013-07-03 花村 剛 情動分析装置
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
JP5087532B2 (ja) * 2008-12-05 2012-12-05 ソニーモバイルコミュニケーションズ株式会社 端末装置、表示制御方法および表示制御プログラム
JPWO2011064831A1 (ja) * 2009-11-30 2013-04-11 富士通株式会社 診断装置及び診断方法
JP2011243141A (ja) * 2010-05-21 2011-12-01 Nec System Technologies Ltd 操作情報処理装置、方法及びプログラム
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
JP2014518729A (ja) * 2011-05-30 2014-08-07 コーニンクレッカ フィリップス エヌ ヴェ 就寝中の体位の検出のための装置及び方法
JP5877376B2 (ja) * 2011-06-02 2016-03-08 パナソニックIpマネジメント株式会社 物体検出装置、物体検出方法および物体検出プログラム
JP5919665B2 (ja) * 2011-07-19 2016-05-18 日本電気株式会社 情報処理装置、物体追跡方法および情報処理プログラム
US10585472B2 (en) 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US10209771B2 (en) 2016-09-30 2019-02-19 Sony Interactive Entertainment Inc. Predictive RF beamforming for head mounted display
US8379981B1 (en) 2011-08-26 2013-02-19 Toyota Motor Engineering & Manufacturing North America, Inc. Segmenting spatiotemporal data based on user gaze data
EP2564766B1 (en) * 2011-09-02 2018-03-21 Volvo Car Corporation Visual input of vehicle operator
JP5345660B2 (ja) 2011-09-08 2013-11-20 本田技研工業株式会社 車載機器特定装置
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
JP2013083731A (ja) * 2011-10-06 2013-05-09 Murata Mach Ltd 画像表示システム
US10169822B2 (en) 2011-12-02 2019-01-01 Spireon, Inc. Insurance rate optimization through driver behavior monitoring
US8510200B2 (en) 2011-12-02 2013-08-13 Spireon, Inc. Geospatial data based assessment of driver behavior
CN102490646B (zh) * 2011-12-30 2014-02-26 东北大学 具有驾驶员目光跟随功能的智能车灯系统及其控制方法
US20130169785A1 (en) * 2011-12-30 2013-07-04 Agco Corporation Method of detecting and improving operator situational awareness on agricultural machines
US9423870B2 (en) 2012-05-08 2016-08-23 Google Inc. Input determination method
JP6165846B2 (ja) * 2012-05-09 2017-07-19 インテル コーポレイション 目のトラッキングに基づくディスプレイの一部の選択的強調
US9317113B1 (en) * 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
JP5949311B2 (ja) 2012-08-15 2016-07-06 富士通株式会社 推定プログラム、推定装置、及び推定方法
DE102012218114B4 (de) * 2012-10-04 2023-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ausrichten mindestens eines Rückspiegels eines Kraftfahrzeugs
US9779379B2 (en) 2012-11-05 2017-10-03 Spireon, Inc. Container verification through an electrical receptacle and plug associated with a container and a transport vehicle of an intermodal freight transport system
US8933802B2 (en) 2012-11-05 2015-01-13 Spireon, Inc. Switch and actuator coupling in a chassis of a container associated with an intermodal freight transport system
KR20140079947A (ko) * 2012-12-20 2014-06-30 한국전자통신연구원 차량용 영상 녹화 장치 및 차량용 영상 녹화 방법
US8937552B1 (en) * 2013-01-02 2015-01-20 The Boeing Company Heads down warning system
DE102013001383B4 (de) 2013-01-26 2016-03-03 Audi Ag Verfahren und System zum Betreiben eines Heckscheibenwischers eines Kraftwagens
US20140222298A1 (en) * 2013-02-03 2014-08-07 Michael H. Gurin Systems For a Shared Vehicle
JP2014218140A (ja) * 2013-05-07 2014-11-20 株式会社デンソー 運転者状態監視装置、および運転者状態監視方法
DE102014109079A1 (de) * 2013-06-28 2014-12-31 Harman International Industries, Inc. Vorrichtung und verfahren zur erfassung des interesses eines fahrers an einer werbeanzeige durch die verfolgung der blickrichtung des fahrers
DE102013213236A1 (de) 2013-07-05 2015-01-08 Robert Bosch Gmbh Verfahren zum Ermitteln eines Aufmerksamkeitsgrads eines Fahrzeugführers
US9779449B2 (en) 2013-08-30 2017-10-03 Spireon, Inc. Veracity determination through comparison of a geospatial location of a vehicle with a provided data
JP5842110B2 (ja) * 2013-10-10 2016-01-13 パナソニックIpマネジメント株式会社 表示制御装置、表示制御プログラム、および記録媒体
US9881221B2 (en) 2013-10-24 2018-01-30 Conduent Business Services, Llc Method and system for estimating gaze direction of vehicle drivers
JP6187155B2 (ja) * 2013-10-28 2017-08-30 株式会社デンソーアイティーラボラトリ 注視対象物推定装置
JP6120444B2 (ja) * 2013-12-25 2017-04-26 Kddi株式会社 ウェアラブルデバイス
US20150186991A1 (en) 2013-12-31 2015-07-02 David M. Meyer Creditor alert when a vehicle enters an impound lot
US9189692B2 (en) 2014-02-14 2015-11-17 GM Global Technology Operations LLC Methods and systems for detecting driver attention to objects
US9325938B2 (en) 2014-03-13 2016-04-26 Google Inc. Video chat picture-in-picture
US9533772B2 (en) * 2014-07-09 2017-01-03 Honeywell International Inc. Visual search assistance for an occupant of a vehicle
US9489739B2 (en) * 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
DE202014006924U1 (de) * 2014-08-27 2015-11-30 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrzeug und Scheibenwischer-Steuervorrichtung dafür
US10911645B2 (en) * 2014-09-19 2021-02-02 Nec Corporation Image processing device, image processing method, and recording medium
DE102014221039A1 (de) * 2014-10-16 2016-04-21 Robert Bosch Gmbh Steuergerät für ein Kraftfahrzeug mit Kamera für Fahrergesicht und Verfahren zum Aufnehmen des Gesichtes eines Fahrzeuginsassen
GB2532457B (en) * 2014-11-19 2018-04-18 Jaguar Land Rover Ltd Dynamic control apparatus and related method
KR101655818B1 (ko) * 2014-12-11 2016-09-08 현대자동차주식회사 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템
GB2536474B (en) * 2015-03-18 2019-09-04 Jaguar Land Rover Ltd Situational awareness monitoring method and apparatus
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
US9551788B2 (en) 2015-03-24 2017-01-24 Jim Epler Fleet pan to provide measurement and location of a stored transport item while maximizing space in an interior cavity of a trailer
JP6406088B2 (ja) * 2015-03-25 2018-10-17 株式会社デンソー 操作システム
JP6319350B2 (ja) * 2015-04-03 2018-05-09 株式会社デンソー 情報提示装置
US20160297362A1 (en) * 2015-04-09 2016-10-13 Ford Global Technologies, Llc Vehicle exterior side-camera systems and methods
US9546860B2 (en) * 2015-04-18 2017-01-17 Mediatek Singapore Pte. Ltd. Method and system for contactless dimensional measurement of articles
US9898865B2 (en) * 2015-06-22 2018-02-20 Microsoft Technology Licensing, Llc System and method for spawning drawing surfaces
JP2017016287A (ja) * 2015-06-30 2017-01-19 パイオニア株式会社 送信装置、サーバ装置、制御方法、プログラム、及び記憶媒体
JP6488922B2 (ja) * 2015-07-06 2019-03-27 株式会社デンソー 運転者異常検出装置
WO2017025486A1 (en) * 2015-08-07 2017-02-16 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and system to control a workflow and method and system for providing a set of task-specific control parameters
KR101704524B1 (ko) * 2015-09-02 2017-02-08 현대자동차주식회사 차량 및 그 제어방법
US10027888B1 (en) * 2015-09-28 2018-07-17 Amazon Technologies, Inc. Determining area of interest in a panoramic video or photo
DE102015220398A1 (de) * 2015-10-20 2017-04-20 Robert Bosch Gmbh Verfahren zur Übermittlung von Informationen an einen Fahrer eines Kraftfahrzeuges und adaptives Fahrerassistenzsystem
US9841813B2 (en) 2015-12-22 2017-12-12 Delphi Technologies, Inc. Automated vehicle human-machine interface system based on glance-direction
JP6266675B2 (ja) * 2016-03-18 2018-01-24 株式会社Subaru 捜索支援装置、捜索支援方法及び捜索支援プログラム
WO2018008576A1 (ja) * 2016-07-05 2018-01-11 日本電気株式会社 検査評価装置、検査評価方法およびプログラム
JP2018013838A (ja) * 2016-07-19 2018-01-25 株式会社デンソー 運転支援装置
US20180046869A1 (en) 2016-08-10 2018-02-15 Surround.IO Corporation Method and Apparatus for Providing Information Via Collected and Stored Metadata Using Inferred Attentional Model
US10719724B2 (en) * 2016-08-23 2020-07-21 Blinkeyelabs Electronics Private Limited Safety system for an automobile
US11305766B2 (en) * 2016-09-26 2022-04-19 Iprd Group, Llc Combining driver alertness with advanced driver assistance systems (ADAS)
US20190205937A1 (en) * 2016-09-27 2019-07-04 Mitsubishi Electric Corporation Information presentation system
JP6589796B2 (ja) * 2016-09-27 2019-10-16 株式会社デンソー ジェスチャ検出装置
KR101896790B1 (ko) * 2016-11-08 2018-10-18 현대자동차주식회사 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법
KR102648812B1 (ko) * 2016-12-15 2024-03-19 현대자동차주식회사 차량 및 그의 보행자 감지 알림 방법
US10110802B2 (en) 2016-12-30 2018-10-23 Axis Ab Historical gaze heat map for a video stream
JP6321848B2 (ja) * 2017-03-21 2018-05-09 Kddi株式会社 ウェアラブルデバイス
JP6885160B2 (ja) * 2017-03-31 2021-06-09 カシオ計算機株式会社 移動装置、移動装置の制御方法及びプログラム
IL252056A (en) * 2017-05-01 2018-04-30 Elbit Systems Ltd Head-up display device, system and method
JP6822325B2 (ja) 2017-06-21 2021-01-27 日本電気株式会社 操縦支援装置、操縦支援方法、プログラム
WO2018235409A1 (ja) * 2017-06-22 2018-12-27 三菱電機株式会社 危険情報収集装置
WO2019016936A1 (ja) * 2017-07-21 2019-01-24 三菱電機株式会社 操作支援装置および操作支援方法
JP7180067B2 (ja) * 2017-11-06 2022-11-30 日本電気株式会社 運転支援装置
JP7043795B2 (ja) * 2017-11-06 2022-03-30 日本電気株式会社 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
DE102018127756A1 (de) * 2017-11-15 2019-05-16 Omron Corporation Fahrerüberwachungsvorrichtung, verfahren und programm
JP6922686B2 (ja) 2017-11-20 2021-08-18 トヨタ自動車株式会社 操作装置
JP7019394B2 (ja) * 2017-11-29 2022-02-15 株式会社デンソーアイティーラボラトリ 視認対象検知装置、視認対象検知方法、およびプログラム
CN108734077B (zh) * 2017-12-01 2021-04-06 北京猎户星空科技有限公司 引领设备控制方法及装置
US10872254B2 (en) 2017-12-22 2020-12-22 Texas Instruments Incorporated Digital mirror systems for vehicles and methods of operating the same
CN110295822B (zh) * 2018-03-23 2022-01-28 宝沃汽车(中国)有限公司 控制车窗升降的方法及车辆
JP6844568B2 (ja) * 2018-03-27 2021-03-17 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
TWI693533B (zh) * 2018-08-09 2020-05-11 黃鈞鼎 影像處理方法及頭戴式影像系統
CN112534487B (zh) * 2018-08-09 2024-03-08 索尼半导体解决方案公司 信息处理设备、移动体、信息处理方法和程序
JP7263733B2 (ja) * 2018-10-26 2023-04-25 トヨタ自動車株式会社 車両用障害物報知装置
JP7011569B2 (ja) * 2018-11-28 2022-02-10 株式会社日立ビルシステム 熟練度判定システム
JP7176415B2 (ja) * 2019-01-15 2022-11-22 トヨタ自動車株式会社 衝突前制御装置
JP2020166309A (ja) * 2019-03-28 2020-10-08 アイシン・エィ・ダブリュ株式会社 運転支援システム、運転支援方法、及び運転支援プログラム
GB2582775B (en) * 2019-04-02 2022-04-06 Jaguar Land Rover Ltd Attention level determination
US10852822B2 (en) 2019-05-01 2020-12-01 Aptiv Technologies Limited Display method
DE102019216817A1 (de) * 2019-10-31 2021-05-06 Robert Bosch Gmbh Aktivierung einer Funktion durch Augenverfolgung
KR20210061638A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 전자 장치 및 그 제어 방법
EP4099134A4 (en) 2020-01-29 2023-03-22 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
EP3989202A1 (en) * 2020-10-20 2022-04-27 Aptiv Technologies Limited Method for notifying hazards to a driver of a motor vehicle and device for implementing the same
US11999356B2 (en) 2020-11-13 2024-06-04 Toyota Research Institute, Inc. Cognitive heat map: a model for driver situational awareness
US11749032B2 (en) 2021-05-17 2023-09-05 Toyota Research Institute, Inc. Systems and methods for adapting notifications according to component monitoring
US20230057766A1 (en) * 2021-08-17 2023-02-23 Ford Global Technologies, Llc Vehicle having imaging device for driver and window monitoring
EP4224288A1 (en) * 2022-02-07 2023-08-09 Robert Ohrenstein Gaze direction determination apparatus

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
JP2988178B2 (ja) 1993-03-11 1999-12-06 日産自動車株式会社 視線方向計測装置
JP3228086B2 (ja) 1995-09-11 2001-11-12 三菱自動車工業株式会社 運転操作補助装置
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US5912721A (en) 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JPH09251342A (ja) * 1996-03-15 1997-09-22 Toshiba Corp 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
US6373961B1 (en) * 1996-03-26 2002-04-16 Eye Control Technologies, Inc. Eye controllable screen pointer
EP0817123B1 (en) * 1996-06-27 2001-09-12 Kabushiki Kaisha Toshiba Stereoscopic display system and method
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
US6154559A (en) * 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
JP3489491B2 (ja) 1999-06-24 2004-01-19 日本電気株式会社 人物行動解析装置及び人物行動解析プログラムを記録した記録媒体
JP3790680B2 (ja) 2001-05-25 2006-06-28 株式会社東芝 画像処理システム及びこれを用いた運転支援システム
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
US6989754B2 (en) * 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
JP4222369B2 (ja) * 2003-07-11 2009-02-12 トヨタ自動車株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体
US7689319B2 (en) * 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
JP4911557B2 (ja) * 2004-09-16 2012-04-04 株式会社リコー 画像表示装置、画像表示制御方法、プログラム及び情報記録媒体
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
CN101326546B (zh) * 2005-12-27 2011-10-12 松下电器产业株式会社 图像处理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125783A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド 注視追跡のためのシステムおよび方法

Also Published As

Publication number Publication date
US8406457B2 (en) 2013-03-26
WO2007105792A1 (ja) 2007-09-20
JP5120249B2 (ja) 2013-01-16
EP2000889A9 (en) 2009-03-18
US20090022368A1 (en) 2009-01-22
EP2000889A2 (en) 2008-12-10
EP2000889A4 (en) 2012-07-11
EP2000889B1 (en) 2018-06-27

Similar Documents

Publication Publication Date Title
JP5120249B2 (ja) 監視装置および監視方法、制御装置および制御方法、並びにプログラム
US10741082B2 (en) Driving assistance device
KR102315335B1 (ko) 자율 차량들에 대해 할당된 승객들의 인식
US10207716B2 (en) Integrated vehicle monitoring system
CN111361552B (zh) 自动驾驶系统
JP5160564B2 (ja) 車両情報表示装置
CN107924634A (zh) 提供驾驶辅助的系统和方法
JP6935800B2 (ja) 車両制御装置、車両制御方法、および移動体
CN112141124A (zh) 用于车辆的辅助驾驶系统及其操作方法
KR20190005442A (ko) 차량용 주행 시스템 및 차량
US11873007B2 (en) Information processing apparatus, information processing method, and program
CN108136987A (zh) 停车位检测方法及装置
JP2017185946A (ja) 車両の自動運転システム
US11590985B2 (en) Information processing device, moving body, information processing method, and program
KR102035135B1 (ko) 차량 사고 정보 제공 시스템
US10666901B1 (en) System for soothing an occupant in a vehicle
KR20180051977A (ko) 차량용 사용자 인터페이스 장치 및 차량
US20210331709A1 (en) Vehicle control device and control method for the same
US11460309B2 (en) Control apparatus, control method, and storage medium storing program
CN111098864B (zh) 提示方法、装置、自动驾驶车辆及存储介质
KR20190016375A (ko) 차량용 사이드 미러 및 차량
WO2018168099A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
CN115131749A (zh) 图像处理装置、图像处理方法以及计算机可读取存储介质
KR102089955B1 (ko) 차량에 구비된 차량용 로봇 및 차량용 로봇의 제어방법
KR101955984B1 (ko) 차량에 구비된 차량 제어 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5120249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150