JP2019079085A - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP2019079085A
JP2019079085A JP2017202970A JP2017202970A JP2019079085A JP 2019079085 A JP2019079085 A JP 2019079085A JP 2017202970 A JP2017202970 A JP 2017202970A JP 2017202970 A JP2017202970 A JP 2017202970A JP 2019079085 A JP2019079085 A JP 2019079085A
Authority
JP
Japan
Prior art keywords
information
driver
target object
unit
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017202970A
Other languages
English (en)
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
教英 北岡
Norihide Kitaoka
教英 北岡
祥生 石黒
Yoshio Ishiguro
祥生 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017202970A priority Critical patent/JP2019079085A/ja
Publication of JP2019079085A publication Critical patent/JP2019079085A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転者が対象としている物体が地図情報に含まれない動的な物体であっても該物体を特定可能な運転支援装置を提供する。【解決手段】本発明の運転支援装置は、第1の取得部と、第2の取得部と、音声入力受付部と、制御部と、を備える。第1の取得部は、移動体の運転者の状態を示す状態情報を取得する。第2の取得部は、記移動体の位置を示す位置情報、地図情報、および、移動体の周辺の物体を検出するための周辺物体検出部により検出された情報に基づく、移動体の周辺の3次元的な情報を取得する。音声入力受付部は、運転者の発話を受け付ける。制御部は、状態情報、移動体の周辺の3次元的な情報、および、運転者の発話に基づいて、運転者が対象としている物体を示す対象物体を特定する。【選択図】図4

Description

本発明は、運転支援装置に関する。
従来、車両などの移動体を運転する運転者の視線、移動体の位置情報、地図情報に基づいて、運転者が対象としている物体(車外の物体)を示す対象物体を決定する技術が知られている(例えば特許文献1参照)。
特開2007−263931号公報
しかしながら、上記従来技術では、運転者が対象としている物体(対象物体)として、地図情報に含まれる物体しか対象にできないという問題があった。
本発明の実施形態にかかる運転支援装置は、例えば、移動体の運転者の状態を示す状態情報を取得する第1の取得部と、前記移動体の位置を示す位置情報、地図情報、および、前記移動体の周辺の物体を検出するための周辺物体検出部により検出された情報に基づく、前記移動体の周辺の3次元的な情報を取得する第2の取得部と、前記運転者の発話を受け付ける音声入力受付部と、前記状態情報、前記移動体の周辺の3次元的な情報、および、前記運転者の発話に基づいて、前記運転者が対象としている物体を示す対象物体を特定する制御部と、を備える運転支援装置である。この構成によれば、運転者の状態を示す状態情報、移動体の周辺の3次元的な情報、および、運転者の発話に基づいて、運転者が対象としている物体を示す対象物体を特定することにより、運転者が対象としている物体が地図情報に含まれない動的(ダイナミック)な物体であっても該物体を特定できる。
また、実施形態にかかる運転支援装置は、例えば、前記制御部は、前記運転者の発話に基づいて、前記特定した前記対象物体を目標物とする自動運転制御を決定する。この構成によれば、ユーザの意図を適切に反映させた自動運転制御を決定することができる。
また、実施形態にかかる運転支援装置は、例えば、前記制御部は、前記対象物体を特定するための対象物体特定情報が複数のキーワードに対応付けられた第1の対応情報に基づいて、前記運転者の発話に含まれるキーワードに対応付けられた前記対象物体特定情報を選択し、その選択した前記対象物体特定情報と、前記状態情報と、前記移動体の周辺の3次元的な情報と、に基づいて前記対象物体を特定する。この構成によれば、運転者が対象としている物体を正確に特定できる。
また、実施形態にかかる運転支援装置は、例えば、前記制御部は、自動運転制御を示す自動運転制御情報が複数のキーワードに対応付けられた第2の対応情報に基づいて、前記運転者の発話に含まれるキーワードに対応付けられた前記自動運転制御情報を選択し、その選択した前記自動運転制御情報が示す前記自動運転制御を決定する。この構成によれば、運転者が対象としている物体を目標物として、ユーザの意図を汲んだ適切な自動運転制御を決定できる。
また、実施形態にかかる運転支援装置は、例えば、前記状態情報は、前記運転者の視線を示す情報である。この構成によれば、例えば、運転者の視線を示す情報(状態情報)、移動体の周辺の3次元的な情報、および、運転者の発話に基づいて、対象物体を決定することにより、運転者が注目している物体を正確に対象物体として決定することができる。
また、実施形態にかかる運転支援装置は、例えば、前記状態情報は、前記運転者の指示動作(ジェスチャ)を示す情報である。この構成によれば、例えば、運転者の指示動作を示す情報(状態情報)、移動体の周辺の3次元的な情報、および、運転者の発話に基づいて、対象物体を決定することにより、運転者の指示対象となる物体を正確に対象物体として決定することができる。
図1は、実施形態の車両の車室の一部が透視された状態を示す斜視図である。 図2は、実施形態における撮像部の配置の一例を示す図である。 図3は、実施形態の運転支援システムの構成を示す図である。 図4は、実施形態の運転支援システムが有する機能の一例を示す図である。 図5は、実施形態の第1の対応情報の一例を示す図である。 図6は、実施形態の第2の対応情報の一例を示す図である。 図7は、実施形態の運転支援システムの動作例を示すフローチャートである。
以下、添付図面を参照しながら、本発明に係る運転支援装置の実施形態を詳細に説明する。
本実施形態では、移動体の一例である車両1は、運転者の発話を受け付け、該受け付けた発話に応じて自動運転を行うことができる車両(自動運転車両)である。車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。
また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。
また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11の具体的な構成については後述する。また、図2に示すように、ハンドルコラム202には、撮像部201が設置されている。この撮像部201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像部201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像部201は、運転者302の顔を順次撮影し、撮影により得た画像についての画像データを順次出力する。
また、車体2には、車両1の周辺の物体を検出するための周辺物体検出部の一例として、車両の周辺を撮像する撮像部15が設けられている。図1に例示されるように、車体2には、例えば4つの撮像部15a〜15dが設けられている。以下の説明では、撮像部15a〜15dを区別しない場合は単に撮像部15と称する。撮像部15は、例えば、CCD(Charge Coupled Device)やCIS(CMOS Image Sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データを出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜190°の範囲を撮像することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車体2の周辺の外部の環境を逐次撮像し、撮像画像データとして出力する。
撮像部15aは、例えば、車体2の後側の端部に配置され、リヤトランクのドアの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部に配置され、右側のドアミラーに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部に配置され、フロントバンパー等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部に配置され、左側のドアミラーに設けられている。
なお、ここでは図示を省略しているが、車体2には、車両1の周辺の物体を検出するための周辺物体検出部の一例として、車体2と物体間の距離を計測するための測距部16(測距センサ)が複数設けられている。測距部16は、例えば、超音波を発射してその反射波を捉えるソナー(ソナーセンサ、超音波探知器)である。
図3は、車両1が備える運転支援システム100(運転支援装置の一例)の構成を示す図である。図3に示すように、運転支援システム100は、ECU14や、モニタ装置11、操舵システム13、測距部16の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部等の操作信号等を、受け取ることができる。
ECU14は、例えば、CPU40a(central processing unit)、ROM40b(read only memory)、RAM40c(random access memory)、SSD40d(solid state drive、フラッシュメモリ)等を有している。CPU40aは、ROM40b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。また、この例では、CPU40aには、撮像部15や撮像部201で撮像された画像や、モニタ装置11で受け付けた音声などが入力される。この例では、図3に示すように、モニタ装置11は、表示部8、操作入力部9、音声入力部10、音声出力部12を備える。表示部8は、ECU14の制御の下、各種の画像を表示可能である。表示部8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。ドライバは、表示部8の画面に表示される画像に対応した位置で手指等により操作入力部9を触れたり押したり動かしたりして操作することで、操作入力(指示入力)を実行することができる。音声入力部10は、一例としてマイクであり、音声入力部10で受け付けた音声(ドライバの発話等)はECU14へ入力される。音声出力装置28は、一例として、スピーカである。
ECU14の説明を続ける。RAM40cは、CPU40aでの演算で用いられる各種のデータを一時的に記憶する。また、SSD40dは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU40aや、ROM40b、RAM40c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU40aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD40dに替えてHDD(hard disk drive)が設けられてもよいし、SSD40dやHDDは、ECU14とは別に設けられてもよい。
図4は、本実施形態の運転支援システム100が有する機能の一例を示す図である。説明の便宜上、図4の例では、本発明に関する機能を主に例示しているが、運転支援システム100が有する機能はこれらに限られるものではない。図4に示すように、運転支援システム100は、第1の取得部101、第2の取得部102、音声入力受付部103、制御部104を有する。
ここでは、第1の取得部101、第2の取得部102、音声入力受付部103、および、制御部104の各々の機能は、CPU40aがROM40bなどの記憶装置に格納されたプログラムを実行することにより実現される。ただし、これに限らず、例えば上記機能のうちの少なくとも一部が、専用のハードウェア回路で実現される形態であってもよい。この例では、第1の取得部101、第2の取得部102、音声入力受付部103、および、制御部104の機能は、ECU14が有する機能であると考えることもできるので、ECU14が「運転支援装置」に相当すると考えてもよい。また、本実施形態のCPU40aが実行するプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、例えばROM等の不揮発性の記憶媒体に予め組み込んで提供するように構成してもよい。
第1の取得部101は、移動体の運転者の状態を示す状態情報を取得する。本実施形態における状態情報は、運転者の視線を示す情報である。より具体的には、第1の取得部101は、撮像部201により撮像された画像を所定の周期で取得し、取得した画像に写り込んだ運転者の顔を追跡しながら運転者の視線を検出(例えば視線のベクトル(方向)を検出)することで、その検出した視線を示す情報を取得することができる。この例では、第1の取得部101は、所定の周期で状態情報(運転者の視線を示す情報)を取得する。なお、ここでは、ECU14が「移動体の運転者の状態を示す状態情報を取得する第1の取得部」の機能を有しているが、これに限らず、例えばECU14と撮像部201との組み合わせが「第1の取得部」の機能に相当すると考えてもよいし、ECU14または撮像部201が「第1の取得部」の機能に相当すると考えてもよい。
第2の取得部102は、車両1の位置(自車位置)を示す位置情報、地図情報、および、車両1の周辺の物体を検出するための周辺物体検出部(この例では撮像部15、測距部16)により検出された情報に基づく、車両1の周辺の3次元的な情報を取得する。
この例では、第2の取得部102は、位置情報、地図情報、周辺物体検出部により検出された情報を取得する機能を有している。例えば第2の取得部102は、車両1に搭載された不図示のGPS(Global Positioning System)などの位置検出装置から位置情報を取得することができる。また、第2の取得部102は、予め地図情報が保存されたデータベース(車両1に搭載)から地図情報を取得することができる。さらに、第2の取得部102は、撮像部15により撮像された画像や測距部16による測定データを、周辺物体検出部により検出された情報として取得することができる。なお、例えば位置情報、地図情報、周辺物体検出部により検出された情報を取得する機能が第2の取得部102とは別に設けられる形態であってもよい。この例では、第2の取得部102は、位置情報、地図情報、周辺物体検出部により検出された情報を所定の周期で取得し、これらを統合して、車両1の周辺の3次元的な情報(車両の周辺のどの位置に物体(地図情報が示す地図上の物体のみならず、地図上には存在しないダイナミックな物体も含む)が存在するのかを特定可能な情報)を構築して取得することができる。なお、ダイナミックな物体の例として、例えば人や自動車等の移動する物体や、駐車場の空きスペースなどが挙げられる。以下の説明では、この車両1の周辺の3次元的な情報を「周辺環境情報」と称する。ここでは、第2の取得部102は、所定の周期で周辺環境情報を取得する。
なお、ここでは、ECU14が「車両1の位置を示す位置情報、地図情報、および、車両1の周辺の物体を検出するための周辺物体検出部により検出された情報を統合して得られる、車両1の周辺の3次元的な情報を取得する第2の取得部」の機能を有している。
音声入力受付部103は、運転者の発話を受け付ける。この例では、音声入力受付部103は、モニタ装置11の音声入力部10から入力される音声を受け付けることで、運転者の発話を受け付ける。なお、ここでは、ECU14が「運転者の発話を受け付ける音声入力受付部」の機能を有しているが、例えばECU14と音声入力部10(例えばマイク)との組み合わせが「音声入力受付部」の機能に相当すると考えてもよいし、ECU14または音声入力部10が「音声入力受付部」の機能に相当すると考えてもよい。
制御部104は、第1の取得部101により取得された状態情報、第2の取得部102により取得された周辺環境情報、および、音声入力受付部103で受け付けた運転者の発話に基づいて、運転者が対象(ここでは自動運転の指示対象)としている物体を示す対象物体を特定する。また、制御部104は、運転者の発話に基づいて、対象物体を目標物とする自動運転制御を決定する。
さらに詳述すると、制御部104は、音声入力受付部103で運転者の発話を受け付けたことを契機として、対象物体を特定するための対象物体特定情報が複数のキーワードに対応付けられた第1の対応情報に基づいて、運転者の発話に含まれるキーワードに対応付けられた対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの状態情報と、そのときの移動体の周辺の3次元的な情報(周辺環境情報)と、に基づいて対象物体を特定する。また、制御部104は、自動運転制御を示す自動運転制御情報が複数のキーワードに対応付けられた第2の対応情報に基づいて、運転者の発話に含まれるキーワードに対応付けられた自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。
図5は、第1の対応情報の一例を示す図である。例えば運転者の発話の中に、「そこ」というキーワードが含まれていた場合、制御部104は、第1の対応情報を参照して、「そこ」というキーワードに対応付けられた対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの状態情報と、そのときの周辺環境情報と、に基づいて対象物体を特定する。図5の例では、「そこ」というキーワードに対しては、現在の視線上の物体を対象物体として特定することを示す対象物体特定情報が対応付けられている。ここでは、対象物体特定情報とは、対象物体を特定するための条件を示す情報であると考えることもできる。この場合、制御部104は、「そこ」というキーワードを含む運転者の発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の視線上に存在する物体を対象物体として特定する。
また、図5の例では、例えば運転者の発話の中に、「人」というキーワードが含まれていた場合、制御部104は、第1の対応情報を参照して、「人」というキーワードに対応付けられた対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの状態情報と、そのときの周辺環境情報と、に基づいて対象物体を特定する。ここでは、「人」というキーワードに対しては、「人」を対象物体として特定することを示す対象物体特定情報が対応付けられている。ここでは、対象物体特定情報とは、対象物体を特定するための条件を示す情報であると考えることもできる。この場合、制御部104は、「人」というキーワードを含む運転者の発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の視線上に存在する「人」を対象物体として特定する。
同様に、図5の例では、例えば運転者の発話の中に、「車」というキーワードが含まれていた場合、制御部104は、第1の対応情報を参照して、「車」というキーワードに対応付けられた対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの状態情報と、そのときの周辺環境情報と、に基づいて対象物体を特定する。ここでは、「車」というキーワードに対しては、「車」を対象物体として特定することを示す対象物体特定情報が対応付けられている。ここでは、対象物体特定情報とは、対象物体を特定するための条件を示す情報であると考えることもできる。この場合、制御部104は、「車」というキーワードを含む運転者の発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の視線上に存在する「車」を対象物体として特定する。なお、以上に説明した第1の対応情報の態様は任意に変更可能であり、図5の態様に限られるものではない。
また、上記に限らず、例えば上述の第1の対応情報を用いずに対象物体を特定する方法を採用してもよい。例えば上述の対象物体特定情報とキーワードを明示的に結び付けなくても、第1の取得部101により取得された状態情報、第2の取得部102により取得された周辺環境情報、音声入力部103で受け付けた運転者の発話を入力情報としてディープラーニング(例えばRNN(Recurrent Neural Network)など)に入力することで、対象物体を特定してもよい。
図6は、第2の対応情報の一例を示す図である。例えば運転者の発話の中に、「止めて」というキーワードが含まれていた場合、制御部104は、第2の対応情報を参照して、「止めて」というキーワードに対応付けられた自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。図6の例では、「止めて」というキーワードに対しては、駐車を示す自動運転制御情報が対応付けられているので、駐車の自動運転制御を実行することを決定する。
例えば「そこ止めて」という運転者の発話を受け付けた場合を想定する。この場合、制御部104は、第1の対応情報を参照して、運転者の発話に含まれる「そこ」というキーワードに対応する対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの運転者の視線と、そのときの周辺環境情報と、に基づいて、対象物体を特定する。上述したように、この場合、制御部104は、そのときの周辺環境情報に含まれる物体のうち、そのときの運転者の視線上に存在する物体を対象物体として特定する。また、制御部104は、第2の対応情報を参照して、運転者の発話に含まれる「止めて」というキーワードに対応する自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。上述したように、この場合、制御部104は、駐車の自動運転制御を実行することを決定する。以上のようにして、制御部104は、運転者の上記発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の視線上に存在する物体を対象物体として特定し、その特定した対象物体を目標物として駐車の自動運転制御を実行することを決定し、この自動運転制御に必要な車両1の各部に対して指示(命令)を出す。
図6に示す第2の対応情報の説明を続ける。例えば運転者の発話の中に、「気を付けて」というキーワードが含まれていた場合、制御部104は、第2の対応情報を参照して、「気を付けて」というキーワードに対応付けられた自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。図6の例では、「気を付けて」というキーワードに対しては、リスクを回避して走行することを示す自動運転制御情報が対応付けられているので、リスクを回避して走行する自動運転制御を実行することを決定する。リスクを回避して走行する自動運転制御の形態は任意に変更可能であるが、例えば対象物体と一定以上の距離を空けて走行する制御や、対象物体のリスク値を高めて自動運転の経路を変更する制御などが挙げられる。
例えば「あの人気を付けて」という運転者の発話を受け付けた場合を想定する。この場合、制御部104は、第1の対応情報を参照して、運転者の発話に含まれる「人」というキーワードに対応する対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの運転者の視線と、そのときの周辺環境情報と、に基づいて、対象物体を特定する。上述したように、この場合、制御部104は、そのときの周辺環境情報に含まれる物体のうち、そのときの運転者の視線上に存在する「人」を対象物体として特定する。また、制御部104は、第2の対応情報を参照して、運転者の発話に含まれる「気を付けて」というキーワードに対応する自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。上述したように、この場合、制御部104は、リスクを回避して走行する自動運転制御を実行することを決定する。以上のようにして、制御部104は、運転者の上記発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の視線上に存在する「人」を対象物体として特定し、その特定した「人」を目標物として、リスクを回避して走行する自動運転制御を実行することを決定し、この自動運転制御に必要な車両1の各部に対して指示(命令)を出す。
図6に示す第2の対応情報の説明を続ける。例えば運転者の発話の中に、「追従して」というキーワードが含まれていた場合、制御部104は、第2の対応情報を参照して、「追従して」というキーワードに対応付けられた自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。図6の例では、「追従して」というキーワードに対しては、追従走行することを示す自動運転制御情報が対応付けられているので、追従走行する自動運転制御を実行することを決定する。
例えば「あの車に追従して」という運転者の発話を受け付けた場合を想定する。この場合、制御部104は、第1の対応情報を参照して、運転者の発話に含まれる「車」というキーワードに対応する対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの運転者の視線と、そのときの周辺環境情報と、に基づいて、対象物体を特定する。上述したように、この場合、制御部104は、そのときの周辺環境情報に含まれる物体のうち、そのときの運転者の視線上に存在する「車」を対象物体として特定する。また、制御部104は、第2の対応情報を参照して、運転者の発話に含まれる「追従して」というキーワードに対応する自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。上述したように、この場合、制御部104は、追従走行する自動運転制御を実行することを決定する。以上のようにして、制御部104は、運転者の上記発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の視線上に存在する「車」を対象物体として特定し、その特定した「車」を目標物として、追従走行する自動運転制御を実行することを決定し、この自動運転制御に必要な車両1の各部に対して指示(命令)を出す。
また、上記に限らず、例えば上述の第2の対応情報を用いずに自動運転制御を決定する方法を採用してもよい。例えば自動運転制御とキーワードを明示的に結び付けなくても、音声入力部103で受け付けた運転者の発話を入力情報としてディープラーニング(例えばRNN(Recurrent Neural Network)など)に入力することで、自動運転制御を決定してもよい。
図7は、運転者の発話を受け付けた場合の運転支援システム100の動作例を示すフローチャートである。ここでは、上述したように、第1の取得部101は所定の周期で状態情報を取得し、第2の取得部102は所定の周期で周辺環境情報を取得することを前提とする。図7に示すように、まず音声入力受付部103は、運転者の発話を受け付ける(ステップS1)。次に、制御部104は、上述の第1の対応情報を参照して、ステップS1で受け付けた運転者の発話に含まれるキーワードに対応する対象物体特定情報を選択する(ステップS2)。次に、制御部104は、ステップS2で選択した対象物体特定情報と、ステップS1で運転者の発話を受け付けたときの状態情報と、そのときの周辺環境情報と、に基づいて、対象物体を特定する(ステップS3)。この具体的な内容は上述したとおりである。
次に、制御部104は、上述の第2の対応情報を参照して、ステップS1で受け付けた運転者の発話に含まれるキーワードに対応する自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する(ステップS4)。この具体的な内容は上述したとおりである。そして、制御部104は、ステップS3で特定した対象物体を目標物として、ステップS4で決定した自動運転制御を実行するための制御を行う(ステップS5)。
以上に説明したように、本実施形態の運転支援システム100は、運転者の視線、移動体の周辺の3次元的な情報(周辺環境情報)、および、運転者の発話に基づいて、対象物体を特定することにより、運転者が対象としている物体(対象物体)が地図情報に含まれない動的(ダイナミックな)物体であっても、該物体を特定できる。本実施形態においては、運転者の視線、運転者の発話に加えて、地図上に存在しないダイナミックな物体(例えば歩行者や自転車、空き駐車スペースなど)をも包含する周辺環境情報を用いて対象物体を特定するので、例えば運転者が地図上に存在しないダイナミックな物体を注視している場合であっても、運転者が注視している物体(対象物体)を正確に特定することができる。
また、本実施形態の運転支援システム100は、運転者の発話に基づいて、上記特定した対象物体を目標物とする自動運転制御を決定する。これにより、ユーザの意図を適切に反映させた自動運転制御を決定することができる。
以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
なお、例えば上述の状態情報は、運転者の指示動作(ジェスチャ)を示す情報であってもよい。例えば運転者の指示動作を認識できるジェスチャ認識器が車内に設けられ、第1の取得部101は、このジェスチャ認識器により認識されたジェスチャを示す情報を、状態情報として取得することもできる。そして、制御部104は、運転者のジェスチャ、周辺環境情報、および、運転者の発話に基づいて、対象物体を特定することもできる。この例では、ジェスチャに応じた運転者の指示方向(運転者が指し示す方向のベクトル)が、上述の実施形態における視線(視線ベクトル)の代わりとなる。
一例として、「そこ止めて」という運転者の発話を受け付けた場合を想定する。この場合、制御部104は、第1の対応情報を参照して、運転者の発話に含まれる「そこ」というキーワードに対応する対象物体特定情報を選択し、その選択した対象物体特定情報と、そのときの状態情報と、そのときの周辺環境情報とに基づいて、対象物体を特定する。図5の例では、「そこ」というキーワードに対しては、現在の視線上の物体を対象物体として特定することを示す対象物体特定情報が対応付けられているが、本実施形態においては、上述の第1の実施形態における「視線」は「運転者の指示方向」に置き換わるので、制御部104は、運転者の発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の指示方向に存在する物体を、対象物体として特定することになる。また、制御部104は、第2の対応情報を参照して、運転者の発話に含まれる「止めて」というキーワードに対応する自動運転制御情報を選択し、その選択した自動運転制御情報が示す自動運転制御を決定する。上述したように、この場合、制御部104は、駐車の自動運転制御を実行することを決定する。以上のようにして、制御部104は、運転者の上記発話を受け付けたときに第2の取得部102により取得された周辺環境情報に含まれる物体のうち、そのときに第1の取得部101により取得された状態情報が示す運転者の指示方向に存在する物体を対象物体として特定し、その特定した対象物体を目標物として、駐車の自動運転制御を実行することを決定し、この自動運転制御に必要な車両1の各部に対して指示(命令)を出す。
さらに、例えば第1の取得部101は、状態情報として、運転者の視線とジェスチャの両方を取得する形態であってもよい。そして、運転者の発話を受け付けたときに、運転者の視線とジェスチャの両方が第1の取得部101により取得された場合はジェスチャを優先させ、運転者のジェスチャ、周辺環境情報、および、運転者の発話に基づいて、対象物体を特定してもよい。これにより、運転者の意図をより適切に反映させて対象物体を特定することができる。
1 車両
11 モニタ装置
14 ECU
15 撮像部
100 運転支援システム
101 第1の取得部
102 第2の取得部
103 音声入力受付部
104 制御部

Claims (6)

  1. 移動体の運転者の状態を示す状態情報を取得する第1の取得部と、
    前記移動体の位置を示す位置情報、地図情報、および、前記移動体の周辺の物体を検出するための周辺物体検出部により検出された情報に基づく、前記移動体の周辺の3次元的な情報を取得する第2の取得部と、
    前記運転者の発話を受け付ける音声入力受付部と、
    前記状態情報、前記移動体の周辺の3次元的な情報、および、前記運転者の発話に基づいて、前記運転者が対象としている物体を示す対象物体を特定する制御部と、を備える、
    運転支援装置。
  2. 前記制御部は、
    前記運転者の発話に基づいて、前記特定した前記対象物体を目標物とする自動運転制御を決定する、
    請求項1に記載の運転支援装置。
  3. 前記制御部は、
    前記対象物体を特定するための対象物体特定情報が複数のキーワードに対応付けられた第1の対応情報に基づいて、前記運転者の発話に含まれるキーワードに対応付けられた前記対象物体特定情報を選択し、その選択した前記対象物体特定情報と、前記状態情報と、前記移動体の周辺の3次元的な情報と、に基づいて前記対象物体を特定する、
    請求項1または2に記載の運転支援装置。
  4. 前記制御部は、
    自動運転制御を示す自動運転制御情報が複数のキーワードに対応付けられた第2の対応情報に基づいて、前記運転者の発話に含まれるキーワードに対応付けられた前記自動運転制御情報を選択し、その選択した前記自動運転制御情報が示す前記自動運転制御を決定する、
    請求項2に記載の運転支援装置。
  5. 前記状態情報は、前記運転者の視線を示す情報である、
    請求項1乃至4のうちの何れか1項に記載の運転支援装置。
  6. 前記状態情報は、前記運転者の指示動作を示す情報である、
    請求項1乃至4のうちの何れか1項に記載の運転支援装置。
JP2017202970A 2017-10-19 2017-10-19 運転支援装置 Pending JP2019079085A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017202970A JP2019079085A (ja) 2017-10-19 2017-10-19 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017202970A JP2019079085A (ja) 2017-10-19 2017-10-19 運転支援装置

Publications (1)

Publication Number Publication Date
JP2019079085A true JP2019079085A (ja) 2019-05-23

Family

ID=66628753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017202970A Pending JP2019079085A (ja) 2017-10-19 2017-10-19 運転支援装置

Country Status (1)

Country Link
JP (1) JP2019079085A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110525456A (zh) * 2019-08-07 2019-12-03 北京全路通信信号研究设计院集团有限公司 一种列车安全驾驶监测系统及方法
WO2021039779A1 (ja) * 2019-08-30 2021-03-04 株式会社デンソー 車両制御装置
JP2021081904A (ja) * 2019-11-18 2021-05-27 キヤノン株式会社 情報処理装置、プログラム、記憶媒体、および、情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (ja) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp 運転支援システム
JP2010173530A (ja) * 2009-01-30 2010-08-12 Toyota Motor Corp 走行支援装置
JP2016216029A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
JP2017090615A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251287A (ja) * 1993-02-23 1994-09-09 Mitsubishi Electric Corp 運転支援システム
JP2010173530A (ja) * 2009-01-30 2010-08-12 Toyota Motor Corp 走行支援装置
JP2016216029A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
JP2017090615A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110525456A (zh) * 2019-08-07 2019-12-03 北京全路通信信号研究设计院集团有限公司 一种列车安全驾驶监测系统及方法
WO2021039779A1 (ja) * 2019-08-30 2021-03-04 株式会社デンソー 車両制御装置
JP2021037795A (ja) * 2019-08-30 2021-03-11 株式会社デンソー 車両制御装置
JP7226197B2 (ja) 2019-08-30 2023-02-21 株式会社デンソー 車両制御装置
JP2021081904A (ja) * 2019-11-18 2021-05-27 キヤノン株式会社 情報処理装置、プログラム、記憶媒体、および、情報処理方法
JP7408358B2 (ja) 2019-11-18 2024-01-05 キヤノン株式会社 情報処理装置、プログラム、記憶媒体、および、情報処理方法

Similar Documents

Publication Publication Date Title
US9672433B2 (en) Multi-directional vehicle maneuvering assistance
JP6096156B2 (ja) 駐車支援装置
EP3124360A1 (en) Parking assistance device
WO2014051125A1 (ja) 駐車支援装置、駐車支援方法およびプログラム
JP2017154711A (ja) 駐車支援装置
JP2016060232A (ja) 出庫支援装置
US20180057056A1 (en) Parking assist device
JP2014166834A (ja) 駐車支援装置、駐車支援方法およびプログラム
JP2016060223A (ja) 駐車支援装置および経路決定方法
US10632915B2 (en) Surroundings monitoring apparatus
JP6760122B2 (ja) 周辺監視装置
JP2017030549A (ja) 駐車支援装置
JP6656359B2 (ja) 駐車支援用表示制御装置および駐車支援用表示制御方法
JP2019079085A (ja) 運転支援装置
JP2008195268A (ja) 車両周辺監視装置
JP2021094937A (ja) 車両用表示装置及び駐車支援システム
JP7003755B2 (ja) 駐車支援装置
JP2022023870A (ja) 表示制御装置
CN110573397B (zh) 停车辅助装置
WO2019073909A1 (ja) 牽引支援装置
JP5039605B2 (ja) 駐車支援装置
CN110546047A (zh) 停车辅助装置
CN112644466A (zh) 停车辅助装置、停车辅助方法以及记录介质
CN112349091A (zh) 特定区域检测装置
US20230290154A1 (en) Control device, control method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220308