JP7063005B2 - 運転支援方法、車両、及び運転支援システム - Google Patents

運転支援方法、車両、及び運転支援システム Download PDF

Info

Publication number
JP7063005B2
JP7063005B2 JP2018033596A JP2018033596A JP7063005B2 JP 7063005 B2 JP7063005 B2 JP 7063005B2 JP 2018033596 A JP2018033596 A JP 2018033596A JP 2018033596 A JP2018033596 A JP 2018033596A JP 7063005 B2 JP7063005 B2 JP 7063005B2
Authority
JP
Japan
Prior art keywords
driving support
vehicle
sound source
voice
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018033596A
Other languages
English (en)
Other versions
JP2019149023A (ja
Inventor
千尋 因幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018033596A priority Critical patent/JP7063005B2/ja
Priority to US16/272,244 priority patent/US10759447B2/en
Priority to CN201910133249.2A priority patent/CN110194181B/zh
Publication of JP2019149023A publication Critical patent/JP2019149023A/ja
Priority to US16/941,601 priority patent/US11097745B2/en
Application granted granted Critical
Publication of JP7063005B2 publication Critical patent/JP7063005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • B60K35/265Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/01Determining conditions which influence positioning, e.g. radio environment, state of motion or energy consumption
    • G01S5/018Involving non-radio wave signals or measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本発明は、運転支援方法、車両、及び運転支援システムに関する。
従来、例えば自動車等の車両の運転支援を行う技術が知られている。例えば、特許文献1には、車内マイクの取得した音声の音量又は音量変化が第1の判定閾値を超えており、且つ、車外マイクの取得した音声の音量又は音量変化が第2の判定閾値以下であるときに、乗員の緊急発話があったと判断して、パワーウィンドウの駆動モータを停止させる構成が開示されている。また、特許文献2には、車両上の異なる位置に設けられた複数のマイクロフォンによるサイレン音の検出状態に基づいて、当該サイレン音を発する緊急車両の接近方向を特定し、特定された接近方向に応じた認知支援及び運転支援の少なくともいずれかに係る対応出力を行う構成が開示されている。また、特許文献3には、車外の音声のうち、例えば緊急車両の警報音等の特定の音声を選別し、当該特定の音声の発生方向の検出結果に基づいて、当該特定の音声の発生位置を地図データ上に表示するようにナビゲーションシステムに指示する構成が開示されている。また、特許文献4には、マイクロフォンから収集された車外音がアンプにより増幅されて、スピーカから車室内に放出される構成が開示されている。また、特許文献5には、ステレオカメラの画像に基づいて車両前方の車外物が認識されると、当該車外物についての注意喚起表示を表示する構成が開示されている。また、特許文献6には、車両周囲の音声のうちから、例えば救急車のサイレン等の緊急性を持つ音声を識別した結果を、振動、音、又は表示によって運転者に伝える構成が開示されている。
特開2016-203815号公報 特開2010-067165号公報 特開2006-092482号公報 特開平8-002339号公報 特許第5622819号 特開2007-034348号公報
ところで、認知科学分野における近年の研究によれば、発話内容を聞き手が言語的に認識しようとする場合、当該聞き手に認知負荷が生じ得ることが明らかになってきている。このため、車両の運転者は、認知負荷が低減するように、車外で発生した発話内容の認識を無意識のうちに避けてしまう可能性がある。このため、車外で発生した発話による音声は、例えば緊急車両の警報音等の非言語的な音と比較して、車両の運転者によって認識される可能性が低い。
また、緊急車両の警報は、警報音が比較的長い時間継続して発せられるため、運転者によって認識される可能性が比較的高い。一方、発話は、発話のタイミングでしか音声が発せられないため、運転者によって認識される可能性が比較的低い。
上述した事情から、車外で発生した発話による音声を用いた車両の運転支援が望まれている。しかしながら、上述した従来技術は、車外で発生した発話による音声ではなく、例えば緊急車両の警報音等の非言語的な音を用いて車両の運転支援を実行するものであり、近年のニーズに必ずしも対応できない。
かかる事情に鑑みてなされた本発明の目的は、車外で発生した発話による音声を用いた車両の運転支援を可能にする運転支援方法、車両、及び運転支援システムを提供することにある。
本発明の一実施形態に係る運転支援方法は、
車両の運転支援方法であって、
前記車両の外部に位置する音源の音声を取得するステップと、
音声認識処理によって認識される前記音声の発話内容に応じた運転支援情報を、前記音声に基づいて特定される前記車両に対する前記音源の相対位置を示唆する表示態様で、表示部に表示させる表示ステップと、を含む。
本発明の一実施形態に係る車両は、
音声取得部及び制御部を備える車両であって、
前記音声取得部は、前記車両の外部に位置する音源の音声を取得し、
前記制御部は、音声認識処理によって認識される前記音声の発話内容に応じた運転支援情報を、前記音声に基づいて特定される前記車両に対する前記音源の相対位置を示唆する表示態様で、表示部に表示させる。
発明の一実施形態に係る運転支援システムは、
車両と、前記車両と通信可能なサーバと、を備える運転支援システムであって、
前記車両は、前記車両の外部に位置する音源の音声を取得し、
前記車両又は前記サーバは、前記音声に基づいて前記車両に対する前記音源の相対位置を特定し、
前記車両又は前記サーバは、音声認識処理によって前記音声の発話内容を認識し、
前記車両は、前記発話内容に応じた運転支援情報を、前記音源の前記相対位置を示唆する表示態様で、表示部に表示させる。
本発明の一実施形態に係る運転支援方法、車両、及び運転支援システムによれば、車外で発生した発話による音声を用いた車両の運転支援が可能になる。
本発明の一実施形態に係る運転支援システムの概略構成を示すブロック図である。 車両の周辺状況の例を示す図である。 表示装置に表示される画面の第1例を示す図である。 表示装置に表示される画面の第2例を示す図である。 表示装置に表示される画面の第3例を示す図である。 表示装置に表示される画面の第4例を示す図である。 表示装置に表示される画面の第5例を示す図である。 表示装置に表示される画面の第6例を示す図である。 運転支援システムの動作を示すシーケンス図である。 実施形態の変形例に係る情報処理システムが記憶する情報の例を示す図である。 表示装置に表示される、変形例に係る画面の例を示す図である。
以下、本発明の実施形態について説明する。
(運転支援システムの構成)
図1を参照して、本発明の一実施形態に係る運転支援システム1の概要について説明する。運転支援システム1は、車両10と、サーバ20と、を備える。車両10は、例えば自動車を含むが、任意の他の車両を含んでもよい。サーバ20は、1つ又は互いに通信可能な複数のサーバ装置を含む。本実施形態では、説明の簡便のため、サーバ20が1つのサーバ装置であるものとして説明する。車両10及びサーバ20は、ネットワーク30を介して通信可能に接続される。ネットワーク30は、例えばインターネットを含むが、任意の他のネットワークを含んでもよい。
運転支援システム1において、車両10とサーバ20とが協働して、車両10の運転支援が実行される。概要として、運転支援システム1は、車両10の外部に位置する音源の音声を取得する。本明細書において「音声」は、言語的な意味を有する一連の音を指す。運転支援システム1は、取得した音声に基づいて、車両10に対する音源の相対位置を特定する。運転支援システム1は、音声認識処理によって当該音声の発話内容を認識する。運転支援システム1は、認識した発話内容に応じた運転支援情報を、車両10に対する音源の相対位置を示唆する表示態様で、運転者に対して視認可能に表示する。
運転支援システム1の上述の動作によれば、例えば、車両10の外部に位置する交通誘導員が車両10に向かって発話した場合、当該発話の内容を示す文字列等の運転支援情報が表示される。このため、運転者は、交通誘導員の発話を聞き取り損なった場合であっても、運転支援情報を視認することによって、発話内容を一見して認識できる。したがって、車外で発生した発話による音声を用いた車両10の運転支援が実現する。
また、例えば当該交通誘導員が車両10の左前方に位置する場合、当該運転支援情報は、車両10の左前方を示唆する表示態様で表示される。このため、運転者は、例えば交通誘導員の存在に気付いていなかった場合であっても、運転支援情報を視認することによって、交通誘導員の相対位置を一見して認識できる。したがって、車外で発生した発話による音声を用いた車両10の運転支援の利便性が向上する。
次に、運転支援システム1の各構成について、詳細に説明する。
(車両の構成)
図1に示すように、車両10は、音声取得部11と、撮像部12と、表示部13と、通信部14と、記憶部15と、制御部16と、を備える。音声取得部11、撮像部12、表示部13、通信部14、記憶部15、及び制御部16は、例えばCAN(Controller Area Network)等の車載ネットワーク又は専用線を介して、互いに通信可能である。
音声取得部11は、車両10における設置位置がそれぞれ異なる3つ以上のマイクを含む。本実施形態において、音声取得部11の各マイクは、車外に位置する1つ以上の音源の音声を取得する。例えば図2に示す車両10の周辺状況において、音声取得部11の3つのマイク110(110a~110c)のそれぞれは、車外に位置する2つの音源40(40a及び40b)の音声を取得する。音源40は、例えば交通誘導員であるがこれに限られず、発話を行う任意の人物及び機械等を含んでもよい。
撮像部12は、1つ以上のカメラを含む。本実施形態において、撮像部12は、車外に位置する音源40を撮像した撮像画像を生成する。撮像部12は、所定のフレームレートで複数の撮像画像(即ち、映像)を生成してもよい。例えば図2に示す車両10の周辺状況において、撮像部12は、車両10の左前方に位置する音源40aと、車両10の右前方に位置する音源40bと、を撮像した1以上の撮像画像を生成する。
音声取得部11による音声の取得と、撮像部12による撮像画像の生成とが、同期して行われてもよい。例えば、音声取得部11によって音声が取得されている間、撮像部12によって所定のフレームレートで撮像画像が生成されてもよい。以下、音源40の音声の取得中に撮像部12によって生成される、当該音源40を撮像した1以上の撮像画像を、音源40に対応する1以上の撮像画像ともいう。
表示部13は、任意の情報を表示するディスプレイを含む。本実施形態において、表示部13は、運転者の視野に情報を映し出すヘッドアップディスプレイであってもよい。かかる場合、例えば車両10のウィンドシールド又はコンバイナ等の光学部材が、ヘッドアップディスプレイの一部を構成してもよい。或いは、表示部13は、液晶パネル又は有機EL(Electro Luminescence)パネル等の表示パネルに情報を表示するパネルディスプレイであってもよい。かかる場合、例えば車両10に備えられたナビゲーション装置のディスプレイ、又はスマートフォン等の移動端末のディスプレイが、表示部13として用いられてもよい。
通信部14は、1つ以上の通信インタフェースを含む。本実施形態において、車両10は、通信部14及びネットワーク30を介してサーバ20と無線通信する。
記憶部15は、1つ以上のメモリを含む。メモリは、例えば半導体メモリ、磁気メモリ、及び光メモリ等を含んでもよい。記憶部15に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部15は、車両10の動作に用いられる任意の情報を記憶する。
制御部16は、1つ以上のプロセッサを含む。プロセッサは、汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでもよい。例えば、車両10に搭載されたECU(Electronic Control Unit)が、制御部16として機能してもよい。制御部16は、車両10全体の動作を制御する。
例えば、制御部16は、音声取得部11によって取得された、車外に位置する音源40の音声に基づいて、車両10に対する当該音源40の相対位置を特定する。相対位置は、車両10に原点が設定された任意の座標系を用いて特定される。例えば、相対位置は、車両10の当該原点から音源40の方向及び距離、即ち極座標で特定されてもよい。複数の音源40の音声が音声取得部11によって取得されている場合、制御部16は、音源40毎に相対位置を特定する。ここで、音源40の相対位置の特定には、任意の音源定位アルゴリズムが採用可能である。例えば、制御部16は、音声取得部11に含まれる各マイク110の設置位置と、音源40の音声が各マイク110に到達した時間差と、に基づいて、音源40の相対位置を特定してもよい。
制御部16は、音声取得部11によって取得された音声から、音源40毎に音声を分離する。ここで、音源40毎の音声の分離には、任意の音声分離アルゴリズムが採用可能である。例えば、制御部16は、上述した音源定位によって特定された車両10から各音源40の方向に音声取得部11の指向性を向けるようにビームフォーミングを行うことによって、音源40毎に音声を分離してもよい。また、制御部16は、分離された音声毎に、雑音の低減又は除去を行ってもよい。
制御部16は、分離された音声毎に、発話検出処理を行う。発話検出処理によって、音声中の発話が検出され得る。発話検出処理には、任意の発話検出アルゴリズムが採用可能である。例えば、制御部16は、音声信号の振幅及び零交差数に基づいて決定される音声区間のそれぞれを、発話として検出してもよい。
制御部16は、発話が検出された各音声を、当該音声の音源40と対応付けてサーバ20へ送信する。また、制御部16は、発話が検出された各音声の音源40に対応する相対位置及び1以上の撮像画像を、サーバ20へ送信する。
制御部16は、後述するようにサーバ20が実行する音声認識処理によって認識された各音声の発話内容に応じた運転支援情報を、サーバ20から受信し得る。制御部16は、サーバ20から運転支援情報を受信すると、当該運転支援情報を、対応する音源40の相対位置を示唆する表示態様で、表示部13に表示させる。表示部13に表示される画面の具体例については後述する。
(サーバの構成)
図1に示すように、サーバ20は、サーバ通信部21と、サーバ記憶部22と、サーバ制御部23と、を備える。
サーバ通信部21は、1つ以上の通信インタフェースを含む。本実施形態において、サーバ20は、サーバ通信部21及びネットワーク30を介して車両10と無線通信する。
サーバ記憶部22は、1つ以上のメモリを含む。サーバ記憶部22に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。サーバ記憶部22は、サーバ20の動作に用いられる任意の情報を記憶する。
サーバ制御部23は、1つ以上のプロセッサを含む。サーバ制御部23は、サーバ20全体の動作を制御する。
例えば、サーバ制御部23は、車両10から、発話が検出された各音声と、各音声の音源40に対応する1以上の撮像画像及び相対位置と、を受信する。サーバ制御部23は、音声認識処理によって、各音声を文字列に変換するとともに、各音声の発話内容を言語的に認識する。
サーバ制御部23は、認識した各発話内容の有意性を、当該発話内容に係る音声の音源40に関する1つ以上の情報に基づいて評価する。以下、音源40に関する情報を、音源情報ともいう。本実施形態において、サーバ制御部23は、音源40の音声又は発話内容の長さ(第1音源情報)と、発話内容に含まれる文言(第2音源情報)と、発話内容の文脈(第3音源情報)と、音声の音圧(第4音源情報)と、音声の音源40に対応する1以上の撮像画像を用いる画像認識処理の実行結果(第5音源情報)と、の5つの音源情報のうち少なくとも1つに基づいて、当該発話内容の有意性を評価する。具体的には、サーバ制御部23は、後述するように音源情報毎に決定したポイントの合計値、平均値、又は最大値(以下、「合計値等」という。)が、所定の基準値以上であるか否かを判定する。ポイントの合計値等が基準値以上である場合、サーバ制御部23は、当該発話内容が有意であると決定する。一方、ポイントの合計値等が基準値未満である場合、サーバ制御部23は、当該発話内容は有意でないと決定する。
ここで、第1~第5音源情報のそれぞれに対応するポイントを決定するサーバ制御部23の動作の具体例について説明する。
まず、第1音源情報について説明する。サーバ制御部23は、発話内容に係る音声の時間的長さ、又は当該発話内容を示す文字列の文字数を、音源40の音声又は発話内容の長さとして決定する。そして、サーバ制御部23は、音声又は発話内容の長さに基づいて、第1音源情報に対応するポイントを決定する。ここで、音声又は発話内容の長さが長いほど、車両10の運転者に認識させるべき情報が当該発話内容に含まれている蓋然性が高い。このため、サーバ制御部23は、音声又は発話内容の長さが長いほど、第1音源情報に対応するポイントを大きくしてもよい。
続いて、第2音源情報について説明する。サーバ記憶部22は、1つ以上のキーワードと、各キーワードに対応するポイントと、を予め記憶する。キーワードに対応するポイントの量は、例えば当該キーワードの緊急性又は重要性等の性質に基づいて任意に定められてもよい。例えば、緊急性の高い発話に用いられる蓋然性の高い「止まれ」というキーワードに対しては、緊急性の低い発話に用いられる蓋然性の高い「進め」というキーワードよりも大きなポイントが対応付けられてもよい。サーバ制御部23は、上述したように発話内容が認識されると、当該発話内容に含まれるキーワードを検出する。サーバ制御部23は、検出された各キーワードに対応するポイントの合計値等を、第2音源情報に対応するポイントとして決定する。
続いて、第3音源情報について説明する。サーバ制御部23は、有意性を評価しようとする発話内容に係る音声の音源40に対して、当該音源40の前回の発話に係る発話内容が有意であると判定したか否かを判定する。前回の発話内容が有意であると判定した場合、サーバ制御部23は、第3音源情報に対応するポイントを決定する。一方、前回の発話内容が有意ではないと判定した場合、サーバ制御部23は、第3音源情報に対応するポイントを決定しなくてもよいし、或いは前回の発話内容が有意であると判定した場合の上述のポイントよりも小さいポイントを、第3音源情報に対応するポイントとして決定してもよい。
続いて、第4音源情報について説明する。サーバ制御部23は、発話内容に係る音声の音圧を検出する。ここで、車両10と音源40との間の距離が長いほど、上述したように車両10において取得される音声の音圧が低下する。このため、サーバ制御部23は、車両10に対する音源40の相対位置に基づいて、例えば車両10と音源40との間の距離が長いほど、検出した音圧を大きくするように補正してもよい。サーバ制御部23は、検出した音圧に基づいて、第4音源情報に対応するポイントを決定する。ここで、音声の音圧が大きいほど、発話内容が車両10の運転者に認識させるべき情報である蓋然性が高い。このため、サーバ制御部23は、検出した音圧が大きいほど、第4音源情報に対応するポイントを大きくしてもよい。
続いて、第5音源情報について説明する。サーバ制御部23は、画像認識処理によって、音源40に対応する1以上の撮像画像に基づき、当該音源40の発話が車両10に向けられたものであるか否かを判定する。例えば、音源40が人物である場合、サーバ制御部23は、当該1以上の撮像画像に基づいて、撮影画像中の推定音源方向の画像を切り出して人物を抽出し、当該人物の視線及び挙動(例えば、ジェスチャー)を認識してもよい。ジェスチャーは、例えば誘導灯を振る動作、手旗を振る動作、及び押し止める動作等の誘導動作、又は、指さし動作、及び手を振る動作等の問いかけ動作を含む。ジェスチャーを判定する場合、映像(動画)を用いる必要があり、連続する複数のフレームに対して推定音源方向の切り出しを行い、抽出された部分(クリップ)に対して、ニューラルネットワーク等の任意の手法を用いて認識処理を行う。サーバ制御部23は、認識した視線及び挙動が車両10に向けられている場合、音源40の発話が車両10に向けられていると判定してもよい。しかしながら、当該判定には、上述した例に限られず、1以上の撮像画像を用いる任意のアルゴリズムが採用可能である。音源40の発話が車両10に向けられたものであると判定した場合、サーバ制御部23は、第5音源情報に対応するポイントを決定する。一方、音源40の発話が車両10に向けられたものではないと判定した場合、サーバ制御部23は、第5音源情報に対応するポイントを決定しなくてもよいし、或いは音源40の発話が車両10に向けられたものであると判定した場合の上述のポイントよりも小さいポイントを、第5音源情報に対応するポイントとして決定してもよい。
上述した音源情報に基づいて発話内容が有意であると判定した場合、サーバ制御部23は、当該発話内容に応じた運転支援情報を車両10へ送信する。例えば、運転支援情報は、発話内容を示す文字列を含んでもよい。ここで、発話内容を示す文字列とは、上述したように発話に係る音声が音声認識処理よって変換された文字列である。或いは、運転支援情報は、発話内容を示す文字列(第1の文字列)を短文化した文字列(第2の文字列)を含んでもよい。具体的には、サーバ制御部23は、発話内容を示す第1の文字列に含まれる一部の表現を省略し、要約し、又は置き換えることによって、短文化された第2の文字列を決定する。例えば、第1の文字列に含まれる間投詞を省略して第2の文字列が決定されてもよい。ここで、例えば「おーい」等、車両10の運転者に対して発話された蓋然性の高い間投詞については、第1の文字列から省略されなくてもよい。しかしながら、第1の文字列を短文化して第2の文字列を決定する手法は、上記の例に限られず、任意に定められてもよい。また、運転支援情報は、上記の例に限られず、車両10の運転者が視認することで発話内容を認識し得る任意の情報を含んでもよい。車両10へ送信された運転支援情報は、上述したように、対応する音源40の相対位置を示唆する表示態様で、車両10の表示部13に表示される。ここで、サーバ制御部23は、第1の文字列が所定の基準よりも長い場合、第2の文字列を決定し、当該第2の文字列を含む運転支援情報を車両10へ送信してもよい。かかる構成によれば、例えば、比較的長い第1の文字列が車両10の表示部13に表示されることによって運転者の注意力が散漫になる等の不都合の発生が低減可能である。一方、音源情報に基づいて発話内容が有意ではないと判定した場合、サーバ制御部23は、当該発話内容に応じた運転支援情報を車両10へ送信しなくてもよい。
次に、図2~図8を参照して、音源40の相対位置を示唆する表示態様で表示された運転支援情報の具体例について説明する。ここでは、例えば図2に示すように、音源40aが車両10の左前方に存在し、音源40bが車両10の右前方に存在するときに、音源40a及び40bによって発話が行われた場合を考える。例えば、音源40aが、「すみません。」、「そこで一旦止まってください。」、及び「止まって!」と発話し、音源40bが「止まってもらって!」と発話すると、これらの発話内容に対応する運転支援情報が車両10の表示部13に表示される。
図3を参照して、表示部13がヘッドアップディスプレイである場合における画面の第1例について説明する。図3において、ヘッドアップディスプレイの一部を構成する車両10のウィンドシールド130に、運転支援情報50(50a及び50b)が表示されている。運転支援情報50a及び50bは、それぞれ音源40a及び40bに対応する。
運転支援情報50aは、音源40aの「すみません。」、「そこで一旦止まってください。」、及び「止まって!」という発話内容を示す文字列と、これらの文字列を囲む枠と、を含んでいる。同様に、運転支援情報50bは、音源40bの「止まってもらって!」という発話内容を示す文字列と、当該文字列を囲む枠と、を含んでいる。第1例において、運転支援情報50は、ウィンドシールド130を介して運転者に視認される音源40の近傍に又は重畳して表示される。ここで、音源40によって新たに発話がなされた場合、表示されている運転支援情報50が、例えばウィンドシールド130の上方に向かってスクロールしてもよい。
表示部13の画面の第1例によれば、車両10の運転者は、運転支援情報50に含まれる文字列を視認することによって、音源40による発話内容を認識可能である。また、車両10の運転者は、運転支援情報50が対応する音源40の位置又はその近傍に表示されるので、発話内容と音源40との対応関係を認識可能である。
続いて、図4を参照して、表示部13がヘッドアップディスプレイである場合における画面の第2例について説明する。図4において、車両10のウィンドシールド130に、運転支援情報51(51a及び51b)が表示されている。運転支援情報51a及び51bは、それぞれ音源40a及び40bに対応する。第2例における運転支援情報51は、運転支援情報51と音源40との対応関係を示す第1表示要素を含む点で、上述した第1例における運転支援情報50と相違する。
具体的には、運転支援情報51aは、音源40aの発話内容を示す文字列と、これらの文字列を囲む枠510(510a)と、枠510aから突出して音源40aを指し示す第1表示要素511(511a)と、を含んでいる。同様に、運転支援情報51bは、音源40bの発話内容を示す文字列と、当該文字列を囲む枠510(510b)と、枠510bから突出して音源40bを指し示す第1表示要素511(511b)と、を含んでいる。運転支援情報51は、上述した第1例における運転支援情報50と同様にスクロールしてもよい。
表示部13の画面の第2例によれば、車両10の運転者は、運転支援情報51に含まれる文字列を視認することによって、他の例と同様に、音源40による発話内容を認識可能である。また、車両10の運転者は、音源40を指し示す第1表示要素511を視認することによって、他の例と同様に、発話内容と音源40との対応関係を認識可能である。また、上記の第1例と異なり運転支援情報51を音源40の位置又はその近傍に表示させる必要がないので、運転支援情報51の表示位置の自由度が向上する。
続いて、図5を参照して、表示部13がヘッドアップディスプレイである場合における画面の第3例について説明する。図5において、車両10のウィンドシールド130に、運転支援情報52(52a及び52b)が表示されている。運転支援情報52a及び52bは、それぞれ音源40a及び40bに対応する。第3例における運転支援情報52は、運転支援情報52と音源40との対応関係を示す第1表示要素の細部が、上述した第2例と相違する。
具体的には、運転支援情報52aは、音源40aの発話内容を示す文字列と、これらの文字列を囲む枠520(520a)と、音源40aを囲む第1表示要素521(521a)と、を含んでいる。同様に、運転支援情報52bは、音源40bの発話内容を示す文字列と、当該文字列を囲む枠520(520b)と、音源40bを囲む第1表示要素521(521b)と、を含んでいる。運転支援情報52は、上述した第1例における運転支援情報50と同様にスクロールしてもよい。
ここで、音源40に対応する枠520及び第1表示要素521は、互いに共通の表示態様で表示される。当該表示態様は、例えば、線の種類、色、及び形状等を含んでもよい。更に、枠520及び第1表示要素521の当該共通の表示態様が、対応する音源40毎に異なる。
表示部13の画面の第3例によれば、車両10の運転者は、運転支援情報52に含まれる文字列を視認することによって、他の例と同様に、音源40による発話内容を認識可能である。また、車両10の運転者は、当該文字列を囲む枠520と、音源40を囲む第1表示要素521と、が共通の表示態様で表示され、且つ、枠520及び第1表示要素521の当該共通の表示態様が音源40毎に異なるので、他の例と同様に、発話内容と音源40との対応関係を認識可能である。
続いて、図6を参照して、表示部13がヘッドアップディスプレイである場合における画面の第4例について説明する。図6において、車両10のウィンドシールド130に、運転支援情報53(53a及び53b)が表示されている。運転支援情報53a及び53bは、それぞれ音源40a及び40bに対応する。第4例は、運転者がウィンドシールド130を介して視認できない位置に音源40a及び40bが存在している場合を想定した例である。第4例における運転支援情報53は、車両10から音源40の方向を示す第2表示要素を含む点で、上述した第1例~第3例と相違する。
具体的には、運転支援情報53aは、音源40aの発話内容を示す文字列と、これらの文字列を囲む枠530(530a)と、車両10から音源40aの方向を示す第2表示要素531(531a)と、を含んでいる。同様に、運転支援情報53bは、音源40bの発話内容を示す文字列と、当該文字列を囲む枠530(530b)と、車両10から音源40bの方向を示す第2表示要素531(531b)と、を含んでいる。運転支援情報53は、上述した第1例における運転支援情報50と同様にスクロールしてもよい。
ここで、音源40に対応する枠530及び第2表示要素531は、互いに共通の表示態様で表示される。当該表示態様は、例えば、線の種類、色、及び形状等を含んでもよい。更に、枠530及び第2表示要素531の当該共通の表示態様が、対応する音源40毎に異なる。
表示部13の画面の第4例によれば、車両10の運転者は、運転支援情報53に含まれる文字列を視認することによって、他の例と同様に、音源40による発話内容を認識可能である。また、車両10の運転者は、当該文字列を囲む枠530と、車両10から音源40の方向を示す第2表示要素531と、が共通の表示態様で表示され、且つ、枠530及び第2表示要素531の当該共通の表示態様が音源40毎に異なるので、他の例と同様に、発話内容と音源40との対応関係を認識可能である。
車両10の制御部16は、運転者がウィンドシールド130を介して視認できない位置に音源40が存在していると判定した場合に、上述した第4例に係る表示態様で運転支援情報53を表示させてもよい。例えば、車両10の記憶部15は、運転者がウィンドシールド130を介して視認可能な車両10の周辺範囲を予め記憶する。そして、制御部16は、車両10に対する音源40の相対位置が当該周辺範囲の外である場合、第4例に係る表示態様で運転支援情報53を表示させる。また例えば、車両10に対する音源40の相対位置が車両10の後方である場合、制御部16は、音源40の相対位置が後方であることを示唆する表示態様で運転支援情報53を表示させる。
続いて、図7を参照して、表示部13がパネルディスプレイである場合における画面の第5例について説明する。図7において、表示部13の表示パネル131に、運転支援情報53(53a及び53b)が表示されている。運転支援情報53は、上述した第4例と同様に、音源40の発話内容を示す文字列と、これらの文字列を囲む枠530と、車両10から音源40の方向を示す第2表示要素531と、を含んでいる。第5例は、表示部13がパネルディスプレイである点を除き、上述した第4例と同様である。
続いて、図8を参照して、表示部13がパネルディスプレイである場合における画面の第6例について説明する。図8において、表示部13の表示パネル131における右側の領域に、車両10の画像と、音源40aの相対位置を示す画像と、運転支援情報54(54a)と、が表示されている。運転支援情報54aは、音源40aに対応する。また、表示パネル131における左側の領域に、例えばナビゲーションシステムによる地図情報及び車両10の位置情報が表示されている。第6例における運転支援情報54は、車両10から音源40の方向を示す第2表示要素の細部が、上述した第4例及び第5例と相違する。
具体的には、運転支援情報54は、音源40aの発話内容を示す文字列と、これらの文字列を囲む枠540(540a)と、車両10の画像から音源40aの相対位置を示す画像の方向を示す第2表示要素541(541a)と、を含んでいる。
表示部13の画面の第6例によれば、車両10の運転者は、運転支援情報54に含まれる文字列を視認することによって、他の例と同様に、音源40による発話内容を認識可能である。また、車両10の運転者は、第2表示要素541が車両10の画像及び音源40aの相対位置を示す画像とともに表示されるので、例えば上述した第5例と比較して、発話を行った音源40の相対位置をより正確に認識可能である。
(運転支援システムの動作フロー)
図9を参照して、運転支援システム1の上述した動作のフローについて説明する。当該動作は、例えば車両10のイグニッションがオンである間、繰り返し実行されてもよい。
ステップS100:車両10は、車外に位置する音源40の音声を取得する。また、車両10は、当該音源40に対応する1以上の撮像画像を生成する。
ステップS101:車両10は、ステップS100で取得した音声に基づいて、車両10に対する音源40の相対位置を特定する。
ステップS102:車両10は、ステップS100で取得した音声から、音源40毎に音声を分離する。
ステップS103:車両10は、分離された音声毎に、発話検出処理によって音声中の発話を検出する。
ステップS104:車両10は、発話が検出された各音声を、当該音声の音源40と対応付けてサーバ20へ送信する。また、車両10は、発話が検出された各音声の音源40に対応する相対位置及び1以上の撮像画像を、サーバ20へ送信する。
ステップS105:サーバ20は、車両10から受信した各音声の発話内容を、音声認識処理によって認識する。
ステップS106:サーバ20は、ステップS105で認識した各発話内容の有意性を評価する。
ステップS107:サーバ20は、ステップS106で有意であると決定された発話内容に応じた運転支援情報を車両10へ送信する。
ステップS108:車両10は、サーバ20から受信した運転支援情報を、対応する音源40の相対位置を示唆する表示態様で表示する。
以上述べたように、本実施形態に係る運転支援システム1によれば、車両10の外部に位置する音源40の音声の発話内容に応じた運転支援情報が、車両10に対する音源40の相対位置を示唆する表示態様で表示される。かかる構成によれば、車両10の運転者は、例えば音源40の発話を聞き取り損なった場合であっても、運転支援情報を視認することによって、発話内容を一見して認識できる。したがって、車外で発生した発話による音声を用いた車両10の運転支援が実現する。また、運転者は、例えば音源40の存在に気付いていなかった場合であっても、運転支援情報を視認することによって、音源40の相対位置を一見して認識できる。したがって、車外で発生した発話による音声を用いた車両10の運転支援の利便性が向上する。
本発明を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本発明の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。
例えば、上述した本実施形態において、車両10が実行する処理の少なくとも一部をサーバ20が実行する構成であってもよい。例えば、図9に示すステップS101~S103の処理をサーバ20が実行してもよい。同様に、サーバ20が実行する処理の少なくとも一部を、車両10が実行する構成であってもよい。例えば、図9に示すステップS105及びS106の処理を車両10が実行してもよい。また、車両10又はサーバ20が実行する処理の少なくとも一部を、車両10及びサーバ20が協働して実行する構成であってもよい。例えば、図9に示すステップS101~S103、S105、及びS106の処理を、車両10及びサーバ20が協働して実行してもよい。
また、上述した実施形態において、図9を参照して運転支援システム1の動作フローについて説明した。しかしながら、当該動作フローに含まれる一部のステップ、又は1つのステップに含まれる一部の動作が、省略されてもよい。論理的に矛盾しない範囲内において、複数のステップの順番が入替わってもよい。
また、上述した実施形態において、車両10の構成及び機能の一部が、車両10と通信可能な装置に実装されてもよい。当該装置として、汎用又は運転支援システム1に専用の任意の装置が用いられてもよい。汎用の装置は、例えばスマートフォン等の移動端末、ドライブレコーダ、及びナビゲーション装置等を含んでもよい。
また、上述した実施形態において、運転支援情報が、発話内容を示す文字列を含む構成について説明した。しかしながら、運転支援情報が、発話内容を示すアイコン等の画像を含む構成であってもよい。例えば、サーバ20のサーバ記憶部22は、音声認識処理によって認識され得る発話内容の類型と、当該類型に対応する画像を含む運転支援情報と、を予め記憶する。当該画像は、対応する発話内容の類型を車両10の運転者が認識可能な任意の画像であってもよい。例えば、図10に示す例では、「停車」及び「前進」の2つの類型にそれぞれ対応する2つの画像が図示されている。サーバ制御部23は、車両10から受信した音声の発話内容を認識すると、当該発話内容の類型に対応する画像を含む運転支援情報を、サーバ記憶部22から読み出して車両10へ送信する。車両10は、サーバ20から受信した当該運転支援情報を表示部13に表示する。
例えば、図11は、表示部13がヘッドアップディスプレイである場合において、画像である運転支援情報55が表示された画面の例を示す。図11において、ヘッドアップディスプレイの一部を構成する車両10のウィンドシールド130に、運転支援情報55(50a及び50b)が表示されている。運転支援情報55a及び55bは、それぞれ音源40a及び40bに対応する。図10に示す発話内容の類型「停車」に対応する画像である。本例において、運転支援情報55は、上述した図3に示す画面例と同様に、ウィンドシールド130を介して運転者に視認される音源40の近傍に又は重畳して表示される。しかしながら、運転支援情報55は、上述した図4~図6に示す画面例と同様に、第1表示要素又は第2表示要素を含んでもよい。
また、上述した実施形態において、運転支援システム1が1つの車両10を備える構成について説明した。しかしながら、運転支援システム1が複数の車両10を備える構成も可能である。例えば、車両10に対する音源40の相対位置の特定が、互いに通信可能な複数の車両10のそれぞれによって取得された、当該音源40の音声に基づいて行われてもよい。換言すると、互いに通信可能な複数の車両10が備える複数のマイク110を用いて、音源40の相対位置が特定される。かかる構成によれば、例えば運転支援システム1が1つの車両10を備える構成と比較して、音源40の相対位置の特定に用いられるマイク110の数が増えるので、特定される音源40の相対位置の精度が向上する。
また、上述した実施形態において、第2音源情報に対応するポイントを決定するに際して、サーバ20のサーバ記憶部22が、1つ以上のキーワードと、各キーワードに対応するポイントと、を予め記憶する構成について説明した。ここで、サーバ20のサーバ制御部23は、サーバ記憶部22に記憶された当該情報を更新してもよい。例えば、サーバ制御部23は、新たなキーワードと、当該キーワードに対応するポイントと、の組み合わせを追加してもよい。また例えば、サーバ制御部23は、キーワードに対応するポイントを修正してもよい。
また、上述した実施形態において、車両10の制御部16は、発話による音声を用いた音声認識処理の実行結果の確度(例えば、発話内容の認識精度)を示唆する情報を、表示部13に表示する構成も可能である。具体的には、サーバ制御部23は、運転支援情報とともに、音声認識処理の実行結果の確度を車両10へ送信する。制御部16は、サーバ20から受信した当該確度が所定の基準未満であると判定した場合、発話内容の認識精度が比較的低いことを示す情報を、表示部13に表示させる。
また、上述した実施形態において、車両10の表示部13に複数の運転支援情報が表示される例について説明した。ここで、表示部13に同時に表示される運転支援情報の数、又は同時に表示される各運転支援情報に含まれる合計文字数に、上限数が設定されていてもよい。かかる構成によれば、例えば、車両10の表示部13に比較的多くの情報が表示されることによって運転者の注意力が散漫になる等の不都合の発生が低減可能である。
また、例えば移動端末又はナビゲーション装置等の汎用の電子機器に搭載されたプロセッサを、上述した実施形態に係る車両10の制御部16として機能させることができる。具体的には、実施形態に係る車両10の各機能を実現する処理内容を記述したプログラムを、電子機器のメモリに格納し、電子機器のプロセッサによって当該プログラムを読み出して実行させることによって実現可能である。
1 運転支援システム
10 車両
11 音声取得部
110 マイク
12 撮像部
13 表示部
130 ウィンドシールド
131 表示パネル
14 通信部
15 記憶部
16 制御部
20 サーバ
21 サーバ通信部
22 サーバ記憶部
23 サーバ制御部
30 ネットワーク
40、40a、40b 音源
50、50a、50b 運転支援情報
51、51a、51b 運転支援情報
510、510a、510b 枠
511、511a、511b 第1表示要素
52、52a、52b 運転支援情報
520、520a、520b 枠
521、521a、521b 第1表示要素
53、53a、53b 運転支援情報
530、530a、530b 枠
531、531a、531b 第2表示要素
54、54a 運転支援情報
540、540a 枠
541、541a 第2表示要素
55、55a、55b 運転支援情報

Claims (9)

  1. 車両の運転支援方法であって、
    前記車両の外部に位置する音源の音声を取得するステップと、
    音声認識処理によって認識される前記音声の発話内容に応じた運転支援情報を、前記音声に基づいて特定される前記車両に対する前記音源の相対位置を示唆する表示態様で、表示部に表示させる表示ステップと、
    を含み、
    前記表示部は、ヘッドアップディスプレイであり、
    前記表示ステップにおいて、前記運転支援情報の少なくとも一部を前記音源に重畳して表示させる、運転支援方法。
  2. 請求項に記載の運転支援方法であって、
    前記表示部に表示された前記運転支援情報は、前記運転支援情報と前記音源との対応関係を示す第1表示要素を含む、運転支援方法。
  3. 請求項1又は2に記載の運転支援方法であって、
    前記表示部に表示された前記運転支援情報は、前記車両から前記音源の方向を示す第2表示要素を含む、運転支援方法。
  4. 請求項1からのいずれか一項に記載の運転支援方法であって、
    前記音声又は前記発話内容の長さと、前記発話内容に含まれる文言と、前記発話内容の文脈と、前記音声の音圧と、前記音源を撮像した1以上の撮像画像を用いる画像認識処理の実行結果と、のうち少なくとも1つに基づいて、前記表示ステップを実行するか否かが決定される、運転支援方法。
  5. 請求項1からのいずれか一項に記載の運転支援方法であって、
    前記音声認識処理の実行結果の確度を示唆する情報を前記表示部に表示させるステップを更に含む、運転支援方法。
  6. 請求項1からのいずれか一項に記載の運転支援方法であって、
    前記運転支援情報は、前記発話内容を示す文字列及び画像の少なくとも一方を含む、運転支援方法。
  7. 請求項1からのいずれか一項に記載の運転支援方法であって、
    前記運転支援情報は、前記発話内容を示す第1の文字列が短文化された第2の文字列を含む、運転支援方法。
  8. 音声取得部及び制御部を備える車両であって、
    前記音声取得部は、前記車両の外部に位置する音源の音声を取得し、
    前記制御部は、音声認識処理によって認識される前記音声の発話内容に応じた運転支援情報を、前記音声に基づいて特定される前記車両に対する前記音源の相対位置を示唆する表示態様で、表示部に表示させ
    前記表示部は、ヘッドアップディスプレイであり、
    前記制御部は、前記運転支援情報の少なくとも一部を前記音源に重畳して表示させる、
    車両。
  9. 車両と、前記車両と通信可能なサーバと、を備える運転支援システムであって、
    前記車両は、前記車両の外部に位置する音源の音声を取得し、
    前記車両又は前記サーバは、前記音声に基づいて前記車両に対する前記音源の相対位置を特定し、
    前記車両又は前記サーバは、音声認識処理によって前記音声の発話内容を認識し、
    前記車両は、前記発話内容に応じた運転支援情報を、前記音源の前記相対位置を示唆する表示態様で、表示部に表示させ
    前記表示部は、ヘッドアップディスプレイであり、
    前記車両は、前記運転支援情報の少なくとも一部を前記音源に重畳して表示させる、
    運転支援システム。
JP2018033596A 2018-02-27 2018-02-27 運転支援方法、車両、及び運転支援システム Active JP7063005B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018033596A JP7063005B2 (ja) 2018-02-27 2018-02-27 運転支援方法、車両、及び運転支援システム
US16/272,244 US10759447B2 (en) 2018-02-27 2019-02-11 Driving support method, vehicle, and driving support system
CN201910133249.2A CN110194181B (zh) 2018-02-27 2019-02-22 驾驶支持方法、车辆和驾驶支持系统
US16/941,601 US11097745B2 (en) 2018-02-27 2020-07-29 Driving support method, vehicle, and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018033596A JP7063005B2 (ja) 2018-02-27 2018-02-27 運転支援方法、車両、及び運転支援システム

Publications (2)

Publication Number Publication Date
JP2019149023A JP2019149023A (ja) 2019-09-05
JP7063005B2 true JP7063005B2 (ja) 2022-05-09

Family

ID=67684296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018033596A Active JP7063005B2 (ja) 2018-02-27 2018-02-27 運転支援方法、車両、及び運転支援システム

Country Status (3)

Country Link
US (2) US10759447B2 (ja)
JP (1) JP7063005B2 (ja)
CN (1) CN110194181B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111194440A (zh) * 2017-08-07 2020-05-22 北美日产公司 自主车辆通知系统和方法
JPWO2021210088A1 (ja) * 2020-04-15 2021-10-21
US20210232836A1 (en) * 2021-03-25 2021-07-29 Intel Corporation Vehicle data relation device and methods therefor
CN114987518A (zh) * 2021-07-23 2022-09-02 上海博汽智能科技有限公司 一种车载人机交互方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092482A (ja) 2004-09-27 2006-04-06 Yamaha Corp 音声認識通報装置
JP2008009568A (ja) 2006-06-27 2008-01-17 Toyota Motor Corp 説明表示装置
JP2009192489A (ja) 2008-02-18 2009-08-27 Toyota Motor Corp 情報提供装置、情報表示方法、ナビゲーション装置
JP2015001776A (ja) 2013-06-13 2015-01-05 三菱電機株式会社 運転支援装置
US20170309175A1 (en) 2016-04-21 2017-10-26 Hyundai Motor Company Method for providing sound detection information, apparatus detecting sound around vehicle, and vehicle including the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH082339A (ja) 1994-06-16 1996-01-09 Mitsubishi Automob Eng Co Ltd 車外音導入装置
JPH1031882A (ja) 1996-07-16 1998-02-03 Niles Parts Co Ltd 車両用音声記憶装置
JP2003004521A (ja) 2001-06-27 2003-01-08 Kenwood Corp 車外音の識別装置
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
ATE509332T1 (de) * 2005-03-14 2011-05-15 Harman Becker Automotive Sys Automatische erkennung von fahrzeugbetrieb- geräuschsignalen
JP2007034348A (ja) 2005-07-22 2007-02-08 Hitachi Ltd 音声感知システム
ATE424329T1 (de) * 2006-10-02 2009-03-15 Harman Becker Automotive Sys Sprachsteuerung von fahrzeugelementen von ausserhalb einer fahrzeugkabine
US8319620B2 (en) * 2008-06-19 2012-11-27 Personics Holdings Inc. Ambient situation awareness system and method for vehicles
JP5397735B2 (ja) 2008-09-12 2014-01-22 株式会社デンソー 車両用緊急車両接近検出システム
DE102010001684A1 (de) * 2010-02-09 2011-08-11 Robert Bosch GmbH, 70469 Verfahren zum Betreiben eines Head-Up-Display-Systems, Head-Up-Display-System
JP2011232292A (ja) 2010-04-30 2011-11-17 Toyota Motor Corp 車外音検出装置
WO2012097150A1 (en) * 2011-01-12 2012-07-19 Personics Holdings, Inc. Automotive sound recognition system for enhanced situation awareness
EP2709891B1 (en) * 2011-05-20 2016-10-26 Valeo Schalter und Sensoren GmbH Method for supporting a driver using a portable device in a vehicle
JP5622819B2 (ja) 2012-09-28 2014-11-12 富士重工業株式会社 視線誘導システム
JP2015005935A (ja) 2013-06-21 2015-01-08 株式会社Jvcケンウッド 警報音認知機能を備えた音響機器
US9262924B2 (en) * 2014-07-09 2016-02-16 Toyota Motor Engineering & Manufacturing North America, Inc. Adapting a warning output based on a driver's view
JP6361565B2 (ja) 2015-04-23 2018-07-25 株式会社デンソー 車載機器の動作制御装置
US9844981B2 (en) * 2015-06-02 2017-12-19 Karma Automotive Llc Systems and methods for use in a vehicle for detecting external events
KR101977090B1 (ko) * 2015-07-22 2019-05-10 엘지전자 주식회사 차량 제어 장치 및 이를 구비한 차량의 제어방법
KR20170099188A (ko) * 2016-02-23 2017-08-31 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
US10088846B2 (en) * 2016-03-03 2018-10-02 GM Global Technology Operations LLC System and method for intended passenger detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092482A (ja) 2004-09-27 2006-04-06 Yamaha Corp 音声認識通報装置
JP2008009568A (ja) 2006-06-27 2008-01-17 Toyota Motor Corp 説明表示装置
JP2009192489A (ja) 2008-02-18 2009-08-27 Toyota Motor Corp 情報提供装置、情報表示方法、ナビゲーション装置
JP2015001776A (ja) 2013-06-13 2015-01-05 三菱電機株式会社 運転支援装置
US20170309175A1 (en) 2016-04-21 2017-10-26 Hyundai Motor Company Method for providing sound detection information, apparatus detecting sound around vehicle, and vehicle including the same

Also Published As

Publication number Publication date
US11097745B2 (en) 2021-08-24
JP2019149023A (ja) 2019-09-05
US10759447B2 (en) 2020-09-01
US20190263426A1 (en) 2019-08-29
CN110194181B (zh) 2022-07-05
CN110194181A (zh) 2019-09-03
US20200353946A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
JP7063005B2 (ja) 運転支援方法、車両、及び運転支援システム
US10908677B2 (en) Vehicle system for providing driver feedback in response to an occupant's emotion
US10994612B2 (en) Agent system, agent control method, and storage medium
JP6284331B2 (ja) 会話支援装置、会話支援方法及び会話支援プログラム
US11176948B2 (en) Agent device, agent presentation method, and storage medium
JP2005343431A (ja) 車両用情報処理システム
US11450316B2 (en) Agent device, agent presenting method, and storage medium
CN110968048B (zh) 智能体装置、智能体控制方法以及存储介质
US20080086260A1 (en) Apparatus and method for recognizing voice in vehicles
EP3495942B1 (en) Head-mounted display and control method thereof
JP2015114726A (ja) 情報伝達装置及びその制御方法、情報装置、コンピュータプログラム
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
US20200317055A1 (en) Agent device, agent device control method, and storage medium
US11974103B2 (en) In-car headphone acoustical augmented reality system
JP2016199124A (ja) 音場制御装置及び適用方法
KR102371513B1 (ko) 대화 시스템 및 대화 처리 방법
CN111731320A (zh) 智能体系统、智能体服务器及其控制方法、存储介质
JP2019200125A (ja) 経路案内制御装置および経路案内制御方法
US11518399B2 (en) Agent device, agent system, method for controlling agent device, and storage medium
CN112581977A (zh) 实现声音检测及其响应的计算机装置和方法
JP2019102062A (ja) ヘッドマウントディスプレイ及びその制御方法
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム
JP7192561B2 (ja) 音声出力装置および音声出力方法
JP2023098263A (ja) 車両用記録制御装置および記録方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R151 Written notification of patent or utility model registration

Ref document number: 7063005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151