JP2021125021A - 死角情報取得装置、死角情報取得方法、車両及びプログラム - Google Patents

死角情報取得装置、死角情報取得方法、車両及びプログラム Download PDF

Info

Publication number
JP2021125021A
JP2021125021A JP2020018738A JP2020018738A JP2021125021A JP 2021125021 A JP2021125021 A JP 2021125021A JP 2020018738 A JP2020018738 A JP 2020018738A JP 2020018738 A JP2020018738 A JP 2020018738A JP 2021125021 A JP2021125021 A JP 2021125021A
Authority
JP
Japan
Prior art keywords
sound
vehicle
blind spot
sound source
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020018738A
Other languages
English (en)
Other versions
JP7287301B2 (ja
Inventor
薫 吉田
Kaoru Yoshida
薫 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020018738A priority Critical patent/JP7287301B2/ja
Priority to US17/132,263 priority patent/US11610408B2/en
Priority to CN202011559722.2A priority patent/CN113232659B/zh
Priority to DE102021101769.6A priority patent/DE102021101769A1/de
Publication of JP2021125021A publication Critical patent/JP2021125021A/ja
Application granted granted Critical
Publication of JP7287301B2 publication Critical patent/JP7287301B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

【課題】精度良く死角情報を取得することができる死角情報取得装置、死角情報取得方法、車両及びプログラムを得る。
【解決手段】死角情報取得装置10は、車両の周囲の音を取得する音取得部40と、音取得部40で取得された音の発生位置を推定する音発生位置推定部42と、車両の周囲の物体に関する情報を取得する物体取得部44と、音発生位置推定部42により推定された音の発生位置に基づいて、物体取得部44で取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定部46と、を有する。
【選択図】図5

Description

本発明は、死角情報取得装置、死角情報取得方法、車両及びプログラムに関する。
特許文献1には、死角に存在する車両を検出する死角車両検出装置が開示されている。この特許文献1に記載されている死角車両検出装置は、死角から発せられるエンジン音及び走行音などが遮蔽物の屋上を越えて自車両に到達する原理を利用したものであり、音源方向が上方である場合に、死角に車両がいる旨を通知する構成となっている。
特許第4527204号
しかしながら、上記特許文献1に記載の死角車両検出装置では、音源方向のみに基づいて死角からの音であるか否かを判断するため、精度良く死角の情報を取得するには改善の余地がある。
本発明は上記事実を考慮し、精度良く死角情報を取得することができる死角情報取得装置、死角情報取得方法、車両及びプログラムを得ることを目的とする。
請求項1に係る死角情報取得装置は、車両の周囲の音を取得する音取得部と、前記音取得部で取得された音の発生位置を推定する音発生位置推定部と、車両の周囲の物体に関する情報を取得する物体取得部と、前記音発生位置推定部により推定された音の発生位置に基づいて、前記物体取得部で取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定部と、を有する。
請求項1に係る死角情報取得装置では、音取得部によって車両の周囲の音が取得される。また、音発生位置推定部は、音取得部で取得された音の発生位置を推定する。さらに、物体取得部は、車両の周囲の物体に関する情報を取得する。ここで、音源位置特定部は、音発生位置推定部により推定された音の発生位置に基づいて、物体取得部で取得された情報から音源が特定できない場合に、目視できない死角で発生している音であると認識する。このように、音取得部に加えて物体取得部で取得された情報に基づいて死角で発生している音の音源を特定するため、精度良く死角の情報を得ることができる。
請求項2に係る死角情報取得装置は、請求項1において、前記音取得部は、少なくとも車両の周囲の人の音声及び足音を取得する。
請求項2に係る死角情報取得装置では、例えば、音取得部が車両の周囲の人の音声及び足音を取得した場合であって、音源位置特定部によって音源である人が特定できなかった場合に、死角に人がいることを認識する。
請求項3に係る死角情報取得装置は、請求項1又は2において、乗員に警告を行う警告部をさらに有し、前記警告部は、前記音源位置特定部によって死角で発生している音が認識された場合に、乗員へ警告を行う。
請求項3に係る死角情報取得装置では、警告部は、音源位置特定部によって死角で発生している音が認識された場合に乗員へ警告を行う。これにより、乗員に対して死角に存在する人又は車両などに注意を向けることができる。なお、ここでいう警告とは、音声又はアラーム音による警告に限定されず、モニタなどに情報を表示することで乗員に注意を促す概念を含む。
請求項4に係る死角情報取得装置は、請求項3において、死角で音を発している音源の種類を推定する音源推定部をさらに有し、前記警告部は、前記音源推定部によって推定された音源に応じて警告の内容を変化させる。
請求項4に係る死角情報取得装置では、音源推定部は、死角で音を発している音源の種類を推定する。例えば、音取得部で取得された音が人の音声であれば、音源の種類を人と推定する。また、音取得部で取得された音がエンジン音であれば、音源の種類を車両と推定する。そして、警告部が音源の種類に応じて警告の内容を変化させるため、乗員が死角の情報を正確に把握することができる。
請求項5に係る死角情報取得装置は、請求項4において、前記警告部は、前記音源推定部によって音源が子供であると推定された場合、音源が大人であると推定された場合と比較して、警告の度合いを高める。
請求項5に係る死角情報取得装置では、音源推定部によって音源が大人であると推定された場合における乗員への警告と比較して、音源推定部によって音源が子供であると推定された場合には、乗員への警告の度合いを高める。一般的に大人よりも子供の方が危険を認識し難いため、死角に子供が存在する場合に乗員への警告の度合いを高めることで、子供が飛び出してきた場合に備えることができる。
請求項6に係る死角情報取得装置は、請求項1〜5の何れか1項において、前記物体取得部によって取得される車両の周囲の物体に関する情報は、車両の周囲を撮像した撮像画像である。
請求項7に係る死角情報取得装置は、請求項6において、前記音源位置特定部は、前記撮像画像における音の発生位置に音源が存在しない場合に、死角で発生している音であると認識する。
請求項7に係る死角情報取得装置では、撮像画像に基づいて音源の存在を確認するため、死角で発生している音であるか否かを容易に判断することができる。
請求項8に係る車両は、請求項1〜7の何れか1項に記載の死角情報取得装置と、車両本体に設けられた集音装置及び周辺情報検出装置と、を有し、前記音取得部は、前記集音装置により車両の周囲の音を取得し、前記物体取得部は、前記周辺情報検出装置により車両の周囲の物体に関する情報を取得する。
請求項8に係る車両では、集音装置及び周辺情報検出装置が車両本体に設けられている。そして、音取得部は、集音装置によって集音された音を取得する。また、物体取得部は、周辺情報検出装置によって検出されたデータに基づいて物体に関する情報を取得する。なお、ここでいう「周辺情報検出装置」とは、車両の周辺の物体に関する情報を検出可能なセンサを備えた装置を広く含む概念であり、光学カメラ、レーダ、LIDAR(Laser Imaging Detection and Ranging)などを含む。
請求項9に係る死角情報取得方法は、車両の周囲の音を取得する音取得ステップと、前記音取得ステップで取得された音の発生位置を推定する音発生位置推定ステップと、車両の周囲の物体に関する情報を取得する物体取得ステップと、前記音発生位置推定ステップにより推定された音の発生位置に基づいて、前記物体取得ステップで取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定ステップと、を有する。
請求項9に係る死角情報取得方法では、音取得ステップによって車両の周囲の音が取得される。また、音発生位置推定ステップでは、音取得ステップで取得された音の発生位置を推定する。さらに、物体取得ステップは、車両の周囲の物体に関する情報を取得する。ここで、音源位置特定ステップは、物体取得ステップで取得された情報から音発生位置推定ステップにより推定された音の音源が特定できない場合に、死角で発生している音であると認識する。このように、音取得ステップに加えて物体取得ステップで取得された情報に基づいて死角で発生している音の音源を特定するため、精度良く死角の情報を得ることができる。
請求項10に係るプログラムは、車両の周囲の音を取得する音取得ステップと、前記音取得ステップで取得された音の発生位置を推定する音発生位置推定ステップと、車両の周囲の物体に関する情報を取得する物体取得ステップと、前記音発生位置推定ステップにより推定された音の発生位置に基づいて、前記物体取得ステップで取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定ステップと、を含む処理をコンピュータに実行させる。
請求項10に係るプログラムでは、コンピュータに次の処理を実行させる。音取得ステップでは、車両の周囲の音を取得する。また、音発生位置推定ステップでは、音取得ステップで取得された音の発生位置を推定する。さらに、物体取得ステップは、車両の周囲の物体に関する情報を取得する。ここで、音源位置特定ステップは、物体取得ステップで取得された情報から音発生位置推定ステップにより推定された音の音源が特定できない場合に、死角で発生している音であると認識する。このように、音取得ステップに加えて物体取得ステップで取得された情報に基づいて死角で発生している音の音源を特定するため、精度良く死角の情報を得ることができる。
以上説明したように、本発明に係る死角情報取得装置、死角情報取得方法、車両及びプログラムによれば、精度良く死角の情報を取得することができる。
実施形態に係る死角情報取得装置が適用された車両及び車両の周囲を示す概略平面図である。 実施形態に係る車両から見た景色を示す図である。 実施形態に係る死角情報取得装置が検出している情報を示す、図2に対応する図である。 実施形態に係る死角情報取得装置のハードウェア構成を示すブロック図である。 実施形態に係る死角情報取得装置の機能構成を示すブロック図である。 実施形態における警告処理の流れの一例を示すフローチャートである。 実施形態に係る死角情報取得装置における警告処理の変形例を示すフローチャートである。
実施形態に係る死角情報取得装置10が適用された車両12について、図面を参照して説明する。なお、各図に適宜記す矢印UP及び矢印RHは、車両の上方向及び右方向をそれぞれ示している。以下、単に前後、上下、左右の方向を用いて説明する場合は、特に断りのない限り、車両前後方向の前後、車両上下方向の上下、車両前方向を向いた場合の左右を示すものとする。また、一部の図面では、説明の便宜上、寸法比率が誇張して描かれている。
図1に示されるように、本実施形態の車両12は、車両本体14を備えており、車両本体14における前端部には、周辺情報検出装置16が配設されている。周辺情報検出装置16は、車両本体14の前部を車両幅方向に延在された図示しないフロントバンパリインフォースメントに取り付けられている。なお、周辺情報検出装置16としては、光学カメラ、レーダ及びLIDARなどを用いることができる。また、例えば、光学カメラとLIDARとを組み合わせて周辺情報検出装置16を構成してもよい。図1に一点鎖線Xで囲まれた領域は、周辺情報検出装置16による検出領域の一例である。
車両本体14の前端部には、集音装置としての左右一対のマイク18が配設されている。マイク18はそれぞれ、周辺情報検出装置16に対して車両幅方向両側に配設されて図示しないフェンダパネルの内側、又はランプカバーの内部などに取り付けられている。また、マイク18はそれぞれ車両外側に向けられており、車両12の前方側で発生した音を集音する。
ここで、本実施形態の車両12は死角情報取得装置10を備えており、この死角情報取得装置10は、制御部であるECU(Electronic Control Unit)20を備えている。そして、ECU20からの指示を受けて周辺情報検出装置16及びマイク18が作動されることで、車両12の周辺の死角の情報を得ることができるように構成されている。
図1では、車両12の右前方に大人の歩行者P1が立っており、車両12の左前方に子供の歩行者P2が立っている状態が図示されている。この場合において、歩行者P2は、停止車両V1及び停止車両V2の間に立っているため、図2に示されるように、歩行者P2が立っている位置は、車両12の運転者から視認できない死角領域となっている。本実施形態に係る死角情報取得装置10が適用された車両12は、この死角領域に存在する歩行者P2に関する情報を取得することができるものである。
(死角情報取得装置10のハードウェア構成)
図4は、死角情報取得装置10のハードウェア構成を示すブロック図である。この図4に示されるように、死角情報取得装置10のECU20は、CPU(Central Processing Unit:プロセッサ)22、ROM(Read Only Memory)24、RAM(Random Access Memory)26、ストレージ28、通信インタフェース30及び入出力インタフェース32を含んで構成されている。各構成は、バス21を介して相互に通信可能に接続されている。
CPU22は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU22は、ROM24又はストレージ28からプログラムを読み出し、RAM26を作業領域としてプログラムを実行する。CPU22は、ROM24又はストレージ28に記録されているプログラムに従って、上記各構成の制御および各種の演算処理を行う。
ROM24は、各種プログラムおよび各種データを格納する。RAM26は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ28は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する非一時的記録媒体である。本実施形態では、ROM24又はストレージ28には、警告処理を行うためのプログラム、及び各種データなどが格納されている。
通信インタフェース30は、車両12が図示しないサーバ及び他の機器と通信するためのインタフェースであり、たとえば、イーサネット(登録商標)、LTE、FDDI、Wi−Fi(登録商標)及びBluetooth(登録商標)などの規格が用いられる。
入出力インタフェース32には、周辺情報検出装置16、マイク18、モニタ34及びスピーカ36が接続されている。モニタ34は、車室内に設けられて種々の情報を乗員へ表示させるディスプレイを構成しており、本実施形態では一例として、車室内のインストルメントパネルに設けられている。スピーカ36は、車室内に設けられており、音を出力する。
(死角情報取得装置10の機能構成)
死角情報取得装置10は、上記のハードウェア資源を用いて、各種の機能を実現する。死角情報取得装置10が実現する機能構成について図5を参照して説明する。
図5に示されるように、死角情報取得装置10は、機能構成として音取得部40、音発生位置推定部42、物体取得部44、音源位置特定部46、音源推定部48、警告度合決定部50及び警告部52を含んで構成されている。なお、各機能構成は、CPU22がROM24又はストレージ28に記憶されたプログラムを読み出し、実行することにより実現される。
音取得部40は、車両12の周囲の音を取得する。本実施形態では、音取得部40は、左右一対のマイク18によって集音された音を取得する。なお、取得する音として、マイク18によって集音された音のうち、予め設定した周波数帯の音のみを取得するようにしてもよい。例えば、エンジン音及び走行音などの他車両から発生する周波数帯の音のみを取得するようにしてもよい。また、音声及び歩行音などの人から発生する周波数帯の音のみを取得するようにしてもよい。
ここで、本実施形態では、図2を参照して音取得部40の機能について説明する。図2には、低速で走行中の車両12の乗員がウインドシールドガラス60越しに見ている景色の一例が示されている。この状態において、音取得部40は、歩行者P1及び歩行者P2の歩行音と、歩行者P1及び歩行者P2の発話中の音声をマイク18から取得する。
図5に示されるように、音発生位置推定部42は、音取得部40で取得された音の発生位置を推定する。具体的には、音発生位置推定部42は、それぞれのマイク18が同一の音を集音した場合の時間差に基づいて、車両12に対する音が発生した方向と、車両12から音が発生した位置までの距離を推定する。例えば、図2において、歩行者P2の歩行音は、車両左側のマイク18で集音された後、所定時間経過後に車両右側のマイク18で集音されることとなる。このため、音が発生した位置は、車両幅方向中央よりも車両左側であると推定する。また、走行中の車両12のマイク18で音を集音しているため、集音された音の周波数及び音量の経時変化量に基づいて音が発生した位置までの距離を推定してもよい。このようにして、図3に示されるように、歩行者P1の歩行音は、マークM1で示す位置であると推定する。また、歩行者P2の歩行音は、車両12から見て停止車両V1と停止車両V2との間から聞こえるため、音が発生した位置は、マークM2で示す位置であると推定する。
図5に示されるように、物体取得部44は、車両12の周囲の物体に関する情報を取得する。本実施形態では、物体取得部44は、周辺情報検出装置16によって検出された情報を取得する。例えば、光学カメラによって周辺情報検出装置16を構成している場合、物体取得部44は、光学カメラで撮像された撮像画像を、車両12の周囲の物体に関する情報として取得する。また、レーダ及びLIDARなどによって周辺情報検出装置16を構成している場合、反射波の情報を車両12の周囲の物体に関する情報として取得する。ここで、図3において、停止車両V1、停止車両V2及び歩行者P1については物体取得部44で取得される。ただし、歩行者P2のように死角に存在する物体については物体取得部44で取得されない。
図5に示されるように、音源位置特定部46は、音源の位置を特定する。具体的には、音源位置特定部46は、物体取得部44で取得された情報と音発生位置推定部42で推定された音の発生位置とを照らし合わせることで、音源の位置を特定する。図3において、物体取得部44で取得された歩行者P1と、音発生位置推定部42で推定された歩行音の発生位置とから、音源の位置を歩行者P1として特定する。
一方で、音源位置特定部46は、音発生位置推定部42により推定された音の発生位置に基づいて、物体取得部44で取得された情報から音源が特定できない場合に、死角で発生している音であると認識する。例えば、物体取得部44で撮像画像を取得した場合、この撮像画像における音の発生位置に音源が存在しない場合に、死角で発生している音であると認識する。すなわち、図3において、歩行者P2は、物体取得部44で取得できないため、歩行者P2の歩行音は、音源位置特定部46では特定できない。従って、音源位置特定部46は、歩行者P2の歩行音を死角で発生している音であると認識する。同様に、歩行者P2の音声についても、死角で発生している音であると認識する。
図5に示されるように、音源推定部48は、死角で音を発している音源の種類を推定する。具体的には、音の周波数と音源の種類とを対応させたデータが予めストレージ28に格納されており、このデータから音取得部40で取得された死角の音の音源を推定する。本実施形態では、図3において、マークM2の位置から聞こえる歩行音及び音声に基づいて、死角で音を発している音源が人であると推定する。また、本実施形態では、一例として、音源が人である場合に、大人であるか子供であるかについても推定する。これらの推定は、例えばマイク18で集音された音の周波数などに基づいて推定する。
警告度合決定部50は、音源位置特定部46によって死角で発生している音が確認された場合において、乗員に警告する際の度合いを決定する。具体的には、警告度合決定部50は、音源推定部48によって死角の音源が子供であると推定された場合、音源が大人であると推定された場合と比較して、警告の度合いを高める。また、例えば、警告度合決定部50は、音発生位置推定部42によって死角の音源が車両12に近づいていると推定された場合、音源が車両12から遠ざかっている場合と比較して、警告の度合いを高めてもよい。
警告部52は、音源位置特定部46によって死角で発生している音が認識された場合に、乗員へ警告を行う。具体的には、警告部52は、死角に注意を促す旨をモニタ34に表示することで乗員へ警告する。また、本実施形態では、スピーカ36からアラーム音を出力することで乗員に警告する。
ここで、本実施形態の警告部52は、音源推定部48によって推定された音源に応じて警告の内容を変化させる。例えば、音源推定部48によって死角に人がいると推定された場合には、モニタ34に人の形状を模したピクトグラムを表示させることで、乗員に警告してもよい。
(作用)
次に、本実施形態の作用について説明する。
(警告処理)
警告処理の一例について、図6に示されているフローチャートを用いて説明する。この警告処理は、CPU22がROM24又はストレージ28からプログラムを読み出して、RAM26に展開して実行することによって実行される。なお、以下の説明では一例として、図2に示される状況において、警告処理が実行された場合について説明する。
図6に示されるように、CPU22は、ステップS102で車両12の周囲の音を取得する(音取得ステップ)。具体的には、CPU22は、音取得部40の機能によりマイク18で集音された音を取得する。そして、CPU22は、ステップS104の処理へ移行する。
CPU22は、ステップS104で音の発生位置を推定する(音発生位置推定ステップ)。具体的には、CPU22は、音発生位置推定部42の機能により、音取得部40で取得された音の発生位置を推定する。すなわち、車両12に対する音の発生位置の方向、及び車両12から音の発生位置までの距離を推定する。そして、CPU22は、ステップS106の処理へ移行する。
CPU22は、ステップS106で車両12の周辺情報を取得する。具体的には、CPU22は、物体取得部44の機能により、周辺情報検出装置16で検出された車両周辺の物体の情報を取得する(物体取得ステップ)。そして、CPU22は、ステップS108の処理へ移行する。
CPU22は、ステップS108で音源の位置が特定できるか否かについて判断する。具体的には、CPU22は、音源位置特定部46の機能により、物体取得部44で取得された情報と音発生位置推定部42で推定された音の発生位置とを照らし合わせて音源の位置を特定する。そして、図3に示される歩行者P1のように音源の位置が特定できる場合には、CPU22は、ステップS110の処理へ移行する。一方、歩行者P2のように音源の位置が特定できない場合には、CPU22は、ステップS112の処理へ移行する。
CPU22は、ステップS110でモニタ34に所定の表示を行う。例えば、車両12の前方に人が立っていることをモニタ34に表示する。また、車両12が運転支援機能を備えている場合、ブレーキを制御して車両12の速度を下げるようにしてもよい。さらに、ステアリングを制御して車両12を操舵することで歩行者P1を避けるようにしてもよい。
一方、CPU22は、ステップS108で音源の位置が特定できない場合には、死角で発生している音であると認識する(音源位置特定ステップ)。この場合には、ステップS112に移行して音源が推定可能であるか否かについて判断する。そして、音取得部40で取得された音に基づいて音源を推定し、音源が推定可能である場合は、CPU22は、ステップS114の処理へ移行する。また、CPU22は、ステップS112で音源が推定できないと判断した場合、ステップS116の処理へ移行する。
CPU22は、ステップS114で音源に応じて警告を行う。警告は、モニタ34に注意喚起の表示を行うと共に、スピーカ36からアラーム音を出力することで行う。なお、警告の度合いが低い場合には、アラーム音を出力せずにモニタ34への表示のみによって警告を行うようにしてもよい。
CPU22は、ステップS108で音源が推定できない場合には、ステップS116に移行して通常の警告を行う。例えば、音源が推定できない場合の警告方法を予め登録しておき、この登録された警告方法で警告を行う。そして、CPU22は、警告処理を終了させる。
以上のように、本実施形態に係る死角情報取得装置10では、音発生位置推定部42は、音取得部40で取得された音の発生位置を推定する。また、音源位置特定部46は、音発生位置推定部42により推定された音の発生位置に基づいて、物体取得部44で取得された情報から音源が特定できない場合に、死角で発生している音であると認識する。このように、音取得部40に加えて物体取得部44で取得された情報に基づいて死角で発生している音の音源を特定するため、精度良く死角の情報を得ることができる。
また、警告部52は、音源位置特定部46によって死角で発生している音が認識された場合に乗員へ警告を行う。これにより、乗員に対して死角に存在する人又は車両などに注意を向けることができる。
また、本実施形態では、音取得部40は、少なくとも車両の周囲の人の音声及び足音を取得する。これにより、物体取得部44で取得された情報から人が特定できなかった場合には、死角に人がいることを認識することができる。
さらに、本実施形態では、音源推定部48は、死角で音を発している音源の種類を推定し、警告部52が音源の種類に応じて警告の内容を変化させるため、乗員が死角の情報を正確に把握することができる。
さらにまた、本実施形態では、音源推定部48によって音源が大人であると推定された場合における乗員への警告と比較して、音源推定部48によって音源が子供であると推定された場合には、乗員への警告の度合いを高める。これにより、子供が飛び出してきた場合に備えることができる。
(変形例)
次に、警告処理の変形例について図7のフローチャートを用いて説明する。
(警告処理)
警告処理は、CPU22がROM24又はストレージ28からプログラムを読み出して、RAM26に展開して実行することによって実行される(図4参照)。なお、以下の説明では一例として、図2に示される状況において、警告処理が実行された場合について説明する。
図7に示されるように、CPU22は、ステップS202で車両12の周囲の音を取得する。具体的には、CPU22は、音取得部40の機能によりマイク18で集音された音を取得する。そして、CPU22は、ステップS204の処理へ移行する。
CPU22は、ステップS204で音源が推定可能であるか否かについて判断する。すなわち、CPU22は、音源推定部48の機能により、音取得部40で取得された音に基づいて音源を推定する。本変形では、運転上支障が生じる可能性のある音源の情報を予めストレージ28に登録しておき、この登録された音源の情報と音取得部40で取得された音とを比較することで音源を推定する。そして、音源が推定可能である場合は、ステップS206の処理へ移行する。また、CPU22は、ステップS204で音源が推定できないと判断した場合、警告処置を終了する。
CPU22は、ステップS206で音の発生位置を推定する。具体的には、CPU22は、音発生位置推定部42の機能により、音取得部40で取得された音の発生位置を推定する。そして、CPU22は、ステップS208の処理へ移行する。
CPU22は、ステップS208で車両12の周辺情報を取得する。具体的には、CPU22は、物体取得部44の機能により、周辺情報検出装置16で検出された車両周辺の物体の情報を取得する。そして、CPU22は、ステップS210の処理へ移行する。
CPU22は、ステップS210で音源の位置が特定できるか否かについて判断する。具体的には、CPU22は、音源位置特定部46の機能により、物体取得部44で取得された情報と音発生位置推定部42で推定された音の発生位置とを照らし合わせて音源の位置を特定する。そして、CPU22は、音源の位置が特定できる場合はステップS212の処理へ移行する。一方、音源の位置が特定できない場合には、CPU22は、ステップS214の処理へ移行する。
CPU22は、ステップS212でモニタ34に所定の表示を行う。例えば、車両12の前方に人が立っていることをモニタ34に表示する。また、車両12が運転支援機能を備えている場合、ブレーキを制御して車両12の速度を下げるようにしてもよい。さらに、ステアリングを制御して車両12を操舵することで歩行者P1を避けるようにしてもよい。
一方、CPU22は、ステップS210で音源の位置が特定できない場合には、死角で発生している音であると認識する。この場合には、CPU22は、ステップS214で音源に応じて警告を行う。警告は、モニタ34に注意喚起の表示を行うと共に、スピーカ36からアラーム音を出力することで行う。なお、警告の度合いが低い場合には、アラーム音を出力せずにモニタ34への表示のみによって警告を行うようにしてもよい。そして、CPU22は、警告処理を終了させる。
以上のように、本変形では、音源が推定できないと判断した場合に警告処理を終了させることで、運転上の支障がない音については、ステップS206以降の処理を行わずに済む。これにより、CPU22への負荷を低減させることができる。
以上、実施形態に係る死角情報取得装置10について説明したが、本発明の要旨を逸脱しない範囲において、種々なる態様で実施し得ることは勿論である。例えば、上記実施形態では、音源位置特定部46の機能により死角で発生している音であると認識した場合、乗員に警告を行う構成としたが、これに限定されない。例えば、死角に人が居ることを示すマークをモニタ34に表示させてもよい。また、運転支援機能を作動させることで、死角から人又は他車両が飛び出してきた場合に備えるようにしてもよい。具体的には、運転支援機能を作動させて車両12を減速させるようにしてもよい。また、音が発生している位置へ車両12を近づけないようにステアリングの操舵を制限してもよい。
また、上記実施形態では、警告部52は、死角に注意を促す旨をモニタ34に表示することで乗員へ警告したが、これに限定されない。例えば、ウインドシールドガラス60へ映像を投影するヘッドアップディスプレイ装置を設け、このヘッドアップディスプレイ装置によってウインドシールドガラスに警告画面を投影してもよい。
さらに、上記実施形態では、図1に示されるように、車両本体14の前端部に左右一対のマイク18を配設したが、これに限定されない。例えば、車両本体14の後端部にも同様のマイクを左右一対配置してもよい。この場合、車両本体14に対して後方側で発生している音を集音することができる。
さらにまた、上記実施形態でCPU22がソフトウェア(プログラム)を読み込んで実行した照明制御処理を、CPU22以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field−Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、照明制御処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
さらにまた、上記実施形態では、ストレージ28に種々のデータを記憶させる構成としたが、これに限定されない。例えば、CD(Compact Disk)、DVD(Digital Versatile Disk)、及びUSB(Universal Serial Bus)メモリ等の非一時的記録媒体に種々のデータを記憶させてもよい。
10 死角情報取得装置
12 車両
16 周辺情報検出装置
18 マイク(集音装置)
40 音取得部
42 音発生位置推定部
44 物体取得部
46 音源位置特定部
48 音源推定部
52 警告部

Claims (10)

  1. 車両の周囲の音を取得する音取得部と、
    前記音取得部で取得された音の発生位置を推定する音発生位置推定部と、
    車両の周囲の物体に関する情報を取得する物体取得部と、
    前記音発生位置推定部により推定された音の発生位置に基づいて、前記物体取得部で取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定部と、
    を有する死角情報取得装置。
  2. 前記音取得部は、少なくとも車両の周囲の人の音声及び足音を取得する請求項1に記載の死角情報取得装置。
  3. 乗員に警告を行う警告部をさらに有し、
    前記警告部は、前記音源位置特定部によって死角で発生している音が認識された場合に、乗員へ警告を行う請求項1又は2に記載の死角情報取得装置。
  4. 死角で音を発している音源の種類を推定する音源推定部をさらに有し、
    前記警告部は、前記音源推定部によって推定された音源に応じて警告の内容を変化させる請求項3に記載の死角情報取得装置。
  5. 前記警告部は、前記音源推定部によって音源が子供であると推定された場合、音源が大人であると推定された場合と比較して、警告の度合いを高める請求項4に記載の死角情報取得装置。
  6. 前記物体取得部によって取得される車両の周囲の物体に関する情報は、車両の周囲を撮像した撮像画像である請求項1〜5の何れか1項に記載の死角情報取得装置。
  7. 前記音源位置特定部は、前記撮像画像における音の発生位置に音源が存在しない場合に、死角で発生している音であると認識する請求項6に記載の死角情報取得装置。
  8. 請求項1〜7の何れか1項に記載の死角情報取得装置と、
    車両本体に設けられた集音装置及び周辺情報検出装置と、
    を有し、
    前記音取得部は、前記集音装置により車両の周囲の音を取得し、
    前記物体取得部は、前記周辺情報検出装置により車両の周囲の物体に関する情報を取得する車両。
  9. 車両の周囲の音を取得する音取得ステップと、
    前記音取得ステップで取得された音の発生位置を推定する音発生位置推定ステップと、
    車両の周囲の物体に関する情報を取得する物体取得ステップと、
    前記音発生位置推定ステップにより推定された音の発生位置に基づいて、前記物体取得ステップで取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定ステップと、
    を有する死角情報取得方法。
  10. 車両の周囲の音を取得する音取得ステップと、
    前記音取得ステップで取得された音の発生位置を推定する音発生位置推定ステップと、
    車両の周囲の物体に関する情報を取得する物体取得ステップと、
    前記音発生位置推定ステップにより推定された音の発生位置に基づいて、前記物体取得ステップで取得された情報から音源が特定できない場合に、死角で発生している音であると認識する音源位置特定ステップと、
    を含む処理をコンピュータに実行させるためのプログラム。
JP2020018738A 2020-02-06 2020-02-06 死角情報取得装置、死角情報取得方法、車両及びプログラム Active JP7287301B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020018738A JP7287301B2 (ja) 2020-02-06 2020-02-06 死角情報取得装置、死角情報取得方法、車両及びプログラム
US17/132,263 US11610408B2 (en) 2020-02-06 2020-12-23 Blind spot information acquisition device, blind spot information acquisition method, vehicle, and non-transitory storage medium
CN202011559722.2A CN113232659B (zh) 2020-02-06 2020-12-25 死角信息取得装置及方法、车辆及记录了程序的记录介质
DE102021101769.6A DE102021101769A1 (de) 2020-02-06 2021-01-27 Toter-winkel-informationserfassungsvorrichtung, toter-winkel-informationserfassungsverfahren, fahrzeug und programm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020018738A JP7287301B2 (ja) 2020-02-06 2020-02-06 死角情報取得装置、死角情報取得方法、車両及びプログラム

Publications (2)

Publication Number Publication Date
JP2021125021A true JP2021125021A (ja) 2021-08-30
JP7287301B2 JP7287301B2 (ja) 2023-06-06

Family

ID=76968898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020018738A Active JP7287301B2 (ja) 2020-02-06 2020-02-06 死角情報取得装置、死角情報取得方法、車両及びプログラム

Country Status (4)

Country Link
US (1) US11610408B2 (ja)
JP (1) JP7287301B2 (ja)
CN (1) CN113232659B (ja)
DE (1) DE102021101769A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114067612A (zh) * 2021-11-26 2022-02-18 山东科技大学 一种基于环境声音分析的车辆感知及危险预警方法与系统
DE102022003327A1 (de) * 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren und Vorrichtung zum Betrieb einer Kollisionsvermeidungsvorrichtung eines Fahrzeuges und Fahrzeug
CN116161051B (zh) * 2022-12-27 2024-10-18 小米汽车科技有限公司 针对车辆驾驶员的警示方法、装置、设备、介质及车辆

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257323A (ja) * 2007-04-02 2008-10-23 Matsushita Electric Ind Co Ltd 運転支援装置、運転支援装置を搭載した自動車、および運転支援方法
JP2010204104A (ja) * 2009-03-04 2010-09-16 Toyota Motor Engineering & Manufacturing North America Inc 車両と物体との間の衝突防止を助けるための方法および装置
WO2018139650A1 (ja) * 2017-01-27 2018-08-02 パイオニア株式会社 音声制御装置、音声制御方法、及びプログラム
JP2018185180A (ja) * 2017-04-25 2018-11-22 アイシン精機株式会社 物体検知装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004045690A1 (de) 2003-10-29 2005-06-02 Volkswagen Ag Vorrichtung zur Bestimmung externer Schallquellen in der Umgebung eines Kraftfahrzeugs und entsprechendes Fahrerassistenzsystem
JP4702106B2 (ja) 2006-03-02 2011-06-15 株式会社デンソー 死角支援情報報知装置及びプログラム
JP4527204B2 (ja) 2008-09-26 2010-08-18 パナソニック株式会社 死角車両検出装置及びその方法
CN102272624B (zh) * 2009-07-02 2013-04-24 松下电器产业株式会社 车辆位置检测装置及车辆位置检测方法
KR101097063B1 (ko) * 2010-12-30 2011-12-22 주식회사 와이즈오토모티브 사각 지대 표시 장치 및 방법
JP6429368B2 (ja) * 2013-08-02 2018-11-28 本田技研工業株式会社 歩車間通信システムおよび方法
KR20170027093A (ko) * 2015-09-01 2017-03-09 엘지이노텍 주식회사 차량용 이동체 정보 제공 장치
KR101697484B1 (ko) * 2016-08-31 2017-01-18 (주)캠시스 차량 주변의 위험요소 경고장치 및 경고방법
JP7051326B2 (ja) * 2016-12-27 2022-04-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法およびプログラム
DE102017200961A1 (de) 2017-01-20 2018-07-26 Ford Global Technologies, Llc Akustische Warnsignaldetektion für Kraftfahrzeuge
JP6751536B2 (ja) * 2017-03-08 2020-09-09 パナソニック株式会社 装置、ロボット、方法、及びプログラム
DE102018200876A1 (de) 2018-01-19 2019-07-25 Zf Friedrichshafen Ag Fahrzeugsystem zum Identifizieren und Lokalisieren von nicht-automobilen Verkehrsteilnehmern mittels Geräuschen
DE102018221449A1 (de) 2018-12-11 2020-06-18 Conti Temic Microelectronic Gmbh Sensorsystem zur Objekterkennung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257323A (ja) * 2007-04-02 2008-10-23 Matsushita Electric Ind Co Ltd 運転支援装置、運転支援装置を搭載した自動車、および運転支援方法
JP2010204104A (ja) * 2009-03-04 2010-09-16 Toyota Motor Engineering & Manufacturing North America Inc 車両と物体との間の衝突防止を助けるための方法および装置
WO2018139650A1 (ja) * 2017-01-27 2018-08-02 パイオニア株式会社 音声制御装置、音声制御方法、及びプログラム
JP2018185180A (ja) * 2017-04-25 2018-11-22 アイシン精機株式会社 物体検知装置

Also Published As

Publication number Publication date
DE102021101769A1 (de) 2021-08-12
US11610408B2 (en) 2023-03-21
US20210248393A1 (en) 2021-08-12
CN113232659A (zh) 2021-08-10
JP7287301B2 (ja) 2023-06-06
CN113232659B (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
CN113232659B (zh) 死角信息取得装置及方法、车辆及记录了程序的记录介质
JP6933457B2 (ja) 認識結果提示装置、認識結果提示方法及び自律移動体
JP6564576B2 (ja) 自動車における近接体警報知装置
JP7263733B2 (ja) 車両用障害物報知装置
WO2016067544A1 (ja) 車載注意喚起システム及び報知制御装置
TWI653170B (zh) 駕駛提示方法與系統
WO2017014035A1 (ja) 自動車接近警告システム
JP7047763B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
JP2008273251A (ja) 車両の警報装置
KR101827700B1 (ko) 차량 및 그 제어방법
JP6922919B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
JP2019038356A (ja) 車両制御装置
JP2017182776A (ja) 車両周辺監視装置及びコンピュータプログラム
JP2013078151A (ja) 車両用表示装置
JP2017162178A (ja) 判定装置、判定方法、および判定プログラム
JP2020154795A (ja) 出力制御装置、出力制御方法、および出力制御プログラム
JP6342074B2 (ja) 車両周辺監視装置及び運転支援システム
JP7411706B2 (ja) 運転支援装置
JP4873255B2 (ja) 車両用報知システム
JP2008071062A (ja) 運転支援装置および通知方法
US20200324759A1 (en) Driving assistance apparatus
CN114379575A (zh) 向机动车辆的驾驶员通知危险的方法及实现该方法的装置
US20190206256A1 (en) Motor vehicle having a sound capture device
JP6198871B2 (ja) 車両周辺監視装置、車両周辺監視方法、及び車両周辺監視プログラムとその記録媒体
JP2020077201A (ja) 車両用警報装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7287301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151