JP7518134B2 - モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムおよび方法 - Google Patents

モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムおよび方法 Download PDF

Info

Publication number
JP7518134B2
JP7518134B2 JP2022164434A JP2022164434A JP7518134B2 JP 7518134 B2 JP7518134 B2 JP 7518134B2 JP 2022164434 A JP2022164434 A JP 2022164434A JP 2022164434 A JP2022164434 A JP 2022164434A JP 7518134 B2 JP7518134 B2 JP 7518134B2
Authority
JP
Japan
Prior art keywords
mobile carrier
host
parking space
image
optical scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022164434A
Other languages
English (en)
Other versions
JP2023078076A (ja
Inventor
リー ツォン-ハン
ジャン ジン-フォン
シュー シー-チュン
チャン ツ-クン
レイ チェン-タイ
ウェイ ハン-ユアン
Original Assignee
メタル インダストリーズ リサーチ アンド ディベロップメント センター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メタル インダストリーズ リサーチ アンド ディベロップメント センター filed Critical メタル インダストリーズ リサーチ アンド ディベロップメント センター
Publication of JP2023078076A publication Critical patent/JP2023078076A/ja
Application granted granted Critical
Publication of JP7518134B2 publication Critical patent/JP7518134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • B60R2300/8026Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views in addition to a rear-view mirror system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Geophysics And Detection Of Objects (AREA)

Description

本出願は、一般的には、警告センサ融合システムおよび方法に関し、特に、モバイルキャリア(可動運搬体)警告センサ融合システムおよび方法に関する。
従来の先進運転者支援システム(advanced driver assistance systems,ADAS)は、運転者を支援するために開発されており、オートモーティブ(自動車)センサ、オートモーティブプロセッサ、およびアクチュエータという3つの主要部分に分けることができる。ADASは、ミリ波レーダ、ライダ(lidar)、熱センサ、および圧力センサなどのオートモーティブセンサを使用して、キャリアの外部の信号を感知する。オートモーティブセンサからのセンシングデータは、例えば、センシングデータに応じて運転者のための警報を生成して危険な道路状況を回避するために、電子制御ユニット(electronic control units,ECU)などのオートモーティブプロセッサに送信される。さらに、オートモーティブセンサは、運転者の運転操作に直接的に介入し、減速、緊急ブレーキ、または車両の旋回(ターン)のためにアクチュエータを起動させて、運転者を保護することさえ可能である。
さらに、運転者を保護するために、キャリアの周囲を検出するためのレーダ検出技術が開発されている。残念ながら、レーダは、キャリアの周囲の固定オブジェクト(物体)またはモバイルオブジェクトを区別できない。キャリアの移動に影響を及ぼさないオブジェクトが近付いた場合、レーダは警告メッセージを送信するように警告ユニットを依然として駆動する。このことは、さらなる煩わしさを運転者に対して引き起こす。キャリアの周囲の障害物の検出は改善されているものの、キャリアの移動プロセスでは、他のキャリアによって引き起こされる危険が依然として存在する。さらに、運転の安全性に影響を及ぼしうるより多くのオブジェクトが存在する。例えば、歩行者、動物、および移動オブジェクト(移動中のオブジェクト)は、移動キャリア(移動中のキャリア)の障害物としてみなされうる。これらは、移動プロセスにおける緊急事態を引き起こす。この影響は、都市の混雑した街路において最悪となる。
ダッシュカムは、事後判断を目的として、緊急事態下においてカラー画像を記録するために開発されている。残念ながら、これらは根本的な問題を解決しない。この問題を解決するためには、運転者は緊急事態を防ぐ能力を有するべきである。現行のダッシュカムは、キャリアの前側(フロントサイド)および後側(リアサイド)に配置されている。両側にはブラインドスポット(盲点,死角)が依然として存在する。ブラインドスポットを防ぎ運転者をさらに支援するためには、両側の検出技術と統合(一体化)された画像機器を設けることが必要である。また、側方(ラテラル)ブラインドスポットの検出によれば、危険を予測し、運転者を保護するために当該運転者への通知を行うことが可能となる。
キャリアの危険な状況は、交差路においてのみ生じるわけではない。危険な状況は、駐車時においても、特に自動駐車技術が広く適用される場合に生じる。ADAS単独では、運転者を保護するには十分ではない。危険の予測も必要である。
そこで、本出願は、モバイルキャリアの側方ブラインドスポットを感知し、当該側方ブラインドスポットに応答するためのシステムおよび方法を提供する。モバイルキャリアの片側におけるオブジェクトを走査することによって、対応するオブジェクト画像が与えられる。次いで、画像がフィルタリングされ、キャリアへの影響を示すフィルタリング画像(フィルタリングされた画像)が得られる。フィルタリング画像内の対応するオブジェクトに応じて、オブジェクトの経路(パス)が予測される。移動ルートを修正することにより、危険な状況を回避できる。
本出願の目的は、モバイルキャリアの側方ブラインドスポットを感知し、当該側方ブラインドスポットに応答するためのシステムおよび方法を提供することである。キャリアの片側におけるオブジェクトを走査することによって、対応するオブジェクト画像が与えられる。次いで、画像がフィルタリングされ、モバイルキャリアの側方ブラインドスポットに対応するフィルタリング画像を与える。フィルタリング画像内の対応するオブジェクトに応じて、オブジェクトの経路が予測される。移動ルートを修正することにより、危険な状況を回避できる。
上記の目的を達成するために、本出願はモバイルキャリアの側方ブラインドスポットを感知して応答するための方法を開示している。モバイルキャリアは、光走査ユニットと画像抽出ユニットとに接続されたホストを含んでいる。ホストは、上記方法の複数のステップを実行する。まず、ホストは、モバイルキャリアが対応するパーキングスペース(駐車スペース)に駐車できるように、当該モバイルキャリアに対応するパーキングコマンドを実行する。ホストは、パーキングスペースに対するモバイルキャリアの相対位置または絶対位置に応じたポジショニングメッセージ(位置メッセージ,測位メッセージ)を生成する。次に、ホストは、ポジショニングメッセージおよびパーキングスペースに応じて第1移動ルートを生成する。光走査ユニットは、パーキングスペースにおける1つ以上のオブジェクトを第1移動ルートに応じて走査する。画像抽出ユニットは、対応する1つ以上のオブジェクト画像を抽出する。次に、ホストは、画像オプティカルフロー法を採用して1つ以上のオブジェクト画像を分類し、パーキングスペースの対応する1つ以上のフィルタリング画像を与える。その後、ホストは、1つ以上のフィルタリング画像における対応オブジェクトベクトル(対応するオブジェクトベクトル)に応じて、1つ以上の予測経路(予測された経路)を生成する。すなわち、ホストは、1つ以上のフィルタリング画像における対応オブジェクト(対応するオブジェクト)の経路を予測する。次に、ホストは、1つ以上の予測経路に応じて第1移動ルートを修正し、対応する第2移動ルートを生成する。言い換えれば、ホストは、モバイルキャリアのブラインドスポットについて危険予測を実行し、当該モバイルキャリアの対応する移動ルートを調整する。したがって、本出願は、パーキングプロセスにおけるモバイルキャリアの側方ブラインドスポットについての危険予測を提供し、かつ、対応する修正された移動ルートを生成できる。次いで、運転支援システムは、通知メッセージに応じて運転制御に介入し、同時に運転者への通知を行うことができる。
本出願の一実施形態では、光走査ユニットがパーキングスペースにおける1つ以上のオブジェクトを第1移動ルートに応じて走査するとともに、画像抽出ユニットが対応する1つ以上のオブジェクト画像を抽出するステップにおいて、光走査ユニットは、パーキングスペースを囲む1つ以上のオブジェクトをさらに走査するとともに、画像抽出ユニットは、パーキングスペースを囲む対応する1つ以上のオブジェクト画像を抽出する。
本出願の一実施形態では、ホストがオプティカルフロー法を採用し、1つ以上のオブジェクト画像を分類するステップにおいて、ホストは、1つ以上のフィルタリング画像に応じて複数の3次元画像を抽出し、かつ、ポジショニングメッセージに応じて画像オプティカルフロー法を使用して1つ以上のオブジェクト画像を分類する。
本出願の一実施形態では、ホストが1つ以上の予測経路に応じて第1移動ルートを修正し、対応する第2移動ルートを生成するステップにおいて、パーキングスペースの第1有効面積(第1有効エリア)が、1つ以上の予測経路に応じて、第2有効面積(第2有効エリア)へと縮小されるか否かを判定する。第1有効面積は、モバイルキャリアのキャリアサイズよりも大きい。第2有効面積は、キャリアサイズよりも小さい第1有効面積が第2有効面積へと縮小される場合、第2移動ルートは、モバイルキャリアをパーキングスペースの一部に駐車させるようガイド(案内)する。
本出願の一実施形態では、ホストが1つ以上の予測経路に応じて第1移動ルートを修正し、対応する第2移動ルートを生成するステップにおいて、ホストは、対応する内輪間半径差(内輪間の半径差)と、第1移動ルートの旋回角度と、1つ以上の予測経路と、に応じて計算を行い、次いで、第1移動ルートを修正し、対応する第2移動ルートを生成する。
本出願はさらに、モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムを提供する。モバイルキャリアは、ホスト、ポジショニングユニット(位置決めユニット)、光走査ユニット、および画像抽出ユニットを提供してよい。ホストは、モバイルキャリア内に配置されている。光走査ユニットおよび画像抽出ユニットは、モバイルキャリアの片側に配置されている。ホストは、モバイルキャリアが対応するパーキングスペースに駐車できるように、当該モバイルキャリアに対応するパーキングコマンドを実行する。ホストは、パーキングスペースに対するモバイルキャリアの相対位置または絶対位置に応じたポジショニングメッセージを生成する。次に、ホストは、ポジショニングメッセージおよびパーキングスペースに応じて、第1移動ルートを生成する。光走査ユニットは、パーキングスペースにおける1つ以上のオブジェクトを第1移動ルートに応じて走査する。画像抽出ユニットは、1つ以上のオブジェクト画像をそれに応じて抽出する。次いで、ホストは、画像オプティカルフロー法を採用して、1つ以上のオブジェクト画像を分類し、パーキングスペースの対応する1つ以上のフィルタリング画像を与える。その後、ホストは、1つ以上のフィルタリング画像における対応オブジェクトベクトルに応じて、1つ以上の予測経路を生成する。すなわち、ホストは、1つ以上のフィルタリング画像における対応オブジェクトの経路を予測する。次に、ホストは、1つ以上の予測経路に応じて第1移動ルートを修正し、第2移動ルートを生成する。言い換えれば、ホストは、モバイルキャリアのブラインドスポットについての危険予測を実行し、当該モバイルキャリアの対応する移動ルートを調整する。したがって、本出願は、パーキングプロセスにおけるモバイルキャリアの側方ブラインドスポットについての危険予測を提供し、かつ、対応する修正された移動ルートを生成できる。次いで、運転支援システムは、通知メッセージに応じて運転制御に介入し、同時に運転者への通知を行うことができる。
本出願の一実施形態では、光走査ユニットは、ライダまたはレーダスキャナである。
本発明の一実施形態では、光走査ユニットがパーキングスペースを囲む1つ以上のオブジェクトをさらに走査し、画像抽出ユニットがパーキングスペースを囲む1以上のオブジェクト画像を抽出する。
本出願の一実施形態では、ホストは、パーキングスペースの第1有効面積が1つ以上の予測経路に応じて第2有効面積へと縮小されるか否かを判定する。第1有効面積は、モバイルキャリアのキャリアサイズよりも大きい。第2有効面積は、キャリアサイズよりも小さい。第1有効面積が第2有効面積へと縮小される場合に、第2移動ルートは、モバイルキャリアをパーキングスペースの一部に駐車させるようガイドする。
本出願の一実施形態では、ホストは、対応する内輪間半径差と、第1移動ルートの旋回角度と、1つ以上の予測経路と、に応じて計算を行い、次いで、第1移動ルートを修正し、対応する第2移動ルートを生成する。
本出願の一実施形態では、側方ブラインドスポットの位置は、モバイルキャリアのパーキングスペースに対応しており、かつ、高度道路交通システム(intelligent transport system)ISO17387によって定められているブラインドスポット領域である。
本出願の一実施形態に係るフローチャートを示す。 本出願の一実施形態に係る部分的なステップについての概略図を示す。 本出願の一実施形態に係る部分的なステップについての概略図を示す。 本出願の一実施形態に係る部分的なステップについての概略図を示す。 本出願の一実施形態に係る部分的なステップについての概略図を示す。 本出願の一実施形態に係る部分的なステップについての概略図を示す。 本出願の一実施形態に係る部分的なステップについての概略図を示す。 本出願の一実施形態に係る斜視投射法における概略図を示す。 本出願の一実施形態に係るパーキングスペースの一部における駐車の概略図を示す。 本出願の一実施形態に係るパーキングスペースにおける駐車の概略図を示す。
従来技術に係るレーダシステムおよびダッシュカムは、モバイルキャリアの側方ブラインドスポットについての予測を提供できない。そこで、本出願は、モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムと、モバイルキャリアの後程のブラインドスポットによって引き起こされる危険な状況を回避するための方法と、を提供する。
以下では、本出願に係るモバイルキャリア警告センサ融合システムおよび方法の構成および付随するシステムをさらに説明する。
はじめに、図1を参照する。図1は、本出願の一実施形態に係るフローチャートを示す。図示の通り、本出願のモバイルキャリアの側方ブラインドスポットを感知し応答するための方法によれば、ホストが下記の各ステップを実行するであろう。
ステップS10:モバイルキャリアが旋回し、パーキングスペースに向かって移動しているか否かを判定すること;
ステップS12:パーキングスペースに対するモバイルキャリアの相対位置または絶対位置に応じて、ポジショニングメッセージを生成すること;
ステップS122:ポジショニングメッセージとパーキングスペースのロケーションメッセージとに応じて、ホストが第1移動ルートを生成すること;
ステップS14:光走査ユニットがパーキングスペースまたはその周囲の対応するオブジェクトを走査し、かつ、画像抽出ユニットが対応するオブジェクト画像を抽出すること;
ステップS16:画像オプティカルフロー法を用いてオブジェクト画像を分類し、第1移動ルートにおける対応するフィルタリング画像を与えること;
ステップS18:フィルタリング画像における対応するオブジェクトベクトルに応じて予測ルートを生成すること;および、
ステップS20:予測ルートに応じて第1移動ルートを調整し、対応する第2移動ルートを生成すること。
図2A~図2Eを参照する。図2A~図2Eは、本出願に係るモバイルキャリアの側方ブラインドスポットを感知し応答する方法のための、付随する識別システム1を例示している。システム1は、ホスト10と光走査ユニット20と画像抽出ユニット30とを備える。本実施形態に係るホスト10は、処理ユニット12とメモリ14とを備えるオートモーティブコンピュータである。ただし、本出願は、本実施形態に限定されない。本出願に係るホスト10は、サーバ、ノートブックコンピュータ、タブレットコンピュータ、または画像処理能力を有する任意の電子デバイスであってよい。本実施形態に係る光走査ユニット20は、ライダまたはレーザスキャナである。本実施形態に係る画像抽出ユニット30は、カラー画像抽出ユニットであり、例えば、オートモーティブCMOSイメージセンサである。ホスト10は、処理ユニット12を用いて、画像抽出ユニット30により生成された画像データIMGを取得(受信)し、かつ、画像処理を行うための演算プログラム(operational program)Pを実行する。ホスト10は、モバイルキャリアV内に配置されている。光走査ユニット20および画像抽出ユニット30は、モバイルキャリアVの片側に配置されている。ホスト10は、光走査ユニット20と画像抽出ユニット30とに電気的に接続されている。本実施形態に係る画像抽出ユニット30の画像抽出角度は、120°~170°であり、10メートルのオブジェクト画像を抽出する。また、ホスト10は、ポジショニングユニット40と電気的に接続されている。
ステップS10では、図2Aに示す通り、ホスト10は、パーキングコマンドCMDが実行されたか否かを判定する。言い換えれば、ホストは、モバイルキャリアVが旋回し、パーキングスペース50に向かって進んでいるか否かを判定する。否の場合、ホスト10は、ステップS10を再実行することによって、パーキングコマンドが存在しているか否かを判定し続ける。パーキングコマンドCMDが存在している場合、ステップS12が実行される。図2Aおよび図2Bを参照する。本実施形態によれば、ポジショニングユニット40によって生成されたポジショニングメッセージ42は、ホスト10の処理ユニット12に送信される。ポジショニングユニット40は、モバイルキャリアVおよびパーキンスペース50の絶対位置に応じて、処理ユニット12に対するポジショニングメッセージ42を生成する。そして、処理ユニット12は、ステップS122において、ポジショニングメッセージ42およびパーキングスペース50に応じて、モバイルキャリアVの対応する第1移動ルートL1を生成する。例えば、第1移動ルートL1は、旋回し、パーキングスペース50に向かって進むモバイルキャリアVである。第1移動ルートL1は、モバイルキャリアVがパーキングスペース50へと移動するための所定のルートである。この場合、本実施形態では、次にステップS14が実行される。絶対位置のポジショニングメッセージ42を提供するためにポジショニングユニット40を使用することに加えて、相対位置のポジショニングメッセージ42を提供するために、光走査ユニット20は、モバイルキャリアVの片側について光走査を実行してよく、あるいは、モバイルキャリアVの周囲の10~50メートルについてさえ光走査を実行してよい。すなわち、光走査ユニット20は、モバイルキャリアVの周囲の空間に対するポジショニング結果を取得し、モバイルキャリアVに対するパーキングスペース50に対応するポジショニングメッセージ42を提供する。
ホスト10は、ステップS14を実行する。再び図2Aおよび図2Bを参照する。ホスト10は、光走査ユニット20を使用して、第1移動ルートL1に応じて、モバイルキャリアVの片側についての、特にパーキングスペース50についての光走査を実行する。また、当該光走査ユニットは、パーキングスペース50の周囲を走査する。すなわち、光走査ユニット20は、パーキングスペース50に対応するオブジェクトを走査する。光走査ユニット20の走査方法は、1つ以上のオブジェクトに対して1つ以上の光学グレーティング(光学回折格子)22を生成することを目的としている。本実施形態では、オブジェクトは、第1オブジェクトVO1と第2オブジェクトVO2とを含む。これらのオブジェクトは、光学グレーティング22に応じて画像抽出ユニット30への反射光32を生じさせるので、複数のオブジェクト画像OBJをそれに応じて生じさせる。本実施形態では、光走査ユニット20は、ライダである。光の複数の平行なストライプ、特に垂直なレーザ光が、光学グレーティング22を形成する。画像抽出ユニット30は、光学グレーティング22の対応する反射光32を抽出し、反射光32の対応するオブジェクト画像OBJを生成する。加えて、本出願に係る光走査ユニット20は、複数回のレーザ走査によりライダの効果を実現するレーザスキャナであってもよい。処理ユニット12は、画像抽出ユニット30により抽出されたオブジェクト画像OBJを処理し、第1オブジェクトVO1および第2オブジェクトVO2に対応するオブジェクト画像OBJをハイライト(強調表示)するとともに、後続する空間識別のためにオブジェクト画像OBJに対する画像スティッチングまたはカラーおよびグレースケールのキャリブレーションを行うための演算プログラムPを実行する。
側方ブラインドスポットの位置は、モバイルキャリアVのパーキングスペースに対応しており、かつ、高度道路交通システムISO17387によって定められているブラインドスポット領域である。光走査ユニット20および画像抽出ユニット30は、ブラインドスポット内の第1オブジェクトVO1または第2オブジェクトVO2について、未認知の位置を抽出することを支援しうる。加えて、ADASも、歩行者、車、バス停、交通標識、または交通信号灯、または、さらにはAピラーなどの側方オブジェクトを識別するためのより完全な画像抽出を必要とする。当該側方オブジェクトは、ブラインドスポットを常に誘発する視覚案内(visual direction)である。
次に、ステップS16では、図2Cに示す通り、処理ユニット12は、オブジェクト画像OBJをフィルタリングしてフィルタリング画像IMGを与えるために、画像オプティカルフロー法Lを実行する。すなわち、処理ユニット12は、モバイルキャリアVの第1移動ルートL1に応じて、対応するオブジェクトをフィルタリングし、対応するフィルタリング画像IMGを取得する。例えば、オブジェクトが路側(ロードサイド)オブジェクトまたは車である場合、処理ユニット12は、その対応するオブジェクト画像OBJを考慮せず、対応するオブジェクト画像OBJはフィルタリング画像の1つとしてラベリング(ラベル付け)されない。図2Bに示す通り、オブジェクトVOは、第1オブジェクトVO1と第2オブジェクトVO2とを含む。第2オブジェクトVO2は、路側車であるため、モバイルキャリアVの第1移動ルートL1に影響を及ぼさない。この場合、第2オブジェクトVO2のオブジェクト画像OBJは、フィルタリング画像IMGとしてラベリングされない。言い換えれば、第1オブジェクトVO1のオブジェクト画像OBJが、フィルタリングされフィルタリング画像IMGとなる。本実施形態に係る処理ユニット12は、演算プログラムPを実行することにより、第1オブジェクトVO1の3次元(3D)画像V3Dを抽出し、3次元画像V3Dに応じた空間識別を行う。すなわち、ホスト10は、3次元画像V3Dに応じた空間識別を行い、かつ、ポジショニングユニット40によって供給されたポジショニングメッセージ42を用いて、第2オブジェクトVO2が駐車中の車であり、移動していないことを確認する。また、本実施形態に係る第1オブジェクトVO1はモバイルキャリアVを利用する人物であるが、本出願は当該実施形態に限定されない。代替的に、第1オブジェクトVO1は移動中の車であってもよい。
ステップS18において、図2Bおよび図2Dを参照すると、ホスト10は演算プログラムPを実行し、フィルタリング画像IMGの第1オブジェクトVO1に対応する予測ルートMLを予測するために、フィルタリング画像IMGに応じて予測演算を実行する。処理ユニット12は、ポジショニングメッセージ42と、フィルタリング画像IMGにおける対応オブジェクトベクトルと、に応じて予測演算を実行し、フィルタリング画像IMGの対応するルートデータMLDを与える。ルートデータMLDは、図2Bに示す予測ルートMLに対応する。フィルタリング画像IMGにおける対応オブジェクトベクトルは、第1移動ルートL1に影響を及ぼす静止オブジェクトを表すゼロベクトルでありうる。
ステップS20において、図2Bおよび図2Eを参照すると、ホスト10は、演算プログラムPを実行し、かつ、モバイルキャリアVの第1移動ルートL1を参照して、第1移動データL1D、例えば、旋回角度および内輪間半径差を与える。第2移動ルートL2を生成するために、第1移動データL1Dは、ステップS18において与えられたルートデータMLDを用いて計算される。ホスト10は、ルートデータMLDに応じて第1移動データL1Dを調整することにより、モバイルキャリアVの第1移動ルートL1を調整して、第2移動ルートL2の第2移動データL2Dをさらに生成し、例えば、移動を遅延させ、モバイルキャリアVのパーキングスペース50への侵入角度を変更し、または、パーキングスペース50を変更する。また、本出願に係るホスト10によって生成された第2移動ルートL2は、モバイルキャリアVの片側のブラインドスポットにおける危険な状況をモバイルキャリアVの運転者に通知するために、表示部(不図示)に表示させることに加えて、危険を回避するために運転者の運転行動に介在するためのADASにさらに適用されてよい。
内輪間半径差を計算するための式は、
Figure 0007518134000001

Figure 0007518134000002

Figure 0007518134000003

Figure 0007518134000004

を含む。
Rは、モバイルキャリアVの旋回半径である。Lは、ホイールベース(軸距)である。d1は、前輪(フロントホイール)間の距離である。d2は、後輪(リアホイール)間の距離である。αは、モバイルキャリアVの前方車軸と後方車軸との中点と旋回円の中心との間の角度である。aは、内側後輪の中心線の移動半径である。bは、内側前輪の中心線の移動半径である。mは、非トレーラーキャリアの内輪間半径差である。
図3に示す通り、斜視投影法を用いることにより、画像抽出ユニット30により抽出された画像点P0は、第1画像点P1と、第2画像点P2とを含む。第1画像点P1の座標(x,y)は第1ドメインDM1内に位置しており、第2画像点P2座標(x’,y’)は第2ドメインDM2内に位置している。この場合、画像抽出ユニット30によって抽出された第1画像点P1と第2画像点P2との関係は、
Figure 0007518134000005

Figure 0007518134000006

として表すことができる。
(x,y)は、第1画像像点P1である。(x’,y’)は、第2画像点P2である。m0,m1,…m7は、画像抽出ユニット30に関連するパラメータであり、焦点距離、旋回角度、およびサイジングパラメータを含む、これらの画像点は、複数の画像点のペアへと拡張されてよい。次いで、レーベンバーグ・マーカート(Levenberg-Marquardt)アルゴリズムを使用して非線形最小化を実行し、m1~m7の最適値を与えることができる。当該最適値は、画像抽出ユニット30の最適焦点距離として使用される。
上述の画像オプティカルフロー法Lは、障害物を推定するために、ルカス・カナデ(Lucas-Kanade)オプティカルフローアルゴリズムを採用する。まず、画像差分法が用いられる。そして、画像拘束方程式は、テイラー(Taylor)の式によって、
Figure 0007518134000007

の通り展開される。
H.O.Tは、式中のより高次の項(higher order terms)を意味しており、無限小の変位に対して無視されうる。上記式によれば、
Figure 0007518134000008

または、
Figure 0007518134000009

を得ることができ、
Figure 0007518134000010

を与えることができる。
Vx,Vy,Vzは、オプティカルフローベクトルI(x,y,z,t)におけるx,y,zによって構築される。
Figure 0007518134000011

は、点(x,y,z,t)における対応する方向についての画像の偏導関数(偏微分)である。このため、式(10)を、
Figure 0007518134000012

の通り変形できる。
式(11)を、
Figure 0007518134000013

の通り書き換える。
式(10)は3つの未知数(Vx,Vy,Vz)を含んでいるので、後続のアルゴリズムはこれらの未知数を解くことができる。
まず、オプティカルフローベクトル(Vx,Vy,Vz)が、小さいm*m*m(m>1)の立方体内において一定であると仮定する。そして、ボクセル1…n,n=mに対して、
Figure 0007518134000014

という式のセットが与えられる。
上述の式は、3つの未知数を含んでおり、過決定式のセットを形成する。このことは、冗長性が当該式中に存在していることを意味する。上記式のセットは、
Figure 0007518134000015

として表すことができる。
式(14)を、
Figure 0007518134000016

として表記する。
この過決定問題を解くために、式(15)は、最小二乗法を採用し、
Figure 0007518134000017

Figure 0007518134000018

を与える。
このため、
Figure 0007518134000019

が得られる。
式(18)の結果を式(10)に代入して、1つ以上のオブジェクトの加速度ベクトル情報および距離情報を推定する。これにより、1つ以上のオブジェクトを分類し、かつ、それらのルートを予測できる。例えば、第1オブジェクトVO1のオブジェクト画像OBJはフィルタリング画像IMGとして分類され、第1オブジェクトVO1の予測ルートMLが予測される。
加えて、図4に示す通り、ホストは、パーキングスペース50の第1有効面積A1と、キャリアサイズS(すなわち、モバイルキャリアVの視覚的な長さおよび幅)と、をさらに取得してよい。ステップS20において、ホスト10の処理ユニット12は、第1有効面積A1が第2有効面積A2へと縮小されるか否かを判定してよい。第1有効面積A1は、キャリアサイズSよりも大きい。第2有効面積A2は、キャリアサイズSよりも小さい。第1有効面積A1が第2有効面積A2へと縮小されるとホスト10の処理ユニット12が判定した場合、処理ユニット12は、第2移動ルートL2がモバイルキャリアVをパーキングスペース50の一部にガイドするように、第2移動データL2Dを調整する。例えば、複数の第1オブジェクトVO1のうちの1つは、パーキングスペース50の側端に位置しており、パーキングスペース50の有効面積を50~80%に縮小させ、キャリアサイズSよりも小さくする。モバイルキャリアVの一部は、パーキングスペース50の端部に位置しているか、あるいは当該端部を越えてさえいる。図5に示す通り、パーキングスペース50の有効面積が変更されていないと処理ユニット12が判定した場合、処理ユニット12は第2移動ルートL2Dを維持し、第2移動ルートL2はモバイルキャリアVをガイドしてパーキングスペース内に駐車させる。
要約すると、本出願は、モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムおよび方法を提供する。ホストは、分類を行ってフィルタリング画像を与えるために、モバイルキャリアの片側における複数のオブジェクトのオブジェクト画像を取得する。次いで、予測ルートを与えるために、フィルタリング画像の対応オブジェクトについての予測計算が実行される。予測ルートは、モバイルキャリアの移動ルートを用いて計算され、第2移動ルートを与える。また、ホストは、危険な状況を回避するために、ルートデータに応じて移動データをさらに調整してよい。

Claims (5)

  1. モバイルキャリアの側方ブラインドスポットを感知し応答するための方法であって、
    上記モバイルキャリアは、ホストと光走査ユニットと画像抽出ユニットとを備えており、
    上記ホストは、上記光走査ユニットと上記画像抽出ユニットとに電気的に接続されており、
    上記ホストが、下記の各ステップ、すなわち、
    上記ホストが上記モバイルキャリアの片側の対応するパーキングスペースに応じたパーキングコマンドを実行する場合に、上記ホストがパーキングスペースに対する上記モバイルキャリアの相対位置または絶対位置に応じたポジショニングメッセージを生成すること;
    上記ホストが、上記ポジショニングメッセージと上記パーキングスペースの対応するポジショニングメッセージとに応じて、上記パーキングスペースに向かう第1移動ルートを取得すること;
    上記光走査ユニットが、上記モバイルキャリアの側方ブラインドスポットに対応する、上記パーキングスペースにおける1つ以上のオブジェクトを走査するとともに、上記画像抽出ユニットが、対応する1つ以上のオブジェクト画像を抽出すること、
    画像オプティカルフロー法を用いて1つ以上の上記オブジェクト画像を分類し、上記第1移動ルートにおける対応する1つ以上のフィルタリング画像を与えること;
    1つ以上の上記フィルタリング画像における対応する1つ以上のオブジェクトベクトルに応じて、1つ以上の予測ルートを生成すること;および、
    1つ以上の上記予測ルートに応じて上記第1移動ルートを修正し、対応する第2移動ルートを生成すること;
    を実行し、
    上記ホストが1つ以上の上記予測ルートに応じて上記第1移動ルートを修正し、対応する第2移動ルートを生成する上記ステップにおいて、
    上記ホストは、上記モバイルキャリアのキャリアサイズよりも大きい上記パーキングスペースの第1有効面積が、1つ以上の上記予測ルートに応じて、上記キャリアサイズよりも小さい第2有効面積へと縮小されるか否かを判定し、
    上記第1有効面積が上記第2有効面積へと縮小される場合に、上記第2移動ルートが上記モバイルキャリアを上記パーキングスペースの一部に駐車させるようガイドする、方法。
  2. 上記光走査ユニットが、上記第1移動ルートに応じて上記パーキングスペースにおける1つ以上のオブジェクトを走査するとともに、上記画像抽出ユニットが、対応する1つ以上のオブジェクト画像を抽出する上記ステップにおいて、
    上記光走査ユニットが、上記パーキングスペースの周囲の1つ以上の上記オブジェクトをさらに走査するとともに、上記画像抽出ユニットが、上記パーキングスペースの周囲の対応する1つ以上の上記オブジェクト画像を抽出する、請求項1に記載の方法。
  3. モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムであって、
    ホストと光走査ユニットと画像抽出ユニットとを備えており、
    上記ホストは、上記モバイルキャリア内に配置されており、上記モバイルキャリアの片側の対応するパーキングスペースに応じたパーキングコマンドを実行し、パーキングスペースに対する上記モバイルキャリアの相対位置または絶対位置に応じたポジショニングメッセージを生成し、
    上記光走査ユニットは、上記モバイルキャリアの上記片側に配置されており、上記モバイルキャリアの側方ブラインドスポットに対応する、上記パーキングスペースにおける1つ以上のオブジェクトを第1移動ルートに応じて走査し、
    上記画像抽出ユニットは、上記モバイルキャリアの上記片側において上記光走査ユニットに隣接して配置されており、上記ホストに電気的に接続されており、1つ以上の上記オブジェクトの対応する1つ以上のオブジェクト画像を抽出し、
    上記ホストは、1つ以上の上記オブジェクト画像をフィルタリングするために上記第1移動ルートに応じて画像オプティカルフロー法を実行し、1つ以上のフィルタリング画像を与え、
    上記ホストは、1つ以上の上記フィルタリング画像における1つ以上のオブジェクトベクトルに応じて1つ以上の予測ルートを生成し、
    上記ホストは、1つ以上の上記予測ルートに応じて上記第1移動ルートを修正し、対応する第2移動ルートを生成し、
    上記ホストは、上記モバイルキャリアのキャリアサイズよりも大きい、上記パーキングスペースの第1有効面積が、1つ以上の上記予測ルートに応じて、上記キャリアサイズよりも小さい第2有効面積へと縮小されるか否かを判定し、
    上記第1有効面積が上記第2有効面積へと縮小される場合に、上記第2移動ルートは、上記モバイルキャリアを上記パーキングスペースの一部に駐車させるようガイドする、システム。
  4. 上記光走査ユニットは、ライダまたはレーダスキャナである、請求項3に記載のシステム。
  5. 上記側方ブラインドスポットの位置は、上記モバイルキャリアの上記パーキングスペースに対応しており、かつ、高度道路交通システムISO17387によって定められているブラインドスポット領域である、請求項3に記載のシステム。
JP2022164434A 2021-11-25 2022-10-13 モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムおよび方法 Active JP7518134B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW110144028A TWI817263B (zh) 2021-11-25 2021-11-25 移動載具側向盲點感測系統及其方法
TW110144028 2021-11-25

Publications (2)

Publication Number Publication Date
JP2023078076A JP2023078076A (ja) 2023-06-06
JP7518134B2 true JP7518134B2 (ja) 2024-07-17

Family

ID=86227495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022164434A Active JP7518134B2 (ja) 2021-11-25 2022-10-13 モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムおよび方法

Country Status (5)

Country Link
US (1) US20230161350A1 (ja)
JP (1) JP7518134B2 (ja)
CN (1) CN116160956A (ja)
DE (1) DE102022127130A1 (ja)
TW (1) TWI817263B (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232608A (ja) 2011-04-28 2012-11-29 Daihatsu Motor Co Ltd 目標軌道算出装置
WO2013046408A1 (ja) 2011-09-29 2013-04-04 トヨタ自動車株式会社 画像表示装置及び画像表示方法
JP2014054912A (ja) 2012-09-12 2014-03-27 Denso Corp 駐車支援システム
WO2018158911A1 (ja) 2017-03-02 2018-09-07 日産自動車株式会社 運転支援方法及び運転支援装置
JP2020001479A (ja) 2018-06-26 2020-01-09 クラリオン株式会社 駐車支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7487916B2 (en) * 2005-09-15 2009-02-10 Symbol Technologies, Inc. Imaging-based bar code reader with enhanced decoding capability
KR101834351B1 (ko) * 2016-07-14 2018-03-05 엘지전자 주식회사 차량용 운전 보조 장치
KR102001916B1 (ko) * 2017-05-30 2019-07-19 엘지전자 주식회사 주차 보조 시스템
DE202019006068U1 (de) * 2018-03-20 2024-08-13 Mobileye Vision Technologies Ltd. Systeme zur Fahrzeugnavigation
EP4273836A3 (en) * 2019-09-17 2024-01-17 Mobileye Vision Technologies Ltd. Systems and methods for predicting blind spot incursions
JP7502869B2 (ja) * 2020-02-20 2024-06-19 株式会社Subaru 車両の運転支援システム
JP7429589B2 (ja) * 2020-03-31 2024-02-08 本田技研工業株式会社 車両の移動支援システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232608A (ja) 2011-04-28 2012-11-29 Daihatsu Motor Co Ltd 目標軌道算出装置
WO2013046408A1 (ja) 2011-09-29 2013-04-04 トヨタ自動車株式会社 画像表示装置及び画像表示方法
JP2014054912A (ja) 2012-09-12 2014-03-27 Denso Corp 駐車支援システム
WO2018158911A1 (ja) 2017-03-02 2018-09-07 日産自動車株式会社 運転支援方法及び運転支援装置
JP2020001479A (ja) 2018-06-26 2020-01-09 クラリオン株式会社 駐車支援装置

Also Published As

Publication number Publication date
JP2023078076A (ja) 2023-06-06
DE102022127130A1 (de) 2023-05-25
US20230161350A1 (en) 2023-05-25
TWI817263B (zh) 2023-10-01
CN116160956A (zh) 2023-05-26
TW202321083A (zh) 2023-06-01

Similar Documents

Publication Publication Date Title
US10007854B2 (en) Computer vision based driver assistance devices, systems, methods and associated computer executable code
JP4420011B2 (ja) 物体検知装置
EP3366540B1 (en) Information processing apparatus and non-transitory computer-readable recording medium
JP6462328B2 (ja) 走行制御システム
KR102683742B1 (ko) 차량 및 그 제어방법
US20170190334A1 (en) Prediction of driver intent at intersection
US12012095B2 (en) Vehicle and method of controlling the same
CN118835863A (zh) 自动停车系统和自动停车方法
US11987239B2 (en) Driving assistance device
US20210042540A1 (en) Method for recognizing parking space for vehicle and parking assistance system using the method
JP6073358B2 (ja) 車体部及び/又は車輪と対象物との衝突を回避するための能動的警報及び/又はナビゲーション補助の方法
US11120690B2 (en) Method and device for providing an environmental image of an environment of a mobile apparatus and motor vehicle with such a device
JP4415856B2 (ja) 周囲感知システムによって路上車両の前方周囲を検出するための方法
CN110194152B (zh) 用于车辆在十字路口处的自主紧急制动系统和方法
CN114987460A (zh) 用于车辆的盲区辅助的方法和设备
JPH07225893A (ja) 車間距離制御装置
JP2012045984A (ja) 衝突軽減装置
CN113511198B (zh) 自车转弯时的盲区碰撞预测方法、设备和存储介质
US20240182052A1 (en) Driver assistance apparatus and driver assistance method
JP7518134B2 (ja) モバイルキャリアの側方ブラインドスポットを感知し応答するためのシステムおよび方法
GB2617122A (en) Computer-implemented method for avoiding a collision, collision avoidance device and collision avoidance system
JP3961269B2 (ja) 障害物警報装置
WO2024018682A1 (ja) 車両制御装置
Rammohan et al. Automotive Collision Avoidance System: A Review
JP7145227B2 (ja) 標識認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240704

R150 Certificate of patent or registration of utility model

Ref document number: 7518134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150