JP7243585B2 - 情報処理装置、情報処理システム、及び情報処理プログラム - Google Patents

情報処理装置、情報処理システム、及び情報処理プログラム Download PDF

Info

Publication number
JP7243585B2
JP7243585B2 JP2019204265A JP2019204265A JP7243585B2 JP 7243585 B2 JP7243585 B2 JP 7243585B2 JP 2019204265 A JP2019204265 A JP 2019204265A JP 2019204265 A JP2019204265 A JP 2019204265A JP 7243585 B2 JP7243585 B2 JP 7243585B2
Authority
JP
Japan
Prior art keywords
vehicle
information
unit
image
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019204265A
Other languages
English (en)
Other versions
JP2021077175A (ja
Inventor
弘幸 坂大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019204265A priority Critical patent/JP7243585B2/ja
Priority to CN202011041462.XA priority patent/CN112785875B/zh
Priority to US17/067,071 priority patent/US11636692B2/en
Publication of JP2021077175A publication Critical patent/JP2021077175A/ja
Application granted granted Critical
Publication of JP7243585B2 publication Critical patent/JP7243585B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Public Health (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、情報処理装置、情報処理システム、及び情報処理プログラムに関する。
インターネット等の通信ネットワークに接続する機能を備えたコネクティッドカーの登場により、クラウドサーバと通信を行うことで種々の情報サービスを受けることが可能となっている。
例えば、特許文献1では、外界認識手段による認識結果に基づいて制御される車両とネットワークを介して接続される情報提供装置であって、過去に外界認識の失敗が発生した際の条件に基づいて、外界認識の失敗の可能性に関する情報を車両に提供する情報処理装置が提案されている。詳細には、コネクティッドカーの外界認識装置における不検知や誤検知などの失敗が発生した場合に、その異常を車両の位置、天候等の外部走行環境と紐づけて記憶することが提案されている。
特開2017-174244号公報
しかしながら、特許文献1の技術では、コネクティッドカーから種々の情報がクラウドサーバ等の情報処理装置に収集されて多大な情報処理を行う必要があるため、処理負荷が高くなり応答が遅くなるため、改善の余地がある。
本発明は、上記事実を考慮して成されたもので、危険運転車両の特定にかかる処理を早めることが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の情報処理装置は、車両に搭載された撮影部により撮影された画像情報、前記車両の位置情報を含む車両情報、及び危険運転車両の検出結果の各々を複数の前記車両から受信する受信部と、前記画像情報に基づいて前記危険運転車両を特定し、前記危険運転車両の特徴を特定する画像処理を行う画像処理部と、前記危険運転車両の検出結果から前記危険運転車両が検出された場合に、前記受信部が受信した前記画像情報のうち、前記危険運転車両検出した前記車両の周辺の他車両から受信した前記画像情報に対する前記画像処理の優先順位が前記他車両以外の前記車両より高くなるように変更する変更部と、を含む。
請求項1に記載の発明によれば、受信部では、車両に搭載された撮影部により撮影された画像情報、車両の位置情報を含む車両情報、及び危険運転車両の検出結果の各々が複数の車両から受信される。
画像処理部では、画像情報に基づいて危険運転車両とその特徴を特定する画像処理が行われる。例えば、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両の特徴を画像処理によって特定する。
そして、変更部では、危険運転車両の検出結果から危険運転車両が検出された場合に、受信部が受信した画像情報のうち、危険運転車両検出た車両の周辺の他車両から受信した画像情報に対する画像処理の優先順位が他車両以外の車両より高くなるように変更される。これにより、危険運転車両が検出された車両の周辺の他車両から受信した画像情報に危険運転車両が含まれる可能性が高いので、危険運転車両の特定にかかる処理を早めることが可能となる。
請求項2に記載の情報処理装置は、車両に搭載された撮影部により撮影された画像情報、及び車両の位置情報を含む車両情報の各々を複数の車両から受信する受信部と、前記受信部の受信結果に基づいて危険運転車両の有無を検出する検出部と、前記画像情報に基づいて前記危険運転車両を特定し、前記危険運転車両の特徴を特定する画像処理を行う画像処理部と、前記検出部によって前記危険運転車両が検出された場合に、前記受信部が受信した前記画像情報のうち、前記危険運転車両が検出された前記画像情報及び車両情報を送信した前記車両の周辺の他車両から受信した前記画像情報に対する前記画像処理の優先順位が前記他車両以外の前記車両より高くなるように変更する変更部と、を含む。
なお、画像処理部は、優先順位に従って画像処理を行い、危険運転車両の特徴が特定されたところで画像処理を終了してもよい。
また、画像処理部によって特定された危険運転車両の特徴を表す特徴情報を複数の車両に報知する報知部を更に含んでもよい。これにより、周辺の車両や、先行する車両等に危険運転車両の存在を報知することが可能となる。この場合、報知部は、画像処理部の画像処理結果に基づいて、他車両から受信した画像情報に危険運転車両が含まれる場合、特徴情報を他車両へ報知してもよい。これにより、危険運転車両の近くに存在する車両に危険運転車両の存在を報知することが可能となる。
なお、本発明は、請求項1~5の何れか1項に記載の情報処理装置と、前記車両に搭載されて車両周辺を撮影する撮影部と、前記車両の位置情報を含む車両情報を検出する車両情報検出部と、前記撮影部により撮影された画像情報、及び前記車両情報検出部によって検出された前記車両情報を前記情報処理装置に送信する送信部と、を含む前記車両と、を含む情報処理システムとしてもよい。
或いは、コンピュータを、請求項1~5の何れか1項に記載の情報処理装置の各部として機能させるための情報処理プログラムとしてもよい。
以上説明したように本発明によれば、危険運転車両の特定にかかる処理を早めることが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供できる、という効果がある。
本実施形態に係る情報処理システムの概略構成を示すブロック図である。 本実施形態に係る情報処理システムにおける車載器及びクラウドサーバの構成を示すブロック図である。 第1実施形態に係る情報処理システムの車載器で行われる処理の流れの一例を示すフローチャートである。 第1実施形態に係る情報処理システムのクラウドサーバで行われる処理の流れの一例を示すフローチャートである。 第2実施形態に係る情報処理システムの車載器で行われる処理の流れの一例を示すフローチャートである。 第2実施形態に係る情報処理システムのクラウドサーバで行われる処理の流れの一例を示すフローチャートである
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る情報処理システムの概略構成を示すブロック図である。
本実施形態に係る情報処理システム10は、車両14に搭載された車載器16と、情報処理装置としてのクラウドサーバ12とが通信ネットワーク18を介して接続されている。本実施形態に係る情報処理システム10では、複数の車載器16の撮影によって得られる画像情報をクラウドサーバ12に送信して、クラウドサーバ12が各種画像処理を行う。画像処理の一例としては、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両を特定する画像処理などを行う。
図2は、本実施形態に係る情報処理システムにおける車載器16及びクラウドサーバ12の構成を示すブロック図である。
車載器16は、制御部20、車両情報検出部22、撮影部24、通信部26、及び表示部28を備えている。
車両情報検出部22は、車両14の位置情報を少なくとも含む車両14に関する車両情報を検出する。車両情報としては、位置情報の他に、例えば、車速加速度、舵角、アクセル開度、経路等の車両情報を検出してもよい。車両情報検出部22は、具体的には、車両14の周辺環境がどのような状況かを表す情報を取得する複数種のセンサや装置を適用できる。センサや装置の一例としては、車速センサ、及び加速度センサなどの車両14に搭載されるセンサや、GNSS(Global Navigation Satellite System)装置、車載通信機、ナビゲーションシステム、及びレーダ装置などが挙げられる。GNSS装置は、複数のGNSS衛星からGNSS信号を受信して自車両14の位置を測位する。GNSS装置は受信可能なGNSS信号の数が多くなるに従って測位の精度が向上する。車載通信機は、通信部26を介して他の車両14との間の車車間通信及び路側機との間の路車間通信の少なくとも一方を行う通信装置である。ナビゲーションシステムは、地図情報を記憶する地図情報記憶部を含み、GNSS装置から得られる位置情報と地図情報記憶部に記憶された地図情報とに基づいて、自車両14の位置を地図上で表示したり、目的地迄の経路を案内する処理を行う。また、レーダ装置は、検出範囲が互いに異なる複数のレーダを含み、自車両14の周辺に存在する歩行者や他車両14等の物体を検出し、検出した物体と自車両14の相対位置及び相対速度を取得する。また、レーダ装置は周辺の物体の探知結果を処理する処理装置を内蔵している。当該処理装置は、直近の複数回の探知結果に含まれる個々の物体との相対位置や相対速度の変化等に基づき、ノイズやガードレール等の路側物等を監視対象から除外し、歩行者や他車両14等を監視対象物体として追従監視する。そしてレーダ装置は、個々の監視対象物体との相対位置や相対速度等の情報を出力する。
撮影部24は、本実施形態では、車両14の後部に設けられて車両14の後方を撮影する。また、撮影部24は、車両14の前方及び側方の少なくとも一方を更に撮影してもよい。なお、撮影部24は、車両14に設けられて車両14の前方、側方、及び後方の少なくとも1つの車両周辺を撮影する形態としてもよい。また、撮影部24は、車室内を更に撮影してもよい。
通信部26は、通信ネットワーク18を介してクラウドサーバ12と通信を確立して、撮影部24の撮影によって得られる画像情報や車両情報検出部22によって検出された車両情報等の情報の送受信を行う。
表示部28は、情報を表示することにより、乗員に各種情報を提供する。本実施形態では、クラウドサーバ12から提供される危険運転車両情報を表示することにより、危険運転車両に対する警告を報知する。例えば、危険運転車両情報として、危険運転車両の形状(セダンやワンボックス等)、色、ナンバー等の情報を表示する。
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を含む一般的なマイクロコンピュータで構成されている。また、制御部20は、撮影部24によって撮影された画像を表す画像情報、及び画像の撮影時に車両情報検出部22によって検出された車両情報をクラウドサーバ12にアップロードする制御等を行う。また、制御部20は、あおり運転や、幅寄せ運転、蛇行運転等の可能性がある車両14を危険車両として検出する処理を行う場合がある。例えば、撮影部24の撮影によって得られる画像情報の中の車両14を特定して特定された車両14の画像中の大きさが予め定めた大きさ以上の車両14を危険車両として検出する。或いは、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、画像情報に基づいて検出した周辺車両までの距離、及び車両情報に基づいて検出した周辺車両までの距離が共に、予め定めた距離以内の車両14を危険車両として検出してもよい。
一方、クラウドサーバ12は、中央処理部30、中央通信部36、及びDB(データベース)38を備えている。
中央処理部30は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を含む一般的なマイクロコンピュータで構成されている。中央処理部30は、画像処理部32及び処理順変更部34の機能を備えており、車載器16から送信される画像情報及び車両情報をDB38に蓄積してデータベース化する処理を行うと共に、画像情報に基づいて、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両の特徴を特定する処理等を行う。なお、中央処理部30の各機能は、ROM等に記憶されたプログラムを実行することにより実現される。また、処理順変更部34は変更部に対応し、DB38は受信部に対応する。
画像処理部32は、車載器16から受信した画像情報に対して各種画像処理を行って、交通状況の検出や、冠水や土砂崩れ等の災害検知、危険運転車両の特徴の特定等を行う。本実施形態では、一例として、画像処理部32は、車載器16から受信した画像情報に対して画像処理を行って危険運転車両の特徴の特定を行う。具体的には、危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。なお、画像処理部32は、車載器16の制御部20と同様に、あおり運転や、幅寄せ運転、蛇行運転等の可能性がある車両14を危険車両として検出する処理を行う場合がある。例えば、画像情報の中の車両14を特定して特定された車両14の画像中の大きさが予め定めた大きさ以上の車両14を危険車両として検出する。或いは、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、画像情報に基づいて検出した周辺車両までの距離、及び車両情報に基づいて検出した周辺車両までの距離が共に、予め定めた距離以内の車両14を危険車両として検出してもよい。なお、周辺とは、例えば、車両14を中心として半径10m以内等の車両14を中心とした予め定めた距離範囲内とする。
処理順変更部34は、危険運転車両が検出された場合に、画像処理部32による画像処理の処理順を変更する。具体的には、危険運転車両が検出された場合には、危険運転車両が検出された車両14の周辺の車両14から受信した画像情報の優先順位が他の車両14より高くなるように変更し、危険運転車両の特定を優先させる。なお、危険運転車両の検出は、車載器16の制御部20による危険車両の検出を適用してもよいし、クラウドサーバ12の画像処理部32による危険車両の検出を適用してもよい。
中央通信部36は、通信ネットワーク18を介して車載器16と通信を確立して、画像情報や車両情報等の情報の送受信を行う。
DB38は、車載器16から画像情報及び車両情報を受信し、受信した画像情報及び車両情報のそれぞれ対応付けて蓄積する。
上述のように構成された情報処理システム10では、車載器16の撮影部24によって撮影された画像情報が、位置情報を少なくとも含む車両情報と共にクラウドサーバ12に送信されてDB38に蓄積される。
クラウドサーバ12は、DB38に蓄積された画像情報に基づいて画像処理部32が画像処理を行うことで、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両の特徴を特定する。そして、クラウドサーバ12は、危険運転車両の特徴を表す情報を周辺の車両14に通知して注意を促すサービスを提供する。
しかしながら、DB38には莫大な数の画像情報が蓄積されるので、順番に画像処理を行っていたのでは、危険運転車両の特徴を特定するまでに処理時間がかかると共に処理負荷が高くなってしまう。
そこで、本実施形態では、危険運転車両が検出された場合に、処理順変更部34が、DB38に蓄積された画像情報のうち、危険運転車両が検出された車両14の周辺の他車両14から受信した画像情報に対する画像処理の優先順位を、当該他車両14以外の車両14より高く設定するように処理順を変更する。これにより、危険運転車両の特徴の特定にかかる処理を早めることができる。
続いて、上述のように構成された本実施形態に係る情報処理システム10で行われる具体的な処理について説明する。以下では、具体的な処理例として、第1実施形態及び第2実施形態について説明する。
(第1実施形態)
まず、第1実施形態に係る情報処理システム10の車載器16で行われる具体的な処理の流れについて説明する。図3は、本実施形態に係る情報処理システム10の車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図3の処理は、例えば、予め定めた時間毎(一例としては10秒毎)に開始する。
ステップ100では、制御部20が、画像情報及び車両情報を取得してステップ102へ移行する。すなわち、撮影部24の撮影によって得られる画像情報を取得すると共に、車両情報検出部22によって検出された車両情報を取得する。
ステップ102では、制御部20が、あおり運転や、幅寄せ運転、蛇行運転等と思われる危険車両があるか否か判定する。該判定は、危険運転車両の仮判定として危険運転車両の可能性がある危険車両の存在を判定する。例えば、画像情報に基づいて、画像中の後方の車両14の大きさが予め定めた大きさ以上であるか否かを判定することによりあおり運転車両らしい車両14の有無を判定する。或いは、画像情報に基づいて、周辺車両までの距離が予め定めた距離以内の危険車両が存在するか否かを判定する。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の危険車両が存在するか否かを判定する。或いは、画像情報に基づいて検出した周辺車両までの距離、及び車両情報に基づいて検出した周辺車両までの距離が共に、予め定めた距離以内の危険車両が存在するか否かを判定する。該判定が否定された場合にはステップ104へ移行し、肯定された場合にはステップ106へ移行する。
ステップ104では、制御部20が、画像情報に車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。
一方、ステップ106では、制御部20が、画像情報に車両情報と危険車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。なお、ステップ104及びステップ106は送信部に対応する。
ステップ108では、制御部20が、危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定は、後述するクラウドサーバ12の処理により特定された危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定が肯定された場合にはステップ110へ移行し、否定された場合には一連の処理を終了する。
ステップ110では、制御部20が、危険運転車両情報を運転者に報知して一連の処理を終了する。例えば、制御部20が、クラウドサーバ12から受信した危険運転車両情報を表示部28に表示することにより乗員に注意を促す。また、危険運転車両情報を音声により報知してもよい。また、危険運転車両の画像情報がクラウドサーバ12から送信される場合には、危険運転車両の画像を表示部28に表示してもよい。
次に、第1実施形態に係る情報処理システム10のクラウドサーバ12で行われる具体的な処理について説明する。図4は、本実施形態に係る情報処理システム10のクラウドサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図4の処理は、車載器16からクラウドサーバ12に画像情報が予め定めた時間毎に送信されるので、例えば、クラウドサーバ12が複数の車載器16から画像情報を受信して、DB38に画像情報が蓄積された場合に開始する。
ステップ200では、中央処理部30が、車載器16から受信してDB38に蓄積された画像情報に、危険車両情報が付与された画像情報があるか否かを判定する。すなわち、車載器16から送信された画像情報の中に、上述したステップ106の処理によって危険車両情報が付与された画像情報があるか否かを判定する。該判定が否定された場合には一連の処理を終了し、該判定が肯定された場合にはステップ202へ移行する。
ステップ202では、処理順変更部34が、画像処理部32による画像処理の処理順を変更してステップ204へ移行する。具体的には、危険車両情報を送信した車両14の周辺の車両14から送信された画像情報に対する画像処理の優先順位が他の車両14より高くなるように変更する。
ステップ204では、画像処理部32が、画像処理によって画像情報から危険運転車両の特徴を特定してステップ206へ移行する。例えば、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内に車両14が存在する場合に、危険運転車両が存在すると判定する。そして、当該危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。すなわち、変更された優先順位に従って、画像情報に対する画像処理を順次行うことで危険運転車両を特定し、「ワゴンでナンバーが○○-○○」のように危険運転車両の特徴を特定する。そして、例えば、3台分の画像情報に対する画像処理で、80%以上の確率で特定できた場合に、危険運転車両の特定を終了する。或いは、ワゴン、セダン、トラック等の車両14の形状、色、及びナンバーが特定できた場合に、危険運転車両の特定を停止してもよい。或いは、形状、色、及びナンバーの少なくとも1つ以上が特定できた場合に停止してもよい。
ステップ206では、中央処理部30が、画像処理部32によって特定した危険運転車両の特徴を表す危険運転車両情報の送信先を選定してステップ208へ移行する。送信先の選定は、例えば、危険車両情報を送信した車両14の周辺の車両14や、危険車両情報を送信した車両14の周辺の車両14のうち危険運転車両が含まれる画像情報を送信した車両14、危険車両情報を送信した車両14の進行方向に位置する車両14等を選定する。
ステップ208では、中央処理部30が、危険運転車両情報を選定した他車両14へ送信して一連の処理を終了する。これにより、危険運転車両が送信された車両14では、上述のステップ110の判定が肯定されて、危険運転車両情報が乗員に報知される。なお、ステップ208は報知部に対応する。
このように、本実施形態では、危険運転車両が検出された場合に、危険運転車両が検出された車両14の周辺の他車両14の画像情報の処理の優先順位を他より高く設定して、危険運転車両を特定するため、危険運転車両の特定にかかる処理を早めることができる。
(第2実施形態)
続いて、第2実施形態に係る情報処理システム10で行われる具体的な処理について説明する。
第1実施形態では、危険車両の有無の検出を車載器16側で行う例を説明したが、本実施形態では、車載器16では危険車両の有無の検出は行わず、代わりに、クラウドサーバ12側で危険車両の有無の検出を行う形態とされている。
図5は、本実施形態に係る情報処理システム10の車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図5の処理は、例えば、予め定めた時間毎(一例としては10秒毎)に開始する。また、本実施形態では、図3のステップ102、106の処理を省略した処理が行われ、図3と同一処理については同一符号を付して説明する。
ステップ100では、制御部20が、画像情報及び車両情報を取得してステップ104へ移行する。すなわち、撮影部24の撮影によって得られる画像情報を取得すると共に、車両情報検出部22によって検出された車両情報を取得する。
ステップ104では、制御部20が、画像情報に車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。
ステップ108では、制御部20が、危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定は、後述するクラウドサーバ12の処理により特定された危険運転車両情報を受信したか否かを判定する。該判定が肯定された場合にはステップ110へ移行し、否定された場合には一連の処理を終了する。
ステップ110では、制御部20が、危険運転車両情報を運転者に報知して一連の処理を終了する。例えば、制御部20が、クラウドサーバ12から受信した危険運転車両情報を表示部28に表示することにより乗員に注意を促す。また、危険運転車両情報を音声により報知してもよい。また、危険運転車両の画像情報がクラウドサーバ12から送信される場合には、危険運転車両の画像を表示部28に表示してもよい。
次に、第2実施形態に係る情報処理システム10のクラウドサーバ12で行われる具体的な処理について説明する。図6は、本実施形態に係る情報処理システム10のクラウドサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図6の処理は、車載器16からクラウドサーバ12に画像情報が予め定めた時間毎に送信されるので、例えば、クラウドサーバ12が複数の車載器16から画像情報を受信して、DB38に画像情報が蓄積された場合に開始する。また、図4の処理と同一処理については同一符号を付して説明する。
ステップ201Aでは、中央処理部30が、危険車両の有無を検出する処理を行ってステップ201Bへ移行する。危険車両の有無を検出する処理は、例えば、画像処理部32が、DB38に蓄積された画像情報及び車両情報の少なくとも一方を順次処理して危険車両の有無を検出する。例えば、画像情報に基づいて周辺車両までの距離が予め定めた距離以内の危険車両の有無を検出する処理を蓄積された画像情報に対して順次行う。或いは、DB38に蓄積された画像情報に付与された車両情報(レーダ装置等の検出結果)に基づいて、周辺車両までの距離が予め定めた距離以内の危険車両の有無を検出する処理を蓄積された車両情報に対して順次行う。或いは、画像情報及び車両情報に基づいて周辺車両までの距離が予め定めた距離以内の危険車両の有無を検出する処理を蓄積された車両情報に対して順次行う。なお、ステップ201Aは検出部に対応する。
ステップ201Bでは、中央処理部30が、危険車両の有無を検出する処理の結果から、危険車両があるか否かを判定する。該判定が肯定された場合には上述のステップ202へ移行し、否定された場合には一連の処理を終了する。
ステップ202では、処理順変更部34が、画像処理部32による画像処理の処理順を変更してステップ204へ移行する。具体的には、危険車両が検出された画像情報を送信した車両14の周辺の車両14から送信される画像情報に対する画像処理の優先順位が他の車両14より高くなるように変更する。
ステップ204では、画像処理部32が、画像処理によって画像情報から危険運転車両の特徴を特定してステップ206へ移行する。例えば、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内に車両14が存在する場合に、危険運転車両が存在すると判定する。そして、当該危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。すなわち、変更された優先順位に従って、画像情報に対する画像処理を順次行うことで危険運転車両を特定し、「ワゴンでナンバーが○○-○○」のように危険運転車両の特徴を特定する。そして、例えば、3台分の画像情報に対する画像処理で、80%以上の確率で特定できた場合に、危険運転車両の特定を終了する。或いは、ワゴン、セダン、トラック等の車両14の形状、色、及びナンバーが特定できた場合に、危険運転車両の特定を停止してもよい。或いは、形状、色、及びナンバーの少なくとも1つ以上が特定できた場合に停止してもよい。
ステップ206では、中央処理部30が、画像処理部32によって特定した危険運転車両の特徴を表す危険運転車両情報の送信先を選定してステップ208へ移行する。送信先の選定は、例えば、危険車両情報を送信した車両14の周辺の車両14や、危険車両情報を送信した車両14の周辺の車両14のうち危険運転車両が含まれる画像情報を送信した車両14、危険車両情報を送信した車両14の進行方向に位置する車両14等を選定する。
ステップ208では、中央処理部30が、危険運転車両情報を選定した他車両14へ送信して一連の処理を終了する。これにより、危険運転車両が送信された車両14では、上述のステップ110の判定が肯定されて、危険運転車両情報が乗員に報知される。
このように、クラウドサーバ12側で危険車両の有無の判定を行う形態としても上記の実施形態と同様に、危険運転車両の特定にかかる処理を早めることができる。
なお、上記の各実施形態における情報処理システム10の各部で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 情報処理システム
12 クラウドサーバ
14 車両
16 車載器
20 制御部
22 車両情報検出部
24 撮影部
28 表示部
30 中央処理部
32 画像処理部
34 処理順変更部
38 DB

Claims (7)

  1. 車両に搭載された撮影部により撮影された画像情報、前記車両の位置情報を含む車両情報、及び危険運転車両の検出結果の各々を複数の前記車両から受信する受信部と、
    前記画像情報に基づいて前記危険運転車両を特定し、前記危険運転車両の特徴を特定する画像処理を行う画像処理部と、
    前記危険運転車両の検出結果から前記危険運転車両が検出された場合に、前記受信部が受信した前記画像情報のうち、前記危険運転車両検出した前記車両の周辺の他車両から受信した前記画像情報に対する前記画像処理の優先順位が前記他車両以外の前記車両より高くなるように変更する変更部と、
    を含む情報処理装置。
  2. 車両に搭載された撮影部により撮影された画像情報、及び車両の位置情報を含む車両情報の各々を複数の車両から受信する受信部と、
    前記受信部の受信結果に基づいて危険運転車両の有無を検出する検出部と、
    前記画像情報に基づいて前記危険運転車両を特定し、前記危険運転車両の特徴を特定する画像処理を行う画像処理部と、
    前記検出部によって前記危険運転車両が検出された場合に、前記受信部が受信した前記画像情報のうち、前記危険運転車両が検出された前記画像情報及び車両情報を送信した前記車両の周辺の他車両から受信した前記画像情報に対する前記画像処理の優先順位が前記他車両以外の前記車両より高くなるように変更する変更部と、
    を含む情報処理装置。
  3. 前記画像処理部は、前記優先順位に従って前記画像処理を行い、前記危険運転車両の特徴が特定されたところで前記画像処理を終了する請求項1又は請求項2に記載の情報処理装置。
  4. 前記画像処理部によって特定された前記危険運転車両の特徴を表す特徴情報を前記複数の車両に報知する報知部を更に含む請求項1~3の何れか1項に記載の情報処理装置。
  5. 前記報知部は、前記画像処理部の画像処理結果に基づいて、前記他車両から受信した前記画像情報に前記危険運転車両が含まれる場合、前記特徴情報を前記他車両へ報知する請求項4に記載の情報処理装置。
  6. 請求項1~5の何れか1項に記載の情報処理装置と、
    前記車両に搭載されて車両周辺を撮影する撮影部と、前記車両の位置情報を含む車両情報を検出する車両情報検出部と、前記撮影部により撮影された画像情報、及び前記車両情報検出部によって検出された前記車両情報を前記情報処理装置に送信する送信部と、を含む前記車両と、
    を含む情報処理システム。
  7. コンピュータを、請求項1~5の何れか1項に記載の情報処理装置の各部として機能させるための情報処理プログラム。
JP2019204265A 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム Active JP7243585B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019204265A JP7243585B2 (ja) 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム
CN202011041462.XA CN112785875B (zh) 2019-11-11 2020-09-28 信息处理装置、信息处理系统及方法以及记录介质
US17/067,071 US11636692B2 (en) 2019-11-11 2020-10-09 Information processing device, information processing system, and recording medium storing information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019204265A JP7243585B2 (ja) 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2021077175A JP2021077175A (ja) 2021-05-20
JP7243585B2 true JP7243585B2 (ja) 2023-03-22

Family

ID=75750436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019204265A Active JP7243585B2 (ja) 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム

Country Status (3)

Country Link
US (1) US11636692B2 (ja)
JP (1) JP7243585B2 (ja)
CN (1) CN112785875B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023233455A1 (ja) * 2022-05-30 2023-12-07 三菱電機株式会社 運転支援装置及び運転支援方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180810A (ja) 2017-04-10 2018-11-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 交通違反検知装置、システム、交通違反検知方法およびプログラム
WO2018225178A1 (ja) 2017-06-07 2018-12-13 三菱電機株式会社 危険車両予測装置、危険車両警報システムおよび危険車両予測方法
WO2019039212A1 (ja) 2017-08-23 2019-02-28 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2019045908A (ja) 2017-08-29 2019-03-22 富士通株式会社 情報共有システム、情報共有方法、および情報共有プログラム
JP2019106041A (ja) 2017-12-13 2019-06-27 オムロン株式会社 運転評価報告書、車載機、運転評価報告書作成装置、運転評価報告書作成システム、及び運転評価報告書作成のためのコンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600069B2 (ja) * 2005-02-10 2010-12-15 日産自動車株式会社 情報処理システム
JP5155042B2 (ja) * 2008-07-04 2013-02-27 本田技研工業株式会社 車両周辺画像の切替装置
US8923147B2 (en) * 2011-10-03 2014-12-30 Qualcomm Incorporated Method and apparatus for filtering and processing received vehicle peer transmissions based on reliability information
US9264673B2 (en) * 2011-11-20 2016-02-16 Magna Electronics, Inc. Vehicle vision system with enhanced functionality
JP5408240B2 (ja) * 2011-12-12 2014-02-05 株式会社デンソー 警告システム、車両装置、及びサーバ
WO2013118191A1 (ja) * 2012-02-10 2013-08-15 三菱電機株式会社 運転支援装置及び運転支援方法
KR102113769B1 (ko) * 2013-11-26 2020-05-21 현대모비스 주식회사 V2x 기반 안전운전지원서비스를 위한 운전자 맞춤형 다운 경고 중재 장치 및 방법
JP6142784B2 (ja) * 2013-11-27 2017-06-07 株式会社デンソー 運転支援装置
CN104978860A (zh) * 2015-07-24 2015-10-14 延锋伟世通电子科技(上海)有限公司 基于车辆传感器和云计算的车辆环境检测系统
JP2017174244A (ja) 2016-03-25 2017-09-28 株式会社日立製作所 情報提供装置
JP6647423B2 (ja) * 2016-11-18 2020-02-14 三菱電機株式会社 運転支援装置および運転支援方法
CN109979239A (zh) * 2017-12-28 2019-07-05 北京百度网讯科技有限公司 违规车辆提醒方法、装置及设备
CN109583410B (zh) * 2018-12-07 2023-04-18 广东翼卡车联网服务有限公司 一种基于图像识别技术的行车安全预警系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018180810A (ja) 2017-04-10 2018-11-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 交通違反検知装置、システム、交通違反検知方法およびプログラム
WO2018225178A1 (ja) 2017-06-07 2018-12-13 三菱電機株式会社 危険車両予測装置、危険車両警報システムおよび危険車両予測方法
WO2019039212A1 (ja) 2017-08-23 2019-02-28 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2019045908A (ja) 2017-08-29 2019-03-22 富士通株式会社 情報共有システム、情報共有方法、および情報共有プログラム
JP2019106041A (ja) 2017-12-13 2019-06-27 オムロン株式会社 運転評価報告書、車載機、運転評価報告書作成装置、運転評価報告書作成システム、及び運転評価報告書作成のためのコンピュータプログラム

Also Published As

Publication number Publication date
CN112785875B (zh) 2023-01-13
JP2021077175A (ja) 2021-05-20
US20210142079A1 (en) 2021-05-13
CN112785875A (zh) 2021-05-11
US11636692B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
US10228696B2 (en) Wind detection systems and methods
CN107487258B (zh) 盲区检测系统和方法
US8886386B2 (en) Method for wireless communication between vehicles
CN111091706B (zh) 信息处理系统和信息处理方法
CN107054218B (zh) 标识信息显示装置和方法
EP3300054A1 (en) Automobile periphery information display system
JP6435994B2 (ja) 車載装置
JP7243586B2 (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
US10259455B2 (en) Collision avoidance systems and methods
CN109427213B (zh) 用于车辆的防碰撞装置、方法及非暂时性存储介质
US10636309B2 (en) Vehicle communication management systems and methods
EP3761286A1 (en) Driving safety enhancing system and method for making or enabling highly accurate judgment and providing advance early warning
JP5916512B2 (ja) 車載装置および車載装置の判断方法
JP6500724B2 (ja) 危険情報報知システム、サーバ及びコンピュータプログラム
JP7243585B2 (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
EP2797027A1 (en) A vehicle driver alert arrangement, a vehicle and a method for alerting a vehicle driver
CN111645705A (zh) 一种下发驾驶路线调整的方法和一种服务器
Adla et al. Automotive collision avoidance methodologies Sensor-based and ITS-based
CN115131960B (zh) 一种针对道路车辆事故的智能安全处理方法及装置
JP7347390B2 (ja) 運転評価装置、運転評価システム、及び運転評価プログラム
JP2022056153A (ja) 一時停止検出装置、一時停止検出システム、及び一時停止検出プログラム
JP2021170180A (ja) 自動車
JP7213279B2 (ja) 運転支援装置
US12030512B2 (en) Collision warning system for a motor vehicle having an augmented reality head up display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151