JP2021077176A - 情報処理装置、情報処理システム、及び情報処理プログラム - Google Patents

情報処理装置、情報処理システム、及び情報処理プログラム Download PDF

Info

Publication number
JP2021077176A
JP2021077176A JP2019204266A JP2019204266A JP2021077176A JP 2021077176 A JP2021077176 A JP 2021077176A JP 2019204266 A JP2019204266 A JP 2019204266A JP 2019204266 A JP2019204266 A JP 2019204266A JP 2021077176 A JP2021077176 A JP 2021077176A
Authority
JP
Japan
Prior art keywords
vehicle
information
dangerous driving
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019204266A
Other languages
English (en)
Other versions
JP7243586B2 (ja
Inventor
弘幸 坂大
Hiroyuki Sakadai
弘幸 坂大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019204266A priority Critical patent/JP7243586B2/ja
Priority to CN202011041440.3A priority patent/CN112785874A/zh
Priority to DE102020125486.5A priority patent/DE102020125486A1/de
Priority to US17/066,864 priority patent/US11594038B2/en
Publication of JP2021077176A publication Critical patent/JP2021077176A/ja
Application granted granted Critical
Publication of JP7243586B2 publication Critical patent/JP7243586B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】危険運転車両の特定にかかる処理を早めることが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供することを目的とする。
【解決手段】クラウドサーバ12は、車両に搭載された撮影部24により撮影された画像情報、及び車両の位置情報を含む車両情報の各々を複数の車両から受信して蓄積するDB38と、危険運転車両が複数の車両で検出された場合に、受信した画像情報のうち、危険運転車両が検出された複数の車両で撮影された複数の画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する処理順変更部34と、画像情報に基づいて危険運転車両の特徴を特定する画像処理を、設定された優先順位に従って行う画像処理部32と、を含む。
【選択図】図2

Description

本発明は、情報処理装置、情報処理システム、及び情報処理プログラムに関する。
インターネット等の通信ネットワークに接続する機能を備えたコネクティッドカーの登場により、クラウドサーバと通信を行うことで種々の情報サービスを受けることが可能となっている。
例えば、特許文献1では、外界認識手段による認識結果に基づいて制御される車両とネットワークを介して接続される情報提供装置であって、過去に外界認識の失敗が発生した際の条件に基づいて、外界認識の失敗の可能性に関する情報を車両に提供する情報処理装置が提案されている。詳細には、コネクティッドカーの外界認識装置における不検知や誤検知などの失敗が発生した場合に、その異常を車両の位置、天候等の外部走行環境と紐づけて記憶することが提案されている。
特開2017−174244号公報
しかしながら、特許文献1の技術では、コネクティッドカーから種々の情報がクラウドサーバ等の情報処理装置に収集されて多大な情報処理を行う必要があるため、処理負荷が高くなり応答が遅くなるため、改善の余地がある。
本発明は、上記事実を考慮して成されたもので、危険運転車両の特定にかかる処理を早めることが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の情報処理装置は、車両に搭載された撮影部により撮影された画像情報、及び車両の位置情報を含む車両情報の各々を複数の車両から受信する受信部と、危険運転車両が複数の車両で検出された場合に、前記受信部が受信した前記画像情報のうち、前記危険運転車両が検出された前記複数の車両で撮影された複数の前記画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する設定部と、前記画像情報に基づいて前記危険運転車両の特徴を特定する画像処理を、前記設定部によって設定された前記優先順位に従って行う画像処理部と、を含む。
請求項1に記載の発明によれば、受信部では、車両に搭載された撮影部により撮影された画像情報、及び車両の位置情報を含む車両情報の各々が複数の車両から受信される。
設定部では、危険運転車両が複数の車両で検出された場合に、受信部が受信した画像情報のうち、危険運転車両が検出された複数の車両で撮影された複数の画像情報に対する画像処理の優先順位が予め定めた条件に応じて設定される。
そして、画像処理部では、画像情報に基づいて危険運転車両の特徴を特定する画像処理が、設定部によって設定された優先順位に従って行われる。例えば、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両の特徴を画像処理によって特定する。このように、危険運転車両が複数の車両で検出された場合に、優先順位を設定することで、優先順位を設定しない場合に比べて、危険運転車両の特定にかかる処理を早めることが可能となる。
なお、車両側で危険運転車両の有無の検出を行って、受信部が、危険運転車両の検出結果を複数の車両から更に受信してもよい。或いは、情報処理装置は、危険運転車両の有無を検出する検出部を更に含んでもよい。
また、画像処理部によって特定された危険運転車両の特徴を表す特徴情報を複数の車両に報知する報知部を更に含んでもよい。これにより、周辺の車両や、先行する車両等に危険運転車両の存在を報知することが可能となる。この場合、報知部は、画像処理部の画像処理結果に基づいて、危険運転車両が検出された車両の周辺の他車両から受信した画像情報に危険運転車両が含まれる場合、特徴情報を他車両へ報知してもよい。これにより、危険運転車両の近くに存在する車両に危険運転車両の存在を報知することが可能となる。
また、設定部は、受信部が受信した前記画像情報のうち、危険運転車両が検出された車両の周辺の他車両から受信した画像情報に対する画像処理の優先順位が他車両以外の車両より高くなるように優先順位を更に設定してもよい。これにより、危険運転車両が検出された車両の周辺の他車両から受信した画像情報に危険運転車両が含まれる可能性が高いので、危険運転車両の特定にかかる処理を早めることが可能となる。
また、受信部は、危険運転車両が検出された車両、及び当該車両の周辺車両から画像情報及び車両情報を受信してもよい。これにより、不要な画像処理、すなわち、危険運転車両が含まれない画像情報に対する画像処理を行うことなく、効率的に危険運転車両を特定することが可能となる。
また、予め定めた条件は、危険運転車両が検出された車両の周辺に存在する周辺車両の数、危険運転車両が検出された車両の車種、及び危険運転車両が検出された車両の車速の少なくとも1つを適用してもよい。
なお、本発明は、車両に搭載されて車両周辺を撮影する撮影部と、車両の位置情報を含む車両情報を検出する車両情報検出部と、前記撮影部により撮影された画像情報、及び前記車両情報検出部によって検出された前記車両情報を送信する送信部と、を含む車両と、請求項1〜8の何れか1項に記載の情報処理装置と、を含む情報処理システムとしてもよい。
或いは、コンピュータを、請求項1〜8の何れか1項に記載の情報処理装置の各部として機能させるための情報処理プログラムとしてもよい。
以上説明したように本発明によれば、危険運転車両の特定にかかる処理を早めることが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供できる、という効果がある。
本実施形態に係る情報処理システムの概略構成を示すブロック図である。 本実施形態に係る情報処理システムにおける車載器及びクラウドサーバの構成を示すブロック図である。 第1実施形態に係る情報処理システムの車載器で行われる処理の流れの一例を示すフローチャートである。 第1実施形態に係る情報処理システムのクラウドサーバで行われる処理の流れの一例を示すフローチャートである。 第2実施形態に係る情報処理システムの車載器で行われる処理の流れの一例を示すフローチャートである。 第2実施形態に係る情報処理システムのクラウドサーバで行われる処理の流れの一例を示すフローチャートである。 第3実施形態に係る情報処理システムの車載器で行われる処理の流れの一例を示すフローチャートである。 第3実施形態に係る情報処理システムのクラウドサーバで行われる処理の流れの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る情報処理システムの概略構成を示すブロック図である。
本実施形態に係る情報処理システム10は、車両14に搭載された車載器16と、情報処理装置としてのクラウドサーバ12とが通信ネットワーク18を介して接続されている。本実施形態に係る情報処理システム10では、複数の車載器16の撮影によって得られる画像情報をクラウドサーバ12に送信して、クラウドサーバ12が各種画像処理を行う。画像処理の一例としては、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両を特定する画像処理などを行う。
図2は、本実施形態に係る情報処理システムにおける車載器16及びクラウドサーバ12の構成を示すブロック図である。
車載器16は、制御部20、車両情報検出部22、撮影部24、通信部26、及び表示部28を備えている。
車両情報検出部22は、車両14の位置情報を少なくとも含む車両14に関する車両情報を検出する。車両情報としては、位置情報の他に、例えば、車速加速度、舵角、アクセル開度、経路等の車両情報を検出してもよい。車両情報検出部22は、具体的には、車両14の周辺環境がどのような状況かを表す情報を取得する複数種のセンサや装置を適用できる。センサや装置の一例としては、車速センサ、及び加速度センサなどの車両14に搭載されるセンサや、GNSS(Global Navigation Satellite System)装置、車載通信機、ナビゲーションシステム、及びレーダ装置などが挙げられる。GNSS装置は、複数のGNSS衛星からGNSS信号を受信して自車両14の位置を測位する。GNSS装置は受信可能なGNSS信号の数が多くなるに従って測位の精度が向上する。車載通信機は、通信部26を介して他の車両14との間の車車間通信及び路側機との間の路車間通信の少なくとも一方を行う通信装置である。ナビゲーションシステムは、地図情報を記憶する地図情報記憶部を含み、GNSS装置から得られる位置情報と地図情報記憶部に記憶された地図情報とに基づいて、自車両14の位置を地図上で表示したり、目的地迄の経路を案内する処理を行う。また、レーダ装置は、検出範囲が互いに異なる複数のレーダを含み、自車両14の周辺に存在する歩行者や他車両14等の物体を検出し、検出した物体と自車両14の相対位置及び相対速度を取得する。また、レーダ装置は周辺の物体の探知結果を処理する処理装置を内蔵している。当該処理装置は、直近の複数回の探知結果に含まれる個々の物体との相対位置や相対速度の変化等に基づき、ノイズやガードレール等の路側物等を監視対象から除外し、歩行者や他車両14等を監視対象物体として追従監視する。そしてレーダ装置は、個々の監視対象物体との相対位置や相対速度等の情報を出力する。
撮影部24は、本実施形態では、車両14の後部に設けられて車両14の後方を撮影する。また、撮影部24は、車両14の前方及び側方の少なくとも一方を更に撮影してもよい。なお、撮影部24は、車両14に設けられて車両14の前方、側方、及び後方の少なくとも1つの車両周辺を撮影する形態としてもよい。また、撮影部24は、車室内を更に撮影してもよい。
通信部26は、通信ネットワーク18を介してクラウドサーバ12と通信を確立して、撮影部24の撮影によって得られる画像情報や車両情報検出部22によって検出された車両情報等の情報の送受信を行う。
表示部28は、情報を表示することにより、乗員に各種情報を提供する。本実施形態では、クラウドサーバ12から提供される危険運転車両情報を表示することにより、危険運転車両に対する警告を報知する。例えば、危険運転車両情報として、危険運転車両の形状(セダンやワンボックス等)、色、ナンバー等の情報を表示する。
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を含む一般的なマイクロコンピュータで構成されている。また、制御部20は、撮影部24によって撮影された画像を表す画像情報、及び画像の撮影時に車両情報検出部22によって検出された車両情報をクラウドサーバ12にアップロードする制御等を行う。また、制御部20は、あおり運転や、幅寄せ運転、蛇行運転等の可能性がある車両14を危険車両として検出する処理を行う場合がある。例えば、撮影部24の撮影によって得られる画像情報の中の車両14を特定して特定された車両14の画像中の大きさが予め定めた大きさ以上の車両14を危険車両として検出する。或いは、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、画像情報に基づいて検出した周辺車両までの距離、及び車両情報に基づいて検出した周辺車両までの距離が共に、予め定めた距離以内の車両14を危険車両として検出してもよい。
一方、クラウドサーバ12は、中央処理部30、中央通信部36、及びDB(データベース)38を備えている。
中央処理部30は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を含む一般的なマイクロコンピュータで構成されている。中央処理部30は、画像処理部32及び処理順変更部34の機能を備えており、車載器16から送信される画像情報及び車両情報をDB38に蓄積してデータベース化する処理を行うと共に、画像情報に基づいて、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両の特徴を特定する処理等を行う。なお、中央処理部30の各機能は、ROM等に記憶されたプログラムを実行することにより実現される。また、処理順変更部34は設定部に対応し、DB38は受信部に対応する。
画像処理部32は、車載器16から受信した画像情報に対して各種画像処理を行って、交通状況の検出や、冠水や土砂崩れ等の災害検知、危険運転車両の特徴の特定等を行う。本実施形態では、一例として、画像処理部32は、車載器16から受信した画像情報に対して画像処理を行って危険運転車両の特徴の特定を行う。具体的には、危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。なお、画像処理部32は、車載器16の制御部20と同様に、あおり運転や、幅寄せ運転、蛇行運転等の可能性がある車両14を危険車両として検出する処理を行う場合がある。例えば、画像情報の中の車両14を特定して特定された車両14の画像中の大きさが予め定めた大きさ以上の車両14を危険車両として検出する。或いは、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の車両14を危険車両として検出してもよい。或いは、画像情報に基づいて検出した周辺車両までの距離、及び車両情報に基づいて検出した周辺車両までの距離が共に、予め定めた距離以内の車両14を危険車両として検出してもよい。なお、周辺とは、例えば、車両14を中心として半径10m以内等の車両14を中心とした予め定めた距離範囲内とする。
処理順変更部34は、危険運転車両が検出された場合に、画像処理部32による画像処理の処理順を変更する。具体的には、危険運転車両が検出された場合には、危険運転車両が検出された車両14の周辺の車両14から受信した画像情報の優先順位が他の車両14より高くなるように変更し、危険運転車両の特定を優先させる。なお、危険運転車両の検出は、車載器16の制御部20による危険車両の検出を適用してもよいし、クラウドサーバ12の画像処理部32による危険車両の検出を適用してもよい。
中央通信部36は、通信ネットワーク18を介して車載器16と通信を確立して、画像情報や車両情報等の情報の送受信を行う。
DB38は、車載器16から画像情報及び車両情報を受信し、受信した画像情報及び車両情報のそれぞれ対応付けて蓄積する。
上述のように構成された情報処理システム10では、車載器16の撮影部24によって撮影された画像情報が、位置情報を少なくとも含む車両情報と共にクラウドサーバ12に送信されてDB38に蓄積される。
クラウドサーバ12は、DB38に蓄積された画像情報に基づいて画像処理部32が画像処理を行うことで、あおり運転や、幅寄せ運転、蛇行運転等の危険運転車両の特徴を特定する。そして、クラウドサーバ12は、危険運転車両の特徴を表す情報を周辺の車両14に通知して注意を促すサービスを提供する。
しかしながら、DB38には莫大な数の画像情報が蓄積されるので、順番に画像処理を行っていたのでは、危険運転車両の特徴を特定するまでに処理時間がかかると共に処理負荷が高くなってしまう。
そこで、本実施形態では、危険運転車両が複数の車両14で検出された場合に、処理順変更部34が、危険運転車両が検出された複数の車両14で撮影された複数の画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する。そして、設定した優先順位に従って、画像処理部32が危険運転車両の特徴を特定する画像処理を行うことで、危険運転車両の特定にかかる処理を早めることができる。なお、予め定めた条件としては、例えば、危険運転車両を検出した車両14の周辺の車両14の台数、危険運転車両を検出した車両14の車種(例えば、車両の大きさ等)、及び危険運転車両を検出した車両14の車速の少なくとも1つを適用できる。具体的には、危険運転車両を検出した車両14の周辺の車両の台数が多いほど危険運転車両を特定し易くなるので、優先順位を上げることで、危険運転車両の特徴の特定を早めることができる。或いは、車両14が小さい車種又はパワーウエイトレシオが低い車種ほど危険運転されている可能性が高いので、優先順位を上げることで、危険運転車両の特徴の特定を早めることができる。或いは、車速が高いほど危険運転されている可能性が高いので、優先順位を上げることで、危険運転車両の特徴の特定を早めることができる。
続いて、上述のように構成された本実施形態に係る情報処理システム10で行われる具体的な処理について説明する。以下では、具体的な処理例として、第1実施形態から第3実施形態について説明する。
(第1実施形態)
まず、第1実施形態に係る情報処理システム10の車載器16で行われる具体的な処理の流れについて説明する。図3は、本実施形態に係る情報処理システム10の車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図3の処理は、例えば、予め定めた時間毎(一例としては10秒毎)に開始する。
ステップ100では、制御部20が、画像情報及び車両情報を取得してステップ102へ移行する。すなわち、撮影部24の撮影によって得られる画像情報を取得すると共に、車両情報検出部22によって検出された車両情報を取得する。
ステップ102では、制御部20が、あおり運転や、幅寄せ運転、蛇行運転等と思われる危険車両があるか否か判定する。該判定は、危険運転車両の仮判定として危険運転車両の可能性がある危険車両の存在を判定する。例えば、画像情報に基づいて、画像中の後方の車両14の大きさが予め定めた大きさ以上であるか否かを判定することによりあおり運転車両らしい車両14の有無を判定する。或いは、画像情報に基づいて、周辺車両までの距離が予め定めた距離以内の危険車両が存在するか否かを判定する。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の危険車両が存在するか否かを判定する。或いは、画像情報に基づいて検出した周辺車両までの距離、及び車両情報に基づいて検出した周辺車両までの距離が共に、予め定めた距離以内の危険車両が存在するか否かを判定する。該判定が否定された場合にはステップ104へ移行し、肯定された場合にはステップ106へ移行する。
ステップ104では、制御部20が、画像情報に車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。
一方、ステップ106では、制御部20が、画像情報に車両情報と危険車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。なお、ステップ104及びステップ106は送信部に対応する。
ステップ108では、制御部20が、危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定は、後述するクラウドサーバ12の処理により特定された危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定が肯定された場合にはステップ110へ移行し、否定された場合には一連の処理を終了する。
ステップ110では、制御部20が、危険運転車両情報を運転者に報知して一連の処理を終了する。例えば、制御部20が、クラウドサーバ12から受信した危険運転車両情報を表示部28に表示することにより乗員に注意を促す。また、危険運転車両情報を音声により報知してもよい。また、危険運転車両の画像情報がクラウドサーバ12から送信される場合には、危険運転車両の画像を表示部28に表示してもよい。
次に、第1実施形態に係る情報処理システム10のクラウドサーバ12で行われる具体的な処理について説明する。図4は、本実施形態に係る情報処理システム10のクラウドサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図4の処理は、車載器16からクラウドサーバ12に画像情報が予め定めた時間毎に送信されるので、例えば、クラウドサーバ12が複数の車載器16から画像情報を受信して、DB38に画像情報が蓄積された場合に開始する。
ステップ200では、中央処理部30が、車載器16から受信してDB38に蓄積された画像情報に、危険車両情報が付与された画像情報があるか否かを判定する。すなわち、車載器16から送信された画像情報の中に、上述したステップ106の処理によって危険車両情報が付与された画像情報があるか否かを判定する。該判定が否定された場合には一連の処理を終了し、該判定が肯定された場合にはステップ202へ移行する。
ステップ202では、中央処理部30が、危険車両情報が複数存在するか否かを判定する。該判定は、複数の車載器16が危険車両を検出したか否かを判定する。該判定が肯定された場合にはステップ204へ移行し、否定された場合にはステップ206へ移行する。
ステップ204では、処理順変更部34が、危険車両情報が付与された画像情報の優先順位を決定してステップ206へ移行する。すなわち、処理順変更部34は、危険運転車両が検出された複数の車両14で撮影された複数の画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する。具体的には、危険運転車両を検出した車両14の周辺の車両14の台数が多いほど危険運転車両を特定し易くなるので、周辺の車両14の台数が多いほど優先順位を上げる。或いは、車両14が小さい車種ほど危険運転されている可能性が高いので、小さい車種ほど優先順位を上げる。或いは、車速が高いほど危険運転されている可能性が高いので、車速が高いほど優先順位を上げる。
ステップ206では、処理順変更部34が、画像処理部32による画像処理の処理順を変更してステップ208へ移行する。具体的には、危険車両情報を送信した車両14の周辺の車両14から送信された画像情報の優先順位が他の車両14より高くなるように変更し、危険運転車両を特定する。すなわち、ステップ206では、1台の車両14だけでなく、その周辺の車両の画像情報も合わせて危険運転車両を特定するために、周辺の車両14の優先順位を高くする。
ステップ208では、画像処理部32が、画像処理によって画像情報から危険運転車両の特徴を特定してステップ210へ移行する。例えば、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内に車両14が存在する場合に、危険運転車両が存在すると判定する。そして、当該危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。すなわち、変更された優先順位に従って、画像情報に対する画像処理を順次行うことで危険運転車両を特定し、「ワゴンでナンバーが○○−○○」のように危険運転車両の特徴を特定する。そして、例えば、3台分の画像情報に対する画像処理で、80%以上の確率で特定できた場合に、危険運転車両の特定を終了する。或いは、ワゴン、セダン、トラック等の車両の形状、色、及びナンバーが特定できた場合に、危険運転車両の特定を停止してもよい。或いは、形状、色、及びナンバーの少なくとも1つ以上が特定できた場合に停止してもよい。
ステップ210では、中央処理部30が、画像処理部32によって特定した危険運転車両の特徴を表す危険運転車両情報の送信先を選定してステップ212へ移行する。送信先の選定は、例えば、危険車両情報を送信した車両14の周辺の車両14や、危険車両情報を送信した車両14の周辺の車両14のうち危険運転車両が含まれる画像情報を送信した車両14、危険車両情報を送信した車両14の進行方向に位置する車両14等を選定する。
ステップ212では、中央処理部30が、危険運転車両情報を選定した他車両14へ送信して一連の処理を終了する。これにより、危険運転車両が送信された車両14では、上述のステップ110の判定が肯定されて、危険運転車両情報が乗員に報知される。なお、ステップ212は報知部に対応する。
このように、本実施形態では、危険運転車両が複数の車両14で検出された場合に、危険運転車両が検出された複数の車両14で撮影された複数の画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定することで、危険運転車両の特定にかかる処理を早めることができる。
(第2実施形態)
続いて、第2実施形態に係る情報処理システム10で行われる具体的な処理について説明する。
第1実施形態では、危険車両の有無の検出を車載器16側で行う例を説明したが、本実施形態では、車載器16では危険車両の有無の検出は行わず、代わりに、クラウドサーバ12側で危険車両の有無の検出を行う形態とされている。
図5は、本実施形態に係る情報処理システム10の車載器16で行われる処理の流れの一例を示すフローチャートである。なお、図5の処理は、例えば、予め定めた時間毎(一例としては10秒毎)に開始する。また、本実施形態では、図3のステップ102、106の処理を省略した処理が行われ、図3と同一処理については同一符号を付して説明する。
ステップ100では、制御部20が、画像情報及び車両情報を取得してステップ104へ移行する。すなわち、撮影部24の撮影によって得られる画像情報を取得すると共に、車両情報検出部22によって検出された車両情報を取得する。
ステップ104では、制御部20が、画像情報に車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。
ステップ108では、制御部20が、危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定は、後述するクラウドサーバ12の処理により特定された危険運転車両情報を受信したか否かを判定する。該判定が肯定された場合にはステップ110へ移行し、否定された場合には一連の処理を終了する。
ステップ110では、制御部20が、危険運転車両情報を運転者に報知して一連の処理を終了する。例えば、制御部20が、クラウドサーバ12から受信した危険運転車両情報を表示部28に表示することにより乗員に注意を促す。また、危険運転車両情報を音声により報知してもよい。また、危険運転車両の画像情報がクラウドサーバ12から送信される場合には、危険運転車両の画像を表示部28に表示してもよい。
次に、第2実施形態に係る情報処理システム10のクラウドサーバ12で行われる具体的な処理について説明する。図6は、本実施形態に係る情報処理システム10のクラウドサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図6の処理は、車載器16からクラウドサーバ12に画像情報が予め定めた時間毎に送信されるので、例えば、クラウドサーバ12が複数の車載器16から画像情報を受信して、DB38に画像情報が蓄積された場合に開始する。また、図4の処理と同一処理については同一符号を付して説明する。
ステップ201Aでは、中央処理部30が、危険車両の有無を検出する処理を行ってステップ201Bへ移行する。危険車両の有無を検出する処理は、例えば、画像処理部32が、DB38に蓄積された画像情報及び車両情報の少なくとも一方を順次処理して危険車両の有無を検出する。例えば、画像情報に基づいて周辺車両までの距離が予め定めた距離以内の危険車両の有無を検出する処理を蓄積された画像情報に対して順次行う。或いは、DB38に蓄積された画像情報に付与された車両情報(レーダ装置等の検出結果)に基づいて、周辺車両までの距離が予め定めた距離以内の危険車両の有無を検出する処理を蓄積された車両情報に対して順次行う。或いは、画像情報及び車両情報に基づいて周辺車両までの距離が予め定めた距離以内の危険車両の有無を検出する処理を蓄積された車両情報に対して順次行う。なお、ステップ201Aは検出部に対応する。
ステップ201Bでは、中央処理部30が、危険車両の有無を検出する処理の結果から、危険車両があるか否かを判定する。該判定が肯定された場合には上述のステップ203へ移行し、否定された場合には一連の処理を終了する。
ステップ203では、中央処理部30が、危険車両が複数存在するか否かを判定する。該判定が肯定された場合にはステップ205へ移行し、否定された場合にはステップ206へ移行する。
ステップ205では、処理順変更部34が、危険車両が検出された画像情報の優先順位を決定してステップ206へ移行する。すなわち、処理順変更部34は、危険車両が検出された複数の車両14で撮影された複数の画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する。具体的には、危険車両を検出した車両14の周辺の車両14の台数が多いほど危険運転車両を特定し易くなるので、周辺の車両14の台数が多いほど優先順位を上げる。或いは、車両14が小さい車種ほど危険運転されている可能性が高いので、小さい車種ほど優先順位を上げる。或いは、車速が高いほど危険運転されている可能性が高いので、車速が高いほど優先順位を上げる。
ステップ206では、処理順変更部34が、画像処理部32による画像処理の処理順を変更してステップ208へ移行する。具体的には、危険車両情報を送信した車両14の周辺の車両14から送信された画像情報の優先順位が他の車両14より高くなるように変更し、危険運転車両を特定する。
ステップ208では、画像処理部32が、画像処理によって画像情報から危険運転車両の特徴を特定してステップ210へ移行する。例えば、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内に車両14が存在する場合に、危険運転車両が存在すると判定する。そして、当該危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。すなわち、変更された優先順位に従って、画像情報に対する画像処理を順次行うことで危険運転車両を特定し、「ワゴンでナンバーが○○−○○」のように危険運転車両の特徴を特定する。そして、例えば、3台分の画像情報に対する画像処理で、80%以上の確率で特定できた場合に、危険運転車両の特定を終了する。或いは、ワゴン、セダン、トラック等の車両の形状、色、及びナンバーが特定できた場合に、危険運転車両の特定を停止してもよい。或いは、形状、色、及びナンバーの少なくとも1つ以上が特定できた場合に停止してもよい。
ステップ210では、中央処理部30が、画像処理部32によって特定した危険運転車両の特徴を表す危険運転車両情報の送信先を選定してステップ212へ移行する。送信先の選定は、例えば、危険車両情報を送信した車両14の周辺の車両14や、危険車両情報を送信した車両14の周辺の車両14のうち危険運転車両が含まれる画像情報を送信した車両14、危険車両情報を送信した車両14の進行方向に位置する車両14等を選定する。
ステップ212では、中央処理部30が、危険運転車両情報を選定した他車両14へ送信して一連の処理を終了する。これにより、危険運転車両が送信された車両14では、上述のステップ110の判定が肯定されて、危険運転車両情報が乗員に報知される。
(第3実施形態)
続いて、第3実施形態に係る情報処理システム10で行われる具体的な処理について説明する。
第1実施形態では、全ての車載器16から画像情報及び車両情報をクラウドサーバ12に送信したが、本実施形態では、画像情報及び車両情報のクラウドサーバ12への送信を制限した例である。本実施形態では、各車載器16側で危険車両の有無の判定を行い、危険車両が検出された場合にのみ、危険車両を検出した車両14の車載器16と、その周辺の車両14の車載器16から画像情報及び車両情報をクラウドサーバ12に送信する。
図7は、本実施形態に係る情報処理システム10の車載器16で行われる処理の流れの一例を示すフローチャートである。図7の処理と同一処理について同一符号を付して詳細な説明は省略する。なお、図7の処理は、例えば、予め定めた時間毎(一例としては10秒毎)に開始する。また、図3と同一処理については同一符号を付して説明する。
ステップ100では、制御部20が、画像情報及び車両情報を取得してステップ102へ移行する。すなわち、撮影部24の撮影によって得られる画像情報を取得すると共に、車両情報検出部22によって検出された車両情報を取得する。
ステップ102では、制御部20が、あおり運転や、幅寄せ運転、蛇行運転等と思われる危険車両があるか否か判定する。該判定は、危険運転車両の仮判定として危険運転車両14の可能性がある危険車両の存在を判定する。例えば、画像情報に基づいて、画像中の後方の車両14の大きさが予め定めた大きさ以上であるか否かを判定することによりあおり運転車両らしい車両14の有無を判定する。或いは、画像情報に基づいて、周辺車両までの距離が予め定めた距離以内の危険車両が存在するか否かを判定する。或いは、車両情報検出部22としてレーダ装置を備える場合には、周辺車両までの距離を車両情報に基づいて検出し、周辺車両までの距離が予め定めた距離以内の危険車両が存在するか否かを判定する。該判定が否定された場合にはステップ103へ移行し、肯定された場合にはステップ106へ移行する。
ステップ103では、制御部20が、クラウドサーバ12から画像情報の送信要求があるか否かを判定する。該判定は、後述するステップ201の処理により、クラウドサーバ12が画像情報を取得するために、画像情報の送信要求を行ったか否かを判定する。該判定が肯定された場合にはステップ104へ移行し、否定された場合にはステップ108へ移行する。
ステップ104では、制御部20が、画像情報に車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。
一方、ステップ106では、制御部20が、画像情報に車両情報と危険車両情報を付与して、通信部26及び通信ネットワーク18を介してクラウドサーバ12に送信してステップ108へ移行する。
ステップ108では、制御部20が、危険運転車両情報をクラウドサーバ12から受信したか否かを判定する。該判定は、後述するクラウドサーバ12の処理により特定された危険運転車両情報を受信したか否かを判定する。該判定が肯定された場合にはステップ110へ移行し、否定された場合には一連の処理を終了する。
ステップ110では、制御部20が、危険運転車両情報を運転者に報知して一連の処理を終了する。例えば、制御部20が、クラウドサーバ12から受信した危険運転車両情報を表示部28に表示することにより乗員に注意を促す。また、危険運転車両情報を音声により報知してもよい。また、危険運転車両の画像情報がクラウドサーバ12から送信される場合には、危険運転車両の画像を表示部28に表示してもよい。
次に、第3実施形態に係る情報処理システム10のクラウドサーバ12で行われる具体的な処理について説明する。図8は、本実施形態に係る情報処理システム10のクラウドサーバ12で行われる処理の流れの一例を示すフローチャートである。なお、図8の処理は、危険車両が検出された場合に、車載器16からクラウドサーバ12に画像情報が予め定めた時間毎に送信されるので、例えば、クラウドサーバ12が車載器16から画像情報を受信して、DB38に画像情報が蓄積された場合に開始する。
ステップ200では、中央処理部30が、車載器16から受信してDB38に蓄積された画像情報に、危険車両情報が付与された画像情報があるか否かを判定する。すなわち、車載器16から送信された画像情報の中に、上述したステップ106の処理によって危険車両情報が付与された画像情報があるか否かを判定する。該判定が否定された場合には一連の処理を終了し、該判定が肯定された場合にはステップ201へ移行する。
ステップ201では、中央処理部30が、危険車両情報を送信した車両14の周辺車両から画像情報を取得してステップ202へ移行する。これにより、周辺車両の車載器16において上述のステップ103の判定が肯定されてステップ104の処理によって周辺車両から画像情報が送信されるので、送信された画像情報を中央処理部30が取得する。
ステップ202では、中央処理部30が、危険車両情報が複数存在するか否かを判定する。該判定は、複数の車載器16が危険車両を検出したか否かを判定する。該判定が肯定された場合にはステップ204へ移行し、否定された場合にはステップ206へ移行する。
ステップ204では、処理順変更部34が、危険車両情報が付与された画像情報の優先順位を決定してステップ208へ移行する。すなわち、処理順変更部34は、危険運転車両が検出された複数の車両14で撮影された複数の画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する。具体的には、危険運転車両を検出した車両14の周辺の車両14の台数が多いほど危険運転車両を特定し易くなるので、周辺の車両14の台数が多いほど優先順位を上げる。或いは、車両14が小さい車種ほど危険運転されている可能性が高いので、小さい車種ほど優先順位を上げる。或いは、車速が高いほど危険運転されている可能性が高いので、車速が高いほど優先順位を上げる。
ステップ208では、画像処理部32が、画像処理によって画像情報から危険運転車両の特徴を特定してステップ210へ移行する。例えば、画像情報の中の車両14を特定し、特定された車両14の画像中の大きさなどから車間距離を推定して、予め定めた距離以内に車両14が存在する場合に、危険運転車両が存在すると判定する。そして、当該危険運転車両の色や、ナンバー等の特徴を画像情報から特定する処理を行う。すなわち、変更された優先順位に従って、画像情報に対する画像処理を順次行うことで危険運転車両を特定し、「ワゴンでナンバーが○○−○○」のように危険運転車両の特徴を特定する。そして、例えば、3台分の画像情報に対する画像処理で、80%以上の確率で特定できた場合に、危険運転車両の特定を終了する。或いは、ワゴン、セダン、トラック等の車両14の形状、色、及びナンバーが特定できた場合に、危険運転車両の特定を停止してもよい。或いは、形状、色、及びナンバーの少なくとも1つ以上が特定できた場合に停止してもよい。
ステップ210では、中央処理部30が、画像処理部32によって特定した危険運転車両の特徴を表す危険運転車両情報の送信先を選定してステップ212へ移行する。送信先の選定は、例えば、危険車両情報を送信した車両14の周辺の車両14や、危険車両情報を送信した車両14の周辺の車両14のうち危険運転車両が含まれる画像情報を送信した車両14、危険車両情報を送信した車両14の進行方向に位置する車両14等を選定する。
ステップ212では、中央処理部30が、危険運転車両情報を選定した他車両14へ送信して一連の処理を終了する。これにより、危険運転車両が送信された車両14では、上述のステップ110の判定が肯定されて、危険運転車両情報が乗員に報知される。
このように、本実施形態では、車載器16からは危険車両が検出された場合のみ、危険情報を検出した車両14の画像情報と、危険情報を検出した車両14の周辺の車両14の画像情報を送信するので、必要以上に画像情報をクラウドサーバ12に送信することがなくなる。これにより、クラウドサーバ12の処理負荷を低減して危険運転車両の特定にかかる処理を早めることができる。
なお、上記の各実施形態における情報処理システム10の各部で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 情報処理システム
12 クラウドサーバ
14 車両
16 車載器
20 制御部
22 車両情報検出部
24 撮影部
28 表示部
30 中央処理部
32 画像処理部
34 処理順変更部
38 DB

Claims (10)

  1. 車両に搭載された撮影部により撮影された画像情報、及び車両の位置情報を含む車両情報の各々を複数の車両から受信する受信部と、
    危険運転車両が複数の車両で検出された場合に、前記受信部が受信した前記画像情報のうち、前記危険運転車両が検出された前記複数の車両で撮影された複数の前記画像情報に対する画像処理の優先順位を予め定めた条件に応じて設定する設定部と、
    前記画像情報に基づいて前記危険運転車両の特徴を特定する画像処理を、前記設定部によって設定された前記優先順位に従って行う画像処理部と、
    を含む情報処理装置。
  2. 前記受信部は、前記危険運転車両の検出結果を前記複数の車両から更に受信する請求項1に記載の情報処理装置。
  3. 前記危険運転車両の有無を検出する検出部を更に含む請求項1に記載の情報処理装置。
  4. 前記画像処理部によって特定された前記危険運転車両の特徴を表す特徴情報を前記複数の車両に報知する報知部を更に含む請求項1〜3の何れか1項に記載の情報処理装置。
  5. 前記報知部は、前記画像処理部の画像処理結果に基づいて、前記危険運転車両が検出された車両の周辺の他車両から受信した前記画像情報に前記危険運転車両が含まれる場合、前記特徴情報を前記他車両へ報知する請求項4に記載の情報処理装置。
  6. 前記設定部は、前記受信部が受信した前記画像情報のうち、前記危険運転車両が検出された車両の周辺の他車両から受信した前記画像情報に対する前記画像処理の優先順位が前記他車両以外の車両より高くなるように前記優先順位を更に設定する請求項1〜5の何れか1項に記載の情報処理装置。
  7. 前記受信部は、前記危険運転車両が検出された車両、及び当該車両の周辺車両から前記画像情報及び前記車両情報を受信する請求項2に記載の情報処理装置。
  8. 前記予め定めた条件は、前記危険運転車両が検出された車両の周辺に存在する周辺車両の数、前記危険運転車両が検出された車両の車種、及び前記危険運転車両が検出された車両の車速の少なくとも1つである請求項1〜7の何れか1項に記載の情報処理装置。
  9. 車両に搭載されて車両周辺を撮影する撮影部と、車両の位置情報を含む車両情報を検出する車両情報検出部と、前記撮影部により撮影された画像情報、及び前記車両情報検出部によって検出された前記車両情報を送信する送信部と、を含む車両と、
    請求項1〜8の何れか1項に記載の情報処理装置と、
    を含む情報処理システム。
  10. コンピュータを、請求項1〜8の何れか1項に記載の情報処理装置の各部として機能させるための情報処理プログラム。
JP2019204266A 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム Active JP7243586B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019204266A JP7243586B2 (ja) 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム
CN202011041440.3A CN112785874A (zh) 2019-11-11 2020-09-28 信息处理装置、系统及方法以及非暂时性记录介质
DE102020125486.5A DE102020125486A1 (de) 2019-11-11 2020-09-30 Informationsverarbeitungsvorrichtung, Informationsverarbeitungssystem und Aufzeichnungsträger, der Informationsverarbeitungsprogramm aufzeichnet
US17/066,864 US11594038B2 (en) 2019-11-11 2020-10-09 Information processing device, information processing system, and recording medium recording information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019204266A JP7243586B2 (ja) 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2021077176A true JP2021077176A (ja) 2021-05-20
JP7243586B2 JP7243586B2 (ja) 2023-03-22

Family

ID=75584077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019204266A Active JP7243586B2 (ja) 2019-11-11 2019-11-11 情報処理装置、情報処理システム、及び情報処理プログラム

Country Status (4)

Country Link
US (1) US11594038B2 (ja)
JP (1) JP7243586B2 (ja)
CN (1) CN112785874A (ja)
DE (1) DE102020125486A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457792A (zh) * 2021-06-08 2022-12-09 丰田自动车株式会社 信息处理装置、非暂时性介质以及信息处理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11558584B2 (en) * 2019-07-11 2023-01-17 Chris Pritchard Systems and methods for providing real-time surveillance in automobiles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234414A (ja) * 2007-03-22 2008-10-02 Equos Research Co Ltd データベース作成装置、及びデータベース作成プログラム
JP2017069917A (ja) * 2015-10-02 2017-04-06 株式会社東芝 通信処理装置、車載装置、及び通信処理方法
WO2019039212A1 (ja) * 2017-08-23 2019-02-28 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284797A (ja) * 2004-03-30 2005-10-13 Honda Motor Co Ltd 走行安全装置
JP4600069B2 (ja) * 2005-02-10 2010-12-15 日産自動車株式会社 情報処理システム
JP4790454B2 (ja) * 2006-03-13 2011-10-12 富士通テン株式会社 画像認識装置、車両制御装置、画像認識方法および車両制御方法
WO2012144053A1 (ja) * 2011-04-21 2012-10-26 トヨタ自動車株式会社 車両用周辺障害物表示装置及び車両用周辺障害物表示方法
US8994823B2 (en) * 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
WO2015008290A2 (en) * 2013-07-18 2015-01-22 Secure4Drive Communication Ltd. Method and device for assisting in safe driving of a vehicle
US9576480B1 (en) * 2015-09-21 2017-02-21 Sap Se Centrally-managed vehicle network
JP2017174244A (ja) 2016-03-25 2017-09-28 株式会社日立製作所 情報提供装置
US10455185B2 (en) * 2016-08-10 2019-10-22 International Business Machines Corporation Detecting anomalous events to trigger the uploading of video to a video storage server
US10272916B2 (en) * 2016-12-27 2019-04-30 Panasonic Intellectual Property Corporation Of America Information processing apparatus, information processing method, and recording medium
US20180204459A1 (en) * 2017-01-17 2018-07-19 International Business Machines Corporation Crowd sourcing for identifying vehicle behavior patterns
JP6950432B2 (ja) * 2017-10-05 2021-10-13 トヨタ自動車株式会社 運転支援装置、情報処理装置、運転支援システム、運転支援方法
JP7063035B2 (ja) * 2018-03-22 2022-05-09 トヨタ自動車株式会社 情報処理方法および情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234414A (ja) * 2007-03-22 2008-10-02 Equos Research Co Ltd データベース作成装置、及びデータベース作成プログラム
JP2017069917A (ja) * 2015-10-02 2017-04-06 株式会社東芝 通信処理装置、車載装置、及び通信処理方法
WO2019039212A1 (ja) * 2017-08-23 2019-02-28 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457792A (zh) * 2021-06-08 2022-12-09 丰田自动车株式会社 信息处理装置、非暂时性介质以及信息处理方法
CN115457792B (zh) * 2021-06-08 2024-01-09 丰田自动车株式会社 信息处理装置、非暂时性介质以及信息处理方法

Also Published As

Publication number Publication date
JP7243586B2 (ja) 2023-03-22
CN112785874A (zh) 2021-05-11
DE102020125486A1 (de) 2021-05-12
US11594038B2 (en) 2023-02-28
US20210142075A1 (en) 2021-05-13

Similar Documents

Publication Publication Date Title
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
US8886386B2 (en) Method for wireless communication between vehicles
JP6402684B2 (ja) 表示装置
JP6435994B2 (ja) 車載装置
US11842631B2 (en) Communication device, control method thereof and communication system including the same
CN110395253B (zh) 车辆控制装置以及计算机可读存储介质
CN109427213B (zh) 用于车辆的防碰撞装置、方法及非暂时性存储介质
JP5916512B2 (ja) 車載装置および車載装置の判断方法
JP2003168197A (ja) 走行環境認識方法および装置
US10636309B2 (en) Vehicle communication management systems and methods
EP3761286A1 (en) Driving safety enhancing system and method for making or enabling highly accurate judgment and providing advance early warning
US20220024483A1 (en) Autonomous vehicle and drone-based emergency response method thereof
JP7243586B2 (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
US20200294432A1 (en) Advertisement display device, vehicle, and advertisement display method
CN111161551B (zh) 用于检测、警报和响应紧急车辆的设备、系统和方法
JP7243585B2 (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
EP2797027A1 (en) A vehicle driver alert arrangement, a vehicle and a method for alerting a vehicle driver
US11979805B2 (en) Control method, communication terminal, and communication system
CN112349142B (zh) 一种车辆追尾预警方法及其相关设备
KR20140055816A (ko) V2v 통신을 이용한 카메라 영상 출력 및 저장 시스템 및 구현 방법
JP2022054296A (ja) 運転評価装置、運転評価システム、及び運転評価プログラム
US20240054901A1 (en) Control apparatus, control system, control method, and storage medium
JP7213279B2 (ja) 運転支援装置
JP2021060766A (ja) 車両遠隔操作システム
CN117496733A (zh) 交通参与对象的信息交互显示方法、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R151 Written notification of patent or utility model registration

Ref document number: 7243586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151