JP2022111536A - 情報処理装置、情報処理システム、及び情報処理プログラム - Google Patents

情報処理装置、情報処理システム、及び情報処理プログラム Download PDF

Info

Publication number
JP2022111536A
JP2022111536A JP2021007022A JP2021007022A JP2022111536A JP 2022111536 A JP2022111536 A JP 2022111536A JP 2021007022 A JP2021007022 A JP 2021007022A JP 2021007022 A JP2021007022 A JP 2021007022A JP 2022111536 A JP2022111536 A JP 2022111536A
Authority
JP
Japan
Prior art keywords
image
vehicle
information processing
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021007022A
Other languages
English (en)
Other versions
JP7367709B2 (ja
Inventor
千尋 因幡
Chihiro Inaba
浩巳 刀根川
Hiromi Tonegawa
俊幸 萩谷
Toshiyuki Hagiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021007022A priority Critical patent/JP7367709B2/ja
Priority to CN202111422578.2A priority patent/CN114821495A/zh
Priority to US17/643,311 priority patent/US20220230287A1/en
Publication of JP2022111536A publication Critical patent/JP2022111536A/ja
Application granted granted Critical
Publication of JP7367709B2 publication Critical patent/JP7367709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

【課題】本発明は、車両から取得した画像を用いて移動体が存在しない画像を生成することが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供することを目的とする。【解決手段】撮影画像取得部40が、複数の車両14の撮影画像の中から、予め定めた条件設定に従って撮影画像と、当該撮影画像に対応する位置情報を含む車両情報とを取得してDB38に蓄積し、取得条件管理部50が、撮影鮮度条件、撮影条件、及び移動体条件を含む複数の条件が予め定めた条件を満たす撮影画像を取得するように条件設定を行い、共通画像生成部60が、撮影画像中の移動体を検出し、移動体が検出された撮影画像の撮影位置に該当する他の撮影画像から予め定めた類似度以上の撮影画像を選定し、撮影画像中の移動体を撮影画像から除去し、及び除去した領域に対応する画像を、選定した撮影画像から抽出して合成する。【選択図】図2

Description

本発明は、車両で撮影された撮影画像を収集して閲覧可能に格納する処理を行う情報処理装置、情報処理システム、及び情報処理プログラムに関する。
特許文献1には、端末から送信された情報を受信する受信手段と、受信手段が受信した情報に基づいて映像が撮影された場所の最新の映像として採用するか否かを判別する映像判別手段と、映像判別手段により最新の映像として採用すると判別された場合に、前記映像を撮影した場所の最新の映像として、端末から送信された映像を記憶する映像記憶手段と、を有する映像データベースと、を備えた映像データベース構築システムが提案されている。
特開2012-129961号公報
しかしながら、特許文献1の技術では、人や車両等の移動体によって背景画像が隠れてしまい、移動体が存在しない画像を得ることができないため、改善の余地がある。
そこで、本発明は、車両から取得した画像を用いて移動体が存在しない画像を生成することが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の情報処理装置は、複数の車両において撮影された撮影画像であって、撮影鮮度条件、撮影条件、及び撮影画像中の移動体に関する移動体条件を含む複数の条件が予め定めた条件を満たす撮影画像と、当該撮影画像に対応する位置情報を含む車両情報と、を取得する取得部と、前記取得部が取得した前記撮影画像中に存在する前記移動体を検出する検出部と、前記取得部が取得した前記撮影画像及び前記車両情報に基づいて、前記検出部によって前記移動体が検出された前記撮影画像の撮影位置に該当する、前記取得部が取得した他の前記撮影画像の中から、予め定めた類似度以上の前記撮影画像を選定する選定部と、前記検出部によって検出された前記移動体を前記撮影画像から除去し、除去した領域に対応する画像を前記選定部によって選定した前記撮影画像から抽出して合成する合成部と、を含む。
請求項1に記載の発明によれば、取得部では、複数の車両において撮影された撮影画像であって、撮影鮮度条件、撮影条件、及び撮影画像中の移動体に関する移動体条件を含む複数の条件が予め定めた条件を満たす撮影画像と、当該撮影画像に対応する位置情報を含む車両情報と、が取得される。
検出部では、取得部が取得した撮影画像中に存在する移動体が検出され、選定部では、取得部が取得した撮影画像及び車両情報に基づいて、検出部によって移動体が検出された撮影画像の撮影位置に該当する、取得部が取得した他の撮影画像の中から、予め定めた類似度以上の撮影画像が選定される。
そして、合成部では、検出部によって検出された移動体を撮影画像から除去し、除去した領域に対応する画像を選定部によって選定した撮影画像から抽出して合成される。このように撮影画像の合成を行うことで、車両から取得した撮影画像を用いて移動体が存在しない画像を生成することができる。
なお、前記取得部は、撮影鮮度条件、撮影条件、及び移動体条件をスコアにして、前記スコアが予め定めた閾値以上の前記撮影画像を取得してもよい。これにより、撮影鮮度条件、撮影条件、及び移動体条件をスコア評価できるので、撮影鮮度がよく、撮影条件が好条件で、かつ撮影画像中の移動体が占める画素数が少ない撮影画像を容易に取得することが可能となる。
また、前記撮影鮮度条件のスコアは、撮影日時が新しいほど高いスコアとし、前記撮影条件のスコアは、明るさが撮影時の条件に適した予め定めた明るさに近く、車速が遅いほど高いスコアとし、前記移動体条件のスコアは、前記撮影画像中の前記移動体が占める画素数が少ないほど高いスコアとしてスコアを算出してもよい。これにより、撮影鮮度条件、撮影条件、及び移動体条件を1つのスコアで評価することが可能となる。
また、前記取得部は、予め定めた期間中に予め定めた回数の取得を行ってもよい。これにより、予め定めた期間に対象地点を走行した複数車両の中から適切な撮影画像を取得することが可能となる。
また、前記取得部は、予め定めた期間中に予め定めた回数の取得を行うように前記閾値を変更して前記撮影画像を取得してもよい。これにより、予め定めた期間中に必要な数の撮影画像を取得することが可能となる。
また、前記選定部は、同一または類似の車種の前記撮影画像、及び同一または類似の時刻の前記撮影画像の少なくとも一方の前記撮影画像を優先して選定してもよい。これにより、異なる車種及び異なる時刻の撮影画像を選定する場合よりも、類似度が高い撮影画像を選定することが可能となる。
また、前記選定部は、前記撮影画像中の消失点の位置が予め定めた範囲内の前記撮影画像を優先的に選定してもよい。これにより、消失点の位置が全く異なる位置の撮影画像を選定する場合よりも、類似度が高い撮影画像を選定することが可能となる。
また、前記選定部は、前記撮影画像の予め定めた追跡領域を抽出し、当該追跡領域の特徴量が予め定めた類似度以上の前記撮影画像を選定してもよい。これにより、処理負荷を低減しながら適切な撮影画像を選定することが可能となる。この場合、前記追跡領域は、前記撮影画像中の自車両及び隣を走行する車両の少なくとも一方が撮影された領域以外の領域としてもよい。
なお、上記情報処理装置と、車両に搭載され、車両周辺を撮影して前記撮影画像を生成する撮影部と、撮影時の車両の位置情報を含む車両情報を検出する検出部と、を含む車載器と、を含む情報処理システムとしてもよい。
或いは、コンピュータを、上記情報処理装置の各部として機能させるための情報処理プログラムとしてもよい。
以上説明したように本発明によれば、車両から取得した画像を用いて移動体が存在しない画像を生成することが可能な情報処理装置、情報処理システム、及び情報処理プログラムを提供できる。
本実施形態に係る情報処理システムの概略構成を示す図である。 本実施形態に係る情報処理システムにおける車載器及びセンタサーバの構成を示すブロック図である。 本実施形態に係る情報処理システムにおける車載器の制御部及びセンタサーバの中央処理部の構成を示すブロック図である。 共通画像生成部による共通画像の生成方法を説明するための図である。 本実施形態に係る情報処理システムにおける車載器で行われる撮影処理の流れの一例をフローチャートである。 本実施形態に係る情報処理システムにおけるセンタサーバで行われる車載器から撮影画像を収集する際の処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理システムにおける車載器で行われる、センタサーバによる要求に従って撮影画像を送信する際の処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理システムにおけるセンタサーバの共通画像生成部で行われる共通画像を生成する際の処理の流れの一例を示すフローチャートである。 動画フレームマッチング処理の具体的な処理の流れの一例を示すフローチャートである。 非追従領域の一例を説明するための図である。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る情報処理システムの概略構成を示す図である。
本実施形態に係る情報処理システム10は、車両14に搭載された車載器16と、情報処理装置としてのセンタサーバ12とが通信ネットワーク18を介して接続されている。本実施形態では、複数の車両14に搭載された車載器16とセンタサーバ12との間で通信が可能とされている。
本実施形態に係る情報処理システム10では、センタサーバ12が、複数の車載器16に記憶された各種データを収集する処理を行う。車載器16に記憶された各種データの一例としては、撮影によって得られる撮影画像を表す画像情報及び各車両14の状態を表す車両情報等が挙げられる。本実施形態では、センタサーバ12が、車載器16から収集した撮影画像を用いて、車両14や歩行者等の移動体が写っていない撮影画像を生成する処理を行う。
続いて、本実施形態に係る情報処理システム10の各部の構成について詳細に説明する。図2は、本実施形態に係る情報処理システム10における車載器16及びセンタサーバ12の構成を示すブロック図である。
車載器16は、制御部20、車両情報検出部22、撮影部24、通信部26、及び表示部28を備えている。
車両情報検出部22は、車両14の位置情報を少なくとも含む車両14に関する車両情報を検出する。車両情報の一例としては、例えば、車両14の位置情報、車速、加速度、舵角、アクセル開度、車両周辺の障害物までの距離、経路等の車両情報を検出する。車両情報検出部22は、具体的には、車両14の周辺環境がどのような状況かを表す情報を取得する複数種のセンサや装置を適用できる。センサや装置の一例としては、車速センサ、及び加速度センサなどの車両14に搭載されるセンサや、GNSS(Global Navigation Satellite System)装置、車載通信機、ナビゲーションシステム、及びレーダ装置などが挙げられる。GNSS装置は、複数のGNSS衛星からGNSS信号を受信して自車両14の位置を測位する。車載通信機は、通信部26を介して他の車両14との間の車車間通信及び路側機との間の路車間通信の少なくとも一方を行う通信装置である。ナビゲーションシステムは、地図情報を記憶する地図情報記憶部を含み、GNSS装置から得られる位置情報と地図情報記憶部に記憶された地図情報とに基づいて、自車両14の位置を地図上で表示したり、目的地迄の経路を案内したりする処理を行う。また、レーダ装置は、検出範囲が互いに異なる複数のレーダを含み、自車両14の周辺に存在する歩行者や他車両14等の物体を検出し、検出した物体と自車両14の相対位置及び相対速度を取得する。また、レーダ装置は周辺の物体の探知結果を処理する処理装置を内蔵している。当該処理装置は、直近の複数回の探知結果に含まれる個々の物体との相対位置や相対速度の変化等に基づき、ノイズやガードレール等の路側物等を監視対象から除外し、歩行者や他車両14等を監視対象物体として追従監視する。そしてレーダ装置は、個々の監視対象物体との相対位置や相対速度等の情報を出力する。
撮影部24は、例えば、車両14に搭載されて車両14の前方等の車両周辺を撮影し、動画像の撮影画像を表す動画像データを画像情報として生成する。撮影部24としては、例えば、ドライブレコーダ等のカメラを適用することができる。なお、撮影部24は、車両14の側方及び後方の少なくとも一方の車両周辺を更に撮影してもよい。また、撮影部24は、車室内を更に撮影してもよい。また、本実施形態では、撮影部24によって生成した画像情報は、制御部20に一旦保存するものとするが、保存せずにセンタサーバ12等にアップロードしてもよい。
通信部26は、通信ネットワーク18を介してセンタサーバ12と通信を確立して、撮影部24の撮影によって得られる画像情報や車両情報検出部22によって検出された車両情報等の各種データの送受信を行う。なお、通信部26は、車両間で通信を確立して車車間通信を可能としてもよい。
表示部28は、各種情報を表示することにより、乗員に各種情報を提供する。例えば、センタサーバ12から提供される情報等を表示する。
制御部20は、図3に示すように、CPU(Central Processing Unit)20A、ROM(Read Only Memory)20B、RAM(Random Access Memory)20C、ストレージ20D、インタフェース(I/F)20E、及びバス20F等を含む一般的なマイクロコンピュータで構成されている。
制御部20は、CPU20AがROM20Bに格納されたプログラムをRAM20Cに展開して実行することで、各種情報をセンタサーバ12にアップロードする処理等を行う。なお、ROM20Cはストレージでもよく、ストレージからRAM20Cにプログラムを展開してもよい。
一方、センタサーバ12は、図2に示すように、中央処理部30、中央通信部36、及びDB(データベース)38を備えている。
中央処理部30は、図3に示すように、CPU30A、ROM30B、及びRAM30C、ストレージ30D、インタフェース(I/F)30E、及びバス30F等を含む一般的なマイクロコンピュータで構成されている。なお、CPU30Aは、GPU(Graphics Processing Unit)を適用してもよい。
中央処理部30は、CPU30AがROM30Bに格納されたプログラムをRAM30Cに展開して実行することで撮影画像取得部40、取得条件管理部50、及び共通画像生成部60の機能を有する。なお、撮影画像取得部40及び取得条件管理部50は取得部に対応する。また、共通画像生成部60は検出部、選定部、及び合成部に対応し、詳細は後述する。
撮影画像取得部40は、複数の車両14において撮影された撮影画像の中から、取得条件管理部50によって設定された条件に従って、撮影画像と、当該撮影画像に対応する位置情報を含む車両情報とを取得してDB38に蓄積する。撮影画像取得部40は、予め定めた期間中に予め定めた回数の取得を行うようにしてもよい。これにより、予め定めた期間に対象地点を走行した複数車両の中から適切な撮影画像を取得することが可能となる。
取得条件管理部50は、複数の車両14から取得する撮影画像の取得条件を管理する。具体的には、撮影鮮度条件、撮影条件、及び撮影画像中の移動体に関する移動体条件を含む複数の条件が予め定めた条件を満たす撮影画像を取得するように、車両14から撮影画像を取得する際の条件設定を行う。例えば、取得条件管理部50は、撮影鮮度条件として最近の撮影画像で、撮影条件として撮影が好条件(昼間、晴天、低速等)の撮影画像で、かつ、移動体条件として歩行者や車両14等の移動体が占める画素数が少ない撮影画像を取得するように管理する。取得条件管理部50は、撮影鮮度条件、撮影条件、及び移動体条件等の複数の条件をスコアにして、撮影画像取得部40が、スコアが予め定めた閾値以上の撮影画像を取得するように管理する。これにより複数の条件をスコア評価できるので、撮影鮮度がよく、撮影条件が好条件で、かつ撮影画像中の移動体が占める画素数が少ない撮影画像を容易に取得することが可能となる。例えば、撮影鮮度条件のスコアは、撮影日時が新しいほど高いスコアとし、撮影条件のスコアは、明るさが撮影時の条件に適した予め定めた明るさに近く、車速が遅いほど高いスコアとし、移動体条件のスコアは、撮影画像中の前記移動体が占める画素数が少ないほど高いスコアとしてスコアを算出する。これにより、撮影鮮度条件、撮影条件、及び移動体条件を1つのスコアで評価することが可能となる。なお、撮影鮮度条件、撮影条件、及び移動体条件等の複数の条件のスコアは、例えば、車載器16から撮影画像と共に取得した車両情報等を用いてスコアを算出する。
共通画像生成部60は、撮影画像中に存在する移動体を検出し、DB38に蓄積した撮影画像及び車両情報に基づいて、移動体が検出された撮影画像の撮影位置に該当する、DB38に蓄積した他の撮影画像の中から、予め定めた類似度以上の撮影画像を選定する。すなわち、撮影画像自体が類似し、かつ撮影位置が同一又は類似する撮影画像を選定する。具体的には、動画フレームマッチング処理により、撮影画像を選定する。動画フレームマッチング処理は、位置情報から同一地点を走行した車両14の撮影画像のうち比較対象の撮影画像の所定範囲(前後10m等)の撮影画像を抽出する。それぞれ特徴量(具体的には、複数の局所特徴量ベクトルの集合であり、複数箇所の局所特徴量)を計算して、予め定めた追跡領域の特徴量同士のマッチングを把握して、マッチング結果より類似度が高いものを選定する。ここで、予め定めた追跡領域は、一例として、ボンネット等の自車両14が写った領域以外の領域とする。他の車両14の撮影画像から、移動体が検出された撮影画像の撮影位置に該当する撮影画像を選定する場合は、同一または類似の車種の撮影画像、及び同一または類似の時刻の撮影画像の少なくとも一方の撮影画像を優先して選定してもよい。これにより、異なる車種及び異なる時刻の撮影画像を選定する場合よりも、類似度が高い撮影画像を選定することが可能となる。なお、予め定めた類似度以上の撮影画像を選定する際に、消失点を用いて消失点の位置が所定範囲内(例えば、撮影画像に対する消失点の位置ずれが10~20画素等の予め定めた範囲内)の画像を優先的に選定してもよい。これにより、消失点の位置が全く異なる位置の撮影画像を選定する場合よりも、類似度が高い撮影画像を選定することが可能となる。或いは、動画フレームマッチング処理を行う際に、消失点の位置を用いて撮影画像のずれを補正してからマッチングさせてもよい。また、同一車線等の同一の視点がとれない撮影画像の場合には、横方向の補正を行ってからマッチングさせてもよい。
また、共通画像生成部60は、撮影画像中の移動体を認識して移動体を撮影画像から除去する除去処理、及び除去した領域に対応する画像を、動画フレームマッチング処理により選定した撮影画像から抽出して合成する合成処理を行う。除去処理及び合成処理によって生成された画像は共通画像としてDB38に格納する。例えば、図4に示すように、アップロードされた撮影画像の中の注目撮影画像62に1台の前方車両14と1人の歩行者64が存在する場合、当該注目撮影画像62から歩行者64及び車両14を除去した除去撮影画像66を生成する。また、動画フレームマッチング処理で選定した選定撮影画像68に1人の歩行者64が存在する場合、当該歩行者64を除去した除去選定撮影画像70を生成する。そして、除去撮影画像66中の歩行者64及び車両14に対応する画像を除去選定撮影画像70から抽出し、除去撮影画像66に合成して共通画像72を生成する。除去選定撮影画像70から抽出して、除去撮影画像66に合成する際には、抽象的な特徴を抽出すると共に、照明条件等の画像の明るさの条件などを合わせて合成する。これにより、車両14や歩行者64が存在しない共通画像72を生成してDB38に蓄積することが可能となる。なお、図4は、共通画像生成部60による共通画像の生成方法を説明するための図である。また、移動体の除去及び合成は、以下では、移動体の形状で除去及び合成するものとして説明するが、移動体を認識したバウンディングボックスを除去して、バウンディングボックスの領域を他車両14の撮影画像から抽出して合成する形態としてもよい。また、本実施形態では、移動体の形状で除去する際に、移動体の周辺を含む移動体よりも大きい形状で余裕を持った領域を除去するものとするが、移動体の輪郭に合わせた形状で除去してもよい。
中央通信部36は、通信ネットワーク18を介して車載器16と通信を確立して、画像情報や車両情報等の情報の送受信を行う。
DB38は、各車両14へ情報の送信を要求することで各車両14から取得したデータを蓄積すると共に、共通画像生成部60によって生成された共通画像72を蓄積する。車両14から取得して蓄積するデータの一例としては、各車両14の撮影部24で撮影された撮影画像を表す撮影情報や、車両情報検出部22によって検出された車両情報などが蓄積される。
ところで、地図生成などに使用する映像は、最近の映像で、かつ昼間や、晴天、走行速度が低速等の予め定めた好条件の撮影条件で撮影された撮影画像を用いることが好ましい。
これに対して、本実施形態では、先行の車両14や歩行者64等の移動体を除去した共通画像72を生成するため、移動体が存在しない撮影画像を取得することが望ましい。そのため、上記の撮影条件に加えて、以下のような条件でもアップロードを可能な限り避けるように取得条件を管理してもよい。なお、可能な限り避けるだけなので、例えば、直近の1ヶ月に条件に該当しない撮影画像しかなければ、条件に該当しない撮影画像を利用して共通画像を生成する。
取得条件の一例としては、例えば、歩行者64を検出して衝突回避する機能などを含むADAS(Advanced Driver-Assistance Systems:先進運転支援システム)機能において検出した歩行者検出情報を用いて、歩行者64が検出されている撮影画像は避ける。
取得条件の他の一例としては、同様に、先行車追従走行中、特に車間距離が狭い時や渋滞時は避ける。このとき、自車線だけでなく周囲の車線についても考慮してもよい。
また、取得条件の他の一例としては、歩行者64及び車両14の密度情報を他のデータベース(例えば、モバイル空間統計等のデータベース)から取得して、密度が高い領域の撮影画像は避ける。
また、取得条件の他の一例としては、雨天後及び凍結時を避けるため、ABS(Anti-lock Brake System)の動作等の車両情報からスリップが観測された前後の撮影画像は避ける。
また、取得条件の他の一例としては、左側通行の場合に右側の車線を走ったり、車線変更を行ったりしている状況の撮影画像を避ける。換言すれば、車線変更を行わず、なるべく歩道に近い車線を走行している撮影画像をアップロードする。
上記のような取得条件を用いた取得条件管理部50によるアップロードの判断は、例えば、オフラインで実施してもよい。この場合、上述の複数の条件を組み合わせたスコアにしてアップロードの判定を行う。複数の条件を組み合わせたスコアは、例えば、加重和等を用いて算出する。
具体的には、データサイズが撮影画像よりも軽量な車両情報のみを事前にアップロードし、一定期間に対象地点を走行した複数車両の中から、適切な撮影画像を抽出してアップロードする。
車両14のストレージは有限のため、共通画像のDB38の更新頻度(例えば、1ヶ月)よりも短いある程度の期間(更新の閾値:例えば、1週間等)でアップロードの判断を行う必要がある。そのためには、それまでの状況から適切なアップロード回数となるような閾値を決めてアップロード指示を行う。すなわち、予め定めた期間中に予め定めた回数の取得を行うように閾値を変更してアップロード指示を行ってもよい。これにより、予め定めた期間中に必要な数の撮影画像を取得することが可能となる。閾値を変更する際には、過去の走行実績に基づいて閾値を変更する。例えば、1ヶ月に1枚の撮影画像を取得したい場合は、前の期間でスコアが(1,2,4,8)という4つの撮影画像が得られそうだとわかれば、閾値を6くらいに設定してアップロードするという判定を行う。また、当月中に閾値を超えてアップロードがなされれば、次の更新の閾値の期間(次の1週間)では閾値を上げ、期間中に集まりそうになければ閾値を引き下げる。なお、更新の閾値は、道路や地域によって車両14や歩行者の混雑状況が異なるため、道路毎或いは地域毎に異なる閾値としてもよい。
続いて、上述のように構成された本実施形態に情報処理システム10の各部で行われる具体的な処理について説明する。
まず、車載器16において撮影部24で車両周辺を撮影する際の具体的な処理について説明する。図5は、本実施形態に係る情報処理システム10における車載器16で行われる撮影処理の流れの一例をフローチャートである。なお、図5の処理は、例えば、車両14の図示しないイグニッションスイッチ等がオンされて車載器16が起動した場合に開始する。
ステップ100では、CPU20Aが、車両周辺の撮影を開始してステップ102へ移行する。すなわち、撮影部24による車両周辺の撮影を開始する。
ステップ102では、CPU20Aが、撮影画像のプロファイルとして必要な車両情報を取得してステップ104へ移行する。車両情報の取得は、車両情報検出部22の検出結果を取得する。また、撮影時の天気などの情報を撮影条件や渋滞情報などを外部サーバからさらに取得してもよい。
ステップ104では、CPU20Aが、撮影画像に取得したプロファイル情報を追加してステップ106へ移行する。
ステップ106では、CPU20Aが、プロファイル付撮影画像をストレージ20Dに保存してステップ108へ移行する。プロファイル付撮影画像の保存は、プロファイル情報と対応付けて撮影画像を保存し、プロファイル情報のみを読み出し可能に保存する。
ステップ108では、CPU20Aが、撮影終了か否かを判定する。該判定は、例えば、図示しないイグニッションスイッチのオフが指示されたか否か等を判定する。該判定が否定された場合にはステップ102に戻って撮影を継続して上述の処理を繰り返し、判定が肯定されたところで一連の撮影時の処理を終了する。
次に、センタサーバ12において、車載器16から撮影画像を収集する際の具体的な処理について説明する。図6は、本実施形態に係る情報処理システム10におけるセンタサーバ12で行われる車載器16から撮影画像を収集する際の処理の流れの一例を示すフローチャートである。なお、図6の処理は、上述したように、共通画像72の予め定めた更新頻度(例えば、1ヶ月)より短い期間(例えば、1週間等)毎に開始する。
ステップ200では、CPU30Aが、予め定めた期間(例えば、1週間等)のプロファイル情報の送信要求を各車載器16に行ってステップ202へ移行する。すなわち、取得条件管理部50が、車載器16のストレージ20Dに保存されたプロファイル情報のうち、予め定めた期間のプロファイル情報の取得要求を各車載器16に対して行う。
ステップ202では、CPU30Aが、プロファイル情報を受信したか否かを判定する。該判定は、要求したプロファイル情報を受信したか否かを判定し、該判定が肯定されるまで待機してステップ204へ移行する。
ステップ204では、CPU30Aが、撮影画像を取得する複数の取得条件をスコア化してスコアを算出してステップ206へ移行する。例えば、上述したように、加重平均等を用いて、プロファイル情報に対応する各撮影画像のスコアを算出する。
ステップ206では、CPU30Aが、スコアに基づいて、アップロード対象の撮影画像を決定してステップ208へ移行する。例えば、予め定めた閾値以上のスコアとなる撮影画像をアップロード対象とする。
ステップ208では、CPU30Aが、アップロード対象の撮影画像の送信要求を車載器16に対して行ってステップ210へ移行する。例えば、取得条件管理部50が、算出スコアが予め定めた閾値以上の撮影画像の送信要求を車載器16に出力する。
ステップ210では、CPU30Aが、対象の撮影画像を受信したか否かを判定する。該判定が肯定されるまで待機してステップ212へ移行する。
ステップ212では、CPU30Aが、受信した撮影画像をDB38に順次蓄積して一連の査定画像収集時の処理を終了する。
続いて、センタサーバ12による要求に従って撮影画像を送信する際に車載器16で行われる具体的な処理について説明する。図7は、本実施形態に係る情報処理システム10における車載器16で行われる、センタサーバ12による要求に従って撮影画像を送信する際の処理の流れの一例を示すフローチャートである。なお、図7の処理は、センタサーバ12からプロファイル情報の送信要求を受信した場合に開始する。
ステップ300では、CPU20Dが、予め定めた期間の撮影画像のプロファイル情報をストレージ20Dから抽出してステップ302へ移行する。
ステップ302では、CPU20Dが、抽出したプロファイル情報をセンタサーバ12に送信してステップ304へ移行する。
ステップ304では、CPU20Dが、センタサーバ12から撮影画像の送信要求が行われたか否かを判定する。該判定は、上述のステップ208により撮影画像の送信要求が行われたか否かを判定する。該判定が肯定されるまで待機してステップ306へ移行する。
ステップ306では、CPU20Dが、要求対象の撮影画像をストレージ20Dから抽出してステップ308へ移行する。
ステップ308では、CPU20Dが、要求対象の撮影画像をセンタサーバ12に送信して一連の撮影画像の送信時の処理を終了する。
次に、センタサーバ12において、共通画像72を生成する際の具体的な処理について説明する。図8は、本実施形態に係る情報処理システム10におけるセンタサーバ12の共通画像生成部60で行われる共通画像を生成する際の処理の流れの一例を示すフローチャートである。図8の処理は、共通画像72の予め定めた更新頻度毎に開始する。
ステップ400では、CPU30Aが、DB38に蓄積された予め定めた期間における撮影画像の中から注目撮影画像62を読み出してステップ402へ移行する。
ステップ402では、CPU30Aが、動画フレームマッチング処理を行ってステップ404へ移行する。動画フレームマッチング処理は、例えば、同一地点を走行した車両14の撮影画像のうち比較対象の撮影画像の所定範囲(前後10m等)の撮影画像を抽出し、それぞれ局所特徴量を計算して、追跡領域の局所特徴量同士のマッチングを把握して、マッチング結果より類似度が高いものを選定撮影画像68として選定する。このように、追従領域の局所特徴量同士のマッチングを把握することで、処理負荷を低減しながら、適切な撮影画像を選定することが可能となる。なお、動画フレームマッチング処理は選定部に対応し、詳細な処理については後述する。また、追跡領域は、上述したように、ボンネット等の自車両14が写った領域以外の領域であるが、これに限るものではない。例えば、撮影画像中の自車両14及び周辺の移動体の少なくとも一方が撮影された領域以外の領域を予め定めた追跡領域としてもよい。
ステップ404では、CPU30Aが、撮影画像の移動体を認識してステップ406へ移行する。例えば、ディープラーニングを利用したSemantic Segmentation、YoloV4等の技術により歩行者64及び車両14等の移動体を認識する。移動体の認識は、注目撮影画像62、及び動画フレームマッチング処理で抽出された選定撮影画像68のそれぞれについて認識する。なお、ステップ404の処理は検出部に対応する。
ステップ406では、CPU30Aが、注目撮影画像62及び選定撮影画像68のそれぞれの撮影画像内の移動体を除去してステップ408へ移行する。
ステップ408では、CPU30Aが、動画フレームマッチング処理によって選定した選定撮影画像68から除去対象の領域を抽出してステップ410へ移行する。なお、ここでは、説明を簡略化したが、移動体が存在しない、又は注目撮影画像62内の移動体と異なる位置に存在する選定画像68が選定されているものとし、注目撮影画像62の移動体を除去した領域を、選定撮影画像68を用いて補うことが可能とされているものとする。
ステップ410では、CPU30Aが、注目撮影画像62の除去した移動体の領域に選定撮影画像68から抽出した領域を合成してステップ412へ移行する。なお、ステップ406~410の処理は合成部に対応する。
ステップ412では、CPU30Aが、合成画像を共通画像72としてDB38に保存してステップ414へ移行する。
ステップ414では、CPU30Aが、共通画像72の生成を終了するか否かを判定する。該判定は、予め定めた期間における撮影画像について上記処理を終了したか否かを判定する。該判定が否定された場合には、ステップ400に戻って、他の撮影画像を注目撮影画像62として上述の処理を繰り返し、ステップ414の判定が肯定されたところで、一連の共通画像生成部60の処理を終了する。
このように共通画像72を生成することで、車両14から取得した撮影画像を用いて移動体が存在しない撮影画像を生成することができる。
続いて、上述の動画フレームマッチング処理について説明する。図9は、動画フレームマッチング処理の具体的な処理の流れの一例を示すフローチャートである。
ステップ500では、CPU30Aが、同一領域を走行した車両14を抽出してステップ502へ移行する。例えば、車両情報に含まれる位置情報に基づいて、同一領域を走行した車両14を抽出する。
ステップ502では、CPU30Aが、比較対象車両の近傍車両の撮影画像を抽出してステップ504へ移行する。すなわち、注目撮影画像を撮影した車両14の近傍の車両14で撮影した撮影画像を選定撮影画像68の候補群として抽出する。
ステップ504では、CPU30Aが、比較対象車両の撮影画像の特徴量を算出してステップ506へ移行する。なお、特徴量は、複数の局所特徴量ベクトルの集合であり、複数箇所の局所特徴量を算出する。
ステップ506では、CPU30Aが、抽出画像群の特徴量を算出してステップ508へ移行する。すなわち、選定撮影画像68の候補群のそれぞれの局所特徴量を算出する。
ステップ508では、CPU30Aが、非追従領域を決定してステップ510へ移行する。非追従領域としては、例えば、図10に示すように、撮影画像の中の自車両14のフード等が写った自車両領域74、及び自車両14の隣を走行する車両14などの隣車両領域76の少なくとも一方の領域を非追従領域とする。非追従領域は、例えば、セマンティックセグメンテーションにより把握する。
ステップ510では、CPU30Aが、非追従領域以外の追従領域の特徴量のマッチングを求めてステップ512へ移行する。非追従領域を設定して特徴量(具体的には、複数の局所特徴量ベクトルの集合であり、複数箇所の局所特徴量)のマッチングを求めることにより、非追従領域を設定しない場合に比べて処理負荷を軽減できる。なお、ステップ508を省略して、非追従領域を設定せずに、局所特徴量のマッチングを求める形態としてもよい。
ステップ512では、CPU30Aが、特徴量のマッチング結果から、類似度が高い画像を選定撮影画像68として選定して一連の処理を終了する。
このように、動画フレームマッチング処理を行うことで、注目撮影画像62内の移動体を除去した領域を補完するために必要な選定撮影画像68を選定することができ、移動体が存在しない共通画像72を生成することが可能となる。
なお、上記の実施形態では、撮影画像取得部40、取得条件管理部50、及び共通画像生成部60の各機能を単一のセンタサーバ12の機能として説明したが、これに限るものではなく、各機能を複数のサーバに分散した形態としてもよい。
また、上記の実施形態では、センタサーバ12がアップロード対象の画像を要求して取得するようにしたが、これに限るものではなく、車載器16側でスコアを算出して閾値以上の撮影画像をセンタサーバ12にアップロードする形態としてもよい。
また、上記の実施形態では、撮影画像から移動体を除去して、除去した移動体の領域を他の撮影画像から補う際に、1つの撮影画像から除去対象領域を抽出して合成する例を説明したが、これに限るものではない。例えば、複数の撮影画像を用いて除去対象領域の画像を生成して、撮影画像から移動体を除去した領域に生成した画像を合成するようにしてもよい。
また、上記の実施形態におけるセンタサーバ12及び車載器16の各々で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、ASIC(Application Specific Integrated Circuit)、及びFPGA(Field-Programmable Gate Array)等のハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。また、ソフトウエア処理を行うプロセッサとしてCPU20Aを一例として挙げて説明したが、これに限るものではない。例えば、GPU、ASIC、FPGA、及びPLD(Programmable Logic Device)等を適用してもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 情報処理システム
12 センタサーバ
14 車両
16 車載器
20 制御部
22 車両情報検出部
24 撮影部
30 中央処理部
38 DB
40 撮影画像取得部(取得部)
50 取得条件管理部(取得部)
60 共通画像生成部(検出部、選定部、及び合成部)
62 注目撮影画像
64 歩行者
66 除去撮影画像
68 選定撮影画像
70 除去選定撮影画像
72 共通画像
74 自車両領域
76 隣車両領域

Claims (11)

  1. 複数の車両において撮影された撮影画像であって、撮影鮮度条件、撮影条件、及び撮影画像中の移動体に関する移動体条件を含む複数の条件が予め定めた条件を満たす撮影画像と、当該撮影画像に対応する位置情報を含む車両情報と、を取得する取得部と、
    前記取得部が取得した前記撮影画像中に存在する前記移動体を検出する検出部と、
    前記取得部が取得した前記撮影画像及び前記車両情報に基づいて、前記検出部によって前記移動体が検出された前記撮影画像の撮影位置に該当する、前記取得部が取得した他の前記撮影画像の中から、予め定めた類似度以上の前記撮影画像を選定する選定部と、
    前記検出部によって検出された前記移動体を前記撮影画像から除去し、除去した領域に対応する画像を前記選定部によって選定した前記撮影画像から抽出して合成する合成部と、
    を含む情報処理装置。
  2. 前記取得部は、撮影鮮度条件、撮影条件、及び移動体条件をスコアにして、前記スコアが予め定めた閾値以上の前記撮影画像を取得する請求項1に記載の情報処理装置。
  3. 前記撮影鮮度条件のスコアは、撮影日時が新しいほど高いスコアとし、前記撮影条件のスコアは、明るさが撮影時の条件に適した予め定めた明るさに近く、車速が遅いほど高いスコアとし、前記移動体条件のスコアは、前記撮影画像中の前記移動体が占める画素数が少ないほど高いスコアとしてスコアを算出する請求項2に記載の情報処理装置。
  4. 前記取得部は、予め定めた期間中に予め定めた回数の取得を行う請求項1~3の何れか1項に記載の情報処理装置。
  5. 前記取得部は、予め定めた期間中に予め定めた回数の取得を行うように前記閾値を変更して前記撮影画像を取得する請求項2又は請求項3に記載の情報処理装置。
  6. 前記選定部は、同一または類似の車種の前記撮影画像、及び同一または類似の時刻の前記撮影画像の少なくとも一方の前記撮影画像を優先して選定する請求項1~5の何れか1項に記載の情報処理装置。
  7. 前記選定部は、前記撮影画像中の消失点の位置が予め定めた範囲内の前記撮影画像を優先的に選定する請求項1~6の何れか1項に記載の情報処理装置。
  8. 前記選定部は、前記撮影画像の予め定めた追跡領域を抽出し、当該追跡領域の特徴量が予め定めた類似度以上の前記撮影画像を選定する請求項1~7の何れか1項に記載の情報処理装置。
  9. 前記追跡領域は、前記撮影画像中の自車両及び周辺の移動体の少なくとも一方が撮影された領域以外の領域である請求項8に記載の情報処理装置。
  10. 請求項1~9の何れか1項に記載の情報処理装置と、
    車両に搭載され、車両周辺を撮影して前記撮影画像を生成する撮影部と、撮影時の車両の位置情報を含む車両情報を検出する検出部と、を含む車載器と、
    を含む情報処理システム。
  11. コンピュータを、請求項1~9の何れか1項に記載の情報処理装置の各部として機能させるための情報処理プログラム。
JP2021007022A 2021-01-20 2021-01-20 情報処理装置、情報処理システム、及び情報処理プログラム Active JP7367709B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021007022A JP7367709B2 (ja) 2021-01-20 2021-01-20 情報処理装置、情報処理システム、及び情報処理プログラム
CN202111422578.2A CN114821495A (zh) 2021-01-20 2021-11-26 信息处理装置、信息处理系统及方法、非暂时性存储介质
US17/643,311 US20220230287A1 (en) 2021-01-20 2021-12-08 Information processing device, information processing system, information processing method, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021007022A JP7367709B2 (ja) 2021-01-20 2021-01-20 情報処理装置、情報処理システム、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2022111536A true JP2022111536A (ja) 2022-08-01
JP7367709B2 JP7367709B2 (ja) 2023-10-24

Family

ID=82406453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021007022A Active JP7367709B2 (ja) 2021-01-20 2021-01-20 情報処理装置、情報処理システム、及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20220230287A1 (ja)
JP (1) JP7367709B2 (ja)
CN (1) CN114821495A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296621A (ja) * 2003-12-25 2009-12-17 Fujifilm Corp 画像編集装置および方法並びにプログラム
JP2010098661A (ja) * 2008-10-20 2010-04-30 Nikon Corp カメラ、画像共有サーバ及び画像共有プログラム
JP2013201793A (ja) * 2013-07-11 2013-10-03 Nikon Corp 撮像装置
JP2013239087A (ja) * 2012-05-16 2013-11-28 Toyota Motor Corp 情報処理システム及び移動体
JP2013254344A (ja) * 2012-06-07 2013-12-19 Nissan Motor Co Ltd 道路情報収集システム
JP2014074626A (ja) * 2012-10-03 2014-04-24 Denso Corp 車両用ナビゲーションシステム
JP2016057284A (ja) * 2014-09-10 2016-04-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 経路表示方法、経路表示装置及びデータベース作成方法
JP2019016246A (ja) * 2017-07-10 2019-01-31 株式会社Soken 走路認識装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150228194A1 (en) * 2012-10-03 2015-08-13 Denso Corporation Vehicle navigation system, and image capture device for vehicle
EP3514495A3 (en) * 2014-09-10 2019-10-30 Panasonic Intellectual Property Corporation of America Route display method, route display apparatus, and database generation method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296621A (ja) * 2003-12-25 2009-12-17 Fujifilm Corp 画像編集装置および方法並びにプログラム
JP2010098661A (ja) * 2008-10-20 2010-04-30 Nikon Corp カメラ、画像共有サーバ及び画像共有プログラム
JP2013239087A (ja) * 2012-05-16 2013-11-28 Toyota Motor Corp 情報処理システム及び移動体
JP2013254344A (ja) * 2012-06-07 2013-12-19 Nissan Motor Co Ltd 道路情報収集システム
JP2014074626A (ja) * 2012-10-03 2014-04-24 Denso Corp 車両用ナビゲーションシステム
JP2013201793A (ja) * 2013-07-11 2013-10-03 Nikon Corp 撮像装置
JP2016057284A (ja) * 2014-09-10 2016-04-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 経路表示方法、経路表示装置及びデータベース作成方法
JP2019016246A (ja) * 2017-07-10 2019-01-31 株式会社Soken 走路認識装置

Also Published As

Publication number Publication date
CN114821495A (zh) 2022-07-29
US20220230287A1 (en) 2022-07-21
JP7367709B2 (ja) 2023-10-24

Similar Documents

Publication Publication Date Title
US11703876B2 (en) Autonomous driving system
JP7467485B2 (ja) 時系列要素からの機械学習のためのグラウンドトゥルースの生成
JP2022520968A (ja) 視覚画像データを用いたオブジェクト属性の推定
JP2024020237A (ja) 自動運転のための3次元特徴の予測
US11003928B2 (en) Using captured video data to identify active turn signals on a vehicle
US11231281B2 (en) Information-processing device, information-processing method, and program
US11294387B2 (en) Systems and methods for training a vehicle to autonomously drive a route
CN110395253B (zh) 车辆控制装置以及计算机可读存储介质
EP3900997A1 (en) Method of and system for controlling operation of self-driving car
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
CN111105644A (zh) 一种车辆盲区监测、行驶控制方法、装置及车路协同系统
CN111319560B (zh) 信息处理系统、程序和信息处理方法
CN112092809A (zh) 一种辅助倒车方法、装置、系统及车辆
JP4687244B2 (ja) 画像処理システム及び画像処理方法
CN114842455B (zh) 障碍物检测方法、装置、设备、介质、芯片及车辆
JP7367709B2 (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
CN116524311A (zh) 路侧感知数据处理方法及其系统、存储介质和电子设备
EP4071511A1 (en) Method of and system for predicting a maneuver of an object
CN115205311A (zh) 图像处理方法、装置、车辆、介质及芯片
JP7359099B2 (ja) 移動体妨害検出装置、移動体妨害検出システム、及び移動体妨害検出プログラム
JP7347502B2 (ja) 渋滞情報提供装置、渋滞情報処理方法及びプログラム
JP7331929B2 (ja) 画像データ収集装置、方法、プログラムおよび画像データ送信装置
JP2022056153A (ja) 一時停止検出装置、一時停止検出システム、及び一時停止検出プログラム
CN114093160A (zh) 危险驾驶检测装置、系统、方法及存储介质
JP2022054296A (ja) 運転評価装置、運転評価システム、及び運転評価プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230925

R151 Written notification of patent or utility model registration

Ref document number: 7367709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151