JP7092540B2 - 交通監視システムおよび交通監視方法 - Google Patents

交通監視システムおよび交通監視方法 Download PDF

Info

Publication number
JP7092540B2
JP7092540B2 JP2018072542A JP2018072542A JP7092540B2 JP 7092540 B2 JP7092540 B2 JP 7092540B2 JP 2018072542 A JP2018072542 A JP 2018072542A JP 2018072542 A JP2018072542 A JP 2018072542A JP 7092540 B2 JP7092540 B2 JP 7092540B2
Authority
JP
Japan
Prior art keywords
millimeter wave
data
monitoring
image data
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018072542A
Other languages
English (en)
Other versions
JP2019185220A (ja
Inventor
洋児 横山
慎 安木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2018072542A priority Critical patent/JP7092540B2/ja
Priority to PCT/JP2019/013925 priority patent/WO2019194084A1/ja
Priority to CN201980024460.9A priority patent/CN111954898B/zh
Priority to US17/044,619 priority patent/US11869347B2/en
Publication of JP2019185220A publication Critical patent/JP2019185220A/ja
Application granted granted Critical
Publication of JP7092540B2 publication Critical patent/JP7092540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本開示は、交通監視システムおよび交通監視方法に関する。
従来、交差点などの道路において、自転車を含む車両および歩行者の移動を監視する交通監視システムの導入が進められている。交通監視システムでは、車両および歩行者(以下、移動体と記載する)を精度良く、漏れなく検知することによって、道路状態の通知および/または危険アラートの通知を効率良く行うことが望まれる。
例えば、特許文献1には、監視カメラの撮影画像に基づいて、道路の所定区間毎に対応させた道路状況画像を生成し、定められた表示色により道路状況画像を表示する方法が開示されている。
また、例えば、特許文献2には、ミリ波レーダにより走行車両を計測し、車線数、各斜線幅、中央分離帯幅などを自動的に判断しながら車両交通量を監視する装置が開示されている。
特開2004-102545号公報 特開2007-257536号公報
しかしながら、監視カメラとレーダという2つのセンサデバイスを融合させ、道路状況の監視を精度良くかつ効率的に行う交通監視システムに対する検討は十分ではない。
本開示の非限定的な実施例は、カメラとレーダという2つのセンサデバイスを融合させ、道路状況の監視を精度良くかつ効率的に行う交通監視システムおよび交通監視方法の提供に資する。
本開示の一態様に係る交通監視システムは、道路を含む監視エリアを撮影し、画像データを生成するカメラと、前記監視エリアに含まれる走査エリアを走査し、ミリ波データを生成するミリ波レーダと、前記カメラ及び前記ミリ波レーダと接続し、前記画像データ及び前記ミリ波データを取得する情報処理サーバと、を備える交通監視システムであって、 前記情報処理サーバは、前記画像データが生成されたタイミングと前記ミリ波データが生成されたタイミングとの差が一定値以下となるように前記画像データと前記ミリ波データとの同期を図るデータ同期部と、同期が図られた前記画像データと前記ミリ波データとを対応づけて、前記道路の状況を示す監視画面を生成する画面生成部と、を備え、前記画面生成部は、前記ミリ波データに対して、前記ミリ波データが有するミリ波レーダ座標系から前記画像データが有するカメラ座標系への座標変換処理を行い、前記画像データが示す画像に前記ミリ波データの情報を重畳した監視領域画像が含まれた前記監視画面を生成する構成とする。
本開示の一態様に係る交通監視方法は、道路の状況を示す監視画面を生成する処理をプロセッサにより実行する交通監視方法であって、前記プロセッサは、前記道路を含む監視エリアを撮影し、生成された画像データをカメラから取得し、前記監視エリアに含まれる走査エリアを走査し、生成されたミリ波データをミリ波レーダから取得し、前記画像データが生成されたタイミングと前記ミリ波データが生成されたタイミングとの差が一定値以下となるように前記画像データと前記ミリ波データとの同期を図り、同期が図られた前記画像データと前記ミリ波データとを対応づけて、前記道路の状況を示す前記監視画面を生成してなり、前記監視画面を生成するに際、前記ミリ波データに対して、前記ミリ波データが有するミリ波レーダ座標系から前記画像データが有するカメラ座標系への座標変換処理を行い、前記画像データが示す画像に前記ミリ波データの情報を重畳した監視領域画像が含まれた前記監視画面を生成する構成とする。
なお、これらの包括的または具体的な態様は、システム、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様によれば、カメラとレーダという2つのセンサデバイスを融合させ、ミリ波データに対して、カメラ座標系への座標変換処理を行い、画像データが示す画像にミリ波データの情報を重畳した監視領域画像が含まれた監視画面を生成するので、道路状況の監視を精度良くかつ効率的に行う交通監視システムおよび交通監視方法の提供に資する。
本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
本開示の一実施の形態に係る交通監視システムの構成の一例を示す図 本開示の一実施の形態に係る情報処理サーバの構成の一例を示す図 本開示の一実施の形態に係る情報処理サーバの処理の一例を示すフローチャート 本開示の一実施の形態における表示画面の表示例1を示す図 本開示の一実施の形態における表示画面の表示例2を示す図 本開示の一実施の形態における表示画面の表示例3を示す図 本開示の一実施の形態における表示画面の表示例4を示す図 本開示の一実施の形態における表示画面の表示例5を示す図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
(一実施の形態)
<交通監視システムの構成>
図1は、本実施の形態に係る交通監視システム1の構成の一例を示す図である。交通監視システム1は、複数のカメラ2と、複数のミリ波レーダ3と、情報処理サーバ(制御装置)4と、遠隔監視PC(Personal Computer)5と、を備える。本実施の形態では、車両、歩行者などが通行する道路交通を監視する交通監視システムを一例に挙げて説明する。
カメラ2およびミリ波レーダ3は、ネットワークN1を介して、情報処理サーバ4と接続する。ネットワークN1は、無線ネットワークであってもよいし、有線ネットワークであってもよいし、無線と有線とを含むネットワークであってもよい。
情報処理サーバ4は、ネットワークN2を介して、遠隔監視PC5と接続する。ネットワークN2は、無線ネットワークであってもよいし、有線ネットワークであってもよいし、無線と有線とを含むネットワークであってもよい。
カメラ2は、例えば、道路周辺の構造物(例えば、道路標識を設置するポール)の上方に設けられる。カメラ2は、道路を含む道路周辺のエリアを撮影する。なお、カメラ2の撮影範囲であって、道路を含む道路周辺のエリアを監視エリアと記載してもよい。
カメラ2は、撮影した画像のデータ(画像データ)を生成し、撮影した画像データを情報処理サーバ4へ送信する。送信される画像データには、画像データを生成したタイミング(例えば、時刻)を示す時刻情報が含まれる。なお、時刻情報が示す時刻は、カメラ2が撮影を行った時刻であってもよい。また、カメラ2は、例えば、フレーム単位で画像データを情報処理サーバ4へ送信してもよい。また、カメラ2によって撮影された画像は、カメラ画像と記載されてもよい。また、例えば、カメラ画像の横方向と縦方向を規定する座標系は、カメラ座標系と記載されてもよい。カメラ座標系は、例えば、カメラ2の設置位置、カメラ2の向きおよびカメラの画角に基づいて規定される。
ミリ波レーダ3は、例えば、道路周辺の構造物の上方に設けられる。ミリ波レーダ3は、道路周辺に対してミリ波帯のレーダ信号を送信し、レーダ信号が道路周辺の物体によって反射した反射信号を受信する。なお、ミリ波レーダ3は、複数の方向へ、順次、レーダ信号を送信することによって、道路周辺を走査する。ミリ波レーダ3がレーダ信号を走査する範囲を走査エリアと記載してもよい。
ミリ波レーダ3は、例えば、レーダ信号を送信した時刻と反射信号を受信した時刻との間の時間、レーダ信号を送信した方向、反射信号の受信強度、及び、反射信号のドップラー周波数の少なくとも1つの情報に基づいて、ミリ波データを生成する。
ミリ波データは、例えば、レーダ信号を反射した道路周辺の物体(以下、反射物と記載)を示す情報を含む。例えば、ミリ波データは、ミリ波レーダ3の位置を基準に規定した座標系における、反射物の位置を示す点(以下、反射点と記載)の集合を含むデータである。ミリ波レーダ3の位置を基準に規定した座標系とは、例えば、ミリ波レーダ3の位置からの距離と、ミリ波レーダ3が走査する方位角とによる、極座標系である。なお、ミリ波レーダ3の位置を基準に規定した座標系は、ミリ波レーダ座標系と記載されてもよい。ミリ波レーダ座標系は、例えば、ミリ波レーダ3の設置位置、ミリ波レーダ3の向きおよびミリ波レーダ3の走査エリア(検知範囲)に基づいて規定される。
なお、反射点は1つの反射物に対して1つに限られない。ミリ波データでは、1つの反射物が複数の反射点によって表されてもよい。
また、反射物には、例えば、道路周辺を移動する車両及び歩行者(以下、移動体と記載する)と、道路周辺に設けられた構造物(道路標識、信号など、以下、静止物と記載する)とが含まれる。ミリ波データには、移動体の位置を示す反射点と、静止物の位置を示す反射点とが含まれていてもよい。
ミリ波レーダ3は、ミリ波データを情報処理サーバ4に送信する。送信されるミリ波データには、ミリ波データを生成したタイミング(例えば、時刻)を示す時刻情報が含まれる。なお、時刻情報が示す時刻は、ミリ波データを生成するためのレーダ信号を送信した時刻であってもよいし、レーダ信号を受信した時刻であってもよい。また、ミリ波レーダ3は、設定された周期で走査エリアを走査し、ミリ波データを情報処理サーバ4へ送信してもよい。
カメラ2が画像データを生成するタイミングと、ミリ波レーダ3がミリ波データを生成するタイミングとは、一致していなくてもよく、各々のタイミングであってもよい。また、カメラ2が画像データを送信するタイミングと、ミリ波レーダ3がミリ波データを送信するタイミングとは、一致していなくてもよく、各々のタイミングであってもよい。例えば、カメラ2が画像データを生成する頻度は、ミリ波レーダ3がミリ波データを生成する頻度よりも多い。
なお、カメラ2とミリ波レーダ3は、同一の構造物に設置されてもよいし、互いに異なる構造物に設置されてもよい。また、カメラ2とミリ波レーダ3は、同一の筐体に設けられてもよいし、別々の筐体に設けられてもよい。
また、カメラ2とミリ波レーダ3の設置する方法、場所、および、相対的な位置関係は、限定されない。また、カメラ2の監視エリアとミリ波レーダ3の走査エリアの位置関係は限定されない。本開示は、カメラ2の監視エリアにミリ波レーダ3の走査エリアが含まれるように設置されるのが好ましい。
例えば、少なくとも1つのカメラ2と少なくとも1つのミリ波レーダ3が組となり、1つの監視を行う地点(以下、監視地点と記載する)に設けられる。なお、1つの監視地点には、2つ以上のカメラ2が設けられてもよいし、2つ以上のミリ波レーダ3が設けられてもよい。
情報処理サーバ4は、ネットワークN1を介して、複数の監視地点にそれぞれ設けられるカメラ2およびミリ波レーダ3と接続する。情報処理サーバ4は、カメラ2から画像データを取得し、ミリ波レーダ3からミリ波データを取得する。そして、情報処理サーバ4は、画像データ及びミリ波データに基づき、監視地点における道路状況に関する監視画面を生成する。情報処理サーバ4は、ネットワークN2を介して、生成した監視画面のデータを遠隔監視PC5へ送信する。
なお、情報処理サーバ4は、監視画面に関する設定および/または監視地点に関する指示を含む指示情報を、遠隔監視PC5から受信してもよい。この場合、情報処理サーバ4は、指示情報に基づき、監視画面を生成する。
遠隔監視PC5は、ネットワークN2を介して、情報処理サーバ4から、監視画面のデータを受信する。遠隔監視PC5は、監視画面のデータの処理を行い、表示部(図示せず)に監視画面を表示する。
なお、遠隔監視PC5は、例えば、操作部(図示せず)を介して、監視画面に関する設定および/または監視地点に関する指示を、ユーザから受け付けてもよい。この場合、遠隔監視PC5は、監視画面に関する設定および/または監視地点に関する指示を含む指示情報を情報処理サーバ4へ送信してもよい。
なお、図1では、1台の遠隔監視PC5が示されるが、遠隔監視PC5は、複数であってもよい。また、図1では、ネットワークN1とネットワークN2が示されるが、ネットワークN1とネットワークN2は、同一のネットワークであってもよいし、異なるネットワークであってもよい。また、情報処理サーバ4が、ネットワークN1を介して、カメラ2およびミリ波レーダ3と接続する例を示したが、情報処理サーバ4は、カメラ2および/またはミリ波レーダ3と、ネットワークN1を介さずに、直接、有線接続または無線接続してもよい。また、遠隔監視PC5は、情報処理サーバ4と、ネットワークN2を介さずに、直接、有線接続または無線接続してもよい。
以上説明した交通監視システム1では、例えば、監視を行うユーザが、遠隔監視PC5の操作部を介して、特定の監視地点を入力した(または選択した)場合、遠隔監視PC5はその入力された(または選択された)監視地点を示す指示情報を、情報処理サーバ4へ送信する。
情報処理サーバ4は、指示情報が示す監視地点における道路状況に関する監視画面を生成する。そして、情報処理サーバ4は、生成した監視画面のデータを、指示情報の送信元の遠隔監視PC5へ送信する。
<情報処理サーバの構成>
次に、情報処理サーバ4の構成の一例について説明する。図2は、本実施の形態に係る情報処理サーバ4の構成の一例を示す図である。
例えば、情報処理サーバ4は、通信部41と、データ同期部42と、データ蓄積部43と、画面生成部44と、モード設定部45と、を備える。
通信部41は、ネットワークN1を介したカメラ2およびミリ波レーダ3との通信のインタフェースである。また、通信部41は、ネットワークN2を介した遠隔監視PC5との通信のインタフェースである。
データ同期部42は、通信部41を介して、カメラ2から画像データを取得する。また、データ同期部42は、通信部41を介して、ミリ波レーダ3からミリ波データを取得する。
データ同期部42は、画像データとミリ波データとの同期を図る。例えば、データ同期部42は、画像データに含まれる時刻情報とミリ波データに含まれる時刻情報に基づき、画像データが生成されたタイミングとミリ波データが生成されたタイミングとを調整する。
例えば、データ同期部42は、1フレームの画像データに対して、画像データに含まれる時刻情報が示す時刻との時間差が所定値以下の時刻を示す時刻情報を含むミリ波データを選択し、選択したミリ波データを当該1フレームの画像データに対応づける。あるいは、データ同期部42は、1フレームの画像データに対して、画像データに含まれる時刻情報が示す時刻に最も近い時刻を示す時刻情報を含むミリ波データを選択し、選択したミリ波データを1フレームの画像データに対応づけてもよい。
なお、例えば、カメラ2が画像データを生成する頻度と、ミリ波レーダ3がミリ波データを生成する頻度とが異なる場合、データ同期部42は、1つの画像データを2つの異なるミリ波データに対応づけるように、データの同期を図ってもよい。あるいは、データ同期部42は、1つのミリ波データを2つの異なる画像データに対応づけるように、データの同期を図ってもよい。データ同期部42は、それぞれの時刻情報が示す時刻が所定の時間内に含まれる、画像データとミリ波データを対応づける。
データ同期部42は、同期を図ったデータをデータ蓄積部43へ出力する。また、データ同期部42は、同期を図ったデータを画面生成部44へ出力する。
データ蓄積部43は、データ同期部42によって同期が図られた画像データとミリ波データとを対応付けて蓄積する。データ蓄積部43には、例えば、時刻情報に基づいて、画像データとミリ波データが時系列で蓄積される。また、データ蓄積部43には、複数の監視地点それぞれの画像データとミリ波データが蓄積されてもよい。
画面生成部44は、データ同期部42から、同期が図られた(タイミングが調整された)画像データとミリ波データを取得する。また、画面生成部44は、通信部41を介して、遠隔監視PC5から監視画面に関する設定および/または監視地点に関する指示を含む指示情報を取得してもよい。
そして、画面生成部44は、同期が図られた(タイミングが調整された)画像データとミリ波データとを対応づけて、道路の状況を示す監視画面を生成する。
例えば、画面生成部44は、指示情報が示す監視地点に設けられたミリ波レーダ3のミリ波データに対して信号処理(例えば、クラスタリング処理)を行い、反射物に対応する領域を推定する。推定した領域は、ミリ波データの情報の一例である。
また、画面生成部44は、走査エリアに対応するミリ波データを、監視エリアに対応するように変換を行う。例えば、画面生成部44は、ミリ波レーダ座標系によって規定されるミリ波データの情報を、カメラ座標系へ変換する座標変換処理を行ってもよい。画面生成部44は、座標変換後のミリ波データの情報を、画像データが示す画像に重畳する。
また、画面生成部44は、モード設定部45によって指示されるモードに応じた信号処理を行い、モードに応じた監視画面を生成してもよい。なお、モードおよびモードに応じた監視画面の例については後述する。
そして、画面生成部44は、生成した監視画面のデータを遠隔監視PC5へ送信する。なお、画面生成部44は、監視画面のデータの生成に用いたミリ波データを遠隔監視PC5へ送信してもよい。
なお、画面生成部44は、データ蓄積部43に蓄積されたデータを用いて、監視画面を生成してもよい。
モード設定部45は、通信部41を介して、指示情報を取得する。モード設定部45は、指示情報に含まれる、監視画面に関するモードを、画面生成部44へ指示する。
<情報処理サーバにおける処理フロー>
次に、情報処理サーバ4において実行される処理フローの一例について図3を参照して説明する。
図3は、本実施の形態に係る情報処理サーバ4の処理の一例を示すフローチャートである。なお、図3に示すフローチャートは、1つの監視地点に設けられたカメラ2およびミリ波レーダ3から取得するデータに対する処理を示す。情報処理サーバ4は、各監視地点に設けられたカメラ2およびミリ波レーダ3から取得するデータに対して、図3に示す処理を並行して行ってもよい。
データ同期部42は、カメラ2から画像データを取得する(S101)。
データ同期部42は、ミリ波レーダ3からミリ波データを取得する(S102)。
なお、S101とS102の順は、これに限定されない。また、S101の処理は、カメラ2が画像データを送信する毎に実行され、S102の処理は、ミリ波レーダ3がミリ波データを送信する毎に実行される。
データ同期部42は、画像データとミリ波データとの同期を図るデータ同期処理を行う(S103)。
データ同期部42は、同期を図ったデータをデータ蓄積部43に蓄積するデータ蓄積処理を行う(S104)。
画面生成部44は、ミリ波データに対してクラスタリング処理を行う(S105)。
クラスタリング処理とは、ミリ波データに含まれる、1つの反射物に対応する複数の反射点をグルーピングする処理である。グルーピングする処理によって、反射物のサイズ、形状、色といった反射物に関する情報が取得されてもよい。なお、以下では、クラスタリング処理後の1つの反射物に対応する複数の反射点のグループを包含する領域を、反射領域と記載する。
なお、クラスタリング処理では、画面生成部44は、データ蓄積部43に蓄積された、現時点よりも前のミリ波データを用いてもよい。画面生成部44は、現時点よりも前のミリ波データを用いて時系列で処理することによって、例えば、移動体に対応する反射点と、静止物に対応する反射点を区別してもよい。
次に、画面生成部44は、設定されたモードに応じたデータ処理を行う(S106)。
例えば、設定されたモードが移動体の移動方向を監視するモード(例えば、後述する逆走検知モード)である場合、画面生成部44は、移動体の追跡処理を行う。例えば、画面生成部44は、追跡処理の一例として、移動体に対応する反射領域の移動方向を判定する処理を行う。
また、例えば、設定されたモードが反射物の種類を識別するモード(例えば、後述する物体識別モード)である場合、画面生成部44は、ミリ波データが示す反射信号の受信強度、反射領域のサイズなどを用いて、反射物の種類を識別する。
また、例えば、設定されたモードが、反射物の滞留状況を判定するモード(例えば、後述するヒートマップモード)である場合、画面生成部44は、データ蓄積部43に蓄積された一定時間内のミリ波データを用いて、走査エリアにおいて、反射物が検知された回数(頻度)を、部分的な範囲毎に算出する。
なお、設定されたモードに応じたデータ処理は、上述した例に限られない。
次に、画面生成部44は、画像データとミリ波データとを対応付けた監視画面の生成処理を行う(S107)。
例えば、画面生成部44は、画像データが示すカメラ画像に、ミリ波データを重畳する処理を行う。この処理において、画面生成部44は、カメラ座標系にミリ波レーダ座標系が揃うように、ミリ波データの情報を座標変換してもよい。
画面生成部44は、生成した監視画面のデータを送信する処理を行う(S108)。
次に、情報処理サーバ4において生成され、遠隔監視PC5の表示部に表示される監視画面の表示例について説明する。
<表示例1>
表示例1は、監視を行うユーザが、遠隔監視PC5の操作部を介して、交差点の監視地点を選択した場合に、遠隔監視PC5の表示部に表示される画面の例である。
図4は、本実施の形態における表示画面の表示例1を示す図である。図4に示す表示例1は、監視地点である交差点の路面から見ての斜め上方向に設けられたカメラ2と、カメラ2と略同一の位置に設けられたミリ波レーダ3とから取得したデータに基づいて生成される監視画面を含む。
図4の上部には、「逆走検知」ボタン、「物体識別」ボタン、「ヒートマップ」ボタンおよび「設定」ボタンが示される。各ボタンは、監視画面に関する設定、例えば、監視画面に関するモードを設定する場合にユーザによって押下される。
図4の下部には、ミリ波データを表示する領域R1が示される。そして、領域R2には、監視画面の一例が示される。
例えば、領域R1には、ミリ波レーダ3の位置を基準(原点)とし、複数の縦線と横線により区切られた複数のグリッドが示される。そして、領域R1には、ミリ波レーダ3の走査エリアを示すエリアA1と、エリアA1における反射点が示される。なお、領域R1の表示は、例えば、ユーザの設定によって、適宜、省略されてもよい。
例えば、領域R2の監視画面には、カメラ画像に、ミリ波レーダ3によって走査されて得られるミリ波データが重畳されている。
なお、画面生成部44は、カメラ画像にミリ波データを重畳する場合に、座標変換処理を行ってもよい。例えば、画面生成部44は、ミリ波レーダ座標系によって規定されるエリアA1およびエリアA1内の反射点を、カメラ座標系へ変換する。領域R2の監視画面は、カメラ2の監視エリアの座標系へ変換されたミリ波データが、カメラ画像に重畳されている。
例えば、ミリ波レーダ座標系によって規定される領域R1のエリアA1は、カメラ座標系によって規定される領域R2の監視画面ではラインL1とラインL2によって挟まれるエリアに対応する。
なお、領域R2のラインL1とラインL2によって挟まれるエリアは、カメラ画像におけるミリ波レーダ3の走査エリアを示す。ラインL1とラインL2によって挟まれるエリアは、例えば、カメラ画像が透過するように、カメラ画像と異なる態様(例えば、異なる色)によって示されてもよい。また、ラインL1とラインL2によって挟まれるエリアは、適宜、省略されてもよい。
領域R2のエリアA2では、ミリ波データに基づいて検知された反射物に対応する反射領域を示す枠r1~r6が示される。このように、領域R2の監視画面では、反射物に対応する反射領域が、カメラ画像において枠を用いて示されるため、監視エリアに存在し、ミリ波レーダ3によって検知された反射物をユーザが視覚的に確認できる。
また、枠r1~枠r4は、枠r5および枠r6と異なる態様(例えば、異なる色)によって示される。枠の態様は、ミリ波データを用いて検知した反射物が移動体か静止物かによって異なっている。反射物を示す枠の態様を変えることによって、ミリ波レーダ3によって検知された反射物が移動体か静止物かという情報を、ユーザが視覚的に確認できる。
例えば、枠r1~枠r4は、移動体(車両または歩行者)を示し、枠r5および枠r6は、静止物(道路の路側に設けられる構造物)を示す。
なお、図4の上部の、「逆走検知」ボタン、「物体識別」ボタン、「ヒートマップ」ボタンおよび「設定」ボタンは、それぞれ、逆走検知モード、物体識別モード、ヒートマップモードおよび設定モードに対応する。ユーザは、遠隔監視PC5の操作部を操作し、いずれかのボタンを押下してもよい。その場合、遠隔監視PC5は、押下されたボタンに対応するモードが設定されたことを情報処理サーバ4へ送信する。
次に、情報処理サーバ4がモードを変更した場合の表示例について説明する。
<表示例2>
表示例2は、監視を行うユーザが遠隔監視PC5の操作部を介して「逆走検知」ボタンを押下し、逆走検知モードが設定された場合に、遠隔監視PC5の表示部に表示される画面の例である。
図5は、本実施の形態における表示画面の表示例2を示す図である。図5に示す表示例2は、監視地点である片側2車線ずつの合計4車線の道路の路面の上方向に設けられたカメラ2と、カメラ2と略同一の位置に設けられたミリ波レーダ3とから取得したデータに基づいて生成される監視画面を含む。
図5の上部には、「逆走検知」ボタン、「物体識別」ボタン、「ヒートマップ」ボタンおよび「設定」ボタンが示される。図5では、逆走検知モードに設定されているため、「逆走検知」ボタンが押下された状態である。
領域R3は、逆走検知モードに設定された場合に表示される監視画面である。領域R3には、カメラ画像に、ミリ波データが重畳されている。
なお、画面生成部44は、カメラ画像にミリ波データを重畳する場合に、図4の例と同様に、座標変換処理を行ってもよい。また、逆走検知モードに設定されている場合、画面生成部44は、移動体(例えば、車両)の逆走を検知する処理を行う。
例えば、逆走を検知する処理において、画面生成部44は、ミリ波データを用いて、走査エリアに存在する移動体を検知する。そして、画面生成部44は、検知した移動体の移動方向を検知する。移動体の移動方向の検知方法は、例えば、ドップラーシフトを用いた方法であってもよいし、現時点と現時点よりも前の時点の移動体の位置とを比較する方法であってもよい。現時点よりも前の時点の移動体の位置は、例えば、データ蓄積部43に蓄積された過去のミリ波データを用いて検知されてもよい。
画面生成部44は、検知した移動体の位置を示す枠(図5の枠r7および枠r8)および検知した移動体の移動方向を示す矢印(図5の矢印x7および矢印x8)をカメラ画像に重畳させてもよい。検知した移動体の位置を示す枠および移動方向を示す矢印は、ミリ波データの情報の一例である。
そして、画面生成部44は、検知した移動体の移動方向が、監視エリアに含まれる道路に対して定められた進行方向(以下、順方向と記載する)と異なるか否かを判定する。
なお、基本的には、カメラ2およびミリ波レーダ3の位置および向きが定まり、監視エリア(および走査エリア)が定まると、順方向は一意に定まる。そのため、順方向は、例えば、カメラ2およびミリ波レーダ3が設置された位置および向きに応じて、予め設定されてもよい。あるいは、画面生成部44は、一定時間、監視エリアを通過する複数の移動体の移動方向を監視して、順方向を判定してもよい。
なお、図5では、説明の便宜上、順方向を示す矢印x0が示されている。
画面生成部44は、検知した移動体の移動方向が、順方向と異なる場合、検知した移動体が逆走している、と判定する。
例えば、図5では、枠r7が囲む移動体の矢印x7は、順方向である矢印x0と同じ方向であるため、枠r7が囲む移動体は逆走していないと判定される。一方で、枠r8が囲む移動体の矢印x8は、順方向である矢印x0と逆方向であるため、枠r8が囲む移動体は逆走している、と判定される。
なお、逆走しているか否かを判定する場合、画面生成部44は、図5に示すように、道路を細かく区切る目盛zを規定し、各目盛zにおいて移動方向を判定してもよい。複数の目盛りにおいて移動方向を判定することにより、判定誤りを抑制できる。
画面生成部44は、逆走している移動体を検知した場合、逆走している移動体を検知したことを示す警告情報を送信する。
警告情報を受信した遠隔監視PC5は、表示部に警告を通知する。警告の通知方法は、例えば、記号および/または文字情報を用いる方法であってもよいし、表示部の少なくとも一部の色を変更する方法であってもよい。あるいは、遠隔監視PC5は、音声を用いて警告を通知してもよい。
なお、画面生成部44は、現時点以前のミリ波データを用いて、逆走している移動体を捕捉し、移動体が逆走した状況を判定してもよい。そして、画面生成部44は、移動体が逆走した状況を示す情報を警告情報に追加してもよい。移動体が逆走した状況とは、例えば、逆走が故意なのか否か、あるいは、逆走が運転者の操作の誤りに起因するものか否かである。
例えば、画面生成部44は、移動体が、比較的長い時間、逆走を継続している場合、その逆走が故意である、と判定する。あるいは、画面生成部44は、移動体が、進行方向を突発的に逆に変更する、所謂、Uターンを行った場合、その逆走が故意である、と判定する。あるいは、画面生成部44は、移動体が一時的に逆走した後、進行方向を順方向に変更した場合、その逆走が運転者の操作の誤り(例えば、「うっかり」)に起因するものである、と判定する。
例えば、高速道路におけるサービスエリアおよびパーキングエリア等の休憩施設に入った車両が、高速道路の本線に合流する場合に、運転者のうっかりした操作で逆走してしまい、途中で逆走に気付いて順方向へ変更する状況がある。このような状況は、一時的な逆走として判定されてもよい。なお、運転者が無意識で、逆走に気付かないまま逆走を継続してしまうこともあるので、このような状況は故意の逆走として判定されてもよい。
警告情報を受信した遠隔監視PC5は、移動体が逆走した状況を示す情報に応じて、表示部に通知する警告を変更してもよい。なお、画面生成部44は、監視画面において、逆走と判定された場合、枠r8の枠線の太さ、種類、色調、明るさおよび、コントラストの少なくとも1つを変化させる、あるいは、枠r8を点滅表示させる、などの強調表示を行ってもよい。
また、情報処理サーバ4は、画面生成部44から取得する警告情報に基づいて、外部の機器を制御し、逆走している移動体および/または逆走している移動体の周辺に警告を行う警告制御部を備えてもよい。
警告制御部は、例えば、監視地点の周辺に設けられ、ネットワークN1と接続する警告灯、LED(Light Emitting Diode)照明柱、および、表示板(案内板)の少なくとも1つを制御し、逆走する移動体が存在することを監視地点の周辺に警告する。例えば、警告制御部は、警告灯および/LED照明柱の色、明るさ、点灯と消灯の間隔を制御し、監視地点の周辺に異常を通知する。
このように、逆走検知モードでは、ミリ波データを用いて逆走を検知した結果を、カメラ画像に重畳することによって、カメラ画像では検知が遅れるおそれのある逆走を検知でき、ユーザの視覚による交通監視を効率良く補助できる。
<表示例3>
表示例3は、監視を行うユーザが遠隔監視PC5の操作部を介して「物体識別」ボタンを押下し、物体識別モードが設定された場合に、遠隔監視PC5の表示部に表示される画面の例である。
図6は、本実施の形態における表示画面の表示例3を示す図である。図6に示す表示例3は、監視地点である交差点の路面から見ての斜め上方向に設けられたカメラ2と、カメラ2と略同一の位置に設けられたミリ波レーダ3とから取得したデータに基づいて生成される監視画面を含む。
図6の上部には、「逆走検知」ボタン、「物体識別」ボタン、「ヒートマップ」ボタンおよび「設定」ボタンが示される。図6では、物体識別モードに設定されているため、「物体識別」ボタンが押下された状態である。
領域R4は、物体識別モードに設定された監視画面である。領域R4には、カメラ画像に、ミリ波データが重畳されている。
なお、画面生成部44は、カメラ画像にミリ波データを重畳する場合に、図4の例と同様に、座標変換処理を行ってもよい。また、物体識別モードに設定されている場合、画面生成部44は、ミリ波データにおいて検知された物体を識別する処理を行う。
例えば、画面生成部44は、ミリ波データを用いて、監視エリアに存在する物体を検知する。検知する物体は、移動体であってもよいし、静止物であってもよい。そして、画面生成部44は、検知した物体を識別する特徴を検知する。物体を識別する特徴は、例えば、物体の種類(例えば、特大車、大型車、普通車、二輪車および人)、大きさ(例えば、幅および高さ)、色、および、形状の少なくとも1つであってもよい。
物体の特徴を検知する方法は、例えば、反射信号の受信強度、及び、反射信号のドップラー周波数の少なくとも1つの情報、または、他の情報に基づいた、公知の方法であってもよい。
画面生成部44は、検知した物体の位置を示す枠と、検知した物体の特徴を示す情報をカメラ画像に重畳させてもよい。例えば、移動する物体として、人,自転車,バイク,普通車,大型車等の種類を識別することが可能である。
物体の特徴を示す情報は、例えば、文字情報であってもよい。あるいは、物体の位置を示す枠の種類および/または色を、物体の特徴に応じて変更することによって、物体の特徴を示してもよい。
また、物体の種類ごとの特徴の確からしさ(信頼度)を示す情報が、重畳されてもよい。
例えば、図6では、検知した車両の位置を示す枠r9と枠r10が、検知した歩行者の位置を示す枠r11と枠r12と異なる態様(例えば、異なる色)を用いて示される。そして、枠r9によって示される車両の種類が「普通車」であることが文字情報を用いて示される。また、それらの特徴の確からしさが「0.95」であることが文字情報を用いて示される。この数値は、例えば、枠r9によって示される反射物が95%の信頼度で普通車であることを示す。
このように、物体識別モードでは、ミリ波データを用いて検知した物体の特徴を示す識別結果の情報を、カメラ画像に重畳することによって、ユーザは、カメラ画像では確認することが困難な物体の特徴を確認でき、交通監視を視覚的に行うことができる。例えば、天候および/または日時によってカメラ画像が鮮明では無い場合にも、物体の特徴を確認できる。なお、天候等に左右されない状況では、カメラ画像の解析結果を用いて、図6に示すように、物体の色情報として黒や白といった情報を付加してもよい。
<表示例4>
表示例4は、監視を行うユーザが遠隔監視PC5の操作部を介して「ヒートマップ」ボタンを押下し、ヒートマップモードが設定された場合に、遠隔監視PC5の表示部に表示される画面の例である。
図7は、本実施の形態における表示画面の表示例4を示す図である。図7に示す表示例4は、監視地点である交差点の路面から見ての斜め上方向に設けられたカメラ2と、カメラ2と略同一の位置に設けられたミリ波レーダ3とから取得したデータに基づいて生成される監視画面を含む。
図7の上部には、「逆走検知」ボタン、「物体識別」ボタン、「ヒートマップ」ボタンおよび「設定」ボタンが示される。図7では、ヒートマップモードに設定されているため、「ヒートマップ」ボタンが押下された状態である。
領域R5は、ヒートマップモードに設定された監視画面である。領域R5には、カメラ画像に、ミリ波データが重畳されている。
なお、画面生成部44は、カメラ画像にミリ波データを重畳する場合に、図4の例と同様に、座標変換処理を行ってもよい。また、ヒートマップモードに設定されている場合、画面生成部44は、現時点よりも前のミリ波データを用いて、物体の滞留状況を判定し、滞留状況を示すヒートマップの情報を生成する処理を行う。
例えば、画面生成部44は、現時点よりも前の一定時間に取得したミリ波データを用いて、監視エリアを複数のグリッドに分割した検出矩形枠のそれぞれにおいて一定時間に検出した反射物の数を数える。そして、画面生成部44は、検出した反射物の数に応じて、検出矩形枠を分類する。その際、検出した反射物の種類(例えば、車両または歩行者)と数に応じて、検出矩形枠を分類してもよい。
そして、画面生成部44は、カメラ画像に、分類した検出矩形枠を示すヒートマップの情報を重畳させてもよい。
分類した検出矩形枠を示すヒートマップの情報は、例えば、色の違いといった態様の違いである。例えば、画面生成部44は、検出した反射物の数に対応する色を、カメラ画像を透過する態様で重畳してもよい。
例えば、図7では、検出した反射物の数に応じて分類した検出矩形枠を示す情報が、「Lv1」~「Lv4」の4通りの色の違いによって示される。例えば、図7では、Lv2~Lv4の領域は、車道の領域に相当する。そして、Lv4の領域は、車両と歩行者の両方が通過する頻度の高い横断歩道に対応する領域、または、車両が停止する回数の多い停止線に対応する領域に相当する。また、Lv4及びLv3の領域とLv2の領域とを比較して、監視地点の交差点は、左折の少ない交差点であることがわかる。
このように、ヒートマップの情報をカメラ画像に重畳させることによって、監視地点の道路構造(例えば、車線の数、車線の種類(例えば、右折専用車線)および、車線の形状)が推定できる。例えば、車両が検出される回数の多い領域は車道、歩行者が検出される回数の多い領域は歩道、および、車両と歩行者の両方が検出される回数の多い領域は横断歩道、といった推定を行うことができる。また、車道の領域の中でも、車両が検出される回数が比較的多い位置は車道の停止線付近である、といった推定を行うことができる。
これにより、監視エリアの道路構造を精度良く推定できるため、ユーザに対する視覚効果の高い表示を行うことができる。
また、監視エリアの道路構造が精度よく推定できるため、歩行者および/または車両の飛び出し、二輪車のすり抜けといった状況を精度よく予測でき、監視地点において効果的な警告を行うことができる。
また、監視エリアの道路構造が精度よく推定できるため、カメラ2およびミリ波レーダ3を設置した際に道路構造を設定する手間が抑えられるため、設定を簡略にできる。
なお、上述した表示例2~表示例4(図5~図7)では、1つの監視画面が表示される例を示した。本開示はこれに限定されない。例えば、図5~図7において、図4の領域R1と同様に、ミリ波レーダ3が走査して得られるミリ波データが表示されてもよい。
<表示例5>
表示例5は、監視を行うユーザが、遠隔監視PC5の操作部を介して「設定」ボタンを押下し、設定モードが設定された場合に、遠隔監視PC5の表示部に表示される画面の例である。
図8は、本実施の形態における表示画面の表示例5を示す図である。図8の上部には、「逆走検知」ボタン、「物体識別」ボタン、「ヒートマップ」ボタンおよび「設定」ボタンが示される。図8では、設定モードに設定されているため、「設定」ボタンが押下された状態である。
また、図8の表示画面には、設定モードにて設定できる「メンテナンスモード」、「天候推定モード」、および、「夜間モード」のボタンが表示される。監視を行うユーザは、表示されたボタンを押下し、別のモードを選択する。以下、各モードについて、説明する。
「メンテナンスモード」
メンテナンスモードでは、監視地点を選択することによって、情報処理サーバ4は、その監視地点に設けられたカメラ2および/またはミリ波レーダ3の定点観測を行う。定点観測によって、監視地点の異常を検知した場合、情報処理サーバ4は、カメラ2のパラメータ(例えば、カメラ2の画角、解像度および露光)および/または、ミリ波レーダ3のパラメータ(例えば、分解能、送信出力および受信感度)を調整する。パラメータの調整を繰り返しても異常を検知する場合、情報処理サーバ4は、異常を知らせる情報を遠隔監視PC5へ通知する。通知を受けた遠隔監視PC5は、表示部に、異常を知らせる情報を表示する。
「天候推定モード」
天候推定モードでは、情報処理サーバ4は、ミリ波データを用いて、天候を推定する。例えば、情報処理サーバ4は、天候の違いに応じた、ミリ波データが示す反射信号の受信強度の減衰、および/または、反射信号のドップラー周波数の変動を検知し、検知した量に基づいて、天候を推定してもよい。
「夜間モード」
夜間モードでは、情報処理サーバ4は、ミリ波データをカメラ画像と重畳させるのではなく、ミリ波データに基づく表示をメインに表示する。これにより、夜間などのカメラ2が撮影した画像が鮮明では無く、物体識別が困難な場合に、重畳すると却って見づらくなるような表示を回避できる。
なお、設定モードにて設定できるモードには、以下の例を示すモードが含まれてもよい。
「交通流カウントモード」
交通流カウンドモードでは、画面生成部44は、現時点よりも前の一定時間に取得したミリ波データを用いて、監視エリアを複数のグリッドに分割した検出矩形枠のそれぞれにおいて一定時間に検出した車両の数を数える。そして、画面生成部44は、検出した物体の数に応じて、交通流に関する情報を生成し、カメラ画像に重畳させる。
例えば、交通流カウントモードでは、画面生成部44は、検出した車両の数に応じて、車間距離、速度、および、車両の長さといった情報を統計的に算出する。そして、画面生成部44は、監視エリアにおける渋滞の度合いを推定する。
なお、画面生成部44は、時間帯毎および/または日付毎に推定を行ってもよい。推定を行う時間帯および/または日付は、ユーザから遠隔監視PC5を介して指定されてもよい。
また、画面生成部44は、検知した物体の種類毎に渋滞の度合いを推定してもよい。例えば、画面生成部44は、普通車、大型車、二輪車といった車両の種類毎に渋滞の度合いを推定してもよい。
「交差点監視モード」
交差点監視モードでは、情報処理サーバ4は、交差点の周囲に設けられたカメラ2およびミリ波レーダ3を用いて、交差点において発生しやすい事象を検知し、検知結果に応じて警告を行う。
例えば、情報処理サーバ4は、車両が左折する際の巻き込みを防ぐために、左折する車両を検知した場合に、左折する車両の周囲の移動体(例えば、二輪車)の有無を確認する。そして、左折する車両の周囲に移動体が存在した場合、情報処理サーバ4は、二輪車およびその周囲に対して警告(例えば、飛び出し警報)を行う。
また、例えば、情報処理サーバ4は、二輪車によるすり抜けを検知するために、ミリ波データを用いて、二輪車を優先して検知する。そして、情報処理サーバ4は、検知した二輪車の走行経路を追跡し、二輪車が普通車等の間をすり抜けている場合、二輪車およびその周囲に対して警告(例えば、飛び出し警報)を行う。
「動物検知モード」
動物検知モードでは、情報処理サーバ4は、ミリ波データに基づいて、道路上または道路の周辺における動物の存在の有無を検知する。例えば、情報処理サーバ4は、ミリ波データに含まれる反射信号の情報から、動物が反射物である場合に特有の情報を抽出し、動物の存在の有無を検知する。
なお、本実施の形態では、車両、歩行者などが通行する道路交通を監視する交通監視システムを一例に挙げて説明した。本開示はこれに限定されない。例えば、鉄道と鉄道の利用者を監視する交通監視システムであってもよい。例えば、鉄道交通を監視する交通監視システムでは、カメラ2およびミリ波レーダ3は、ホームおよび線路を見渡せる位置、および/または、ホームよりも下の線路に近い位置に設けられてもよい。また、鉄道交通を監視する交通監視システムでは、「転落検知モード」などが設定可能なモードに含まれていてもよい。
「転落検知モード」
転落検知モードでは、ホームの上方に設けられるカメラ2および/またはミリ波レーダ3(以下、「ホーム上カメラ/レーダ」と記載する)が、ホームを歩行する人物または物品(傘、財布などの携行品)のホームの下方への落下を検知した場合、ホームの下方に設けられるカメラ2および/またはミリ波レーダ3(以下、「ホーム下カメラ/レーダ」と記載する)の検知を開始する。そして、ホーム下方への落下を検知した時点からのホーム上カメラ/レーダのデータと、ホーム下カメラ/レーダのデータとを、対応付けて保存する。
また、ホーム下レーダが、移動体を検出しなかった場合、ホーム下カメラにおいて静止物の抽出を行ってもよい。
以上、本実施の形態では、カメラが撮影した画像データと、ミリ波レーダが取得するミリ波データとの同期を図り、同期を図った画像データと前記ミリ波データとを対応づけて、道路の状況を示す監視画面を生成する情報処理サーバを備える交通監視システムについて説明した。本実施の形態によれば、カメラとミリ波レーダという2つのセンサデバイスから得られるデータの同期を図り、同期が図られたデータを対応付けた監視画面を生成するため、道路状況の監視を精度良くかつ効率的に行うことができる。
例えば、カメラのデータから得られるカメラ画像は、監視するユーザに対して視覚的に有効な情報を提供でき、ミリ波レーダのデータは、監視するユーザに対して、カメラ画像からは得られない詳細な情報を提供できる。そのため、本実施の形態では、ミリ波レーダから得られる詳細な情報をカメラ画像に対応付けることによって、道路状況の監視を精度良く効率的に行うことができる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
上記各実施の形態では、本開示はハードウェアを用いて構成する例にとって説明したが、本開示はハードウェアとの連携においてソフトウェアでも実現することも可能である。
また、上記実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。集積回路は、上記実施の形態の説明に用いた各機能ブロックを制御し、入力と出力を備えてもよい。これらは個別に1チップ化されてもよいし、各機能ブロックの一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法にはLSIに限らず、専用回路または汎用プロセッサを用いて実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続、設定が再構成可能なリコンフィグラブル・プロセッサーを利用してもよい。
更には、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、別技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
なお、本開示は、無線通信装置、または制御装置において実行される制御方法として表現することが可能である。また、本開示は、かかる制御方法をコンピュータにより動作させるためのプログラムとして表現することも可能である。更に、本開示は、かかるプログラムをコンピュータによる読み取りが可能な状態で記録した記録媒体として表現することも可能である。すなわち、本開示は、装置、方法、プログラム、記録媒体のうち、いずれのカテゴリーにおいても表現可能である。
また、本開示は、部材の種類、配置、個数等は前述の実施の形態に限定されるものではなく、その構成要素を同等の作用効果を奏するものに適宜置換する等、発明の要旨を逸脱しない範囲で適宜変更することができる。
本開示は、交通監視に用いるに好適である。
1 交通監視システム
2 カメラ
3 ミリ波レーダ
4 情報処理サーバ(制御装置)
5 遠隔監視PC
41 通信部
42 データ同期部
43 データ蓄積部
44 画面生成部
45 モード設定部

Claims (8)

  1. 道路を含む監視エリアを撮影し、画像データを生成するカメラと、
    前記監視エリアに含まれる走査エリアを走査し、ミリ波データを生成するミリ波レーダと、
    前記カメラ及び前記ミリ波レーダと接続し、前記画像データ及び前記ミリ波データを取得する情報処理サーバと、
    を備える交通監視システムであって、
    前記情報処理サーバは、
    前記画像データが生成されたタイミングと前記ミリ波データが生成されたタイミングとの差が一定値以下となるように前記画像データと前記ミリ波データとの同期を図るデータ同期部と、
    同期が図られた前記画像データと前記ミリ波データとを対応づけて、前記道路の状況を示す監視画面を生成する画面生成部と、
    備え、
    前記画面生成部は、前記ミリ波データに対して、前記ミリ波データが有するミリ波レーダ座標系から前記画像データが有するカメラ座標系への座標変換処理を行い、前記画像データが示す画像に前記ミリ波データの情報を重畳した監視領域画像が含まれた前記監視画面を生成することを特徴とする、
    交通監視システム。
  2. 前記データ同期部によって同期が図られた前記画像データと前記ミリ波データを蓄積するデータ蓄積部を
    備え、
    前記画面生成部は、前記データ蓄積部に蓄積された過去の前記画像データと前記ミリ波データを用いて、前記監視画面を生成する、
    請求項1に記載の交通監視システム。
  3. 前記画面生成部は、前記ミリ波データに基づいて、前記走査エリアに含まれる物体を識別し、前記物体の識別結果を示す情報を前記画像データに重畳させる、
    請求項1に記載の交通監視システム。
  4. 前記物体の識別結果を示す情報は、文字情報、及び/又は、前記画像データにおける前記物体の範囲を示す枠を含む、
    請求項3に記載の交通監視システム。
  5. 前記画面生成部は、前記ミリ波データに基づいて、前記走査エリアにおいて物体の滞留状況を判定し、前記滞留状況を示す情報を前記画像データに重畳させる、
    請求項1に記載の交通監視システム。
  6. 前記滞留状況を示す情報は、前記物体の検出頻度に応じた色の情報であり、
    前記画面生成部は、前記色の情報を前記画像データに透過させて重畳させる、
    請求項5に記載の交通監視システム。
  7. ユーザによって指示される、前記監視画面に関する設定を変更するモード設定部を備え、
    前記画面生成部は、前記設定に応じた監視画面を生成する、
    請求項1に記載の交通監視システム。
  8. 道路の状況を示す監視画面を生成する処理をプロセッサにより実行する交通監視方法であって、
    前記プロセッサは、
    前記道路を含む監視エリアを撮影し、生成された画像データをカメラから取得し、
    前記監視エリアに含まれる走査エリアを走査し、生成されたミリ波データをミリ波レーダから取得し、
    前記画像データが生成されたタイミングと前記ミリ波データが生成されたタイミングとの差が一定値以下となるように前記画像データと前記ミリ波データとの同期を図り、
    同期が図られた前記画像データと前記ミリ波データとを対応づけて、前記道路の状況を示す前記監視画面を生成してなり、
    前記監視画面を生成するに際、前記ミリ波データに対して、前記ミリ波データが有するミリ波レーダ座標系から前記画像データが有するカメラ座標系への座標変換処理を行い、前記画像データが示す画像に前記ミリ波データの情報を重畳した監視領域画像が含まれた前記監視画面を生成することを特徴とする、
    交通監視方法。
JP2018072542A 2018-04-04 2018-04-04 交通監視システムおよび交通監視方法 Active JP7092540B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018072542A JP7092540B2 (ja) 2018-04-04 2018-04-04 交通監視システムおよび交通監視方法
PCT/JP2019/013925 WO2019194084A1 (ja) 2018-04-04 2019-03-29 交通監視システムおよび交通監視方法
CN201980024460.9A CN111954898B (zh) 2018-04-04 2019-03-29 交通监视系统及交通监视方法
US17/044,619 US11869347B2 (en) 2018-04-04 2019-03-29 Traffic monitoring system and traffic monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072542A JP7092540B2 (ja) 2018-04-04 2018-04-04 交通監視システムおよび交通監視方法

Publications (2)

Publication Number Publication Date
JP2019185220A JP2019185220A (ja) 2019-10-24
JP7092540B2 true JP7092540B2 (ja) 2022-06-28

Family

ID=68100208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072542A Active JP7092540B2 (ja) 2018-04-04 2018-04-04 交通監視システムおよび交通監視方法

Country Status (4)

Country Link
US (1) US11869347B2 (ja)
JP (1) JP7092540B2 (ja)
CN (1) CN111954898B (ja)
WO (1) WO2019194084A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021095269A1 (ja) 2019-11-15 2021-05-20 住友電気工業株式会社 情報生成装置、情報生成方法、及びコンピュータプログラム
CN110933372B (zh) * 2019-12-03 2024-03-19 西安电子科技大学青岛计算技术研究院 一种基于ptz目标跟踪型监控方法
JP7379260B2 (ja) 2020-04-06 2023-11-14 Fcnt株式会社 逆走車検知装置、逆走車検知方法及び逆走車検知プログラム
CN111681418A (zh) * 2020-05-26 2020-09-18 南京信息职业技术学院 一种基于多个毫米波雷达的道路状态监测系统及其工作方法
KR102403018B1 (ko) * 2020-07-07 2022-05-30 퍼시픽솔루션 주식회사 레이더와 영상분석을 이용한 교통정보 수집 장치
CN113608355B (zh) * 2021-08-06 2023-07-21 湖南龙特科技有限公司 一种基于毫米波雷达和红外热成像仪的交互式显示方式
KR102624143B1 (ko) * 2021-09-24 2024-01-12 (주) 오토노머스에이투지 교차로에 설치된 라이다를 이용하여 신호등을 제어하기 위한 방법 및 이를 이용한 서버
KR102640491B1 (ko) * 2021-09-24 2024-02-27 (주) 오토노머스에이투지 고정된 라이다를 이용하여 교차로에서의 상태를 검지하는 방법 및 이를 이용한 서버
KR102652486B1 (ko) * 2021-09-24 2024-03-29 (주)오토노머스에이투지 라이다를 이용한 신호등 정보 예측 방법 및 이를 이용한 서버
JP2023109072A (ja) * 2022-01-26 2023-08-07 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法
JP2023109034A (ja) * 2022-01-26 2023-08-07 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法
JP2023109019A (ja) * 2022-01-26 2023-08-07 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法
CN114863682B (zh) * 2022-05-09 2023-04-11 合肥雷能信息技术有限公司 基于毫米波雷达的城市交通流量监测反馈系统
CN115407273B (zh) * 2022-08-29 2024-01-05 哈尔滨工业大学(威海) 一种特定安防区域监控提醒报警装置及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260166A (ja) 2001-03-01 2002-09-13 Omron Corp 情報配信装置及び情報配信システム
JP2005338941A (ja) 2004-05-24 2005-12-08 Fujitsu Ltd 視程検出方法および視程検出装置
WO2015152304A1 (ja) 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
JP2015186202A (ja) 2014-03-26 2015-10-22 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP2017098879A (ja) 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2018082313A (ja) 2016-11-16 2018-05-24 本田技研工業株式会社 周辺監視装置
WO2019039279A1 (ja) 2017-08-22 2019-02-28 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102545A (ja) 2002-09-06 2004-04-02 Sumitomo Electric Ind Ltd 交通状況表示方法及び交通状況表示装置
JP2005284410A (ja) * 2004-03-26 2005-10-13 Omron Corp 車両認識装置及び車両認識方法
JP2007257536A (ja) 2006-03-24 2007-10-04 Fujitsu Ltd ミリ波レーダによる道路交通監視装置
CA2863656C (en) 2014-04-25 2017-04-25 Takeshi Kurihara Surroundings monitoring system, work vehicle, and surroundings monitoring method
WO2017057061A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
CN106908783B (zh) * 2017-02-23 2019-10-01 苏州大学 基于多传感器信息融合的障碍物检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260166A (ja) 2001-03-01 2002-09-13 Omron Corp 情報配信装置及び情報配信システム
JP2005338941A (ja) 2004-05-24 2005-12-08 Fujitsu Ltd 視程検出方法および視程検出装置
JP2015186202A (ja) 2014-03-26 2015-10-22 パナソニック株式会社 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
WO2015152304A1 (ja) 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
JP2017098879A (ja) 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2018082313A (ja) 2016-11-16 2018-05-24 本田技研工業株式会社 周辺監視装置
WO2019039279A1 (ja) 2017-08-22 2019-02-28 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、移動体、並びに、信号処理システム

Also Published As

Publication number Publication date
US11869347B2 (en) 2024-01-09
CN111954898A (zh) 2020-11-17
JP2019185220A (ja) 2019-10-24
US20210104154A1 (en) 2021-04-08
CN111954898B (zh) 2023-06-13
WO2019194084A1 (ja) 2019-10-10

Similar Documents

Publication Publication Date Title
JP7092540B2 (ja) 交通監視システムおよび交通監視方法
JP3876288B2 (ja) 状態認識システムおよび状態認識表示生成方法
US20210225166A1 (en) Information control system and vehicle having mobile communication device
US9214084B2 (en) Smart traffic sign system and method
US8903640B2 (en) Communication based vehicle-pedestrian collision warning system
Strigel et al. The ko-per intersection laserscanner and video dataset
KR102144521B1 (ko) 적응 피사계심도를 이용한 게이트된 영상 획득 방법 및 영상 시스템
KR102105162B1 (ko) 전자파 센서를 이용해 차량 속도, 차량 위치 및 차량 통행량을 파악하고 규칙을 위반하는 차량을 구분하여 이에 대한 정보는 동영상 또는 사진으로 저장하는 스마트 속도위반단속 장치, 스마트 신호위반단속 장치 및 스마트시티 솔루션 장치
CN102779430A (zh) 基于视觉的夜间后碰撞警告系统、控制器及其操作方法
KR20130127822A (ko) 도로상 물체 분류 및 위치검출을 위한 이종 센서 융합처리 장치 및 방법
JP3711518B2 (ja) 交通信号無視車両自動記録装置及びその方法
CN101349562A (zh) 车辆行驶偏向的警报方法及装置
CN111477011A (zh) 一种用于道路路口预警的检测装置及检测方法
RU164432U1 (ru) Устройство автоматической фотовидеофиксации нарушений не предоставления преимущества пешеходу на нерегулируемом пешеходном переходе
KR20210014527A (ko) 속도감응 도로횡단자 경고장치
JP2007042042A (ja) 道路交通情報取得方法、道路交通情報表示装置及びledの固定方法
KR102148826B1 (ko) 속도 감응 도로횡단자 경고 장치
KR100699596B1 (ko) 철도 건널목 돌발상황 자동감지 영상처리경보장치
JP2001260885A (ja) 障害物検知システム及び障害物検知方法
JP5383246B2 (ja) 車両の周辺監視装置
JP2011258068A (ja) 交通情報提供システム
CN104702967A (zh) 虚拟视频巡检系统与其组件
KR200361170Y1 (ko) 철도 건널목 돌발상황 자동감지 영상처리경보장치
RU121950U1 (ru) Передвижной пост контроля автотранспортных средств
RU206629U1 (ru) Светосигнальная установка мониторинга дорожной обстановки для патрульного транспортного средства

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190718

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220616

R151 Written notification of patent or utility model registration

Ref document number: 7092540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151