JP7380633B2 - 監視装置、監視方法及び監視システム - Google Patents

監視装置、監視方法及び監視システム Download PDF

Info

Publication number
JP7380633B2
JP7380633B2 JP2021062781A JP2021062781A JP7380633B2 JP 7380633 B2 JP7380633 B2 JP 7380633B2 JP 2021062781 A JP2021062781 A JP 2021062781A JP 2021062781 A JP2021062781 A JP 2021062781A JP 7380633 B2 JP7380633 B2 JP 7380633B2
Authority
JP
Japan
Prior art keywords
monitoring
vehicle
user
target
monitoring target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021062781A
Other languages
English (en)
Other versions
JP2022158104A (ja
Inventor
茉莉江 石川
綾 浜嶋
大地 堀田
隼人 伊藤
英一 佐々木
康宏 小畠
光優 楠本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021062781A priority Critical patent/JP7380633B2/ja
Priority to US17/682,445 priority patent/US11971265B2/en
Priority to CN202210215644.7A priority patent/CN115206107A/zh
Publication of JP2022158104A publication Critical patent/JP2022158104A/ja
Application granted granted Critical
Publication of JP7380633B2 publication Critical patent/JP7380633B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3438Rendez-vous, i.e. searching a destination where several users can meet, and the routes to this destination for these users; Ride sharing, i.e. searching a route such that at least two users can share a vehicle for at least part of the route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0881Seat occupation; Driver or passenger presence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視装置、監視方法及び監視システムに関する。
従来、ユーザの要求に応じて、車両に搭載された撮像装置を用いて所望の撮像位置の画像を取得してユーザに提供することが知られている(例えば特許文献1)。
特開2003-198905号公報
特許文献1では単発的な画像の取得が想定されているが、車両を用いて所望の監視対象を継続的に監視することも可能である。この場合、車両によって監視対象の外観データが取得される度に監視結果がユーザに通知されると、ユーザがその都度監視結果を確認する手間が生じ、ユーザが煩わしさを感じるおそれがある。
そこで、上記課題に鑑みて、本発明の目的は、車両を用いた監視サービスを提供する場合に、ユーザの利便性を高めることにある。
本開示の要旨は以下のとおりである。
(1)ユーザによって指定された監視対象の外観データを取得するように車両に指示する指示部と、前記車両から前記外観データを受信し、該外観データに基づいて前記監視対象の状態変化の有無を検出する検出部と、前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の監視結果を前記ユーザに通知する監視結果通知部とを備える、監視装置。
(2)前記監視結果通知部は、前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の状態が変化したことを前記ユーザに通知する、上記(1)に記載の監視装置。
(3)前記検出部は、前記外観データに基づいて前記監視対象の異常の有無を検出し、前記監視結果通知部は、前記検出部によって前記監視対象の異常が検出された場合に、該監視対象の監視結果を前記ユーザに通知する、上記(1)に記載の監視装置。
(4)前記監視結果通知部は、前記検出部によって前記監視対象の異常が検出された場合に、該監視対象の異常が生じたことを前記ユーザに通知する、上記(3)に記載の監視装置。
(5)前記監視対象の外観データは該監視対象の撮影画像を含む、上記(1)から(4)のいずれか1つに記載の監視装置。
(6)前記監視結果通知部は、前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の撮影画像を前記ユーザに送信することによって前記監視結果を該ユーザに通知する、上記(5)に記載の監視装置。
(7)前記監視結果通知部は前記ユーザの要求に応じて前記監視対象の撮影画像を該ユーザに送信する、上記(5)又は(6)に記載の監視装置。
(8)前記監視結果通知部は、前記監視対象のエリアの災害情報を取得した場合に、前記監視対象の撮影画像を該ユーザに送信する、上記(5)から(7)のいずれか1つに記載の監視装置。
(9)前記車両は、該車両の運行ルートが予め定められた路線バスであり、前記監視対象は該運行ルート上に位置している、上記(1)から(8)のいずれか1つに記載の監視装置。
(10)前記監視対象の監視に対する利用料金を決定する決済部を更に備え、前記車両は、該車両の運行ルートが予め定められた路線バスであり、前記決済部は、前記監視対象が前記運行ルート上に位置していない場合には、該監視対象が該運行ルート上に位置している場合と比べて、前記利用料金を高くする、上記(1)から(8)のいずれか1つに記載の監視装置。
(11)ユーザによって指定された監視対象の外観データを取得するように車両に指示することと、前記車両から前記外観データを受信し、該外観データに基づいて前記監視対象の状態変化の有無を検出することと、前記監視対象の状態変化が検出された場合に、該監視対象の監視結果を前記ユーザに通知することとを含む、監視方法。
(12)車両及びサーバを備える監視システムであって、前記車両は、該車両の周辺情報を検出する周辺情報検出装置を備え、前記サーバは、ユーザによって指定された監視対象の外観データを取得するように前記車両に指示する指示部と、前記車両から前記外観データを受信し、該外観データに基づいて前記監視対象の状態変化の有無を検出する検出部と、前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の監視結果を前記ユーザに通知する監視結果通知部とを備える、監視システム。
本発明によれば、車両を用いた監視サービスを提供する場合に、ユーザの利便性を高めることができる。
図1は、本発明の第一実施形態に係る監視システムの概略的な構成図である。 図2は、車両の構成を概略的に示す図である。 図3は、周辺情報検出装置の具体例を示す図である。 図4は、図1のサーバの構成を概略的に示す図である。 図5は、サーバのプロセッサの機能ブロック図である。 図6は、監視サービスが提供されるときに監視システムによって行われる処理の一例を示すシーケンス図である。 図7は、本発明の第一実施形態における監視結果通知処理の制御ルーチンを示すフローチャートである。 図8は、本発明の第二実施形態における監視結果通知処理の制御ルーチンを示すフローチャートである。 図9は、本発明の第三実施形態における利用料金設定処理の制御ルーチンを示すフローチャートである。
以下、図面を参照して、本発明の実施形態について説明する。なお、以下の説明では、同様な構成要素には同一の参照番号を付す。
<第一実施形態>
最初に、図1~図7を参照して、本発明の第一実施形態について説明する。
図1は、本発明の第一実施形態に係る監視システム1の概略的な構成図である。図1に示されるように、監視システム1は、少なくとも一つの車両2と、サーバ3とを備える。監視システム1は、ユーザによるユーザ端末4への入力に応じて、車両2を用いた監視サービスを提供する。車両2及びユーザ端末4は、それぞれ、無線基地局5及び通信ネットワーク6を介してサーバ3と通信可能である。なお、車両2及びユーザ端末4は無線基地局5を介することなく通信ネットワーク6に直接接続されてもよい。
ユーザ端末4は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ等であり、ユーザによって操作される。ユーザ端末4は、操作ボタン又はタッチパネルのような入力部と、ディスプレイのような出力部とを備える。ユーザ端末4には監視サービス用のアプリケーションがインストールされ、ユーザはそのアプリケーション上で監視サービスに関する操作を行う。
監視サービスに用いられる車両2は自律走行を行うように構成されている。すなわち、車両2では、車両2の加速、操舵及び減速(制動)の全てが自動的に制御され、車両2を運転するドライバが必要とされない。なお、自律走行は自動運転とも称され、車両2はいわゆる自動運転車両である。本実施形態のように自動運転車両を監視サービスに用いることによって、ドライバを必要とすることなく監視サービスを提供することができる。
また、車両2には複数の座席が設けられ、車両2は自律走行によって複数の乗客を輸送することができる。本実施形態では、車両2は、車両2の運行ルートが予め定められた路線バスである。すなわち、車両2は乗客の乗車及び降車のために運行ルート上の各バス停に停車する。乗客の輸送サービスを提供する路線バスによって監視サービスも提供することによって車両2を有効活用することができる。
図2は、車両2の構成を概略的に示す図である。図2に示されるように、車両2は、周辺情報検出装置21、車両状態検出装置22、乗客状態検出装置23、GNSS受信機24、地図データベース25、アクチュエータ26、入出力装置27、通信装置28及び電子制御ユニット(Electronic Control Unit(ECU))40を備える。
周辺情報検出装置21は車両2の周辺情報を検出する。周辺情報には、道路の白線、他車両、歩行者、自転車、建物、標識、信号機、障害物等の情報が含まれる。周辺情報検出装置21はECU40に電気的に接続され、周辺情報検出装置21の出力、すなわち周辺情報検出装置21によって検出された車両2の周辺情報はECU40に送信される。
図3は、周辺情報検出装置21の具体例を示す図である。図3の例では、周辺情報検出装置21として、車外カメラ211、ライダ212及びミリ波レーダ213が車両2に設けられている。
車外カメラ211は車両2の周囲を撮影して車両2の周囲の画像を生成する。例えば、車外カメラ211は車両2の前方を撮影するように車両2の前方(例えば、車内のルームミラーの背面、フロントバンパー等)に配置される。なお、車外カメラ211は測距可能なステレオカメラであってもよい。また、車外カメラ211の撮影方向は調整可能であってもよい。
ライダ212は、車両2の周囲にレーザ光を照射し、レーザ光の反射光を受信する。このことによって、ライダ212は、車両2の周囲の地物を表す点群データを生成する。例えば、ライダ212は車両2の前部及び後部(例えば車両2のフロントバンパー及びリアバンパー)に配置される。
ミリ波レーダ213は、車両2の周囲にミリ波を発信し、ミリ波の反射波を受信する。このことによって、ミリ波レーダ213は、車両2の周囲の地物を表す点群データを生成する。例えば、ミリ波レーダ213は車両2の前部及び後部(例えば車両2のフロントバンパー及びリアバンパー)に配置される。
なお、車外カメラ211、ライダ212及びミリ波レーダ213の位置及び数は、上記に限定されない。また、これらの一部は省略されてもよい。
車両状態検出装置22は車両2の状態量を検出する。車両2の状態量には、車両2の速度(車速)、加速度、舵角、ヨーレート等が含まれる。車両状態検出装置22は、例えば、車速センサ、加速度センサ、舵角センサ、ヨーレートセンサ等を含む。車両状態検出装置22はECU40に電気的に接続され、車両状態検出装置22の出力、すなわち車両状態検出装置22によって検出された車両2の状態量はECU40に送信される。
乗客状態検出装置23は車両2の乗客の状態を検出する。乗客状態検出装置23は、例えば、乗客の画像を生成する車内カメラ、シートベルトの着用の有無を検出するシートベルトセンサ、乗客の着座の有無を検出する着座センサ、乗客の乗車及び降車を検出する人感センサ等を含む。乗客状態検出装置23はECU40に電気的に接続され、乗客状態検出装置23の出力、すなわち乗客状態検出装置23によって検出された車両2の乗客の状態はECU40に送信される。
GNSS受信機24は、複数(例えば3つ以上)の測位衛星から得られる測位情報に基づいて、車両2の現在位置(例えば車両2の緯度及び経度)を検出する。具体的には、GNSS受信機24は、複数の測位衛星を捕捉し、測位衛星から発信された電波を受信する。そして、GNSS受信機24は、電波の発信時刻と受信時刻との差に基づいて測位衛星までの距離を算出し、測位衛星までの距離及び測位衛星の位置(軌道情報)に基づいて車両2の現在位置を検出する。GNSS受信機24はECU40に電気的に接続され、GNSS受信機24の出力、すなわちGNSS受信機24によって検出された車両2の現在位置はECU40に送信される。
なお、GNSS(Global Navigation Satellite System:全球測位衛星システム)は、米国のGPS、ロシアのGLONASS、欧州のGalileo、日本のQZSS、中国のBeiDou、インドのIRNSS等の衛星測位システムの総称である。したがって、GNSS受信機24にはGPS受信機が含まれる。
地図データベース25は、路面情報、車線情報及び建物の位置情報のような3次元の地図情報を記憶している。地図データベース25に記憶された地図はいわゆる高精度地図である。地図データベース25はECU40に電気的に接続され、ECU40は地図データベース25から地図情報を取得する。なお、地図データベース25に記憶された地図情報は、車両2の外部との通信、SLAM(Simultaneous Localization and Mapping)技術等を用いて定期的に更新されてもよい。また、地図データベースが車両2の外部(例えばサーバ3)に設けられ、ECU40は車両2の外部から地図情報を取得してもよい。
アクチュエータ26は車両2を動作させる。例えば、アクチュエータ26は、車両2の加速のための駆動装置(エンジン及びモータの少なくとも一方)、車両2の減速(制動)のためのブレーキアクチュエータ、車両2の操舵のためのステアリングモータ、車両2のドアの開閉のためのドアアクチュエータ等を含む。アクチュエータ26はECU40に電気的に接続され、ECU40はアクチュエータ26を制御して車両2の自律走行を行う。
入出力装置27は車両2と乗客との間で情報の入出力を行う。入出力装置27は、例えば、情報を表示するディスプレイ、音を発生させるスピーカー、乗客が入力操作を行うための操作ボタン又は操作スイッチ、乗客の音声を受信するマイクロフォン等を含む。入出力装置27はECU40に電気的に接続される。したがって、ECU40の出力は入出力装置27を介してドライバに伝達され、ドライバからの入力は入出力装置27を介してECU40に送信される。入出力装置27はヒューマン・マシン・インターフェース(Human Machine Interface(HMI))とも称される。なお、乗客の携帯端末(例えば、スマートフォン、タブレット端末等)が、無線又は有線によって車両2の車内ネットワークを介してECU40に接続され、入出力装置として機能してもよい。
通信装置28は、車両2と車両2の外部との通信を可能とする機器(例えばデータ通信モジュール(DCM(Data communication module)))である。通信装置28は無線基地局5にアクセスすることによって無線基地局5を介して通信ネットワーク6に接続される。通信装置28はECU40に電気的に接続され、ECU40は、通信装置28、無線基地局5及び通信ネットワーク6を介してサーバ3と通信する。
ECU40は車両2の各種制御を実行する。図2に示されるように、ECU40は、通信インターフェース41、メモリ42及びプロセッサ43を備える。通信インターフェース41及びメモリ42は信号線を介してプロセッサ43に接続されている。なお、本実施形態では、一つのECU40が設けられているが、機能毎に複数のECUが設けられていてもよい。
通信インターフェース41は、CAN(Controller Area Network)等の規格に準拠した車内ネットワークにECU40を接続するためのインターフェース回路を有する。ECU40は、通信インターフェース41及び車内ネットワークを介して、車内ネットワークに接続された車載機器(他のECU等)と互いに通信する。通信インターフェース41はECU40の通信部の一例である。
メモリ42は、例えば、揮発性の半導体メモリ(例えばRAM)及び不揮発性の半導体メモリ(例えばROM)を有する。メモリ42は、プロセッサ43によって実行されるコンピュータプログラム、プロセッサ43によって各種処理が実行されるときに使用される各種データ等を記憶する。メモリ42はECU40の記憶部の一例である。
プロセッサ43は、一つ又は複数のCPU(Central Processing Unit)及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ43は、論理演算ユニット、数値演算ユニット又はグラフィック処理ユニットのような他の演算回路を更に有していてもよい。プロセッサ43はECU40の制御部の一例である。
図4は、サーバ3の構成を概略的に示す図である。サーバ3は、通信インターフェース31、ストレージ装置32、メモリ33及びプロセッサ34を備える。通信インターフェース31、ストレージ装置32及びメモリ33は、信号線を介してプロセッサ34に接続されている。なお、サーバ3は、キーボード及びマウスのような入力装置、ディスプレイのような出力装置等を更に備えていてもよい。また、サーバ3は複数のコンピュータから構成されていてもよい。サーバ3は監視装置の一例である。
通信インターフェース31は、サーバ3を通信ネットワーク6に接続するためのインターフェース回路を有し、サーバ3と車両2との通信を可能とする。サーバ3は通信ネットワーク6及び無線基地局5を介して車両2と通信する。通信インターフェース31はサーバ3の通信部の一例である。
ストレージ装置32は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SDD)又は光記録媒体及びそのアクセス装置を有する。ストレージ装置32は、各種データを記憶し、例えば、車両2から送信された情報、地図情報、プロセッサ34が各種処理を実行するためのコンピュータプログラム等を記憶する。ストレージ装置32はサーバ3の記憶部の一例である。
メモリ33は不揮発性の半導体メモリ(例えばRAM)を有する。メモリ33は、例えばプロセッサ34によって各種処理が実行されるときに使用される各種データ等を一時的に記憶する。メモリ33はサーバ3の記憶部の一例である。
プロセッサ34は、一つ又は複数のCPU及びその周辺回路を有し、各種処理を実行する。なお、プロセッサ34は、論理演算ユニット、数値演算ユニット又はグラフィック処理ユニットのような他の演算回路を更に有していてもよい。
図5は、サーバ3のプロセッサ34の機能ブロック図である。本実施形態では、プロセッサ34は、指示部35、検出部36、監視結果通知部37及び決済部38を有する。指示部35、検出部36、監視結果通知部37及び決済部38は、サーバ3のストレージ装置32に記憶されたコンピュータプログラムをサーバ3のプロセッサ34が実行することによって実現される機能モジュールである。なお、これら機能モジュールは、プロセッサ43に設けられた専用の演算回路によって実現されてもよい。また、互いに通信可能な複数のサーバのプロセッサによってこれら機能モジュールが実現されてもよい。すなわち、複数のサーバが監視装置として機能してもよい。
指示部35、検出部36、監視結果通知部37及び決済部38は、監視サービスに関する以下の処理を行う。指示部35は、ユーザの要求に応じて、ユーザによって指定された監視対象の外観データを取得するように車両2に指示する。検出部36は、車両2から外観データを受信し、外観データに基づいて監視対象の状態変化の有無を検出する。
監視結果通知部37は、検出部36によって監視対象の状態変化が検出された場合に、監視対象の監視結果をユーザに通知する。このことによって、車両2が外観データを取得する度に監視結果がユーザに通知されることが回避され、監視結果を確認する必要性が高いときにのみ監視結果がユーザに通知されることとなる。したがって、ユーザが監視結果を確認する手間を低減することができ、ひいてはユーザの利便性を高めることができる。
決済部38は、監視サービスがユーザに提供されるときに、監視サービスに関する決済処理を行う。例えば、決済部38は、監視サービスがユーザに提供されるときに、予め定められた利用料金をユーザに請求する。
図6は、監視サービスが提供されるときに監視システム1によって行われる処理の一例を示すシーケンス図である。このシーケンス図において、ユーザ端末4とサーバ3との間の通信及びサーバ3と車両2との間の通信は通信ネットワーク6及び無線基地局5を介して行われる。また、サーバ3における処理はサーバ3のプロセッサ34によって実施され、車両2における処理は車両2のECU40によって実施される。
ユーザは、監視サービスの利用を要求する場合、ユーザ端末4を操作して監視依頼情報をユーザ端末4に入力する。監視依頼情報の入力は、ユーザ端末4にインストールされた監視サービス用のアプリケーション上で行われる。監視依頼情報の入力が完了すると、ユーザ端末4は監視依頼情報をサーバ3に送信する(ステップS1)。
監視依頼情報には、監視対象の種類(家、植木、田畑等)、監視対象の位置情報、希望監視期間等が含まれる。監視対象の位置情報は、例えば、ユーザ端末4に表示された地図上の地点を指定することによってユーザ端末4に入力される。なお、監視依頼情報に、ユーザによって取得された監視対象のサンプル画像が含まれていてもよい。
ユーザ端末4からサーバ3に監視依頼情報が送信されると、サーバ3の決済部38は、監視サービスに関する決済処理を行う(ステップS2)。すなわち、決済部38は監視サービスの利用料金をユーザに請求する。例えば、決済部38は、予め登録されたユーザ情報に基づいて、口座振替又はクレジットカード決済によって利用料金を決済する。決済部38は、決済処理の後、請求書等を含む決済情報をユーザ端末4に送信する(ステップS3)。なお、決済部38による決済処理は希望監視期間の終了後に行われてもよい。
次いで、サーバ3の指示部35は、監視依頼情報に基づいて監視対象を特定し、監視を行う車両を選択する(ステップS4)。監視サービスに用いられる車両2が複数存在する場合、すなわち監視システム1が複数の車両2を備えている場合、指示部35は、複数の車両2の中から、監視を行う車両を選択する。例えば、指示部35は、監視を行う車両として、監視対象が運行ルート上に位置している車両2を選択する。このことによって、車両2の運行ルートを変更することなく監視対象の監視を行うことができる。なお、監視を行う車両として、複数の車両2が選択されてもよい。
一方、特定の車両2のみを用い監視サービスが提供される場合、すなわち監視システム1が一つの車両2を備えている場合、指示部35は、監視を行う車両として、この特定の車両2を選択する。監視対象が車両2の運行ルート上に位置していない場合には、例えば、車両2が乗客を輸送しない時間帯(例えば、夜間、早朝等)に車両2を用いて監視対象の監視が行われる。なお、乗客状態検出装置23によって車両2内の乗客の有無が検出され、車両2に乗客が存在しないときに監視対象の監視が行われてもよい。また、ユーザが監視対象を設定するときに、特定の車両2の運行ルート上の地物のみが監視対象として設定可能であってもよい。この場合、車両2の運行ルートを変更することなく監視対象の監視を行うことができる。
次いで、指示部35は、監視を行う車両として選択された車両2に対して、ユーザによって指定された監視対象の外観データの取得を指示する。具体的には、指示部35は車両2に監視指示を送信する(ステップS5)。監視指示には、監視対象の位置情報(運行ルート上の最寄り位置、最寄り位置における車両2に対する監視対象の方角等)、監視期間、監視に用いられる装置(周辺情報検出装置21の車外カメラ211、ライダ212及びミリ波レーダ213の少なくとも一つ)等が含まれる。
サーバ3から車両2に監視指示が送信されると、車両2は監視対象の監視を開始する。具体的には、車両2のECU40は、監視期間の間、車両2が監視対象付近を通過する度に、周辺情報検出装置21を用いて監視対象の外観データを取得する(ステップS6)。
車外カメラ211によって外観データが取得される場合には、外観データとして監視対象の撮影画像が取得される。一方、ライダ212又はミリ波レーダ213によって外観データが取得される場合には、外観データとして監視対象の点群データが取得される。なお、GNSS受信機24等によって検出された車両2の位置情報が車両2からサーバ3に送信され、サーバ3の指示部35が車両2の周辺情報検出装置21を遠隔制御することによって監視対象の外観データを取得してもよい。
車両2のECU40は、監視対象の外観データを取得した後、外観データをサーバ3に送信する(ステップS7)。車両2からサーバ3に外観データが送信されると、サーバ3の監視結果通知部37は、外観データの受信日時又は取得日時と共に、外観データをサーバ3のストレージ装置32若しくはメモリ33又はサーバ3の外部の記憶装置に保存する。そして、監視結果通知部37は、ユーザへの監視結果の通知の要否を判定し、必要に応じて監視対象の監視結果をユーザに通知する(ステップS8)。
ユーザへの監視結果の通知の要否は、車両2からサーバ3に送信された外観データに基づいて、図7のフローチャートに従って判定される。図7は、本発明の第一実施形態における監視結果通知処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ3のプロセッサ34によって所定の実行間隔で繰り返し実行される。
最初に、ステップS101において、検出部36は、車両2からサーバ3に監視対象の外観データが送信されたか否かを判定する。外観データが送信されていないと判定された場合、本制御ルーチンは終了する。一方、外観データが送信されたと判定された場合、本制御ルーチンはステップS102に進む。
ステップS102では、検出部36は監視対象の外観データを解析して監視対象の状態変化の有無を検出する。例えば、検出部36は、車両2によって前回取得された外観データ及び車両2によって今回取得された外観データ、すなわち間欠的に取得された時系列の二つの外観データを比較することによって監視対象の状態変化の有無を検出する。この場合、検出部36は、例えば、二つの外観データ(撮影画像又は点群データ)から特徴部を抽出し、特徴部の形状、輝度等を比較することによって外観データの変動率を算出する。そして、検出部36は、外観データの変動率が所定値以上である場合には監視対象の状態が変化したと判定し、外観データの変動率が所定値未満である場合には監視対象の状態が変化していないと判定する。
なお、検出部36は、時系列の二つの外観データから二つの外観データの類似度を出力するように予め学習された識別器を用いて、監視対象の状態変化の有無を検出してもよい。この場合、検出部36は、外観データの類似度が所定値未満である場合には監視対象の状態が変化したと判定し、外観データの類似度が所定値以上である場合には監視対象の状態が変化していないと判定する。また、検出部36は、時系列の二つの外観データから監視対象の状態変化の有無を出力するように予め学習された識別器を用いて、監視対象の状態変化の有無を検出してもよい。外観データの類似度又は監視対象の状態変化の有無を出力する識別器の一例として、ニューラルネットワーク(例えば畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))等)、サポートベクターマシン、ランダムフォレスト等の機械学習モデルが挙げられる。
次いで、ステップS103において、監視結果通知部37は、検出部36によって監視対象の状態変化が検出されたか否かを判定する。言い換えれば、監視結果通知部37は、検出部36によって監視対象の状態が変化したと判定されたか否かを判定する。監視対象が家である場合には、例えば、家のガラスが破損したことが外観データに表されたときに、検出部36によって監視対象の状態変化が検出される。また、監視対象が植木である場合には、例えば植木が伸びたことが外観データに表されたときに、検出部36によって監視対象の状態変化が検出される。
ステップS103において監視対象の状態変化が検出されていないと判定された場合、本制御ルーチンは終了する。したがって、この場合、監視対象の監視結果をユーザに通知する必要性が低いため、監視結果通知部37は監視対象の監視結果をユーザに通知しない。
一方、ステップS103において監視対象の状態変化が検出されたと判定された場合、本制御ルーチンはステップS104に進む。ステップS104では、監視結果通知部37は監視対象の監視結果をユーザ端末4を介してユーザに通知する。例えば、監視結果通知部37は、監視対象の状態が変化したことをユーザに通知する。また、斯かる通知の代わりに又は斯かる通知に加えて、監視結果通知部37は、監視対象の撮影画像をユーザ端末4を介してユーザに送信することによって監視結果をユーザに通知してもよい。このことによって、ユーザは撮影画像を介して監視対象の実際の状態を確認することができる。一方、監視結果がユーザに通知されるときに撮影画像がユーザに送信されない場合には、サーバ3からユーザ端末4に送信されるデータの量を低減することができ、通信負荷を低減することができる。ステップS104の後、本制御ルーチンは終了する。
なお、検出部36は、監視対象の状態変化の有無として、監視対象の異常の有無を検出してもよい。すなわち、ステップS102において、検出部36は監視対象の外観データを解析して監視対象の異常の有無を検出してもよい。例えば、検出部36は、外観データから監視対象の異常の有無を出力するように予め学習された識別器を用いて、監視対象の異常の有無を検出する。監視対象の異常の有無を出力する識別器の一例として、ニューラルネットワーク(例えば、畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))、オートエンコーダ、敵対的生成ネットワーク(Generative Adversarial Network(GAN)等)、サポートベクターマシン、ランダムフォレスト等の機械学習モデルが挙げられる。
また、監視対象の異常の有無が検出される変形例では、監視結果通知部37は、検出部36によって監視対象の異常が検出された場合に、監視対象の監視結果をユーザに通知する。このことによって、監視対象に異常が生じた可能性が高い場合にのみ監視結果がユーザに通知されるため、ユーザの利便性をより一層高めることができる。
例えば、監視結果通知部37は、検出部36によって監視対象の異常が検出された場合に、監視対象の異常が生じたことをユーザに通知する。また、斯かる通知の代わりに又は斯かる通知に加えて、監視結果通知部37は、監視対象の撮影画像をユーザ端末4を介してユーザに送信することによって監視結果をユーザに通知してもよい。
また、監視対象の外観データとして監視対象の撮影画像のみが取得されてもよい。一方、監視結果として監視対象の撮影画像が送信されない場合には、監視対象の外観データとして監視対象の点群データのみが取得されてもよい。
<第二実施形態>
第二実施形態に係る監視システム及び監視装置は、以下に説明する点を除いて、基本的に第一実施形態に係る監視システム及び監視装置の構成及び制御と同様である。このため、以下、本発明の第二実施形態について、第一実施形態と異なる部分を中心に説明する。
第二実施形態では、監視対象の外観データとして監視対象の撮影画像が取得される。すなわち、車両2のECU40は周辺情報検出装置21の車外カメラ211を用いて監視対象の外観データを取得する。
上述したように、監視結果通知部37は、監視対象の状態変化が検出された場合に、監視対象の監視結果をユーザに通知する。しかしながら、監視対象の状態変化が検出されていない場合であっても、ユーザが自発的に監視対象の撮影画像の取得を望むことが考えられる。また、監視対象のエリアにおいて災害が発生した場合には、監視対象の状態確認のためにユーザに監視対象の撮影画像を送付することが望ましい。
そこで、第二実施形態では、監視結果通知部37はユーザの要求に応じて監視対象の撮影画像をユーザに送信する。このことによって、監視結果が通知されないことによるユーザの不安を低減することができ、ユーザの満足度を高めることができる。また、監視結果通知部37は、監視対象のエリアの災害情報を取得した場合に、監視対象の撮影画像をユーザに送信する。このことによって、災害発生時にユーザが監視対象の状態を迅速に確認することが可能となる。
図8は、本発明の第二実施形態における監視結果通知処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ3のプロセッサ34によって所定の実行間隔で繰り返し実行される。
最初に、ステップS201において、図7のステップS101と同様に、検出部36は、車両2からサーバ3に監視対象の外観データが送信されたか否かを判定する。外観データが送信されたと判定された場合、本制御ルーチンはステップS202に進む。
ステップS202では、図7のステップS102と同様に、検出部36は監視対象の外観データを解析して監視対象の状態変化の有無を検出する。
次いで、ステップS203において、図7のステップS103と同様に、監視結果通知部37は、検出部36によって監視対象の状態変化が検出されたか否かを判定する。監視対象の状態変化が検出されたと判定された場合、本制御ルーチンはステップS204に進む。
ステップS204では、監視結果通知部37は監視対象の撮影画像をユーザ端末4を介してユーザに送信する。なお、ステップS203の後にステップS204が実行される場合、監視結果通知部37は、撮影画像を送信する代わりに、監視対象の状態が変化したことをユーザに通知してもよい。ステップS204の後、本制御ルーチンは終了する。
一方、ステップS201において監視対象の外観データが送信されていないと判定された場合、又はステップS203において監視対象の状態変化が検出されていないと判定された場合、本制御ルーチンはステップS205に進む。ステップS205では、監視結果通知部37は、ユーザが監視対象の撮影画像の送信を要求したか否かを判定する。例えば、ユーザはユーザ端末4を操作して監視対象の撮影画像の取得を要求し、ユーザ端末4は撮影画像の送信要求をサーバ3に送信する。この場合、監視結果通知部37は、ユーザ端末4からサーバ3に送信要求が送信された場合に、ユーザが監視対象の撮影画像の送信を要求したと判定する。
ステップS205においてユーザが監視対象の撮影画像の送信を要求していないと判定された場合、本制御ルーチンはステップS206に進む。ステップS206では、監視結果通知部37は、監視対象のエリアの災害情報を取得したか否かを判定する。災害情報には、天災(地震、台風、噴火、洪水等)及び人災(作業ミスによる停電等)に関する情報が含まれる。例えば、監視結果通知部37は、サーバ3の外部(公的な機関(気象庁、国土交通省等)、電力会社等)から災害情報を受信することによって災害情報を取得する。また、災害情報はサーバ3のオペレータ等によってサーバ3に入力されてもよい。
ステップS206において災害情報を取得していないと判定された場合、本制御ルーチンは終了する。この場合、監視対象の撮影画像をユーザに送信する必要性が低いため、監視結果通知部37は監視対象の撮影画像をユーザに送信しない。
一方、ステップS205においてユーザが撮影画像の送信を要求したと判定された場合、又はステップS206において災害情報を取得したと判定された場合、本制御ルーチンはステップS204に進む。
ステップS204では、監視結果通知部37は監視対象の撮影画像をユーザ端末4を介してユーザに送信する。この場合、監視結果通知部37は、サーバ3のストレージ装置32又はメモリ33等に保存された最新の撮影画像をユーザに送信する。なお、災害情報が取得された場合には、監視結果通知部37は、撮影画像に加えて、監視対象のエリアに災害が発生したことをユーザ端末4を介してユーザに通知してもよい。また、災害情報が取得された場合には、監視結果通知部37は、災害の解消が通知されるまで、監視対象の撮影画像が車両2からサーバ3に送信される度に、監視対象の撮影画像をユーザに送信してもよい。ステップS204の後、本制御ルーチンは終了する。
<第三実施形態>
第三実施形態に係る監視システム及び監視装置は、以下に説明する点を除いて、基本的に第一実施形態に係る監視システム及び監視装置の構成及び制御と同様である。このため、以下、本発明の第三実施形態について、第一実施形態と異なる部分を中心に説明する。
上述したように、サーバ3の決済部38は、監視サービスがユーザに提供されるときに、監視サービスに関する決済処理を行う。このとき、決済部38は、監視サービスの利用料金、すなわち監視対象の監視に対する利用料金を決定する。
監視を行う車両2として、運行ルートが予め定められた路線バスが用いられる場合、監視対象が運行ルート上に位置していれば、車両2は乗客の輸送のために運行ルートに沿って走行しているときに監視対象の監視を行うことができる。一方、監視対象が運行ルート上に位置していない場合には、監視対象の監視のために配車を行う必要がある。
このため、第三実施形態では、決済部38は、監視対象が車両2の運行ルート上に位置していない場合には、監視対象が車両2の運行ルート上に位置している場合と比べて、監視対象の監視に対する利用料金を高くする。このことによって、運行ルート上の地物が監視対象として設定されやすくなり、車両2の有効活用を促進することができる。
図9は、本発明の第三実施形態における利用料金設定処理の制御ルーチンを示すフローチャートである。本制御ルーチンはサーバ3のプロセッサ34によって所定の実行間隔で繰り返し実行される。
最初に、ステップS301において、決済部38は、ユーザによって監視サービスの利用が要求されたか否かを判定する。本実施形態では、決済部38は、ユーザ端末4からサーバ3に監視依頼情報が送信されたときに、ユーザによって監視サービスの利用が要求されたと判定する。ステップS301において、監視サービスの利用が要求されていないと判定された場合、本制御ルーチンは終了する。
一方、ステップS301において監視サービスの利用が要求されたと判定された場合、本制御ルーチンはステップS302に進む。ステップS302では、決済部38は、ユーザによって指定された監視対象が車両2の運行ルート上に位置しているか否かを判定する。例えば、この判定は、監視対象の位置を運行ルートと照合することによって行われる。
ステップS302において監視対象が車両2の運行ルート上に位置していると判定された場合、本制御ルーチンはステップS303に進む。ステップS303では、決済部38は、監視サービスの利用料金として、監視期間等に基づいて予め定められた通常料金をユーザに請求する。ステップS303の後、本制御ルーチンは終了する。
一方、ステップS302において監視対象が車両2の運行ルート上に位置していないと判定された場合、本制御ルーチンはステップS304に進む。ステップS304では、決済部38は、監視サービスの利用料金として、通常料金よりも高い割増料金をユーザに請求する。ステップS304の後、本制御ルーチンは終了する。
<その他の実施形態>
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことができる。例えば、監視サービスに用いられる車両2は、路線バス以外の自動運転車両(例えば、ユーザの利用要求に応じて運行するデマンド型バス、自動運転タクシー、監視サービス専用の自動運転車両等)、又はドライバによって手動運転される車両(路線バス、タクシー、監視サービス専用の車両等)であってもよい。また、監視サービスが無償で提供される場合には、サーバ3の決済部38は省略される。
また、サーバ3のプロセッサ34が有する各部の機能をコンピュータに実現させるコンピュータプログラムは、コンピュータによって読取り可能な記録媒体に記憶された形で提供されてもよい。コンピュータによって読取り可能な記録媒体は、例えば、磁気記録媒体、光記録媒体、又は半導体メモリである。
また、上述した実施形態は、任意に組み合わせて実施可能である。例えば、第二実施形態において、第三実施形態に関する図9の制御ルーチンが実行されてもよい。
1 監視システム
2 車両
3 サーバ
34 プロセッサ
35 指示部
36 検出部
37 監視結果通知部

Claims (10)

  1. ユーザによって指定された監視対象の外観データを取得するように車両に指示する指示部と、
    前記車両から前記外観データを受信し、該外観データに基づいて前記監視対象の状態変化の有無を検出する検出部と、
    前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の監視結果を前記ユーザに通知する監視結果通知部と
    前記監視対象の監視に対する利用料金を決定する決済部と
    を備え
    前記車両は、該車両の運行ルートが予め定められた路線バスであり、
    前記決済部は、前記監視対象が前記運行ルート上に位置していない場合には、該監視対象が該運行ルート上に位置している場合と比べて、前記利用料金を高くする、監視装置。
  2. 前記監視結果通知部は、前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の状態が変化したことを前記ユーザに通知する、請求項1に記載の監視装置。
  3. 前記検出部は、前記外観データに基づいて前記監視対象の異常の有無を検出し、
    前記監視結果通知部は、前記検出部によって前記監視対象の異常が検出された場合に、該監視対象の監視結果を前記ユーザに通知する、請求項1に記載の監視装置。
  4. 前記監視結果通知部は、前記検出部によって前記監視対象の異常が検出された場合に、該監視対象の異常が生じたことを前記ユーザに通知する、請求項3に記載の監視装置。
  5. 前記監視対象の外観データは該監視対象の撮影画像を含む、請求項1から4のいずれか1項に記載の監視装置。
  6. 前記監視結果通知部は、前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の撮影画像を前記ユーザに送信することによって前記監視結果を該ユーザに通知する、請求項5に記載の監視装置。
  7. 前記監視結果通知部は前記ユーザの要求に応じて前記監視対象の撮影画像を該ユーザに送信する、請求項5又は6に記載の監視装置。
  8. 前記監視結果通知部は、前記監視対象のエリアの災害情報を取得した場合に、前記監視対象の撮影画像を該ユーザに送信する、請求項5から7のいずれか1項に記載の監視装置。
  9. ユーザによって指定された監視対象の外観データを取得するように車両に指示することと、
    前記車両から前記外観データを受信し、該外観データに基づいて前記監視対象の状態変化の有無を検出することと、
    前記監視対象の状態変化が検出された場合に、該監視対象の監視結果を前記ユーザに通知することと
    前記監視対象の監視に対する利用料金を決定することと
    を含み、
    前記車両は、該車両の運行ルートが予め定められた路線バスであり、
    前記監視対象が前記運行ルート上に位置していない場合には、該監視対象が該運行ルート上に位置している場合と比べて、前記利用料金を高くする、監視方法。
  10. 車両及びサーバを備える監視システムであって、
    前記車両は、該車両の周辺情報を検出する周辺情報検出装置を備え、
    前記サーバは、
    ユーザによって指定された監視対象の外観データを取得するように前記車両に指示する指示部と、
    前記車両から前記外観データを受信し、該外観データに基づいて前記監視対象の状態変化の有無を検出する検出部と、
    前記検出部によって前記監視対象の状態変化が検出された場合に、該監視対象の監視結果を前記ユーザに通知する監視結果通知部と
    前記監視対象の監視に対する利用料金を決定する決済部と
    を備え
    前記車両は、該車両の運行ルートが予め定められた路線バスであり、
    前記決済部は、前記監視対象が前記運行ルート上に位置していない場合には、該監視対象が該運行ルート上に位置している場合と比べて、前記利用料金を高くする、監視システム。
JP2021062781A 2021-04-01 2021-04-01 監視装置、監視方法及び監視システム Active JP7380633B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021062781A JP7380633B2 (ja) 2021-04-01 2021-04-01 監視装置、監視方法及び監視システム
US17/682,445 US11971265B2 (en) 2021-04-01 2022-02-28 Monitoring device, monitoring method, and monitoring system
CN202210215644.7A CN115206107A (zh) 2021-04-01 2022-03-07 监视装置、监视方法以及监视系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021062781A JP7380633B2 (ja) 2021-04-01 2021-04-01 監視装置、監視方法及び監視システム

Publications (2)

Publication Number Publication Date
JP2022158104A JP2022158104A (ja) 2022-10-17
JP7380633B2 true JP7380633B2 (ja) 2023-11-15

Family

ID=83448952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021062781A Active JP7380633B2 (ja) 2021-04-01 2021-04-01 監視装置、監視方法及び監視システム

Country Status (3)

Country Link
US (1) US11971265B2 (ja)
JP (1) JP7380633B2 (ja)
CN (1) CN115206107A (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160496A (ja) 2006-12-25 2008-07-10 Hitachi Ltd 監視システム
JP2009169898A (ja) 2008-01-21 2009-07-30 Sogo Keibi Hosho Co Ltd 監視システム、警備装置、監視方法および警備方法
JP2009271612A (ja) 2008-05-01 2009-11-19 Pioneer Electronic Corp 監視装置、監視方法、監視プログラムおよび監視プログラムを格納した記録媒体
WO2013111479A1 (ja) 2012-01-23 2013-08-01 日産自動車株式会社 監視システム
JP2018190198A (ja) 2017-05-08 2018-11-29 株式会社デンソー 監視装置及び防犯システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3636113B2 (ja) * 2001-08-10 2005-04-06 オムロン株式会社 携帯型通信装置、監視装置、監視システム、携帯通信装置の制御プログラム、監視装置の制御プログラム、携帯通信装置の制御プログラムを記録した記録媒体、および監視装置の制御プログラムを記録した記録媒体
JP2003198905A (ja) 2001-12-25 2003-07-11 Mazda Motor Corp 撮像方法、撮像システム、撮像制御サーバ、並びに撮像プログラム
DE102006052779A1 (de) * 2006-11-09 2008-05-15 Bayerische Motoren Werke Ag Verfahren zur Erzeugung eines Gesamtbilds der Umgebung eines Kraftfahrzeugs
KR100767065B1 (ko) * 2007-03-26 2007-10-17 (주)홈시큐넷 원격 보호관찰 시스템 및 방법
CN201803956U (zh) * 2010-10-11 2011-04-20 华北电网有限公司北京超高压公司 一种变电站设备外观异常检测系统
WO2016111479A1 (ko) * 2015-01-05 2016-07-14 한국기술교육대학교 산학협력단 능동 저항을 포함하는 필터 및 이를 이용하는 용량성 마이크로 가속도 센서의 시그마 델타 변조기 리플 평활 회로
JP6807771B2 (ja) * 2017-02-20 2021-01-06 株式会社アルファ 車両用監視装置
US11669914B2 (en) * 2018-05-06 2023-06-06 Strong Force TX Portfolio 2018, LLC Adaptive intelligence and shared infrastructure lending transaction enablement platform responsive to crowd sourced information
US20200086786A1 (en) * 2018-09-06 2020-03-19 Macbox I, Inc. Exterior illumination system for vehicle
JP7153194B2 (ja) 2018-12-17 2022-10-14 トヨタ自動車株式会社 遠隔監視システム及び監視サーバ
KR102298725B1 (ko) * 2019-04-30 2021-09-06 에스케이텔레콤 주식회사 주차장 내 차량 모니터링 장치 및 방법
CN211352329U (zh) * 2019-12-02 2020-08-25 国网浙江省电力有限公司台州供电公司 设备异常远程监视系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160496A (ja) 2006-12-25 2008-07-10 Hitachi Ltd 監視システム
JP2009169898A (ja) 2008-01-21 2009-07-30 Sogo Keibi Hosho Co Ltd 監視システム、警備装置、監視方法および警備方法
JP2009271612A (ja) 2008-05-01 2009-11-19 Pioneer Electronic Corp 監視装置、監視方法、監視プログラムおよび監視プログラムを格納した記録媒体
WO2013111479A1 (ja) 2012-01-23 2013-08-01 日産自動車株式会社 監視システム
JP2018190198A (ja) 2017-05-08 2018-11-29 株式会社デンソー 監視装置及び防犯システム

Also Published As

Publication number Publication date
US11971265B2 (en) 2024-04-30
JP2022158104A (ja) 2022-10-17
CN115206107A (zh) 2022-10-18
US20220316893A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US20190371175A1 (en) Server, method, and computer-readable storage medium for automated parking
US20180090009A1 (en) Dynamic traffic guide based on v2v sensor sharing method
JP7205204B2 (ja) 車両の制御装置及び自動運転システム
CN113485315A (zh) 交通工具控制系统
US11550623B2 (en) Distributed system task management using a simulated clock
JP2017068589A (ja) 情報処理装置、情報端末、及び、情報処理方法
CN111559383A (zh) 用于基于车辆和边缘传感器数据确定自主车辆(av)动作的方法和系统
JP2017207340A (ja) 走行計画作成装置及びセンタ
US10546500B2 (en) Vehicle dispatch method, vehicle dispatch system, and parking fee charging system including the same
US11512971B2 (en) Apparatus for navigation system with traffic environment in vehicle, system having the same and method thereof
CN111319628A (zh) 用于评估错误威胁检测的方法和系统
US11480964B2 (en) Distributed system execution using a serial timeline
US11584394B2 (en) Vehicle controller device and vehicle control system
CN113195321A (zh) 车辆控制装置、车辆控制方法、车辆、信息处理装置、信息处理方法以及程序
CN114503176B (zh) 用于获知自身位置的方法和电子设备
US20190113357A1 (en) Alighting position setting device and autonomous driving system
US11964672B2 (en) Passenger transportation system, method of passenger transportation, and vehicle controller
JP7380633B2 (ja) 監視装置、監視方法及び監視システム
US20200273134A1 (en) Operation assistance apparatus and vehicle
CN217435657U (zh) 自动驾驶车辆的电气系统和自动驾驶车辆
CN113728310A (zh) 用于分布式系统仿真的架构
CN114283604B (zh) 用于辅助车辆停车的方法
JP7212708B2 (ja) 交通信号機の制御方法及び装置
US20240127042A1 (en) Information processing device, information processing system, information processing method, and recording medium
US20230093047A1 (en) Vehicle traveling remote control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R151 Written notification of patent or utility model registration

Ref document number: 7380633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151