JP7435682B2 - 通信制御方法、通信装置、及びプログラム - Google Patents

通信制御方法、通信装置、及びプログラム Download PDF

Info

Publication number
JP7435682B2
JP7435682B2 JP2022149760A JP2022149760A JP7435682B2 JP 7435682 B2 JP7435682 B2 JP 7435682B2 JP 2022149760 A JP2022149760 A JP 2022149760A JP 2022149760 A JP2022149760 A JP 2022149760A JP 7435682 B2 JP7435682 B2 JP 7435682B2
Authority
JP
Japan
Prior art keywords
vehicle
camera
communication
priority
communication control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022149760A
Other languages
English (en)
Other versions
JP2022191249A (ja
Inventor
航生 小林
孝法 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2022191249A publication Critical patent/JP2022191249A/ja
Application granted granted Critical
Publication of JP7435682B2 publication Critical patent/JP7435682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/091Traffic information broadcasting
    • G08G1/093Data selection, e.g. prioritizing information, managing message queues, selecting the information to be output
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/02Selection of wireless resources by user or terminal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、通信装置、通信制御方法、及びプログラムに関する。
近年、自動運転車の技術開発が進み、公道における自動運転車の走行実験が進められている。自動運転車には通常、歩行者の有無、もしくは他車両の有無等の周辺状態を認識するための各種センサが搭載されている。各種センサは、例えば、カメラもしくはレーダ等である。各種センサにおいて検出された情報は、運転制御に利用される。
特許文献1には、自動運転制御装置が、自動運転車両周辺においてオブジェクトを検出した場合に、オブジェクトに関するメタ情報(オブジェクトコード、オブジェクトのサイズ情報、オブジェクトの位置情報など)を遠隔制御装置へ送信することが記載されている。自動運転制御装置は、複数のオブジェクトが検出された場合、重要度の高いオブジェクトに関するメタ情報から順番に遠隔制御装置へ送信する。自動運転車両に近いオブジェクトほど重要度が高くなる。
また、特許文献2には、車両に搭載された車載カメラにおいて撮影された画像をサーバが収集するシステム、が記載されている。車両に搭載された車載カメラは、特定の対象物を撮影するためにサーバから指示された撮影地点及び撮影方向等に基づいて、動画撮影を開始する。車載カメラにおいて動画撮影が開始される際に、複数の車載カメラの映像ビットレートが決定される。それぞれの車載カメラに割り当てられる映像ビットレートは、車両の位置もしくは進行方向等を考慮して決定される。
特開2018-142921号公報 特開2016-134816号公報
特許文献1においては、複数のオブジェクトが検出された場合に、自動運転制御装置は、重要度の高いオブジェクトを判断し、重要度の高いオブジェクトのメタ情報から順番に送信することができる。特許文献1に開示された方法では、オブジェクト単位の重要度を判断することは可能であるが、車載カメラなどセンサ単位の重要度は判断することができない。そのため、メタ情報ではなく映像データ等のセンサ情報そのものを送信する際、どのセンサ情報を優先的に送信すべきかの判断ができない。
特許文献2に開示された方法は、特定の対象物を撮影することを目的に、特定の対象物と車載カメラとの位置関係をもとに、車載カメラの映像ビットレートを制御する。そのため、自動運転車の遠隔監視のように、撮影すべき対象物が事前に特定あるいは指定困難な場合においては、どの車載カメラの映像データを優先して送信すべきかの判断ができない。
本開示の目的は、車両等の移動体において取得されたセンサ情報を、センサの重要度に基づいて遠隔装置等へ送信することができる通信装置、通信制御方法、及びプログラムを提供することにある。
本開示の第1の態様にかかる通信装置は、移動体を基点に、互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサを用いて検出されたセンサ情報を送信する通信部と、前記移動体の移動状態を認識する移動状態認識部と、前記移動体の周辺状態を認識する周辺状態認識部と、前記移動状態及び前記周辺状態に基づいてそれぞれのセンサの優先度を決定し、優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行う通信制御部と、を備える。
本開示の第2の態様にかかる通信制御方法は、移動体の移動状態を認識し、前記移動体の周辺状態を認識し、前記移動状態及び前記周辺状態に基づいて、前記移動体を基点に、互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサのそれぞれのセンサの優先度を決定し、優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行い、前記センサ情報を送信する。
本開示の第3の態様にかかるプログラムは、移動体の移動状態を認識し、前記移動体の周辺状態を認識し、前記移動状態及び前記周辺状態に基づいて、前記移動体を基点に、互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサのそれぞれのセンサの優先度を決定し、優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行い、前記センサ情報を送信する、ことをコンピュータに実行させる。
本発明により車両等の移動体において取得されたセンサ情報を、センサの重要度に基づいて遠隔装置等へ送信することができる通信装置、通信制御方法、及びプログラムを提供することができる。
実施の形態1にかかる通信装置の構成図である。 実施の形態2にかかる通信システムの構成図である。 実施の形態2にかかる通信制御部が決定する優先度を示す図である。 実施の形態2にかかる通信装置における通信制御処理の流れを示す図である。 実施の形態3にかかる通信装置の構成図である。 実施の形態4にかかる通信制御部が決定する優先度を示す図である。 実施の形態4にかかる通信制御部が決定する優先度を示す図である。 実施の形態4にかかる通信制御部が決定する優先度を示す図である。 実施の形態5にかかる通信装置の構成図である。 実施の形態6にかかる通信システムの構成図である。 それぞれの実施の形態にかかる通信装置の構成図である。
(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。図1を用いて実施の形態1にかかる通信装置10の構成例について説明する。通信装置10は、メモリに格納されたプログラムをプロセッサが実行することによって動作するコンピュータ装置であってもよい。また、通信装置10は、移動体に設置されてもよい。移動体は、自動車、電車、建設機械、無人搬送車(AGV:Automated Guided Vehicle)等を含む車両、有人飛行機、無人飛行機(UAV:Unmanned Aerial Vehicle)、船舶等の移動手段であってもよい。
通信装置10は、通信部11、移動状態認識部12、周辺状態認識部13、及び通信制御部14を有している。通信部11、移動状態認識部12、周辺状態認識部13、及び通信制御部14等の通信装置10の構成要素は、メモリに格納されたプログラムをプロセッサが実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、通信装置10の構成要素は、回路もしくはチップ等のハードウェアであってもよい。
通信部11は、移動体に設置された2以上のセンサにより得られたセンサ情報を、ネットワークを介してサーバ装置等へ送信する。2以上のセンサは、移動体を基点にして互いに異なる方向の状態を検出可能なように移動体に設置される。異なる方向とは、例えば、移動体の前方、後方、右方向、左方向であってもよい。状態の検出とは、例えば、移動体のそれぞれの方向において、人の検出、障害物の検出、他の移動体の検出、もしくは、交通標識等の検出であってもよい。
センサの種類には、カメラ、ミリ波レーダ、赤外線センサ、超音波ソナー、もしくはLiDAR(Light Detection and Ranging)等がある。上述の2以上のセンサは、すべて同一種類のセンサであってもよいし、互いに異なる種類のセンサであってもよい。
移動体には、2以上のセンサが設置されている。2以上のセンサは、前方及び後方、さらに、右方向及び左方向、等の、異なる方向の状態の変化を検出可能に設置される。例えば、移動体の前方に設置されたセンサは、前方の状態の変化を検出し、移動体の後方に設置されたセンサは、後方の状態の変化を検出してもよい。もしくは、移動体の特定の箇所に、複数のセンサを設置する場合、それぞれのセンサが異なる検出領域を有するように設置されてもよい。検出領域は、例えば、感知領域と称されてもよい。
通信部11は、無線通信回線を介してセンサ情報をサーバ装置へ送信してもよい。無線通信回線は、例えば、3GPP(3rd Generation Partnership Project)等において仕様が規定された、3G、4GまたはLTE(Long Term Evolution)、5G等のモバイルネットワークであってもよく、無線LAN(Local Area Network)であってもよい。もしくは、通信部11は、有線通信回線を介してセンサ情報をサーバ装置へ送信してもよい。
サーバ装置は、メモリに格納されたプログラムをプロセッサが実行することによって動作するコンピュータ装置であってもよい。サーバ装置は、例えば、通信装置10から受信したセンサ情報を用いて、移動体を遠隔監視してもよい。
移動状態認識部12は、移動体の移動状態を認識する。移動状態は、移動体の移動方向を示す情報であってもよい。例えば、移動状態は、移動体が、前方もしくは後方に進んでいるかを示す情報であってもよい。または、移動状態は、移動体が右折して右方向に進んでいるかもしくは左折して左方向に進んでいるかを示す情報であってもよい。または、移動状態は、移動体の速度もしくは加速度を示す情報であってもよい。または、移動状態は、停止しているか否かを示す情報であってもよい。移動状態認識部12は、移動状態に関する情報を通信制御部14へ出力する。
周辺状態認識部13は、移動体の周辺状態を認識する。周辺状態は、例えば、移動体が車両である場合に、移動体の周辺における歩行者の有無、他車両の有無、障害物の有無、交通標識の有無、交通信号の有無等であってもよい。また、周辺状態は、例えば、移動体が飛行機である場合に、移動体の周辺における気象状況等を示す情報であってもよい。周辺状態認識部13は、周辺状態に関する情報を通信部11へ出力する。なお、周辺状態に関する情報には、当該周辺状態の方向を示す情報が含まれていてもよい。ここでの方向とは、車両の向きを基準にした相対方向であってもよいし、磁北や真北を基準にした絶対方向であってもよい。
通信制御部14は、移動状態及び周辺状態に基づいて、それぞれのセンサの優先度を決定する。さらに、通信制御部14は、優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行う。優先度は、連続値であっても良いし、離散値、例えば、2以上の複数のレベルもしくは段階が定義されてもよい。通信制御部14は、例えば、移動状態及び周辺状態の組み合わせに応じて、それぞれのセンサの優先度を決定してもよい。通信制御は、例えば、センサ情報を送信する際に、優先度が高いセンサ情報に対し、優先度が低いセンサ情報よりも多くの通信帯域を割当てることで実施してもよい。あるいは、通信制御は、優先度が高いセンサ情報を、優先度が低いセンサ情報よりも時間的に早いタイミングで送信することで実施してもよい。
以上説明したように、図1の通信装置10は、移動体の周辺状態のみを用いるのではなく、移動状態及び周辺状態を用いて、移動体に設置された2以上のセンサにおけるそれぞれのセンサの優先度を決定することができる。そのため、例えば、通信装置10は、周辺状態において移動体の周辺に歩行者が存在しないと示されている場合であっても、移動状態をさらに考慮して移動体に設置されたセンサの優先度を決定することができる。あるいは、周辺状態において前方と後方のそれぞれに歩行者が存在すると示されている場合であっても、移動状態をさらに考慮して前方センサと後方センサのどちらを優先すべきかを決定することができる。これより、周辺状態のみを用いた場合には、必要以上に優先度が低いまたは高いと決定され得るセンサであっても、通信装置10は、移動状態をさらに考慮することによって、センサの優先度を適正化することができる。その結果、通信装置10は、優先度を高精度に決定することが可能であり、優先度の低いセンサ情報と比較して、サーバ装置等へと送信される、優先度の高いセンサ情報の品質を高く維持することができる。
(実施の形態2)
続いて、図2を用いて実施の形態2にかかる通信システムの構成例について説明する。図2の通信システムは、通信装置20、車両30、サーバ装置40、及びネットワーク45を有している。車両30は、通信装置20を搭載しているとする。
通信装置20は、ネットワーク45を介してサーバ装置40と通信する。ネットワーク45は、例えばIP(Internet Protocol)ネットワークであってもよい。具体的には、ネットワーク45としてインターネットもしくはイントラネットが用いられてもよい。また、ネットワーク45は、モバイルネットワークや無線LANであってもよい。通信装置20は、モバイルネットワークや無線LAN等の無線通信回線を介してネットワーク45と接続してもよい。
次に、車両30の通信装置20以外の構成例について説明する。車両30は、移動体に相当する。車両30は、例えば、遠隔から監視または制御される自動運転車両であってもよい。自動運転車両は、例えば、人が操作することなく走行することができる車両であってよい。もしくは、自動運転車両は、人が車両を運転する際の通常の操作よりも簡易な操作を行うことによって走行することができる車両であってもよい。遠隔から制御するとは、例えば、サーバ装置40が、ネットワーク45を介して車両30を制御することであってもよい。車両30は、センサとして前カメラ31、後カメラ32、右カメラ33、及び左カメラ34を有している。前カメラ31は、車両30の前方を撮影することができるカメラである。後カメラ32は、車両30の後方を撮影することができるカメラである。右カメラ33は、車両30の右方向を撮影することができるカメラである。左カメラ34は、車両30の左方向を撮影することができるカメラである。
前カメラ31、後カメラ32、右カメラ33、及び左カメラ34は、それぞれ、撮影した映像データを通信装置20へ送信する。映像データは、圧縮及び変換前のデータ、つまり、エンコード前のデータであってもよく、圧縮及び変換後、つまり、エンコード後のデータであってもよい。前カメラ31、後カメラ32、右カメラ33、及び左カメラ34は、映像データをパケットとして送信してもよい。
前カメラ31、後カメラ32、右カメラ33、及び左カメラ34は、車両30内に構築されたLAN(Local Area Network)等のIPネットワークを介して通信装置20へ映像データを送信してもよい。前カメラ31、後カメラ32、右カメラ33、及び左カメラ34は、例えば、イーサネット(登録商標)を用いて構築されたネットワークを介して映像データを通信装置20へ送信してもよい。もしくは、前カメラ31、後カメラ32、右カメラ33、及び左カメラ34は、CAN(Controller Area Network)を介して映像データを通信装置20へ送信してもよい。また、前カメラ31、後カメラ32、右カメラ33、及び左カメラ34は、USB(Universal Serial Bus)やHDMI(High-Definition Multimedia Interface)(登録商標)等の通信回線を介して通信装置に映像データを送信してもよい。
次に、通信装置20の構成例について説明する。通信装置20は、図1の通信装置10に通信部15が追加された構成である。通信装置20の構成において、通信装置10と同様の構成については、詳細な説明を省略する。通信部11は、ネットワーク45と接続する。例えば、通信部11は、無線通信回線を介してネットワーク45と接続する。
通信部15は、車両30に搭載されたそれぞれのカメラから映像データを受信する。通信部15は、受信した映像データを通信部11及び周辺状態認識部13へ出力する。
周辺状態認識部13は、受け取った映像データを用いて、カメラ毎の周辺状態を認識する。
例えば、周辺状態認識部13は、受け取った映像データのトラヒック特性に基づいてそれぞれのカメラの周辺状態を認識する。周辺状態認識部13は、カメラの周辺状態に関する情報を通信制御部14へ出力する。周辺状態は、周辺環境と言い換えられてもよい。トラヒック特性は、例えば、転送レート、平均パケット間隔、平均パケットサイズ、もしくはジッタ等であってもよい。例えば、周辺状態認識部13が受け取った映像データは、MPEG(Moving Picture Experts Group)規格の動画エンコーディングが行われているとする。もしくは、周辺状態認識部13は、受け取った映像データに対してMPEG規格の動画エンコーディングを行ってもよい。MPEG規格の動画エンコーディングにおいては、前のフレームとの差分情報を送信することによって、フレームサイズの圧縮を図る技術が広く用いられている。このようなフレームサイズの圧縮を図る技術が用いられる場合、変化が少ない映像においては変化が多い映像よりも圧縮効果が強まり、転送データ量あるいは転送レートが小さくなる。一方、変化が多い映像においては圧縮効果が弱まり、変化が少ない映像よりも転送データ量あるいは転送レートが大きくなる。つまり、映像の変化の程度に応じて、映像データのトラヒック特性が変化する。
例えば、転送レートが予め定められた閾値よりも大きい場合、周辺状態認識部13は、映像データの変化の程度が予め定められた閾値よりも大きいと認識する。つまり、周辺状態認識部13は、転送レートが予め定められた閾値よりも大きい場合、受け取った映像データのフレームには、前に受け取った映像データのフレームには写っていなかった歩行者等が写っていると認識する。歩行者等とは、歩行者、他車両、障害物、交通信号、もしくは交通標識を含む。周辺状態認識部13は、転送レートが予め定められた閾値よりも小さい場合、受け取った映像データのフレームには、歩行者、他車両、障害物、交通信号、もしくは交通標識等が写っていない状態が継続していると認識する。
もしくは、周辺状態認識部13は、受け取った映像データの画像内容の解析を行い、歩行者、他車両、障害物、交通信号、もしくは交通標識等が写っているか否かを認識してもよい。画像内容の解析は、画像処理もしくは画像認識処理と言い換えられてもよい。画像認識処理とは、例えば、周辺状態認識部13が、映像データ内の特徴量を抽出し、抽出した特徴量と、予め通信装置20内のメモリ等に登録された対象物の特徴量とを照合する。対象物は、例えば、人、車両、障害物、交通信号、及び交通標識等である。周辺状態認識部13は、抽出した特徴量が、登録された対象物の特徴量と一致した場合もしくは一致箇所の数が予め定められた値を超えた場合、映像データ内に歩行者、他車両、障害物、交通信号、もしくは交通標識等が写っていると認識する。あるいは、当該カメラの位置および撮影方向における基準画像データを用意しておき、撮影により得られた画像と当該基準画像データとを比較することによって、基準画像データには含まれていない対象物の存在を認識してもよい。
移動状態認識部12は、車両30内に構築されている車載ネットワークであるCANを介して車両30のアクチュエータもしくはセンサ情報等の制御情報を取得する。移動状態認識部12は、制御情報を用いて、車両30の移動状態を認識する。移動状態とは、進行方向や進行速度、およびそれらの変化の有無や変化の程度を表すものであり、現在の状態に限らず、将来の予測値であってもよい。例えば、移動状態認識部12は、制御情報としてウィンカー情報を取得することによって、車両30が右折もしくは左折していること、もしくは、所定期間経過後に、右折もしくは左折することを認識する。また、移動状態認識部12は、シフトレバー情報を取得することによって、車両30が前進しているか後進しているかを認識する。移動状態認識部12は、車速センサ情報を用いて、車両30の速度もしくは加速度を認識もしくは予測してもよい。また、移動状態認識部12は、ブレーキ情報を取得することによって、車両30が減速していることを認識する。移動状態認識部12は、車両30の移動状態として認識した情報を通信制御部14へ出力する。制御情報は、車両30に搭載されたアクチュエータ等の機器の機器情報と言い換えられてもよい。また予測とは、推定や算出と言い換えられてもよい。
もしくは、車両30が自動運転車両である場合、車両の走行を制御するソフトウェアを用いて、車両30の進路及び速度が制御される。この場合、移動状態認識部12は、ソフトウェアから、車両30の移動状態、例えば、前進しているのか、後進しているのか、さらに、右折するのか左折するのか等の情報を取得してもよい。移動状態認識部12がソフトウェアから取得する情報は、走行制御情報と言い換えられてもよい。
通信制御部14は、移動状態認識部12及び周辺状態認識部13から受け取った情報を用いて、前カメラ31、後カメラ32、右カメラ33、及び左カメラ34の優先度を決定する。ここで、図3を用いて、通信制御部14が決定する優先度について説明する。図3においては、優先度は、0、1、及び2を用いて示され、優先度2が最も優先度が高く、優先度0が最も優先度が低いとする。
通信制御部14は、例えば、移動状態認識部12から、車両30が前進しているとの情報を取得したとする。この場合、通信制御部14は、前カメラ31の優先度を2と設定する。通信制御部14は、車両30が後進しているとの情報を取得した場合、後カメラ32の優先度を2と設定する。
次に、通信制御部14は、車両30が前進している場合、後カメラ32から取得した映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写っているか否かを、周辺状態認識部13から受け取った情報を用いて判定する。通信制御部14は、車両30が前進しており、後カメラ32から取得した映像データにおいて、他車両等が写っている場合、つまり、後方から他車両等が接近している場合、後カメラ32の優先度を1と設定する。通信制御部14は、車両30が前進しており、後カメラ32から取得した映像データにおいて、他車両等が写っていない場合、つまり、後方から他車両等が接近していない場合、後カメラ32の優先度を0と設定する。
また、通信制御部14は、車両30が後進している場合、前カメラ31から取得した映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写っているか否かを、周辺状態認識部13から受け取った情報を用いて判定する。通信制御部14は、車両30が後進しており、前カメラ31から取得した映像データにおいて、他車両等が写っている場合、つまり、他車両等が前方から接近している場合、前カメラ31の優先度を1と設定する。通信制御部14は、車両30が後進しており、前カメラ31から取得した映像データにおいて、他車両等が写っていない場合、つまり、前方から他車両等が接近していない場合、前カメラ31の優先度を0と設定する。
図3において説明した優先度の設定はあくまで一例である。例えば、優先度として0~3を定義し、車両30が前進しており、かつ、前カメラ31に他車両等が写っている場合、前カメラ31をさらに優先度の高い値として3を設定してもよい。また、映像データに写っている対象に応じて、優先度を変更してもよい。
通信制御部14は、それぞれのカメラの優先度を決定すると、優先度に従った通信制御を行う。例えば、通信制御部14は、通信部15から通信部11へ出力された映像データのうち、最も優先度の高いカメラにおいて撮影された映像データのみをネットワーク45を介してサーバ装置40へ送信するように制御してもよい。例えば、図3の例においては、通信制御部14は、優先度が2と設定されたカメラにおいて撮影された映像データのみを送信するように制御してもよい。最も優先度の高いカメラにおいて撮影された映像のみをネットワーク45を介してサーバ装置40へ送信してもよい。これにより、ネットワーク45の輻輳または帯域不足によって生じる、映像データの廃棄、消失もしくは大きな遅延の発生する可能性を減少させることができる。その結果、通信装置20は、最も優先度の高いカメラにおいて撮影された映像データを、品質を低下させることなくサーバ装置40へ送信することができる。
または、通信制御部14は、Priority-Based Flow Controlを適用してもよい。具体的には、通信部15は、優先度別に分けた複数のバッファを用意し、それぞれのカメラにおいて撮影された映像データを、当該カメラの優先度に対応するバッファに格納する。通信制御部14は、優先度の高いバッファから順に、格納されている映像データをサーバ装置40へ送信してもよい。例えば、通信制御部14は、はじめに、優先度が2と設定されたカメラにおいて撮影された映像データを格納するバッファ内の映像データをすべて送信する。通信制御部14は、優先度が2と設定されたカメラにおいて撮影された映像データをすべて送信し終えた後に、優先度が1と設定されたカメラにおいて撮影された映像データを格納するバッファの映像データを送信してもよい。優先度の高いカメラにおいて撮影された映像データを他のカメラにおいて撮影された映像データよりも優先的にサーバ装置40へ送信することによって、優先度の高いカメラにおいて撮影された映像データに確実に通信リソースを割り当てることができる。言い換えると、優先度の高いカメラにおいて撮影された映像データに対して割り当てる通信リソースが不足することを防止することができる。その結果、優先度の高いカメラにおいて撮影された映像データは、他のカメラにおいて撮影された映像データよりも高い品質にてサーバ装置40へ送信される。
続いて、図4を用いて通信装置20における通信制御処理の流れについて説明する。はじめに、通信部15は、車両30に搭載されている複数のカメラから映像データを取得する(S11)。次に、周辺状態認識部13は、複数のカメラから取得した映像データを用いて、それぞれのカメラの周辺状態を認識する(S12)。例えば、周辺状態認識部13は、受け取った映像データのトラヒック特性に基づいてそれぞれのカメラの周辺状態を認識する。もしくは、周辺状態認識部13は、受け取った映像データの画像内容の解析によりそれぞれのカメラの周辺状態を認識する。
次に、移動状態認識部12は、車両30の移動状態を認識する(S13)。例えば、移動状態認識部12は、CANを介して取得したアクチュエータもしくはセンサ情報等の制御情報を用いて、車両30の移動状態を認識する。
次に、通信制御部14は、移動状態認識部12及び周辺状態認識部13から受け取った情報を用いて、車両30に搭載されているカメラの優先度を決定する(S14)。次に、通信制御部14は、優先度が他のカメラよりも高いカメラにおいて撮影された映像データを他の映像データよりも高品質に送信できるように通信制御を行う(S15)。例えば、通信制御部14は、最も優先度が高いカメラの映像データのみをネットワーク45を介してサーバ装置40へ送信する。あるいは、通信制御部14は、映像データを優先度別のバッファに格納し、優先度が高いバッファに格納された映像データから順に、映像データを送信する。
なお、上記の通信制御部14による通信制御に加え、各カメラまたは通信制御部14は、各カメラの優先度または映像データの伝送品質に応じて、映像制御を行ってもよい。例えば、通信制御部14は、映像制御として、映像ビットレート、映像フレームレート、解像度、エンコーディング規格に固有の品質パラメータなどを制御してもよい。なお、映像データの伝送品質とは、例えば、転送レート、遅延、パケットロス、ジッタなどである。
例えば、通信制御部14は、優先度が低いカメラあるいは多くのパケットロスが発生しているカメラに対し、映像ビットレートを下げる、映像フレームレートを下げる、もしくは解像度を下げる、といった指示を出してもよい。これにより、優先度が低く、使用可能な通信帯域が少ないカメラにおいて、使用可能な通信帯域に適した映像品質を用いることができる。結果として、例えば、優先度が低いカメラにおける映像データのパケットロス数を減らすことができる。
また、通信制御部14は、優先度が高いカメラに対し、映像ビットレートを上げる、映像フレームレートを上げる、もしくは解像度を上げる、といった指示を出してもよい。これにより、優先度が高く、使用可能な通信帯域が多いカメラにおいて、使用可能な通信帯域に適した映像品質を用いることができる。結果として、優先度が高いカメラにおける映像データの高品質化、例えば、高ビットレート化、高フレームレート化、高解像度化などを実現できる。
以上説明したように、通信装置20は、移動状態認識部12において認識された車両30の移動状態と、周辺状態認識部13において認識された、それぞれのカメラの周辺状態とを用いて、それぞれのカメラの優先度を決定することができる。さらに、通信装置20は、優先度の高いカメラにおいて撮影された映像データを、他のカメラよりも高品質にサーバ装置40へ送信することができる。その結果、通信装置20は、優先度の高いカメラにおいて撮影された映像データ、つまり、重要度の高いデータの品質を高く維持して、当該データをサーバ装置40へ送信することができる。
(実施の形態3)
続いて、図5を用いて実施の形態3にかかる通信装置50について説明する。通信装置50における周辺状態認識部13は、車両30に搭載されているカメラ以外のセンサ35から取得した情報を用いて、車両30の周辺状態を認識する。例えば、車両30には、ミリ波レーダ、赤外線センサ、超音波ソナー、もしくはLiDAR(Light Detection and Ranging)等のセンサ35が搭載されてもよい。周辺状態認識部13は、それぞれのセンサ35から取得した情報を用いて、車両30の周辺に歩行者、他車両、障害物、交通信号、もしくは交通標識等が存在することを認識、もしくは検出してもよい。周辺状態認識部13は、それぞれのセンサから取得した情報を組み合わせて用いることによって、車両30の周辺に歩行者、他車両、障害物、交通信号、もしくは交通標識等が存在することを認識、もしくは検出してもよい。さらに、周辺状態認識部13は、車両30の周辺のどの位置に歩行者、他車両、障害物、交通信号、もしくは交通標識等が存在するかも認識する。例えば、周辺状態認識部13は、車両30の前方、後方、右方向、左方向の少なくとも1つの方向に歩行者等が存在するかを認識してもよい。
また、車両30は、それぞれのセンサから取得した情報を用いて、車両30からどの程度離れた位置に歩行者、他車両、障害物、交通信号、もしくは交通標識等が存在するかを認識してもよい。
通信制御部14は、周辺状態認識部13から車両30の周辺のどの方向に歩行者等が検出されたかを示す情報を取得する。通信制御部14は、移動状態認識部12から取得した情報と、周辺状態認識部13から取得した情報とを用いて、前カメラ31、後カメラ32、右カメラ33、及び左カメラ34の優先度を決定する。例えば、通信制御部14は、歩行者等が検出された方向に設置されたカメラに、歩行者等が写っているとみなして、図3に示されるように優先度を設定してもよい。
以上説明したように、周辺状態認識部13は、前カメラ31、後カメラ32、右カメラ33、及び左カメラ34とは異なるセンサから取得した情報を用いて、前カメラ31、後カメラ32、右カメラ33、及び左カメラ34の優先度を決定することができる。
(実施の形態4)
実施の形態4にかかる通信制御部14が決定する優先度について説明する。
通信制御部14は、車両30の移動状態及び車両30の周辺状態の少なくとも一方について将来の状態を予測し、予測した情報を用いて車両30に搭載されたカメラの優先度を決定することができる。
初めに移動状態認識部12による移動状態の予測について説明する。移動状態認識部12は、車両30に搭載された機器の機器情報、あるいは、車両30の走行を制御するソフトウェアから取得できる走行制御情報などに基づいて、所定期間経過後の車両の移動状態を予測する。機器情報とは、車載のアクチュエータやセンサ等から取得できるウィンカー情報、シフトレバー情報、車速センサ情報、ブレーキ情報などである。例えば、移動状態認識部12は、ウィンカー情報を用いることで、車両の右折もしくは左折を予測できる。移動状態認識部12は、シフトレバー情報を用いることで、車両の前進もしくは後退の予測できる。また、走行制御情報とは、車両の操舵、制動、加減速、走行ルート等を含む情報である。これら走行制御情報は、車両30の走行を制御するソフトウェアのほか、カーナビゲーションのような運転を支援するソフトウェアから取得してもよい。
図6を用いて、ウィンカー情報によって車両30の移動状態を予測して各カメラの優先度を決定する例を説明する。移動状態認識部12は、CANを介して取得したウィンカー情報を用いて、所定期間経過後の車両の移動方向を予測する。例えば、移動状態認識部12は、右折を示すウィンカー情報を取得した場合、A(Aは0以上の整数)秒後に、車両30が右方向へ移動すると予測する。また、移動状態認識部12は、左折を示すウィンカー情報を取得した場合、A秒後に、車両30が左方向へ移動すると予測する。
通信制御部14は、移動状態認識部12において、車両30が左折を示すウィンカー情報に基づいて左方向へ移動すると予測された場合、左カメラ34の優先度を2に設定する。通信制御部14は、移動状態認識部12において、車両30が右折を示すウィンカー情報に基づいて右方向へ移動すると予測された場合、右カメラ33の優先度を2に設定する。
次に、通信制御部14は、車両30が右折すると予測された場合、左カメラ34から取得した映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写っているか否かを判定する。通信制御部14は、車両30が右折すると予測され、左カメラ34から取得した映像データにおいて、他車両等が写っている場合、つまり、左方向から他車両等が接近している場合、左カメラ34の優先度を1と設定する。通信制御部14は、車両30が右折すると予測された場合、左カメラ34から取得した映像データにおいて、他車両等が写っていない場合、つまり、左方向から他車両等が接近していない場合、左カメラ34の優先度を0と設定する。
また、通信制御部14は、車両30が左折すると予測された場合、右カメラ33から取得した映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写っているか否かを判定する。通信制御部14は、車両30が左折すると予測され、右カメラ33から取得した映像データにおいて、他車両等が写っている場合、つまり、他車両等が右方向から接近している場合、右カメラ33の優先度を1と設定する。通信制御部14は、車両30が左折すると予測され、右カメラ33から取得した映像データにおいて、他車両等が写っていない場合、つまり、右方向から他車両等が接近していない場合、右カメラ33の優先度を0と設定する。
続いて周辺状態認識部13による周辺状態の予測について説明する。周辺状態認識部13は、カメラ以外のセンサ35から取得した情報、あるいは、当該カメラ以外の他カメラから取得した情報を用いて、所定期間経過後の、当該カメラの周辺状態を予測することができる。例えば、周辺状態認識部13は、LiDAR等のセンサから取得した情報を用いて、車両30の周辺に存在する歩行者等との距離や方向を特定する。さらに、周辺状態認識部13は、移動状態認識部12から車両30の速度に関する情報を取得してもよい。周辺状態認識部13は、車両30の周辺に存在する歩行者等との距離と、車両30の速度に関する情報とを用いて、所定期間経過後に、カメラに歩行者等が写ることを予測してもよい。例えば、周辺状態認識部13は、カメラにおいて撮影される映像に、歩行者等が予め定められた値よりも大きく表示される場合に、カメラに歩行者等が写ると予測してもよい。
また、周辺状態認識部13は、現在位置、進行方向、及び車両周辺の地図情報を用いて、所定期間経過後に、車両30に搭載されたカメラに、歩行者等が写ることを予測してもよい。周辺状態認識部13は、例えば、GPS(Global Positioning System)等の全地球衛星測位システム(GNSS:Global Navigation Satellite System)を用いて現在位置及び進行方向を特定してもよい。さらに、周辺状態認識部13は、通信装置20(もしくは通信装置50)内のメモリに格納されている地図情報を用いて、車両30周辺の地図情報を抽出してもよい。もしくは、周辺状態認識部13は、ネットワーク45を介して他の装置に格納されている地図情報を取得し、取得した地図情報を用いて、車両30周辺の地図情報を抽出してもよい。例えば、車両30の周辺に交差点や合流点が存在する場合、所定期間経過後に、交差あるいは合流する他の道路の方向を撮影するカメラに、歩行者等が写ると予測してもよい。
図7を用いて、車両30の周辺状態を予測して各カメラの優先度を決定する例を説明する。通信制御部14は、例えば、移動状態認識部12から、車両30が前進しているとの情報を取得したとする。この場合、通信制御部14は、前カメラ31の優先度を2と設定する。通信制御部14は、車両30が後進しているとの情報を取得した場合、後カメラ32の優先度を2と設定する。
次に、通信制御部14は、車両30が前進している場合、後カメラ32が撮影する映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写ると予測されているか否かを判定する。通信制御部14は、車両30が前進しており、後カメラ32が撮影する映像データに、他車両等が写ると予測されている場合、つまり、後方から他車両等が接近していることが予測される場合、後カメラ32の優先度を1と設定する。通信制御部14は、車両30が前進しており、後カメラ32が撮影する映像データに、他車両等が写ると予測されない場合、つまり、後方から他車両等が接近することが予測されない場合、後カメラ32の優先度を0と設定する。
また、通信制御部14は、車両30が後進している場合、前カメラ31が撮影する映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写ると予測されているか否かを判定する。通信制御部14は、車両30が後進しており、前カメラ31が撮影する映像データにおいて、他車両等が写ると予測されている場合、つまり、他車両等が前方から接近していることが予測される場合、前カメラ31の優先度を1と設定する。通信制御部14は、車両30が後進しており、前カメラ31が撮影する映像データに、他車両等が写ると予測されない場合、つまり、前方から他車両等が接近することが予測されない場合、前カメラ31の優先度を0と設定する。
続いて、図8を用いて、通信制御部14が決定する優先度について、図6及び図7とは異なる優先度の決定方法について説明する。図8においては、通信制御部14が、予測される車両の移動状態及び予測されるカメラの周辺状態を用いて、優先度を決定することが示されている。
通信制御部14は、移動状態認識部12において、車両30が左折を示すウィンカー情報に基づいて左方向へ移動すると予測された場合、左カメラ34の優先度を2に設定する。通信制御部14は、移動状態認識部12において、車両30が右折を示すウィンカー情報に基づいて右方向へ移動すると予測された場合、右カメラ33の優先度を2に設定する。
次に、通信制御部14は、車両30が右折すると予測された場合、左カメラ34が撮影する映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写ると予測されているか否かを判定する。通信制御部14は、車両30が右折すると予測され、左カメラ34が撮影する映像データに、他車両等が写ると予測されている場合、つまり、左方向から他車両等が接近していることが予測される場合、左カメラ34の優先度を1と設定する。通信制御部14は、車両30が右折すると予測され、左カメラ34が撮影する映像データに、他車両等が写ると予測されない場合、つまり、左方向から他車両等が接近することが予測されない場合、左カメラ34の優先度を0と設定する。
また、通信制御部14は、車両30が左折すると予測された場合、右カメラ33が撮影する映像データにおいて、歩行者、他車両、障害物、交通信号、もしくは交通標識が写ると予測されているか否かを判定する。通信制御部14は、車両30が左折すると予測され、右カメラ33が撮影する映像データにおいて、他車両等が写ると予測されている場合、つまり、他車両等が右方向から接近していることが予測される場合、右カメラ33の優先度を1と設定する。通信制御部14は、車両30が左折すると予測され、右カメラ33が撮影する映像データに、他車両等が写ると予測されない場合、つまり、右方向から他車両等が接近することが予測されない場合、右カメラ33の優先度を0と設定する。
上述のとおり、通信制御部14は、車両30の移動状態及び車両30の周辺状態の少なくとも一方について将来の状態を予測し、予測した情報を用いて通信制御を実施することができる。なお、車両30の移動状態及び車両30の周辺状態の少なくとも一方について将来の状態を予測するタイミングと、通信制御部14が通信制御を実施するタイミングとは、同一タイミングである必要はない。すなわち、車両30の移動状態及び車両30の周辺状態の少なくとも一方について将来の状態を予測した後に、通信制御部14が通信制御を実施してもよい。このとき、通信制御に要する処理時間を考慮してもよい。例えば、時刻T0において移動状態認識部12が、車両30の移動状態が変化する時刻が時刻T1であると予測したとする。このとき、通信制御部14が通信制御を実施するタイミングは、T0以上T1以下の任意のタイミングを採用することができる。また、通信制御として帯域制御を実施する場合、帯域制御の実行に要する処理時間をαとした場合、T0以上T1-α以下のタイミングに、通信制御を実施してもよい。
以上説明したように、移動状態認識部12は、所定期間経過後の車両30の移動状態を予測することが可能であり、周辺状態認識部13は、所定期間経過後の車両30の周辺状態を予測することが可能である。さらに、通信制御部14は、車両30の移動状態及び車両30の周辺状態の少なくとも一方において、予測された情報を用いて、車両30に搭載されたカメラの優先度を決定することができる。これより、通信制御部14は、将来に発生し得る状況を考慮して、カメラの優先度を決定することができる。
(実施の形態5)
続いて、図9を用いて通信装置60の構成例について説明する。通信装置60は、図2の通信装置20に、帯域評価部16が追加された構成である。また、通信装置60は、図5の通信装置50に帯域評価部16が追加された構成であってもよい。通信装置60における通信装置20と同様の構成については、詳細な説明を省略する。
帯域評価部16は、車両30に搭載されているカメラとサーバ装置40との間の通信回線のうち、少なくとも一部区間の可用帯域を評価する。可用帯域は、通信に使用することができる帯域である。一部区間は、例えば、通信装置60とサーバ装置40との間であってもよく、通信装置60とカメラとの間であってもよく、通信装置60と、モバイルネットワーク上に配置されている基地局との間であってもよい。
帯域評価部16は、評価対象となる区間において、通信部11を介して評価用のプローブパケットを送信及び受信し、プローブパケットから得られる情報を用いて可用帯域を評価してもよい。可用帯域を評価するとは、可用帯域を算出すると言い換えられてもよい。例えば、帯域評価部16は、複数のプローブパケットを送信し、プローブパケットの応答信号を受信した際のRTT(Round Trip Time)を用いて、可用帯域を評価してもよい。もしくは、帯域評価部16は、受信パケットの間隔、つまり、遅延変動を観測することによって、可用帯域を評価してもよい。もしくは、帯域評価部16は、受信した応答信号のTCPウィンドウサイズを用いて、可用帯域を評価してもよい。プローブパケットを用いた可用帯域の評価手法は、一般的に用いられている他の手法が用いられてもよい。帯域評価部16は、可用帯域の評価結果を通信制御部14へ出力する。
通信制御部14は、通信装置60とサーバ装置40との間の区間の可用帯域を評価した場合、決定した優先度に応じて、それぞれのカメラにおいて撮影された映像データをサーバ装置40へ送信する際の帯域を、可用帯域の中から比例配分する。通信制御部14は、通信装置60と基地局との間の区間の可用帯域を評価した場合も、決定した優先度に応じて、それぞれのカメラにおいて撮影された映像データをサーバ装置40へ送信する際の帯域を、可用帯域の中から比例配分してもよい。例えば、通信制御部14は、図3及び図6乃至図8に示される、優先度として2が設定されたカメラにおいて撮影された映像データには、優先度として0及び1が設定されたカメラにおいて撮影された映像データよりも多くの帯域を割り当ててもよい。
もしくは、通信制御部14は、優先度が高く設定されたカメラにおいて撮影された映像データから優先度が低く設定されたカメラにおいて撮影された映像データの順に、必要帯域を割り当ててもよい。例えば、それぞれのカメラにおいて撮影された映像データをすべてサーバ装置40へ送信すると可用帯域を超過する場合、優先度が高く設定されたカメラにおいて撮影された映像データから順に、映像データを送信する際に必要となる帯域を割り当ててもよい。この場合、それぞれの映像データには、同じ量の帯域が割り当てられてもよい。また、可用帯域が全て割り当てられた場合、優先度が低く設定されたカメラにおいて撮影された映像データには、帯域が割り当てられないこともある。
また、通信制御部14は、カメラと通信装置60との間の区間の可用帯域を評価した場合、決定した優先度に応じて、それぞれのカメラが映像データをサーバ装置40へ送信する際の帯域を、可用帯域の中から比例配分してもよい。もしくは、通信制御部14は、カメラと通信装置60との間の区間の可用帯域を評価した場合、決定した優先度に応じて、それぞれのカメラが映像データをサーバ装置40へ送信する際に必要となる必要帯域を、可用帯域の中から割り当ててもよい。
また、通信制御部14は、各カメラの映像送信性能を加味して、各カメラに割当てる帯域を決定してもよい。例えば、映像送信性能により定まる最大映像送信ビットレートが10Mbpsの場合、当該カメラに対して10Mbpsより多くの帯域を割当てても、割当て帯域全てを有効活用することはできない。この問題を解決するためには、当該カメラに割当てる帯域の上限値を最大映像送信ビットレートに制限すればよい。また、映像送信性能により定まる最小映像送信ビットレートが500Kbpsの場合、当該カメラに対して500Kbpsより少ない帯域を割当てると、最低品質での映像送信に支障が生じ得る。この問題を解決するためには、当該カメラに割当てる帯域の下限値を最小映像送信ビットレートに制限することが望ましい。
以上説明したように、通信装置60は、カメラとサーバ装置40との間の通信回線のうち、少なくとも一部区間の可用帯域を評価することができる。さらに、通信装置60は、優先度の高いカメラにおいて撮影された映像データに対して、優先的に可用帯域を割り当てることができる。これにより、優先度の高いカメラにおいて撮影された映像データの品質を、優先度の低いカメラにおいて撮影された映像データの品質よりも高く維持することができる。
(実施の形態6)
続いて、図10を用いて実施の形態6にかかる通信システムの構成例について説明する。図10の通信システムは、車両90、車両100、AP(Access Point)80、通信装置70、サーバ装置40、及びネットワーク45を有している。車両90及び車両100は、例えば、工場内において用いられるAGV(Automated Guided Vehicle)であってもよい。
車両90は、カメラ91及びカメラ92を有している。さらに、車両100は、カメラ101及びカメラ102を有している。車両90及び車両100に搭載されているカメラは、AP80と無線通信を行う。無線通信は、例えば、無線LAN通信であってもよい。車両90及び車両100に搭載されているカメラは、映像データをAP80を介して通信装置70へ送信する。
通信装置70は、AP80と接続している。図10のその他の構成は、図2における通信システムと同様であるため詳細な説明を省略する。
続いて、通信装置70の構成例について説明する。通信装置70は、図2における通信装置20に、移動体識別部17が追加された構成である。また、通信制御部14は、通信部15を介して、車両90及び車両100に搭載されているカメラが送信する映像データに対して通信制御を行う。通信装置70におけるその他の構成は、図2における通信装置20と同様であるため詳細な説明を省略する。
移動体識別部17は、通信部15を介して車両90及び車両100に搭載されているカメラから送信された映像データを取得する。通信装置70は、複数の車両から、映像データを取得する。そのため、それぞれの映像データが、どの車両に設置されたカメラにおいて撮影された映像データかを識別する必要がある。そこで、移動体識別部17は、カメラ91、カメラ92、カメラ101、及びカメラ102において撮影された映像データの相互関係に基づいて、同じ車両に設置されているカメラ群を特定する。
映像データの相互関係は、例えば、それぞれの映像データの相関関係と言い換えられてもよい。それぞれの映像データの相関関係は、例えば、それぞれの映像データにおける映像の変化の有無や変化の速度が一致する、もしくは、変化の速度が類似している等である場合、相関が高いと言える。また、それぞれの映像データの相関関係は、それぞれの映像データから特定される進行方向が一致している場合、相関が高いと言える。また、それぞれの映像データの相関関係は、同一時刻あるいは一定の時間以内に、それぞれの映像データに同一の対象物が含まれている場合、相関が高いと言える。
移動体識別部17は、それぞれの映像データの画像内容の解析を行うことによって、相関が予め定められた閾値よりも高い映像データを特定し、特定した映像データを撮影したカメラ群が、同じ車両に設置されていると判定する。
通信制御部14は、例えば、特定されたカメラ群毎、つまり、特定された車両毎に、図3、図6乃至図8に示されるように優先度を決定してもよい。また、通信制御部14は、映像データと、カメラ群を識別する情報とを関連付けて、映像データ及びカメラ群を識別する情報をサーバ装置40へ送信してもよい。
以上説明したように、通信装置70が、特定の車両に搭載されておらず、複数の車両から、それぞれの車両に搭載されたカメラにおいて撮影された映像データを取得することがある。このような場合であっても、通信装置70は、映像データ間の相互関係を分析もしくは解析することによって、同じ車両に搭載されているカメラ群を特定することができる。また、通信装置70が、映像データ及びカメラ群を識別する情報をサーバ装置40へ送信することによって、サーバ装置40は、車両毎の映像データを認識することができる。その結果、サーバ装置40は、それぞれの車両の監視や制御を容易に行うことができる。
続いて以下では、上述の実施形態で説明された、通信装置10、通信装置20、通信装置50、通信装置60、及び通信装置70(以下、通信装置10等とする)の構成例について説明する。
図11は、通信装置10等の構成例を示すブロック図である。図11を参照すると、通信装置10等は、ネットワーク・インターフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワーク・インターフェース1201は、通信システムを構成する他のネットワークノード装置と通信するために使用される。ネットワーク・インターフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインターフェースカード(NIC)を含んでもよい。もしくは、ネットワーク・インターフェース1201は、無線通信を行うために使用されてもよい。例えば、ネットワーク・インターフェース1201は、無線LAN通信、もしくは3GPP(3rd Generation Partnership Project)において規定されたモバイル通信を行うために使用されてもよい。
プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてシーケンス図及びフローチャートを用いて説明された通信装置10等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。
メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/Oインタフェースを介してメモリ1203にアクセスしてもよい。
図11の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明された通信装置10等の処理を行うことができる。
図11を用いて説明したように、通信装置10等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリを含む。磁気記録媒体は、例えばフレキシブルディスク、磁気テープ、ハードディスクドライブであってもよい。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)であってもよい。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
移動体を基点に、互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサを用いて検出されたセンサ情報を送信する通信部と、
前記移動体の移動状態を認識する移動状態認識部と、
前記移動体の周辺状態を認識する周辺状態認識部と、
前記移動状態及び前記周辺状態に基づいてそれぞれのセンサの優先度を決定し、優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行う通信制御部と、を備える通信装置。
(付記2)
前記センサ情報は、
前記移動体を基点に、互いに異なる方向を撮影可能に前記移動体に設置された2以上のカメラにおいて撮影された映像データであり、
前記通信制御部は、
それぞれのカメラの優先度を決定し、優先度の高いカメラにおいて撮影された映像を優先度の低いカメラにおいて撮影された映像よりも高品質に送信できるように通信制御を行う、付記1に記載の通信装置。
(付記3)
前記周辺状態認識部は、
それぞれの前記カメラにおいて撮影された映像データを用いて前記周辺状態を認識する、付記2に記載の通信装置。
(付記4)
前記周辺状態認識部は、
それぞれの前記カメラにおいて撮影された映像データのトラヒック特性を用いて前記周辺状態を認識する、付記3に記載の通信装置。
(付記5)
前記周辺状態認識部は
それぞれの前記カメラにおいて撮影された映像データの画像内容を解析して前記周辺状態を認識する、付記3に記載の通信装置。
(付記6)
前記周辺状態認識部は、
前記移動体に設置されたミリ波レーダ、赤外線センサ、超音波ソナー、及びLiDARの少なくとも1つに基づいて前記周辺状態を認識する、付記2に記載の通信装置。
(付記7)
前記移動状態認識部は、
前記移動体内に搭載されたネットワークを介して取得することができる前記移動体に搭載された機器の機器情報を用いて前記移動状態を認識する、付記1乃至6のいずれか1項に記載の通信装置。
(付記8)
前記移動状態は、
前記移動体の走行を制御するソフトウェアから取得できる走行制御情報を用いて前記移動状態を認識する、付記1乃至6のいずれか1項に記載の通信装置。
(付記9)
前記移動状態認識部は、
所定期間経過後の前記移動体の移動状態を予測し、
前記周辺状態認識部は、
所定期間経過後の前記移動体の周辺状態を予測し、
前記通信制御部は、
現在の移動状態もしくは所定期間経過後の移動状態と、現在の周辺状態もしくは所定期間経過後の周辺状態と、に基づいてそれぞれのセンサの優先度を決定する、付記1乃至8のいずれか1項に記載の通信装置。
(付記10)
前記周辺状態認識部は、
前記移動体の現在位置、前記移動体の進行方向、及び地図情報を用いて所定期間経過後の前記移動体の周辺状態を予測する、付記9に記載の通信装置。
(付記11)
前記移動状態認識部は、
前記移動体に搭載された機器の機器情報または前記移動体の走行を制御するソフトウェアから取得できる走行制御情報を用いて所定期間経過後の前記移動体の移動状態を予測する、付記9又は10に記載の通信装置。
(付記12)
前記センサ情報を送信する際に用いる通信回線において使用することができる可用帯域を算出する帯域算出部をさらに備え、
前記通信制御部は、
算出された可用帯域のうち、優先度の高いセンサにおいて検出されたセンサ情報に対して、優先度の低いセンサにおいて検出されたセンサ情報に対して割り当てる通信帯域よりも多くの通信帯域を割り当てる、付記1乃至11のいずれか1項に記載の通信装置。
(付記13)
前記通信部は、
複数の前記移動体からセンサ情報を受信し、複数の前記センサ情報の相互関係に基づいて、同一移動体に搭載された少なくとも1以上のセンサを特定する移動体認識部をさらに備える、付記1乃至12のいずれか1項に記載の通信装置。
(付記14)
移動体の移動状態を認識し、
前記移動体の周辺状態を認識し、
前記移動状態及び前記周辺状態に基づいて、前記移動体を基点に、互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサのそれぞれのセンサの優先度を決定し、
優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行い、
前記センサ情報を送信する、通信制御方法。
(付記15)
移動体の移動状態を認識し、
前記移動体の周辺状態を認識し、
前記移動状態及び前記周辺状態に基づいて、前記移動体を基点に、互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサのそれぞれのセンサの優先度を決定し、
優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように通信制御を行い、
前記センサ情報を送信する、ことをコンピュータに実行させるプログラム。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年10月31日に出願された日本出願特願2018-205344を基礎とする優先権を主張し、その開示の全てをここに取り込む。
10 通信装置
11 通信部
12 移動状態認識部
13 周辺状態認識部
14 通信制御部
15 通信部
16 帯域評価部
17 移動体識別部
20 通信装置
30 車両
31 前カメラ
32 後カメラ
33 右カメラ
34 左カメラ
35 センサ
40 サーバ装置
45 ネットワーク
50 通信装置
60 通信装置
70 通信装置
80 AP
90 車両
91 カメラ
92 カメラ
100 車両
101 カメラ
102 カメラ

Claims (8)

  1. 移動体を制御する情報に応じて、前記移動体の移動状態を予測することと、
    前記移動体を基点に互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサの少なくとも1つから得られるデータ通信のトラヒックの特性に応じて、前記移動体の周辺状態を認識することと、
    前記予測された移動状態及び前記周辺状態に基づいて、前記2以上のセンサそれぞれの優先度を特定することと、
    前記優先度に応じて、前記2以上のセンサの通信を制御することと、
    を通信装置が実行する通信制御方法。
  2. 前記移動体の周辺状態を認識することにおいて、前記移動体の現在位置及び進行方向に応じて予測される、前記2以上のセンサのうち少なくとも1つのセンサの周辺状態を認識する、
    請求項1に記載の通信制御方法。
  3. 前記周辺状態は、前記移動体の周辺に位置する物体の有無に関する、
    請求項1に記載の通信制御方法。
  4. 通信に用いる帯域を測定するために送信されたパケットへの応答に基づいて、前記2以上のセンサそれぞれの優先度に応じて前記2以上のセンサ情報の送信時に割当てる帯域を特定すること、
    をさらに備える請求項1からのいずれか1項に記載の通信制御方法。
  5. 前記移動体を制御する情報は、前記移動体の走行を制御するソフトウェアから取得される、
    請求項1からのいずれか1項に記載の通信制御方法。
  6. 前記2以上のセンサの通信を制御することにおいて、前記予測された移動状態及び前記周辺状態に基づいて決定された前記2以上のセンサそれぞれの優先度に応じて、優先度の高いセンサにおいて検出されたセンサ情報を優先度の低いセンサにおいて検出されたセンサ情報よりも高品質に送信できるように前記2以上のセンサの通信を制御する、
    請求項1からのいずれか1項に記載の通信制御方法。
  7. 移動体を制御する情報に応じて、前記移動体の移動状態を予測し、
    前記移動体を基点に互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサの少なくとも1つから得られるデータ通信のトラヒックの特性に応じて、前記移動体の周辺状態を認識し、
    前記予測された移動状態及び前記周辺状態に基づいて、前記2以上のセンサそれぞれの優先度を特定し、
    前記優先度に応じて、前記2以上のセンサの通信を制御する、
    通信装置。
  8. 移動体を制御する情報に応じて、前記移動体の移動状態を予測し、
    前記移動体を基点に互いに異なる方向の状態を検出可能に前記移動体に設置された2以上のセンサの少なくとも1つから得られるデータ通信のトラヒックの特性に応じて、前記移動体の周辺状態を認識し、
    前記予測された移動状態及び前記周辺状態に基づいて、前記2以上のセンサそれぞれの優先度を特定し、
    前記優先度に応じて、前記2以上のセンサの通信を制御する、
    ことをコンピュータに実行させるプログラム。

JP2022149760A 2018-10-31 2022-09-21 通信制御方法、通信装置、及びプログラム Active JP7435682B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018205344 2018-10-31
JP2018205344 2018-10-31
PCT/JP2019/037161 WO2020090285A1 (ja) 2018-10-31 2019-09-24 通信装置、通信制御方法、及び非一時的なコンピュータ可読媒体
JP2020554818A JP7147867B2 (ja) 2018-10-31 2019-09-24 通信装置、通信制御方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020554818A Division JP7147867B2 (ja) 2018-10-31 2019-09-24 通信装置、通信制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2022191249A JP2022191249A (ja) 2022-12-27
JP7435682B2 true JP7435682B2 (ja) 2024-02-21

Family

ID=70462193

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020554818A Active JP7147867B2 (ja) 2018-10-31 2019-09-24 通信装置、通信制御方法、及びプログラム
JP2022149760A Active JP7435682B2 (ja) 2018-10-31 2022-09-21 通信制御方法、通信装置、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020554818A Active JP7147867B2 (ja) 2018-10-31 2019-09-24 通信装置、通信制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20210409650A1 (ja)
JP (2) JP7147867B2 (ja)
WO (1) WO2020090285A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242986B (zh) * 2020-01-07 2023-11-24 阿波罗智能技术(北京)有限公司 跨相机的障碍物跟踪方法、装置、设备、系统及介质
JP7468278B2 (ja) 2020-09-29 2024-04-16 株式会社デンソー 通信制御装置、通信制御方法、および通信制御プログラム
JP2023014750A (ja) * 2021-07-19 2023-01-31 ウーブン・プラネット・ホールディングス株式会社 移動体制御システム、移動体制御方法、移動体遠隔支援システム
JP2023176658A (ja) * 2022-05-31 2023-12-13 株式会社デンソー モビリティサービスシステム、及びデータ量の低減方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001055100A (ja) 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2007281623A (ja) 2006-04-03 2007-10-25 Sharp Corp 通信システム及び通信方法
JP2010034831A (ja) 2008-07-29 2010-02-12 Mitsubishi Electric Corp 無線通信装置および中央制御無線通信装置
JP2010173366A (ja) 2009-01-27 2010-08-12 Mitsubishi Electric Corp 車載ネットワーク装置
JP2010283722A (ja) 2009-06-08 2010-12-16 Alpine Electronics Inc 障害物検出装置および障害物検出方法
US20150158495A1 (en) 2013-12-05 2015-06-11 Elwha Llc Systems and methods for reporting characteristics of operator performance

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2861679B2 (ja) * 1992-10-06 1999-02-24 日産自動車株式会社 衝突判断装置
JP3329315B2 (ja) * 1999-08-19 2002-09-30 株式会社デンソー 車両間通信装置
JP2005222307A (ja) * 2004-02-05 2005-08-18 Sumitomo Electric Ind Ltd 画像表示システム及び画像表示方法
JP4615380B2 (ja) * 2005-06-29 2011-01-19 本田技研工業株式会社 画像送信装置
US8384825B2 (en) * 2005-09-15 2013-02-26 Sharp Kabushiki Kaisha Video image transfer device and display system including the device
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
US8441535B2 (en) * 2008-03-05 2013-05-14 Omnivision Technologies, Inc. System and method for independent image sensor parameter control in regions of interest
US8582182B2 (en) * 2009-05-20 2013-11-12 Dacuda Ag Automatic sizing of images acquired by a handheld scanner
JP2012053585A (ja) * 2010-08-31 2012-03-15 Equos Research Co Ltd 情報共有システム
US20140002651A1 (en) * 2012-06-30 2014-01-02 James Plante Vehicle Event Recorder Systems
ITAN20120145A1 (it) * 2012-11-08 2014-05-09 Tenneco Marzocchi S R L Forcella con elettrovalvola.
JP6135545B2 (ja) * 2014-02-24 2017-05-31 株式会社デンソー 補正値生成装置、故障診断装置、補正値生成プログラム、および故障診断プログラム
JP6293013B2 (ja) * 2014-07-30 2018-03-14 Kddi株式会社 映像送信装置、映像送信方法及び映像送信プログラム
WO2016092591A1 (ja) * 2014-12-09 2016-06-16 三菱電機株式会社 衝突リスク算出装置、衝突リスク表示装置、車体制御装置
US10367869B2 (en) * 2014-12-30 2019-07-30 Ford Global Technologies, Llc Remote vehicle control and operation
JP6428687B2 (ja) * 2016-03-18 2018-11-28 株式会社デンソー 通信制御装置
CN109479050A (zh) * 2016-03-29 2019-03-15 分辨率产品公司 通用协议转换器
MX2019002003A (es) * 2016-08-26 2019-06-20 Sony Corp Aparato de control del objeto en movimiento, metodo de control del objeto en movimiento y objejo en movimiento.
JP7139717B2 (ja) * 2018-06-26 2022-09-21 株式会社デンソー 車両用通信装置、車両用通信方法、及び制御プログラム
KR20210022570A (ko) * 2018-06-29 2021-03-03 소니 세미컨덕터 솔루션즈 가부시키가이샤 정보 처리 장치 및 정보 처리 방법, 촬상 장치, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치
US20220279428A1 (en) * 2021-02-26 2022-09-01 Comcast Cable Communications, Llc Methods, apparatuses, and systems for managing network communications

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001055100A (ja) 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd 多機能車載カメラシステムと多機能車載カメラの画像表示方法
JP2007281623A (ja) 2006-04-03 2007-10-25 Sharp Corp 通信システム及び通信方法
JP2010034831A (ja) 2008-07-29 2010-02-12 Mitsubishi Electric Corp 無線通信装置および中央制御無線通信装置
JP2010173366A (ja) 2009-01-27 2010-08-12 Mitsubishi Electric Corp 車載ネットワーク装置
JP2010283722A (ja) 2009-06-08 2010-12-16 Alpine Electronics Inc 障害物検出装置および障害物検出方法
US20150158495A1 (en) 2013-12-05 2015-06-11 Elwha Llc Systems and methods for reporting characteristics of operator performance

Also Published As

Publication number Publication date
JP2022191249A (ja) 2022-12-27
US20210409650A1 (en) 2021-12-30
JP7147867B2 (ja) 2022-10-05
JPWO2020090285A1 (ja) 2021-10-14
WO2020090285A1 (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7435682B2 (ja) 通信制御方法、通信装置、及びプログラム
US11151868B2 (en) Remote vehicle control at intersections
CN111201787B (zh) 成像装置、图像处理装置和图像处理方法
US11127295B2 (en) Visual sensor fusion and data sharing across connected vehicles for active safety
US11042159B2 (en) Systems and methods for prioritizing data processing
CN111417561B (zh) 实现移动运输工具的自动远程控制的服务器及移动运输工具的自动远程控制方法
US20220214684A1 (en) Monitoring center, monitoring system and method
US11710407B2 (en) Information processing system and information processing method
JP7070664B2 (ja) システム、そのサーバコンピュータ、制御方法及びコンピュータプログラム
Schiegg et al. Object Detection Probability for Highly Automated Vehicles: An Analytical Sensor Model.
US20210110708A1 (en) Hierarchical integrated traffic management system for managing vehicles
WO2023248776A1 (ja) 遠隔支援装置、遠隔支援方法、及び遠隔支援プログラム
JP7409309B2 (ja) 情報処理装置と情報処理方法とプログラム
JP7347502B2 (ja) 渋滞情報提供装置、渋滞情報処理方法及びプログラム
US20230343106A1 (en) Information processing apparatus, image transmission system, and information processing method
CN112837529B (zh) 数据处理方法及系统、采集装置、处理器以及存储介质
US20220094435A1 (en) Visible light communication apparatus, visible light communication method, and visible light communication program
CN109991978B (zh) 一种基于网络的智能自动驾驶的方法及装置
Al-Qassab et al. Active safety system for connected vehicles
US20240338793A1 (en) Infrastructure-supported perception system for connected vehicle applications
WO2020017317A1 (ja) 信号処理装置、信号処理方法および信号処理プログラム
KR102371995B1 (ko) 다수의 회전형 카메라를 이용한 차로별 통행 정보 제공 시스템 및 방법
CN111710175B (zh) 交通信号灯的控制方法及装置
Al-Qassab et al. Visual Sensor Fusion and Data Sharing across Connected Vehicles for Active Safety
CN116074783A (zh) 一种用于实时视频流传输及场景分析的方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R151 Written notification of patent or utility model registration

Ref document number: 7435682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151