JPWO2020116205A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JPWO2020116205A1
JPWO2020116205A1 JP2020559924A JP2020559924A JPWO2020116205A1 JP WO2020116205 A1 JPWO2020116205 A1 JP WO2020116205A1 JP 2020559924 A JP2020559924 A JP 2020559924A JP 2020559924 A JP2020559924 A JP 2020559924A JP WO2020116205 A1 JPWO2020116205 A1 JP WO2020116205A1
Authority
JP
Japan
Prior art keywords
unit
object recognition
image
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2020559924A
Other languages
English (en)
Inventor
俊樹 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2020116205A1 publication Critical patent/JPWO2020116205A1/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

本開示は、車内ネットワークを介して流通する、自動運転に必要とされる通信データ量を低減できるようにする情報処理装置、および情報処理方法、並びにプログラムに関する。
イメージセンサが、自車の周囲の画像を撮像し、認識部が、撮像された画像内の物体を認識する物体認識処理を行い、物体認識処理による物体認識処理結果を自動運転制御部に出力する。また、ミリ波レーダにより検出される自車の周囲の物体の速度情報と、LiDARによる自車の周囲の物体の距離情報とが、物体認識処理結果に対応付けて、メタデータとして出力される。本開示は、車載システムに適用することができる。

Description

本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、車内ネットワークを介して流通する、自動運転に必要とされる通信データ量を低減できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
ACC(Adaptive Cruise Control)やPCS(Pre-Crash Safety)のような利便性と、安全性の向上を目的としたADAS(Advanced Driver Assistance System)において、障害物の有無を確認したうえで、走行可能か否かを判定する必要がある。
この際、カメラにより撮像された画像データや、その他のセンサの検出結果のデータが車内のネットワークにおいて流通することになる。
近年においては、カメラ等のセンサのコストが低減することにより、設置台数が増大する傾向になっているが、カメラ等のセンサ類の設置台数が増大すると、車内のネットワークにおいて流通するデータ量が増大し、通信速度の低下を招く恐れがあった。
そこで、例えば、カメラで撮像した画像内の物体を認識して、認識した物体の画像内の座標情報を車両ネットワークに出力することで車内のネットワークに流通するデータ量を低減させる技術が提案されている(特許文献1参照)。
特開2014−125029号公報
しかしながら、特許文献1の技術においては、カメラにより撮像された画像内において認識された物体の座標情報のみが出力されるので、それ以外の物体の速度や距離などの情報は含まれておらず、自動運転に必要とされる十分な情報を流通させることができない。
本開示は、このような状況に鑑みてなされたものであり、特に、車内ネットワークを介して流通する、自動運転に必要とされる通信データ量を低減できるようにするものである。
本開示の一側面の情報処理装置は、移動体の周囲の画像を撮像する撮像部と、前記撮像部により撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記移動体内のネットワークを介して出力する物体認識処理部とを備えた情報処理装置である。
本開示の一側面の情報処理方法およびプログラムは、情報処理装置に対応する。
本開示の一側面においては、自車の周囲の画像が撮像され、撮像された前記画像内の物体を認識する物体認識処理が行われ、前記物体認識処理による物体認識処理結果が、認識した前記物体を単位として、前記移動体内のネットワークを介して出力される。
一般的な車内ネットワークの概要を説明する図である。 本開示の車内ネットワークの概要を説明する図である。 本開示の車両制御システムの構成例を説明するブロック図である。 本開示のデータ取得部の第1の実施の形態の構成例を説明するブロック図である。 認識部の構成を説明する図である。 認識部による物体認識結果の例を説明する図である。 図4のデータ取得部によるセンシング処理を説明するフローチャートである。 認識部による物体認識結果にメタデータを付加する例を説明する図である。 認識部による物体認識結果にメタデータを付加するデータ取得部の第2の実施の形態の構成例を説明するブロック図である。 図9のデータ取得部によるセンシング処理を説明するフローチャートである。 複数のセンサ部を設け、車両の全周囲をセンシングする例を説明する図である。 複数のセンサ部を設け、車両の全周囲をセンシングするようにしたデータ取得部の第3の実施の形態の構成例を説明するブロック図である。 図12のデータ取得部による複数のセンサ部のセンシング処理結果を統合する統合処理を説明するフローチャートである。 複数の感度で撮像した複数の画像による複数の物体認識結果と、ミリ波レーダおよびLiDARによるセンシング結果とを条件により使い分けてセンシングする例を説明する図である。 複数の感度で撮像した複数の画像による複数の物体認識結果と、ミリ波レーダおよびLiDARによるセンシング結果との使い分けのパターンを説明する図である。 複数の感度で撮像した複数の画像による複数の物体認識結果と、ミリ波レーダおよびLiDARによるセンシング結果とを条件により使い分けてセンシングするデータ取得部の第4の実施の形態の構成例を説明するブロック図である。 図16のデータ取得部によるセンシング処理を説明するフローチャートである。 図17の認識結果統合処理を説明するフローチャートである。 LEDを用いた信号機を撮像したときに生じるフリッカが発生する原理を説明する図である。 本開示のイメージセンサの露光時間を説明する図である。 LEDを用いた信号機や車両ランプを撮像したときのフリッカの発生を抑制するようにしたデータ取得部の第5の実施の形態の構成例を説明するブロック図である。 図21のデータ取得部によるフリッカ抑制処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.本開示の車両を制御する車両制御システムの構成例
3.第1の実施の形態
4.第2の実施の形態
5.第3の実施の形態
6.第4の実施の形態
7.第5の実施の形態
8.ソフトウェアにより実行させる例
<<1.本開示の概要>>
本開示の概要について説明する。
本開示の車両は、ADAS等の自動運転に必要とされる、車内のネットワークにおいて流通される通信データ量を低減できるようにするものである。
自動運転を実現する車両11は、例えば、図1で示されるように、センサ部31と自動運転制御部32とを備えている。
センサ部31は、車両11の外界の情報をセンシングし、センシング結果M1を自動運転制御部32に出力する。
自動運転制御部32は、センサ部31より供給されるセンシング結果M1に基づいて、車両11の動作を制御して、自動運転を実現する。
より詳細には、センサ部31は、撮像部41、ミリ波レーダ42、およびLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)43を備えている。
撮像部41は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから構成され、車両11の周囲の画像を撮像して、画像データをセンシング結果として自動運転制御部32に出力する。
ミリ波レーダ42は、ミリ波帯の電波を照射し、物体により反射される反射波のピーク値が検出される位置の情報から物体の位置、速度、および方向の情報を検出し、センシング結果として自動運転制御部32に出力する。
LiDAR43は、赤外光からなるレーザ光を投光し、物体からの反射光を受光し、その往復時間に基づいて、物体までの距離の点群の情報からなる3次元点群情報を検出して、センシング結果として自動運転制御部32に出力する。
したがって、センサ部31より出力されるセンシング結果M1は、撮像部41により撮像された画像、ミリ波レーダ42により検出される物体の位置、速度、および方向の情報、および、LiDAR43の検出結果である3次元点群情報から構成される。
いずれのセンシング結果も高分解能のセンシング結果となるが、それが故に、全ての情報を自動運転制御部32に出力すると、車内ネットワーク上において通信データ量が増大し、通信の遅れが発生する恐れがあり、自動運転の実現に影響を与える恐れがあった。
そこで、本開示においては、図2で示されるように、撮像部41により撮像された画像に基づいて、画像内の物体を認識する認識部51を新たに設け、ミリ波レーダ42およびLiDAR43のセンシング結果を認識部51に出力させる。
認識部51は、撮像部41により撮像された画像に基づいた物体認識結果である、個々の物体毎にミリ波レーダ42およびLiDAR43のセンシング結果を、例えば、メタデータとして付与し、撮像部41により撮像された画像と共にセンシング結果M2として自動運転制御部32に出力する。
このような構成により、センシング結果M2は、ミリ波レーダ42およびLiDAR43のセンシング結果である物体の位置、速度、方向、および距離の情報は物体認識結果である物体毎にメタデータとして付与されることになるので、センシング結果M2のデータ量を低減させることが可能となる。
結果として、自動運転に必要とされる情報を十分に確保しつつ、車内ネットワークに流通するセンシング結果のデータ量を抑制することが可能となるので、通信の遅延などの発生を抑制することが可能となり、適切な自動運転を実現することが可能となる。
<<2.本開示の車両を制御する車両制御システムの構成例>>
次に、図3のブロック図を参照して、本開示の車両の車両制御システムについて説明する。
図3は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。車両制御システム100は、車両91に搭載されている。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する。
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<<3.第1の実施の形態>>
<車内ネットワークを介して流通するセンシング結果のデータ量を低減する構成>
次に、図4のブロック図を参照して、車内ネットワークを介して流通するセンシング結果のデータ量を低減するデータ取得部102の構成例について説明する。
尚、図4は、図3を参照して説明した車両制御システム100を実現する機能の構成例のうち、車内ネットワークを介して流通するセンシング結果のデータ量を低減するデータ取得部102の構成を示している。
センサ部200は、データ取得部102の一部であり、図4では、実質的にカメラとして機能する構成である。
センサ部200は、制御部201、レンズ202、イメージセンサ203、信号処理部204、認識部205、バッファ206、および判定部207を備えている。
制御部201は、プロセッサやメモリから構成されており、センサ部200の動作の全体を制御する。
レンズ202は、車両91の周囲からの入射光をイメージセンサ203の撮像面において結像するように集光する。
イメージセンサ203は、制御部201により制御され、レンズ202を介して入射する周囲の光に基づいて、画素単位の信号を生成し信号処理部204に出力する。
信号処理部204は、制御部201により制御され、イメージセンサ203より供給される画素単位の信号に対して、デモザイク処理、ノイズ除去、および諧調補正等の信号処理を施し、画像を生成して認識部205、バッファ206、および判定部207に出力する。
認識部205は、信号処理部204より供給される画像に基づいて、画素単位で物体認識を行い、認識結果を、認識された物体を単位として車内のネットワークを介して自動運転制御部112および判定部207に出力する。すなわち、物体認識結果が、画素単位ではなく、認識された物体を単位として出力されることにより、車内ネットワークを介して出力される物体認識結果のデータ量を抑制することが可能となる。この際、物体認識結果には、画像内において認識された物体の座標情報が含まれる。これにより、車内ネットワークにおいては、認識された物体を単位とした物体の座標位置と物体認識結果が流通するだけで済むため、車内ネットワークにおける通信負荷を低減させることが可能となる。
より詳細には、認識部205は、画像に基づいて、画素単位で物体認識を行い、地上面、人間、車両、建造物、固定物体、自然環境、および空などを物体として認識し、物体認識結果を出力する。
地上面の物体認識結果には、道路、歩道、駐車場、および軌道等の情報が含まれる。
また、人間の物体認識結果には、歩行者や運転者が含まれる。
ここで、運転者の物体認識結果には、自転車、バイク、スクータ、スケートボード、馬、ローラブレード、車椅子、道路清掃車、および屋根のない車の運転者が含まれる。
さらに、車両の物体認識結果には、車、トラック、バス、レール上を走行する電車や列車、バイク、自転車、および牽引車両が含まれる。
また、建造物の物体認識結果には、建物、壁、フェンス、ガードレール、橋梁、およびトンネルが含まれる。
さらに、固定物体の物体認識結果には、ポール、ポール群、交通標識、および信号機が含まれる。
また、自然環境の物体認識結果には、植生や地形の情報が含まれる。
バッファ206は、制御部201により制御され、信号処理部204より供給される画像を一時的にバッファリングし、認識部205による認識処理や信号処理のそれぞれの処理時間に応じたタイミングでバッファリングした画像を自動運転制御部112に出力する。
尚、自動運転制御部112に対しては、物体認識結果のみが出力されるようにして、画像については、画像そのものは出力されないようにしてもよいし、ビットレートを低減させるようにして出力するようにしてもよい。このようにすることで、車内ネットワークに流通するデータ量をさらに抑制することが可能となる。
判定部207は、認識部205による認識処理と、信号処理部204における信号処理との処理時間を比較し、比較結果と、処理時間の差分(処理時間差)を制御部201に出力する。
制御部201は、比較結果に応じて、撮像結果である画像を間引いて出力する、物体認識結果を間引いて出力する、または、撮像結果も物体認識結果も間引かずに出力するかのいずれかを行うように信号処理部204、認識部205、およびバッファ206を制御する。
また、制御部201は、撮像結果である画像を間引いて出力する、または、物体認識結果を間引いて出力する場合、処理時間の差分(処理時間差)に対応して、撮像結果である画像を間引いて出力する、または、物体認識結果を間引いて出力する。
より詳細には、物体認識処理時間が、信号処理時間よりも遅く、信号処理時間のn倍掛かるような場合、制御部201は、信号処理部204を制御して、画像をnフレームおきに間引いて出力させ、nフレーム前の画像の物体認識結果と現在の画像とを対応付けて出力する。また、制御部201は、バッファ206により物体認識結果が求められるまで画像をバッファリングさせ、物体認識結果が求められるタイミングで、画像と合わせて出力されるようにしてもよい。この場合も、物体認識結果が求められるタイミングに応じて画像が出力されることになるので、画像はnフレームおきに間引かれることになる。
また、物体認識処理時間が、信号処理時間よりも速く、信号処理時間のn倍の速さである場合、制御部201は、認識部205を制御して、物体認識結果をn回に1回出力させ、現在の画像を対応付けて出力させる。
<認識部の構成>
認識部205は、信号処理部204より供給される画像について、画素単位で物体認識結果を求めて出力する。
すなわち、認識部205は、図5で示されるように、信号処理部204より出力される画像R1の画素P毎に、セマンティックセグメンテーション等の物体認識処理が掛けられて、画素P単位で物体認識結果Prを出力する。
より具体的には、例えば、図6で示されるような画像P11が撮像された場合、物体認識処理により、例えば、歩行者H1乃至H4、車両C1乃至C4、白線L1,L2、信号機T1、および標識M1が認識される。
また、図6の物体認識結果である歩行者H1乃至H4、車両C1乃至C4、白線L1,L2、信号機T1、および標識M1のそれぞれには、物体を構成する画素領域の、例えば、重心位置等に座標位置、並びに、識別名称(例えば、人物、車両、白線、信号機、または標識など)が設定される。
<図4のデータ取得部によるセンシング処理>
次に、図4のデータ取得部102によるセンシング処理について説明する。
ステップS11において、イメージセンサ203は、制御部201により制御されて、レンズ202を介して入射する車両91の周囲を撮像し、撮像した画素単位の信号を信号処理部204に出力する。
ステップS12において、信号処理部204は、制御部201により制御され、イメージセンサ203より供給される画素単位の信号に対して、デモザイク処理、ノイズ除去、および諧調補正等の信号処理を施し、画像を生成して認識部205、バッファ206、および判定部207に出力する。
ステップS13において、バッファ206は、信号処理部204より出力された画像信号をバッファリングする。
ステップS14において、認識部205は、信号処理部204より供給される画像に基づいて、画素単位で物体認識を行う。
ステップS15において、バッファ206は、バッファリングした画像を自動運転制御部112に出力する。
ステップS16において、認識部205は、図6を参照して説明したように、認識結果を車内のネットワークを介して自動運転制御部112および判定部207に出力する。
すなわち、ステップS15,S16の処理により、相互に対応する画像と物体認識結果とが自動運転制御部112に出力される。
ステップS17において、判定部207は、信号処理部204による信号処理時間と、認識部205による物体認識処理時間とを比較し、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも遅いか否かを判定する。
ステップS17において、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも遅い場合、処理は、ステップS18に進む。
ステップS18において、判定部207は、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも遅いことを制御部201に通知する。この通知に応じて、制御部201は、信号処理部204を制御して、信号処理部204より出力される信号処理結果である画像を、信号処理部204による信号処理時間と、認識部205による物体認識処理時間との処理時間差に応じて間引いて出力するように制御する。
ステップS19において、処理の終了が指示されたか否かが判定されて、終了が指示されていない場合、処理は、ステップS11に戻る。
また、ステップS17において、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも遅くない場合、処理は、ステップS20に進む。
ステップS20において、判定部207は、信号処理部204による信号処理時間と、認識部205による物体認識処理時間とを比較し、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも速いか否かを判定する。
ステップS20において、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも速い場合、処理は、ステップS21に進む。
ステップS21において、判定部207は、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも速いことを制御部201に通知する。この通知に応じて、制御部201は、認識部205を制御して、信号処理部204による信号処理時間と、認識部205による物体認識処理時間との処理時間差に応じて、物体認識結果を間引いて出力するように制御する。
そして、ステップS20において、認識部205による物体認識処理時間の方が、信号処理部204による信号処理時間よりも速くない場合、すなわち、いずれの処理時間もほぼ同一である場合、処理は、ステップS19に進み、信号処理部204および認識部205における間引き処理がなされるような制御がなされない。
以上の処理により、物体認識結果と撮像した画像を信号処理部204における信号処理時間と認識部205における物体認識処理時間との差分に応じて、いずれかを間引くようにすることでタイミングを調整して適切に出力することが可能となる。
また、以上においては、物体認識結果と画像との両方のデータを自動運転制御部112に出力する例について説明してきたが、自動運転制御部112において、物体認識結果のみを用いて自動運転を制御するような場合には、物体認識結果のみを出力するようにしてもよい。このようにすることで、車内のネットワークにおいて流通するデータ量を低減させることが可能となり、通信速度を向上させることが可能となる。
さらに、画像から物体認識処理を必要としないので、センサ部200からは低解像度の画像と、物体認識結果とを併せて自動運転制御部112に出力するようにしてもよい。
また、以上においては、物体認識結果の全てが出力される例について説明してきたが、物体認識結果のうち、自動運転制御に必要とされる、比較的重要度の高い物体の物体認識結果のみを出力するようにしてもよい。ここで、比較的重要度の高い物体とは、例えば、交通状況を把握する上で必要な対象物や、衝突や接触の対象物などであり、具体的には、信号機、道路標識、車両、歩行者、自転車、およびバイクなどである。また、重要度の低い物体の物体認識結果については出力しないようにしてもよく、例えば、空の認識結果については自動運転制御には必須とは言えないので、空の物体認識結果については出力しないようにしてもよい。
このようにすることで、車内のネットワークにおいて流通するデータ量を抑制しつつ、自動運転制御に必要な画像と物体認識結果とを自動運転制御部112に流通させることが可能となる。
また、以上においては、物体認識処理時間の方が、信号処理時間よりも遅い場合、画像が、処理時間差に応じて間引いて出力される例について説明してきたが、画像を間引かず、物体認識結果については、数フレーム前の画像のものを、現在の画像に対応付けて出力するようにしてもよい。このようにすることで、物体認識結果の精度は低下するが、フレームレートを落とす必要がなくなる。
<<4.第2の実施の形態>>
以上においては、センサ部200は、イメージセンサ203により撮像される画像に基づいて物体認識処理を実行させて、物体認識結果と、画像とを対応付けて自動運転制御部112に出力する例について説明してきたが、センサ部200にさらに別の情報をセンシングできる複数のセンサを設けて、複数のセンサのセンシング結果を物体認識結果に付与して出力するようにしてもよい。
例えば、センサ部200にイメージセンサ203に加えて、ミリ波レーダ、およびLiDARを設け、それぞれのセンシング結果により得られる物体の速度情報や距離情報を物体認識結果のそれぞれにメタデータとして付与するようにしてもよい。
すなわち、例えば、図8で示されるように、上述した処理により物体認識処理がなされることにより、歩行者H1乃至H4、車両C1乃至C4、白線L1,L2、信号機T1、および標識M1が認識される。
ここで、センサ部200にさらにミリ波レーダやLiDARを設けるようにすることで、物体認識結果のうち、所定の精度でセンシング可能な移動する物体のそれぞれにミリ波レーダで検出される物体の速度情報、およびLiDARで検出される物体までの距離情報をメタデータとして付与する。
この際、物体認識結果のうち、所定の精度でセンシング可能な移動する物体とは、例えば、車両C1乃至C4である。例えば、歩行者H1乃至H4は、ミリ波帯の電波を透過し易く、検出可能な速度情報の精度が低いことが知られている。
このように、所定の精度でセンシング可能な移動する物体については、メタデータとして速度情報や距離情報が付与されることで、自動運転制御に必要な物体について、より詳細な情報が得られる。尚、以降においては、所定の精度でセンシング可能な移動する物体のように、メタデータが付与される物体について、特に、要メタデータ付与物体とも称する。
図8においては、車両C1乃至C4のそれぞれには、図中の(V,D)で示されるように、速度(V)と距離(D)が付与される。
より具体的には、車両C1については、H1(45,8.0)と表記され、車両C1の移動速度が45km/hであり、自車からの距離が8.0mであることが示されている。また、車両C2については、C2(50,70)と表記され、車両C2の移動速度が時速50km/hであり、自車からの距離が70mであることが示されている。
車両C3については、C3(−40,30)と表記され、車両C3の移動速度が−40km/hであり、自車からの距離が30mであることが示されている。また、車両C4については、C4(−50,5.0)と表記され、車両C4の移動速度が時速−50km/hであり、距離が5.0mであることが示されている。
なお、速度について、「−」が付与されているのは、自車の進行方向に対して反対方向であることを示しており、車両C3,C4が対向車であることを示している。
また、図8における表記は、画像認識結果との対応を説明するための表記であり、実際には、それぞれの物体認識結果に対応付けて、それぞれの物体の速度情報および距離情報がメタデータとして物体認識結果に付与される。
さらに、以上においては、ミリ波レーダ221により所定の精度でセンシング可能な移動する物体が、メタデータが付与される要メタデータ付与物体として設定される例について説明してきたが、自動運転制御に必要とされる、比較的重要度の高い物体にメタデータを付与するようにしてもよい。比較的重要度の高い物体とは、例えば、交通状況を把握する上で必要な対象物や、衝突や接触の対象物などであり、具体的には、信号機、道路標識、車両、歩行者、自転車、およびバイクなどである。また、当然のことながら、ミリ波レーダ221やLiDAR222の物体認識結果の全てを要メタデータ付与物体に設定するようにしてもよい。
<速度情報と距離情報を物体認識結果に付与するセンサ部の構成例>
次に、図9のブロック図を参照して、車内ネットワークを介して流通するセンシング結果のデータ量を低減する、第2の実施の形態の構成例について説明する。
尚、図9は、図3を参照して説明した車両制御システム100を実現する機能の構成例のうち、車内ネットワークを介して流通するセンシング結果のデータ量を低減し、さらに、速度と距離の情報を物体認識結果の各物体のうちの所定の精度でセンシング可能な移動する物体に付与するデータ取得部102の構成例を示している。
また、図9のデータ取得部102において、図4のデータ取得部102と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図9のデータ取得部102においては、新たにミリ波レーダ221、およびLiDAR222が付与されている。
ミリ波レーダ221は、ミリ波帯の電波を照射して、物体から反射する反射波を受信し、電波を照射してからピーク強度の反射波を受信するまでの往復時間に基づいて物体の距離および速度を検出し、認識部205に出力する。
LiDAR222は、赤外光からなるレーザ光を投光し、物体からの反射光を受光することで、レーザ光を投光したタイミングから受光するタイミングまでの往復時間により、物体までの距離情報を検出し、3次元点群情報として認識部205に出力する。
認識部205は、物体認識結果のうち、所定の精度でセンシング可能な移動する物体に対して、速度情報と距離情報とをメタデータとして付与し、物体認識結果と対応付けて登録して記憶するとともに、自動運転制御部112に出力する。
また、物体認識結果と対応付けて速度情報および距離情報とが登録された後は、画像の乱れや明るさが不十分である等の理由により画像から検出できない物体状態になっても、認識部205は、直前と現在のミリ波レーダ221より供給される速度情報と、LiDAR222より供給される距離情報とに基づいて、物体の位置を推定する。
尚、以降においては、物体認識結果と対応付けて速度情報および距離情報とが登録された物体のうち、画像の乱れや明るさが不十分である等の理由により画像から検出できない物体については、非検出物体とも称する。また、所定の精度でセンシング可能な移動する物体については、メタデータ付与物体とも称する。
<図9のデータ取得部によるセンシング処理>
次に、図10のフローチャートを参照して、図9のデータ取得部102によるセンシング処理について説明する。
尚、図9のフローチャートにおけるステップS31乃至S33,S36の処理は、図7のフローチャートにおけるステップS11乃至S14の処理と同一であるので、その説明は省略する。
すなわち、ステップS34において、ミリ波レーダ221は、車両91の周囲に対してミリ波帯の電波を照射して、ピーク強度の反射波に基づいて、物体の速度情報を検出して認識部205に出力する。
ステップS35において、LiDAR222は、赤外光からなるレーザ光を投光し、物体からの反射光を受光することで、レーザ光の往復時間に基づいて、物体までの距離情報からなる3次元点群情報を検出して認識部205に出力する。
ステップS36において、認識部205は、信号処理部204より供給される画像に基づいて、画素単位で物体認識を行う。
ステップS37において、認識部205は、未処理の認識物体を処理対象物体に設定する。
ステップS38において、認識部205は、処理対象物体が所定の精度でセンシング可能な移動する物体、すなわち、要メタデータ付与物体であるか否かを判定する。ここで、所定の精度でセンシング可能な移動する要メタデータ不要物体とは、例えば、車両である。尚、要メタデータ付与物体については、任意の物体に設定することが可能であり、例えば、車両のみならず、全ての物体とするようにしてもよい。
ステップS38において、処理対象物体が要メタデータ付与物体であるとみなされた場合、処理は、ステップS39に進む。
ステップS39において、認識部205は、処理対象物体に対して、ミリ波レーダ221より供給された速度情報と、LiDAR222より供給された距離情報とをメタデータとして付与し、処理対象物体と対応付けて登録(更新)して記憶する。
尚、ステップS38において、処理対象物体が要メタデータ付与物体ではないとみなされた場合、ステップS39の処理がスキップされて、メタデータが付与されない。
ステップS40において、認識部205は、物体認識結果のうち、未処理の認識物体が存在するか否かを判定し、未処理の認識物体が存在する場合、処理は、ステップS37に戻る。
ステップS41において、認識部205は、登録された物体認識結果のうち、非検出物体のいずれかを処理対象非検出物体に設定する。
ステップS42において、認識部205は、非検出物体の、現在の速度情報および距離情報と、直前の速度情報および距離情報とに基づいて、非検出物体の現在の位置を推定し、推定した位置に非検出物体の物体認識結果が存在するものとみなし、現在の速度情報および距離情報を対応付けて登録する。
尚、処理対象非検出物体の現在の速度情報および距離情報については、処理対象非検出物体の直前の位置から、速度情報および距離情報に基づいて予測される位置の速度情報および距離情報が、現在の速度情報および距離情報とみなして使用される。
また、処理対象非検出物体に対応する、現在の速度情報および距離情報が検出されていない場合については、物体そのものが存在しないものとみなされるので、認識部205は、処理対象非検出物体と、その処理対象非検出物体に対応付けて登録された速度情報および距離情報を登録から解除する。
ステップS43において、認識部205は、未処理の非検出物体が存在するか否かを判定し、存在する場合、処理は、ステップS41に戻る。すなわち、全ての非検出物体について、対応する速度情報および距離情報に基づいて現在の位置が推定されるまで、ステップS41乃至S43の処理が繰り返される。
そして、ステップS43において、未処理の非検出物体がないとみなされた場合、処理は、ステップS44に進む。
ステップS44において、バッファ206は、バッファリングした画像を自動運転制御部112に出力する。
ステップS45において、認識部205は、図8を参照して説明したように、重要度の高い物体に速度と距離の情報からなるメタデータが付与された認識結果を車内のネットワークを介して自動運転制御部112および判定部207に出力する。
ステップS46において、判定部207は、ミリ波レーダ221およびLiDAR222の処理時間と、信号処理部204による信号処理時間とを比較し、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも遅いか否かを判定する。
ステップS46において、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも遅い場合、処理は、ステップS47に進む。
ステップS47において、判定部207は、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも遅いことを制御部201に通知する。この通知に応じて、制御部201は、信号処理部204を制御して、信号処理部204より出力される信号処理結果である画像を、信号処理部204による信号処理時間と、ミリ波レーダ221およびLiDAR222の処理時間との時間差に応じて間引いて出力するように制御する。
ステップS48において、処理の終了が指示されたか否かが判定されて、終了が指示されていない場合、処理は、ステップS31に戻る。また、ステップS48において、終了が指示されている場合、処理は終了する。
また、ステップS46において、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも遅くない場合、処理は、ステップS49に進む。
ステップS49において、判定部207は、ミリ波レーダ221およびLiDAR222の処理時間と、信号処理部204による信号処理時間とを比較し、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも速いか否かを判定する。
ステップS49において、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも速い場合、処理は、ステップS50に進む。
ステップS50において、判定部207は、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも速いことを制御部201に通知する。この通知に応じて、制御部201は、認識部205を制御して、信号処理部204より出力される信号処理結果である画像が出力されないタイミングにおいて、ミリ波レーダ221およびLiDAR222の処理結果を空パケットとして出力するように制御する。
そして、ステップS49において、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも速くない場合、すなわち、いずれの処理時間もほぼ同一である場合、処理は、ステップS48に進み、信号処理部204における間引き処理や、認識部205における空パケットとして出力するような制御がなされない。
以上の処理により、物体認識結果のうち、所定の精度でセンシング可能な移動する物体である、要メタデータ付与物体については、速度情報と距離情報がメタデータとして付与されて、物体認識結果と対応付けて登録(更新)される。これにより、自動運転制御部112は、所定の精度でセンシング可能な移動する要メタデータ付与物体に対しては、画像内の座標情報に加えて、移動速度および距離情報を考慮して、自動運転制御を実現することが可能となる。
このようにすることで、車内のネットワークにおいて流通するデータ量を抑制しつつ、自動運転制御に必要な画像と物体認識結果とを自動運転制御部112に流通させることが可能となる。
また、物体認識結果と対応付けて速度情報および距離情報が登録された後は、画像から物体認識結果が得られない状態になっても、直前までに対応付けて登録された速度情報および距離情報と、現在の速度情報および距離情報とに基づいて位置が推定されて、推定された位置の物体認識結果と対応付けて速度情報および距離情報が登録される。
結果として、イメージセンサ203により撮像された画像が乱れる、十分な明るさがない、ワイパーブレードなどにより画像にブラインドが生じるといった画像上の問題により、物体認識結果が得られない状態になっても、ミリ波レーダ221により得られる速度情報とLiDAR222により得られる距離情報に基づいて、物体認識結果を取得し続けることが可能となる。
さらに、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも遅い場合には、信号処理部204が制御されて、信号処理結果である画像が処理時間の時間差に応じて間引いて出力される。
また、ミリ波レーダ221およびLiDAR222の処理時間が、信号処理部204による信号処理時間よりも速い場合には、認識部205が制御されて、信号処理結果である画像が供給されないタイミングにおけるミリ波レーダ221およびLiDAR222の処理結果は、空パケットとして出力される。
これにより、ミリ波レーダ221により得られる速度情報と、LiDAR222により得られる距離情報とを、信号処理部204とミリ波レーダ221およびLiDAR222のそれぞれの処理速度に応じたタイミングに調整されて出力される。
<<5.第3の実施の形態>>
以上においては、物体認識結果のうち、所定の精度でセンシング可能な移動する物体である、要メタデータ付与物体については、速度情報と距離情報のメタデータが付与されて出力される例について説明してきたが、車両91に複数のセンサ部200を設けるようにして、車両91の全周囲の情報を検出するようにしてもよい。
より詳細には、例えば、図11で示されるように、車両91の前方正面となる範囲Z1、前方右側となる範囲Z2、後方右側となる範囲Z3、後方正面となる範囲Z4、後方左側となる範囲Z5、および前方左側となる乃至Z6からなる全周囲をセンシングできるように、センサ部200−1乃至200−6が設けられるようにしてもよい。
そして、センサ部200−1乃至200−6のそれぞれのセンシング結果が統合され、その統合結果が、自動運転制御部112に出力される。
すなわち、センサ部200−1乃至200−6のそれぞれの物体認識結果については、センシングする車両91から見た範囲Z1乃至Z6の情報と対応付けて出力されるようにしてもよい。
また、車両91周辺を2次元平面としたときの座標を設定し、センサ部200−1乃至200−6のそれぞれの物体認識結果が、車両91周辺の2次元平面上の座標に対応付けて1つのマップ情報として出力されるようにしてもよい。
さらに、車内のネットワークにおいて流通するデータ量を低減させるため、運転状態やミリ波レーダ221およびLiDAR222の動作状態に応じて、自動運転制御部112に出力するデータが変化されるようにしてもよい。
例えば、走行速度が一定の状態となり、かつ、周囲の車両との位置関係に変化がないような状態が所定時間継続しているような場合、全方向のセンシング結果は必要なく、進行方向である範囲Z1をセンシングするセンサ部200−1からのセンシング結果のみを出力させるようにしてもよい。以降においては、このように一部の方向のセンシング結果のみが出力されるモードを低負荷モードとも称する。
また、センサ部200−1乃至200−6のそれぞれのミリ波レーダ221およびLiDAR222の動作状態に不具合があるような場合、運転状態に関係なく、全方向のセンシング結果が出力されるようにしてもよい。以降においては、このように全方向のセンシング結果のみが出力されるモードを高負荷モードとも称する。
<車両の全周囲の情報が検出されるようにしたデータ取得部の構成例>
次に、図12のブロック図を参照して、車両の全周囲の情報が検出されるようにしたデータ取得部102の第3の実施の形態の構成例について説明する。
尚、図12のデータ取得部102の構成例において、図9のデータ取得部102における構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図12のデータ取得部102において、図9と異なる点は、センサ部200と同一の構成であるセンサ部200−1乃至200−6が図11で示されるように、車両91の全周囲となる範囲Z1乃至Z6をセンシングできるように設けられ、認識結果統合部231、および画像統合部232が設けられている点が異なる。
認識結果統合部231は、センサ部200−1乃至200−6のそれぞれより供給される物体認識結果を取得し、範囲Z1乃至Z6の情報と対応付けて自動運転制御部112に出力する。
画像統合部232は、センサ部200−1乃至200−6のそれぞれより供給される画像を、範囲Z1乃至Z6の情報と対応付けて自動運転制御部112に出力する。
または、認識結果統合部231は、センサ部200−1乃至200−6のそれぞれより供給される物体認識結果を取得し、車両91周辺の2次元平面上の座標に対応付けて1つのマップ情報として出力するようにしてもよい。
また、走行速度が一定の状態となり、かつ、周囲の車両との位置関係に変化がないような状態が所定時間継続しているような場合、全方向のセンシング結果は必要ないので、認識結果統合部231は、進行方向である範囲Z1をセンシングするセンサ部200−1からの物体認識結果のみを出力させる。
このとき、画像統合部232も、進行方向である範囲Z1を撮像するセンサ部200−1からの画像のみを出力させる。
さらに、センサ部200−1乃至200−6のそれぞれのミリ波レーダ221およびLiDAR222の動作状態に不具合があるような場合、認識結果統合部231は、運転状態に関係なく、全方向の物体認識結果を出力させる。
このとき、画像統合部232も、全方向を撮像するセンサ部200−1乃至200−6からの全画像を出力させる。
<統合処理>
次に、図13のフローチャートを参照して、図12のデータ取得部102により統合処理について説明する。尚、この処理においては、センサ部200−1乃至200−6のそれぞれにおいて、図10のフローチャートを参照して説明したセンシング処理がなされていることが前提となる。
ステップS61において、認識結果統合部231は、センサ部200−1乃至200−6からのそれぞれより供給される物体認識結果を取得する。同様に、画像統合部232は、センサ部200−1乃至200−6からのそれぞれより供給される画像を取得する。
ステップS62において、認識結果統合部231は、速度情報および距離情報からなるメタデータが付与された物体認識結果に基づいて、車両91が一定の速度で走行中であり、かつ、周囲の車両との距離が一定の状態が所定時間継続したか否かを判定する。
ステップS62において、車両91が一定の速度で走行中であり、かつ、周囲の車両との距離が一定の状態が所定時間継続しているとみなされた場合、処理は、ステップS63に進む。
ステップS63において、認識結果統合部231は、ミリ波レーダ221より供給される速度情報、およびLiDAR222より供給される距離情報の有無に基づいて、ミリ波レーダ221、およびLiDAR222の動作状態に異常がないか否かを判定する。
ステップS63において、ミリ波レーダ221、およびLiDAR222の動作状態に異常がないと判定された場合、処理は、ステップS64に進む。
ステップS64において、認識結果統合部231は、進行方向である範囲Z1をセンシングするセンサ部200−1からの物体認識結果のみを自動運転制御部112に出力させる(低負荷モード)。また、画像統合部232は、進行方向である範囲Z1をセンシングするセンサ部200−1からの画像のみを自動運転制御部112に出力させる。
また、ステップS62において、車両91が一定の速度で走行中でない、もしくは、周囲の車両との距離が一定の状態が所定時間継続していないとみなされた場合、または、ステップS63において、ミリ波レーダ221、およびLiDAR222の少なくともいずれかの動作状態に異常があると判定された場合、処理は、ステップS65に進む。
ステップS65において、認識結果統合部231は、センサ部200−1乃至200−6からの全方向の物体認識結果を出力させる。また、画像統合部232は、センサ部200−1乃至200−6からの全画像を自動運転制御部112に出力させる(高負荷モード)。
以上の一連の処理により、車両91の全周囲をカバーする範囲がセンシングされて、物体認識結果と画像が自動運転制御部112に出力されるので、より高精度な自動運転制御を実現することが可能となる。
また、車両91の走行状態やミリ波レーダ221やLiDAR222の動作状態の異常の有無に応じて、自動運転制御部112に供給される物体認識結果と画像のセンシング範囲が変化する。
より具体的には、比較的危険性が低い状態においては、進行方向前方の物体認識結果と画像のみが自動運転制御部112に供給されることになるので、車内ネットワークにおける通信負荷を低減させることが可能となる。
ここで、比較的危険性が低い状態とは、例えば、車両91が一定の速度で走行中であり、かつ、周囲の車両との距離が一定の状態が所定時間継続している状態や、ミリ波レーダ221やLiDAR222の動作状態の異常がない状態である。
さらに、以上においては、比較的危険性が低い場合には、進行方向前方の物体認識結果と画像が自動運転制御部112に出力される例について説明してきたが、危険性が低いほど自動運転制御は不要な状態となる。したがって、例えば、一般的な歩行速度よりも低速で、ブレーキによりいつでも停止できるような速度であるような、さらに、危険性が低い場合には、物体認識結果および画像のいずれも自動運転制御部112に出力しないようにしてもよい。
<<6.第4の実施の形態>>
以上においては、車両91の全方向に対して複数のセンサ200を設けて、複数のセンシング結果を統合して出力する例について説明してきたが、イメージセンサ203が単一露光を行うものとして説明してきたが、もちろん、複数同時露光(すなわち、1フレーム期間内に複数の露光タイミングを持ち、1フレーム期間内に複数の画像を撮像する)を実施可能な構成であってもよい。それぞれの感度での撮像結果、並びにミリ波レーダ221、およびLiDAR222のセンシング結果を、車外の状況に応じて選択的に使用することで認識精度を向上させるようにしてもよい。
すなわち、図14の左部のイメージセンサ203は、1フレーム期間内に3枚の画像を撮像し、それぞれ高感度部203H、中感度部203M、および低感度部203Lのシャッター開閉タイミング(すなわち露光時間)や、センサゲイン調整といったイメージセンサ制御を実施することで設定される。このため、図14のイメージセンサ203においては、3種類の感度の画像PH,PM,PLを同時に撮像することができる。
高感度画像PHは、露光時間が所定時間より長い画像であり、暗い被写体用の画像である。中感度画像PMは、露光時間が高感度画像PHよりも短く、低感度画像PLよりも長い画像であり、中間輝度の被写体用の画像である。低感度画像PLは、露光時間が所定時間より短い画像であり、明るい被写体用の画像である。
そして、高感度画像PHが信号処理されて、物体認識処理がなされることで、高感度物体認識結果が求められる。
同様に、中感度画像PMが信号処理されて、物体認識処理がなされることで、中感度物体認識結果が求められる。
また、低感度画像PLが信号処理されて、物体認識処理がなされることで、低感度物体認識結果が求められる。
そして、外界の条件に応じて、高感度物体認識結果、中感度物体認識結果、低感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が選択的に用いられて物体認識精度が向上される。
すなわち、例えば、外界の条件において、例えば、十分な明るさがあり、全ての認識結果を使用できるような場合については、図15のPat1で示されるように、高感度物体認識結果、中感度物体認識結果、低感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が統合されて使用される。
また、例えば、外界の条件が所定の照度よりも低く暗い場合については、図15のPat2で示されるように、高感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が統合されて使用される。
さらに、例えば、外界の条件が逆光である場合については、図15のPat3で示されるように、中感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が統合されて使用される。
また、例えば、外界の条件が所定の照度よりも高く明るすぎるような場合については、図15のPat4で示されるように、低感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が統合されて使用される。
さらに、例えば、濃霧であるような場合については、図15のPat5で示されるように、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が統合されて使用される。ただし、この場合、物体認識処理ができないが、物体の位置、速度、および距離については求められるので、物体認識結果としては不明であるが、物体が存在し、物体の画像内における位置、速度、および距離が確認される。
尚、図15において、使用されるセンシング結果の種別が記載されており、上から高感度物体認識結果(高感度)、中感度物体認識結果(中感度)、低感度物体認識結果(低感度)、ミリ波レーダ221およびLiDAR222の認識結果(ミリ波、LiDAR)であることが示されている。また、最下段においては、物体認識結果が得られるか否かの項目が設けられている。さらに、左から順に、パターンPat1乃至Pat5の種別に応じた選択されるセンシング結果の種別が丸印で示されており、バツ印は、選択されないことが示されている。
<複数の異なる感度で撮像した画像、並びにミリ波レーダ、およびLiDARのセンシング結果を、車外の状況に応じて選択するようにしたデータ取得部の構成例>
次に、図16を参照して、複数の異なる感度で撮像した画像、並びにミリ波レーダ221、およびLiDAR222のセンシング結果を、車外の状況に応じて選択するようにしたデータ取得部102の第4の実施の形態の構成例について説明する。
図16のデータ取得部102において、図9のデータ取得部102と異なる点は、イメージセンサ203、信号処理部204、および認識部205のそれぞれに高感度画像PH、中感度画像PM、および低感度画像PLを処理する構成が設けられ、さらに、照度を検出する照度センサ241、および霧を検出する霧センサ242が設けられている点である。
イメージセンサ203は、図14を参照したように、高感度部203H、中感度部203M、および低感度部203Lが設けられており、異なる露光時間により同時に感度の異なる画像を撮像することができ、それぞれ信号処理部204に出力する。
尚、図14においては、感度を3段階にする例について説明しているが、2段階や4段階以上に分割されるようにしてもよい。
信号処理部204は、イメージセンサ203の分割数に対応して、高感度信号処理部204H、中感度信号処理部204M、および低感度信号処理部204Lを備えている。高感度信号処理部204H、中感度信号処理部204M、および低感度信号処理部204Lは、それぞれ高感度部203H、中感度部203M、および低感度部203Lより供給される高感度画像PH、中感度画像PM、および低感度画像PLを信号処理し、認識部205に出力する。
認識部205は、イメージセンサ203の分割数に対応して、高感度認識部205H、中感度認識部205M、および低感度認識部205L、並びに、認識結果統合部205Rを備えている。高感度認識部205H、中感度認識部205M、および低感度認識部205Lは、それぞれ高感度信号処理部204H、中感度信号処理部204M、および低感度信号処理部204Lより供給される信号処理結果である高感度画像PH、中感度画像PM、および低感度画像PLに基づいて、物体認識処理を行い、結果である物体認識結果を認識結果統合部205Rに出力する。
認識結果統合部205Rは、照度センサ241より供給される照度の情報、および霧センサ242により供給される霧の有無の情報に基づいて、図15を参照して説明したように、高感度信号処理部204H、中感度信号処理部204M、および低感度信号処理部204Lの物体認識結果、並びに、ミリ波レーダ221、およびLiDAR222のセンシング結果を選択的に使用することで物体認識結果を統合して、自動運転制御部112に出力する。
このような構成により、外界の条件に応じた物体認識結果が選択的に用いられることにより、物体認識精度を向上させることが可能となる。
<図16のデータ取得部によるセンシング処理>
次に、図17のフローチャートを参照して、図16のデータ取得部102によるセンシング処理について説明する。
尚、図17のフローチャートにおいて、ステップS79乃至S85の処理は、図10のフローチャートを参照して説明したステップS44乃至S50の処理と同様であるので、その説明は省略する。
すなわち、ステップS71において、イメージセンサ203は、制御部201により制御されて、高感度部203H、中感度部203M、および低感度部203Lのそれぞれの感度で、レンズ202を介して入射する車両91の周囲の感度の異なる3枚の画像PH,PM,PLを撮像し、撮像した画像信号を信号処理部204に出力する。
ステップS72において、信号処理部204は、制御部201により制御され、高感度信号処理部204H、中感度信号処理部204M、および低感度信号処理部204Lのそれぞれにおいて、高感度画像PH、中感度画像PM、および低感度画像PLに対して、信号処理を施し、認識部205、バッファ206、および判定部207に出力する。
ステップS73において、制御部201は、信号処理部204より出力された3種類の感度の画像信号のうち、照度センサ241の照度に応じた感度の画像をバッファ206にバッファリングさせる。また、照度センサ241を用いず、信号処理部204にイメージセンサ203で撮像した画面全体の輝度検波処理部を設けて、画面の明るさを検出する構成にしても良い。
すなわち、照度が所定値よりも低く、暗い場合は、高感度信号処理部204Hにより処理された画像がバッファリングされ、照度が所定値よりも高く、明るい場合は、低感度信号処理部204Lにより処理された画像がバッファリングされ、それ以外の場合、中感度信号処理部204Mにより処理された画像がバッファリングされる。
ステップS74において、ミリ波レーダ221は、車両91の周囲に対してミリ波帯の電波を照射して、ピーク強度の反射波に基づいて、物体の速度情報を検出して認識部205に出力する。
ステップS75において、LiDAR222は、赤外光からなるレーザ光を投光し、物体からの反射光を受光することで、レーザ光の往復時間に基づいて、物体までの距離情報を3次元点群情報として検出し、認識部205に出力する。
ステップS76において、認識部205の高感度認識部205H、中感度認識部205M、および低感度認識部205Lは、それぞれの感度の画像PH,PM,PLに基づいて物体認識処理を行い、結果である物体認識結果を認識結果統合部205Rに出力する。
ステップS77において、認識結果統合部205Rは、認識結果統合処理を実行して、それぞれの感度に認識結果、並びに、ミリ波レーダ221の速度情報、およびLiDAR222の距離情報に基づいて、認識結果を統合する。
ステップS78において、認識結果統合部205Rは、認識結果統合処理結果に基づいて、物体認識結果に対して、ミリ波レーダ221の速度情報、およびLiDAR222の距離情報をメタデータとして付与し、物体認識結果を生成する。
そして、ステップS79において、バッファリングされていた画像が自動運転制御部112に出力され、ステップS80において、物体認識結果が自動運転制御部112に出力される。
以降の処理により、自動運転制御部112においては、より高精度な物体認識結果に基づいた自動運転制御を実現させることが可能となる。
<認識結果統合処理>
ここで、図18のフローチャートを参照して、認識結果統合処理について説明する。
ステップS101において、認識結果統合部205Rは、照度センサ241により検出される車両91の周囲の照度に基づいて、周囲の照度は、所定の照度以下であり、暗い状態であるか否かを判定する。
ステップS101において、周囲の照度は、所定の照度以下であり、暗い状態であると判定された場合、処理は、ステップS102に進む。
ステップS102において、認識結果統合部205Rは、図15のPat2で示されるように、高感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果を選択する。
また、ステップS101において、周囲の照度は、所定の照度以下ではなく、暗い状態ではないと判定された場合、処理は、ステップS103に進む。
ステップS103において、認識結果統合部205Rは、中感度信号処理結果である画像PMにおける、画像内の明暗差に基づいて、逆光であるか否かを判定する。
ステップS103において、逆光であるとみなされた場合、処理は、ステップS104に進む。
ステップS104において、認識結果統合部205Rは、図15のPat3で示されるように、中感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果を選択する。
また、ステップS103において、逆光ではないと判定された場合、処理は、ステップS105に進む。
ステップS105において、認識結果統合部205Rは、照度センサ241により検出される車両91の周囲の照度に基づいて、所定の照度以上であり過剰な明るさであるか否かを判定する。
ステップS105において、所定の照度以上であり過剰な明るさであるとみなされた場合、処理は、ステップS106に進む。
ステップS106において、認識結果統合部205Rは、図15のPat4で示されるように、低感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果を選択する。
さらにステップS105において、過剰な明るさではないとみなされた場合、処理は、ステップS107に進む。
ステップS107において、認識結果統合部205Rは、霧センサ242により検出される車両91の周囲が霧であるか否かの情報に基づいて、霧の有無を判定する。
ステップS107において、霧状態であるとみなされた場合、処理は、ステップS108に進む。
ステップS108において、認識結果統合部205Rは、図15のPat5で示されるように、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果を選択する。ただし、この場合、物体認識結果は不明とされる。すなわち、この場合、物体認識結果は不明であるが、速度情報と距離情報とが認識物体が不明である物体認識結果にメタデータとして付与される。
ステップS107において、霧状態ではないとみなされた場合、すなわち、暗すぎず、明るすぎず、逆光でも、霧でもない場合、処理は、ステップS109に進む。
ステップS109において、認識結果統合部205Rは、全ての認識結果を使用できるので、図15のPat1で示されるように、高感度物体認識結果、中感度物体認識結果、低感度物体認識結果、ミリ波レーダ221の検出結果、および、LiDAR222の検出結果が選択される。
以上の処理により、複数の感度の画像に基づいた物体認識結果、および、ミリ波レーダ221により求められる物体の速度情報、およびLiDAR222により求められる物体の距離情報が求められ、外界の状況に応じて、適切な情報が選択されて物体認識結果が生成されて、自動運転制御部112に出力される。
結果として、物体認識精度を向上させることが可能となり、高精度な物体認識結果に基づいた適切な自動運転制御を実現させることが可能となる。
<<7.第5の実施の形態>>
以上においては、複数の感度の画像に基づいた物体認識結果、および、ミリ波レーダ221により求められる物体の速度情報、およびLiDAR222により求められる物体の距離情報が求められ、外界の状況に応じて、適切な情報が選択されて物体認識結果が生成される例について説明してきた。
ところで、昨今においては、信号機に使用される照明や車両のウィンカやブレーキランプなどにLED(Light Emission Diode)が使用される構成が増えてきている。
例えば、LEDを使用した信号機などにおいては、人間の目では認識できない、交流電源の周期に応じた点滅がなされているため、シャッタスピードに応じて信号機が全て消灯しまうような画像が撮像される、いわゆるフリッカ現象が生じることがある。
すなわち、図19は、交流電源の電圧の変位を示したものであるが、このように電圧が変化する場合、LEDは、上に凸、または下に凸のタイミングにおいて明るく点灯し、波形の正負が反転するタイミングを含むタイミングにおいて消灯する状態になる。
このため、イメージセンサ203の露光時間が矢印SS1である場合、正負が反転する近傍のタイミングでは、LEDが消灯するため撮像されないことになる。これに対して、イメージセンサ203の露光時間が矢印SS1よりも長い矢印SS2である場合、波形の正負が反転するタイミングを跨ぐような期間を含んでいても、LEDが点灯した状態のタイミングも露光されているため、どのようなタイミングにおいてもLEDが消灯した状態の画像が撮像されることがない。
このため、一般的に信号機が撮像されるようなイメージセンサ203においては、図20の下段で示されるように、露光時間を11ms(=1/90s)で制限して、信号機のLEDが消灯した画像が撮像されないように設定されている。ただし、図20においては、F値が1.8で、ISO100相当であることが前提とされている。
尚、図20において、露光時間が1/30s乃至1/90sにおいては、露光時間による感度調整がなされ、露光時間が1/90sにおいては、ゲイン(gain)により感度が調整される。これにより、フリッカの発生は抑制されることになる。
しかしながら、周囲の状況が明るすぎるような状態になると、露光時間に制限があることにより、動きがある画像などでは色滲みが発生したり、トンネル出口の画像などで白飛びなどが発生する恐れがある。
そこで、本開示においては、物体認識結果により画像内に信号機が存在する場合については、従来通り露光時間を11ms(=1/90s)で制限し、それ以外の場合については、図20の上段で示されるように、外界の照度に応じて、露光時間を1/90s乃至1/15000s等の範囲で調整できるようにする。
このような構成により、LEDを用いた信号機が画像内に存在する場合には、消灯してしまっている画像が撮像されることが防止されるとともに、信号機が画像内に存在しないときには、光量の応じた露光時間で画像を撮像することが可能となる。
結果として、動きのある画像における滲みやトンネル出口の画像などでの白飛びの発生が抑制されつつ、信号機が存在する場合には、LEDが用いられていても信号機が消灯された状態で撮像されることがなくなる。
また、車両に用いられる照明のうち、テールランプにLEDが用いられる場合においてもフリッカが生じることがある。この場合についても同様の処理が必要である。さらに、車両に用いられるウィンカにLEDが用いられる場合があるがウィンカについてはテールランプほど点灯時間が長くないので、フリッカが視認できる状態とはならない。そこで、車両に用いられるランプのうちテールランプが画像内に存在するときは、信号機に対する場合と同様の処理を行い、ウィンカの場合については、明るさに応じた露光時間の調整を行うようにする。
<LEDを用いた信号機や車両の照明が画像内に存在するか否かに応じて露光時間を調整するデータ取得部の構成例>
次に、図21を参照して、LEDを用いた信号機や車両の照明が画像内に存在するか否かに応じて露光時間を調整するデータ取得部102の構成例について説明する。
図21のデータ取得部102において、図9のデータ取得部102の構成と異なるのは、判定部207に、信号機判定部207A、および車両ランプ判定部207Bが含まれている点である。
信号機判定部207Aは、認識部205の物体認識結果に基づいて、信号処理部204より出力される画像内に信号機が含まれているか否かを判定し、判定結果を制御部201に出力する。
車両ランプ判定部207Bは、認識部205の物体認識結果に基づいて、信号処理部204より出力される画像内に車両ランプがあるか否かを判定する。さらに、車両ランプがある場合、車両ランプ判定部207Bは、車両ランプが、点灯時間が所定時間より短いウィンカであるか否かを判定し、ウィンカではないとき、すなわち、点灯時間が所定時間より長いテールランプである場合、判定結果を制御部201に出力する。
信号処理部204は、信号機やテールランプが画像内に存在することを示す判定結果が供給される場合、イメージセンサ203の露光時間をフリッカが生じない長さに制限し、それ以外の場合、イメージセンサ203の露光時間を外界の明るさに応じた適切な長さに制御する。
このような構成により、信号機やテールランプによるフリッカの発生を抑制しつつ、動きのある画像における色滲みやトンネル出口の画像などでの白飛びの発生が抑制される。
<フリッカ抑制処理>
次に、図22のフローチャートを参照して、図22のデータ取得部102によるフリッカ抑制処理について説明する。尚、ここでは、上述したセンシング処理がなされ、認識部205からは順次物体認識結果が供給される。
ステップS131において、判定部207は、認識部205より物体認識結果を取得する。
ステップS132において、信号機判定部207Aは、物体認識結果に信号機が含まれているか否かを判定する。
ステップS132において、信号機が含まれているとみなされた場合、処理は、ステップS103に進む。
ステップS133において、信号機判定部207Aは、物体認識結果に信号機が含まれることを制御部201に通知する。制御部201は、露光時間を調整してフリッカ抑制用の状態となるように、例えば、露光時間を11msに制限するようにイメージセンサ203を制御する。
ステップS134において、処理の終了が指示されたか否かが判定され、終了が指示されていない場合、処理は、ステップS131に戻り、それ以降の処理が繰り返される。また、ステップS134において、処理の終了が指示された判定された場合、処理が終了する。
また、ステップS132において、信号機がないと判定された場合、処理は、ステップS135に進む。
ステップS135において、車両ランプ判定部207Bは、物体認識結果に車両ランプが含まれているか否かを判定し、車両ランプが含まれているとき、処理は、ステップS136に進む。
ステップS136において、車両ランプ判定部207Bは、車両ランプが、点灯時間が所定時間より短いウィンカであるか否かを判定する。
ステップS136において、ウィンカではないと判定された場合、処理は、ステップS103に進む。
一方、ステップS136において、ウィンカであった場合、処理は、ステップS137に進む。
ステップS137において、車両ランプ判定部207Bは、物体認識結果に信号機やテールランプが含まれないことを制御部201に通知する。制御部201は、外界の照度に合わせた、通常状態の露光時間となるようにイメージセンサ203を制御する。
さらに、ステップS135において、車両ランプがないとみなされた場合、処理は、ステップS137に進む。
以上の処理により、LEDが用いられた信号機やテールランプについては、フリッカの発生が抑制され、信号機やテールランプが消灯しているような画像を撮像することが抑制され、信号機やテールランプがない場合については、照度に合わせた通常状態の露光時間で撮像することが可能となるので、動きのある画像での色滲みや、トンネル出口の画像などにおいて白飛びなどの発生を抑制することが可能となる。
<<8.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図23は、汎用のコンピュータの構成例を示している。このコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブル記録媒体1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブル記録媒体1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図23におけるCPU1001が、図3における自動運転制御部112の機能を実現させる。また、図23における記憶部1008が、図3における記憶部111を実現する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 自車となる車両の周囲の画像を撮像する撮像部と、
前記撮像部により撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記車両の運転を制御する運転制御部に出力する物体認識処理部と
を備える情報処理装置。
<2> 前記物体認識処理部は、前記画像より、地上面、人間、車両、建造物、固定物体、自然環境、および空の情報のうちの少なくともいずれか一つを前記物体として認識し、前記物体認識処理結果として出力する
<1>に記載の情報処理装置。
<3> 前記地上面の前記物体認識処理結果には、道路、歩道、駐車場、および軌道のうちの少なくともいずれか一つが含まれる
<2>に記載の情報処理装置。
<4> 前記人間の前記物体認識処理結果には、歩行者および運転者のうちの少なくともいずれか一つが含まれる
<2>に記載の情報処理装置。
<5> 前記車両の前記物体認識処理結果には、車、トラック、バス、レール上を走行する電車や列車、バイク、自転車、および牽引車両のうちの少なくともいずれか一つが含まれる
<2>に記載の情報処理装置。
<6> 前記建造物の前記物体認識処理結果には、建物、壁、フェンス、ガードレール、橋梁、およびトンネルのうちの少なくともいずれか一つが含まれる
<2>に記載の情報処理装置。
<7> 前記自然環境の前記物体認識処理結果には、植生や地形の情報のうちの少なくともいずれか一つが含まれる
<2>に記載の情報処理装置。
<8> 前記自然環境の前記物体認識処理結果には、植生や地形の情報が含まれる
<2>に記載の情報処理装置。
<9> 前記画像を信号処理する信号処理部をさらに含み、
前記物体認識処理部は、前記信号処理部により信号処理された画像に基づいた物体認識処理により前記画像内の物体を認識し、
前記物体認識処理部による物体認識処理が、前記信号処理部による信号処理よりも遅い場合、前記信号処理部は、前記物体認識処理の処理時間と、前記信号処理の処理時間との時間差に基づいて、前記信号処理された画像を間引いて出力する
<1>乃至<8>のいずれかに記載の情報処理装置。
<10> 前記信号処理された画像が間引いて出力される場合、前記物体認識処理結果は、間引かれる画像数だけ前のタイミングの画像と共に出力される
<9>に記載の情報処理装置。
<11> 前記画像を信号処理する信号処理部をさらに含み、
前記物体認識処理部は、前記信号処理部により信号処理された画像に基づいた物体認識処理により前記画像内の物体を認識し、
前記物体認識処理部による物体認識処理が、前記信号処理部による信号処理よりも速い場合、前記物体認識処理部は、前記物体認識処理の処理時間と、前記信号処理の処理時間との時間差に基づいて、前記物体認識処理結果を間引いて出力する
<1>乃至<8>のいずれかに記載の情報処理装置。
<12> 前記自車の周囲の物体の速度情報を検出する速度情報検出部と、
前記自車の周囲の物体の距離情報を検出する距離情報検出部とをさらに含み、
前記物体認識処理部は、前記物体認識処理結果のそれぞれに対応付けて、前記速度情報および前記距離情報からなるメタデータを付与して出力する
<1>乃至<11>のいずれかに記載の情報処理装置。
<13> 前記物体認識処理部は、前記物体認識処理結果のうち、前記速度情報検出部および前記距離情報検出部による検出精度が所定値よりも高い前記物体認識処理結果に対して、前記速度情報および前記距離情報からなるメタデータを付与して出力する
<12>に記載の情報処理装置。
<14> 前記物体認識処理部は、前記周囲の状況に応じて、前記物体認識処理結果のうちの一部を出力する低負荷モード、または、前記物体認識処理結果の全部を出力する高負荷モードのいずれかのモードで、前記物体認識処理結果を出力する
<1>乃至<13>のいずれかに記載の情報処理装置。
<15> 前記物体認識処理部は、前記周囲の状況が、前記周囲の車両の速度が一定速度で走行し、かつ、距離が一定の状態で所定時間継続する状況である場合、前記低負荷モードにより、前記物体認識処理結果のうち進行方向の前記物体認識処理結果を出力する
<14>に記載の情報処理装置。
<16> 前記撮像部は、異なる感度で複数の画像を撮像し、
前記物体認識処理部は、前記異なる感度の複数の画像のそれぞれについて物体認識処理を行って異なる感度の複数の物体認識処理結果を生成し、前記周囲の状況に応じて、前記異なる感度の複数の物体認識処理結果を選択して出力する
<1>乃至<15>のいずれかに記載の情報処理装置。
<17> 前記物体認識処理結果のうち、所定の物体認識結果が含まれる場合、前記撮像部のパラメータが制御される
<1>乃至<16>のいずれかに記載の情報処理装置。
<18> 前記物体認識処理結果のうち、所定の物体認識結果として信号機、およびテールランプが含まれる場合、前記撮像部の前記パラメータのうち露光時間が、所定時間以上の長さに制御される
<17>に記載の情報処理装置。
<19> 自車となる車両の周囲の画像を撮像する撮像処理と
撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記車両の運転を制御する運転制御部に出力する物体認識処理と
を含む情報処理方法。
<20> 自車となる車両の周囲の画像を撮像する撮像部と、
前記撮像部により撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記車両の運転を制御する運転制御部に出力する物体認識処理部と
してコンピュータを機能させるプログラム。
91 車両, 100 車両制御システム, 102 データ取得部102 自動運転制御部, 200,200−1乃至200−6 センサ部, 201,201−1乃至201−6 制御部, 202,202−1乃至202−6 レンズ, 203,203−1乃至203−6 イメージセンサ, 203H 高感度部, 203M 中感度部, 203L 低感度部, 204,204−1乃至204−6 信号処理部, 204H 高感度信号処理部, 204M 中感度信号処理部, 204L 低感度信号処理部, 205,205−1乃至205−6 認識部, 205H 高感度認識部, 205M 中感度認識部, 205L 低感度認識部, 205R 認識結果統合部, 206,206−1乃至206−6 , バッファ, 207 判定部, 207A 信号機判定部, 207B 車両ランプ判定部, 221 ミリ波レーダ, 222 LiDAR, 223 衝突判定部, 231 認識結果統合部, 232 画像統合部, 241 照度センサ, 242 霧センサ

Claims (20)

  1. 移動体の周囲の画像を撮像する撮像部と、
    前記撮像部により撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記移動体内のネットワークを介して出力する物体認識処理部と
    を備える情報処理装置。
  2. 前記物体認識処理部は、前記画像より、地上面、人間、車両、建造物、固定物体、自然環境、および空の情報のうちの少なくともいずれか一つを前記物体として認識し、前記物体認識処理結果として出力する
    請求項1に記載の情報処理装置。
  3. 前記地上面の前記物体認識処理結果には、道路、歩道、駐車場、および軌道のうちの少なくともいずれか一つが含まれる
    請求項2に記載の情報処理装置。
  4. 前記人間の前記物体認識処理結果には、歩行者および運転者のうちの少なくともいずれか一つが含まれる
    請求項2に記載の情報処理装置。
  5. 前記車両の前記物体認識処理結果には、車、トラック、バス、レール上を走行する電車や列車、バイク、自転車、および牽引車両のうちの少なくともいずれか一つが含まれる
    請求項2に記載の情報処理装置。
  6. 前記建造物の前記物体認識処理結果には、建物、壁、フェンス、ガードレール、橋梁、およびトンネルのうちの少なくともいずれか一つが含まれる
    請求項2に記載の情報処理装置。
  7. 前記固定物体の前記物体認識処理結果には、ポール、ポール群、交通標識、および信号機のうちの少なくともいずれか一つが含まれる
    請求項2に記載の情報処理装置。
  8. 前記自然環境の前記物体認識処理結果には、植生や地形の情報のうちの少なくともいずれか一つが含まれる
    請求項2に記載の情報処理装置。
  9. 前記画像を信号処理する信号処理部をさらに含み、
    前記物体認識処理部は、前記信号処理部により信号処理された画像に基づいた物体認識処理により前記画像内の物体を認識し、
    前記物体認識処理部による物体認識処理が、前記信号処理部による信号処理よりも遅い場合、前記信号処理部は、前記物体認識処理の処理時間と、前記信号処理の処理時間との時間差に基づいて、前記信号処理された画像を間引いて出力する
    請求項1に記載の情報処理装置。
  10. 前記信号処理された画像が間引いて出力される場合、前記物体認識処理結果は、間引かれる画像数だけ前のタイミングの画像と共に出力される
    請求項9に記載の情報処理装置。
  11. 前記画像を信号処理する信号処理部をさらに含み、
    前記物体認識処理部は、前記信号処理部により信号処理された画像に基づいた物体認識処理により前記画像内の物体を認識し、
    前記物体認識処理部による物体認識処理が、前記信号処理部による信号処理よりも速い場合、前記物体認識処理部は、前記物体認識処理の処理時間と、前記信号処理の処理時間との時間差に基づいて、前記物体認識処理結果を間引いて出力する
    請求項1に記載の情報処理装置。
  12. 前記移動体の周囲の物体の速度情報を検出する速度情報検出部と、
    前記移動体の周囲の物体の距離情報を検出する距離情報検出部とをさらに含み、
    前記物体認識処理部は、前記物体認識処理結果のそれぞれに対応付けて、前記速度情報および前記距離情報からなるメタデータを付与して出力する
    請求項1に記載の情報処理装置。
  13. 前記物体認識処理部は、前記物体認識処理結果のうち、前記速度情報検出部および前記距離情報検出部による検出精度が所定値よりも高い前記物体認識処理結果に対して、前記速度情報および前記距離情報からなるメタデータを付与して出力する
    請求項12に記載の情報処理装置。
  14. 前記物体認識処理部は、前記周囲の状況に応じて、前記物体認識処理結果のうちの一部を出力する低負荷モード、または、前記物体認識処理結果の全部を出力する高負荷モードのいずれかのモードで、前記物体認識処理結果を出力する
    請求項1に記載の情報処理装置。
  15. 前記物体認識処理部は、前記周囲の状況が、前記周囲の移動体の速度が一定速度で移動し、かつ、距離が一定の状態で所定時間継続する状況である場合、前記低負荷モードにより、前記物体認識処理結果のうち進行方向の前記物体認識処理結果を出力する
    請求項14に記載の情報処理装置。
  16. 前記撮像部は、異なる感度で複数の画像を撮像し、
    前記物体認識処理部は、前記異なる感度の複数の画像のそれぞれについて物体認識処理を行って異なる感度の複数の物体認識処理結果を生成し、前記周囲の状況に応じて、前記異なる感度の複数の物体認識処理結果を選択して出力する
    請求項1に記載の情報処理装置。
  17. 前記物体認識処理結果のうち、所定の物体認識結果が含まれる場合、前記撮像部のパラメータが制御される
    請求項1に記載の情報処理装置。
  18. 前記物体認識処理結果のうち、所定の物体認識結果として信号機、およびテールランプが含まれる場合、前記撮像部の前記パラメータのうち露光時間が、所定時間以上の長さに制御される
    請求項17に記載の情報処理装置。
  19. 移動体の周囲の画像を撮像する撮像処理と
    撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記移動体内のネットワークを介して出力する物体認識処理と
    を含む情報処理方法。
  20. 移動体の周囲の画像を撮像する撮像部と、
    前記撮像部により撮像された前記画像内の物体を認識する物体認識処理を行い、前記物体認識処理による物体認識処理結果を、認識した前記物体を単位として、前記移動体内のネットワークを介して出力する物体認識処理部と
    してコンピュータを機能させるプログラム。
JP2020559924A 2018-12-07 2019-11-22 情報処理装置、および情報処理方法、並びにプログラム Abandoned JPWO2020116205A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018230176 2018-12-07
JP2018230176 2018-12-07
PCT/JP2019/045800 WO2020116205A1 (ja) 2018-12-07 2019-11-22 情報処理装置、および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JPWO2020116205A1 true JPWO2020116205A1 (ja) 2021-10-21

Family

ID=70975042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559924A Abandoned JPWO2020116205A1 (ja) 2018-12-07 2019-11-22 情報処理装置、および情報処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20230045772A9 (ja)
EP (1) EP3893497A4 (ja)
JP (1) JPWO2020116205A1 (ja)
KR (1) KR20210096086A (ja)
CN (1) CN113170080A (ja)
WO (1) WO2020116205A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022190971A1 (ja) * 2021-03-11 2022-09-15
EP4097554B1 (en) 2021-04-20 2023-12-06 Baidu.com Times Technology (Beijing) Co., Ltd. Traffic light detection and classification for autonomous driving vehicles

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4361755B2 (ja) * 2003-05-08 2009-11-11 株式会社リコー 動画像処理装置、プログラム、記憶媒体および動画像処理方法
JP4980939B2 (ja) * 2008-01-22 2012-07-18 富士重工業株式会社 撮像手段の調整装置および物体検出装置
JP4678611B2 (ja) * 2008-06-05 2011-04-27 トヨタ自動車株式会社 障害物検出装置および障害物検出システム
JP2010215029A (ja) * 2009-03-13 2010-09-30 Toyota Industries Corp 駐車支援装置
WO2011064831A1 (ja) * 2009-11-30 2011-06-03 富士通株式会社 診断装置及び診断方法
KR101328363B1 (ko) * 2011-06-08 2013-11-11 도요타지도샤가부시키가이샤 차선 일탈 방지 지원 장치, 구분선 표시 방법, 프로그램
JP6022930B2 (ja) 2012-12-25 2016-11-09 京セラ株式会社 カメラシステム、カメラモジュールおよびカメラ制御方法
US20140210646A1 (en) * 2012-12-28 2014-07-31 Balu Subramanya Advanced parking and intersection management system
GB201314067D0 (en) * 2013-08-06 2013-09-18 Microsoft Corp Allocating Processor Resources
JP6547292B2 (ja) * 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム
JP6313646B2 (ja) * 2014-04-24 2018-04-18 日立オートモティブシステムズ株式会社 外界認識装置
JP6303974B2 (ja) * 2014-10-22 2018-04-04 株式会社デンソー 車載カメラ装置及び車載システム
WO2018101247A1 (ja) * 2016-11-29 2018-06-07 マクセル株式会社 画像認識撮像装置

Also Published As

Publication number Publication date
EP3893497A1 (en) 2021-10-13
US20220027643A1 (en) 2022-01-27
CN113170080A (zh) 2021-07-23
KR20210096086A (ko) 2021-08-04
WO2020116205A1 (ja) 2020-06-11
US20230045772A9 (en) 2023-02-09
EP3893497A4 (en) 2022-04-27

Similar Documents

Publication Publication Date Title
JP7188394B2 (ja) 画像処理装置及び画像処理方法
WO2019111702A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7314798B2 (ja) 撮像装置、画像処理装置、及び、画像処理方法
US11815799B2 (en) Information processing apparatus and information processing method, imaging apparatus, mobile device, and computer program
WO2019130945A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
JP7143857B2 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
JP7027737B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6939283B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2019116784A1 (ja) 情報処理装置、移動体、制御システム、情報処理方法及びプログラム
US20240142607A1 (en) Information processing device, information processing method, computer program, and mobile device
JPWO2019225349A1 (ja) 情報処理装置、情報処理方法、撮影装置、照明装置、及び、移動体
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2020116205A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2021256411A1 (ja) 信号処理装置、調光制御方法、信号処理プログラム、及び調光システム
WO2022153896A1 (ja) 撮像装置、画像処理方法及び画像処理プログラム
WO2022038981A1 (ja) 情報処理装置及び情報処理方法、撮像装置、移動体装置、並びにコンピュータプログラム
JP6984256B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
WO2019049710A1 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP2022017612A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022085479A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2024009739A1 (ja) 光学式測距センサ、及び光学式測距システム
WO2020170835A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
EP3863282A1 (en) Image processing device, and image processing method and program
CN113614777A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20221025