JP2022064929A - 画像処理装置および移動体 - Google Patents

画像処理装置および移動体 Download PDF

Info

Publication number
JP2022064929A
JP2022064929A JP2022007449A JP2022007449A JP2022064929A JP 2022064929 A JP2022064929 A JP 2022064929A JP 2022007449 A JP2022007449 A JP 2022007449A JP 2022007449 A JP2022007449 A JP 2022007449A JP 2022064929 A JP2022064929 A JP 2022064929A
Authority
JP
Japan
Prior art keywords
moving body
processor
behavior
image processing
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022007449A
Other languages
English (en)
Inventor
亮介 茂木
Ryosuke Mogi
祥武 大和田
Yoshitake Owada
陽介 井田
Yosuke Ida
朋広 三次
Tomohiro Mitsugi
貴宏 青山
Takahiro Aoyama
翔太 岩野
Shota Iwano
伸彦 齋藤
Nobuhiko Saito
大輔 貴島
Daisuke Kishima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JP2022064929A publication Critical patent/JP2022064929A/ja
Priority to JP2023060389A priority Critical patent/JP7489517B2/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/34Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction
    • B60Q1/346Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction with automatic actuation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/507Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/547Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for issuing requests to other traffic participants; for confirming to other traffic participants they can proceed, e.g. they can overtake
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/006Arrangement or adaptation of acoustic signal devices automatically actuated indicating risk of collision between vehicles or with pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18159Traversing an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】全自動運転車両と対象物との間でのこう着状態が発生する蓋然性を低減し、交通の円滑化を図ることにより、移動体による交通の利便性の向上を図る。【解決手段】本開示に係る画像処理装置10aは、プロセッサ13a、記憶部14、通信インタフェース12を備える。プロセッサ13aは、移動体1の周辺を撮像した周辺映像から対象物の状態に基づき決定した移動体1の第1の挙動に対する対象物の反応に基づき、移動体1の挙動を決定する。【選択図】図1

Description

関連出願の相互参照
本出願は、いずれも2018年1月29日に出願された、日本国特許出願2018-012872号、日本国特許出願2018-012877号および日本国特許出願2018-012902号の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
本開示は、画像処理装置および移動体に関する。
従来、カメラの撮影画像から対象物を検出する技術が知られている。
例えば、特許文献1には、車載カメラにより車両の周辺を撮像し、車載カメラの撮影画像から歩行者の膝部位置の移動速度および上半身部位置の移動速度を検出する技術が記載されている。また、特許文献2には、車両が交差点を右折する際に、車載カメラ、レーダなどにより対向車の状態を検出し、その検出結果に基づき、対向車との衝突の可能性を判定し、運転者に通知を行う技術が記載されている。
特開2010-066810号公報 特開2008-243065号公報
本開示の実施形態に係る画像処理装置は、プロセッサを備える。前記プロセッサは、移動体の周辺を撮像した周辺映像から検出した対象物の状態に基づき決定した前記移動体の第1の挙動に対する前記対象物の反応に基づき、前記移動体の挙動を決定する。
本開示の第1の実施形態に係る画像処理装置の構成例を示す図である。 移動体と歩行者との間のこう着状態の発生例を示す図である。 図1に示す画像処理装置の動作の一例を示すフローチャートである。 本開示の第2の実施形態に係る画像処理装置の構成例を示す図である。 移動体と他の移動体との間のこう着状態の発生例を示す図である。 図4に示す画像処理装置の動作の一例を示すフローチャートである。 本開示の第3の実施形態に係る画像処理装置の構成例を示す図である。 図7に示す画像処理装置の動作の一例を示すフローチャートである。
近年、車両の全自動運転の研究・開発が進められている。上述した特許文献1および特許文献2に記載されている技術を全自動運転に適用し、例えば、立ち止りからの動き出しといった歩行者の状態、あるいは、人が運転する他の車両の状態を検出し、全自動運転による車両の制御に用いることも考えられる。しかしながら、上述した技術を適用した場合でも、必ずしも適切な全自動運転が行われるとは限らず、交通の利便性には向上の余地があった。
以下、本開示の実施の形態について図面を参照して例示説明する。各図中、同一符号は、同一または同等の構成要素を示している。
(第1の実施形態)
図1は、本開示の第1の実施形態に係る画像処理装置10aの要部構成例を示す図である。本実施形態に係る画像処理装置10aは、図1に示すように、移動体1に搭載され、移動体1の周辺の周辺映像から対象物の状態を検出し、検出した対象物の状態に応じて、移動体1に実行させる挙動を決定するものである。対象物としては、例えは、人、他の移動体、動物などがある。また、対象物としての人には、歩行者、自転車に乗っている人などが含まれる。移動体1としては、例えば、自動運転機能を備える車両がある。以下では、「自動運転」とは、車両を運転するユーザ操作の一部または全部を自動化することを含む。例えば、自動運転は、SAE(Society of Automotive Engineers)において定義されるレベル1ないし5を含んでもよい。以下では、移動体1は、SAEで定義されるレベル4以上の全自動運転機能を備えるものとして説明する。また、以下では、全自動運転機能を備える車両を、全自動運転車両と称することがある。
図1に示す画像処理装置10aは、出力部としての通信インタフェース12と、プロセッサ13aと、記憶部14とを備える。移動体1には、移動体1の周辺を撮像した周辺映像を取得する、入力部としての撮像部11が搭載されている。画像処理装置10aと、撮像部11とは、移動体1に搭載された撮像装置1Aを構成する。まず、撮像部11について説明する。
撮像部11は、移動体1に搭載された車載カメラである。撮像部11は、移動体1の周辺を撮像した周辺映像を取得し、プロセッサ13aに出力する。撮像部11は、移動体1に複数台搭載されてもよい。例えば、移動体1に4台の車載カメラが搭載される場合、例えば、移動体1の前方の周辺領域と、移動体1の前側面の少なくとも一部とを撮影とを撮影可能な位置と、移動体1の後方の周辺領域と、移動体1の後側面の少なくとも一部とを撮影可能な位置と、移動体1の左側方の周辺領域と、移動体1の左側面の少なくとも一部とを撮影可能な位置と、移動体1の右側方の周辺領域と、移動体1の右側面の少なくとも一部とを撮影可能な位置とにそれぞれ、撮像部11を配置する。このような配置とすることにより、移動体1の四方の周辺領域を撮影することができる。
撮像部11は、少なくとも撮像光学系と、撮像素子とを備える。
撮像光学系は、例えば、1個以上のレンズおよび絞りなどの光学部材を含む。撮像光学系が備えるレンズは、例えば、魚眼レンズなどの画角の広いレンズである。撮像光学系は、被写体像を撮像素子の受光面に結像させる。撮像素子は、例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを含む。撮像素子の受光面上には、複数の画素が配列されている。撮像素子は、受光面上に結像された被写体像を撮像して撮像画像を生成する。撮像部11は、撮像素子により生成された撮像画像を、有線または無線を介して、プロセッサ13aに出力する。撮像部11は、移動体1に搭載されたECU(Electronic Control Unit)、ディスプレイおよびナビゲーション装置などの外部装置に撮像画像を出力してもよい。また、撮像部11は、撮像画像に対して、ホワイトバランス調整処理、露出調整処理およびガンマ補正処理などの所定の画像処理を施す機能を有していてもよい。
次に、画像処理装置10aが備える各構成について説明する。
通信インタフェース12は、有線または無線を介して、移動体1の各種制御系と通信を行うインタフェースである。通信インタフェース12は、例えば、移動体1の走行を制御する制御系、移動体1のライトおよびウィンカの点滅、クラクションの鳴動などを制御する制御系などと通信を行う。
プロセッサ13aは、例えば、DSP(Digital Signal Processor)などの専用のプロセッサ、または、CPU(Central Processing Unit)などの汎用プロセッサを含む。プロセッサ13aは、画像処理装置10a全体の動作を制御する。例えば、プロセッサ13aは、撮像部11が取得した周辺映像から対象物の像を検出し、検出した対象物の状態に基づき、移動体1の挙動を決定する。プロセッサ13aは、対象物が人である場合、人の動きの方向、人の顔または視線の方向、および、人の手または足の動きのうち、少なくとも1つに基づき、人の状態を検出する。
また、プロセッサ13aは、通信インタフェース12を介して移動体1の各種制御系にアクセスし、移動体1の挙動を検出する。プロセッサ13aは、移動体1の挙動として、前進、後退、停止、減速、進路変更、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動、外部表示および現状維持などを検出する。プロセッサ13aは、例えば、移動体1の走行を制御する制御系にアクセスし、前進、後退、停止、減速および進路変更などの挙動を検出する。また、プロセッサ13aは、移動体1のライトおよびウィンカの点滅、クラクションの鳴動などを制御する制御系にアクセスし、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動および外部表示などの挙動を検出する。
プロセッサ13aは、撮像部11が取得した周辺映像から対象物の像を検出し、検出した対象物の状態に基づき、移動体1の第1の挙動を決定する。プロセッサ13aは、決定した第1の挙動を指示する情報を通信インタフェース12を介して移動体1の制御系に出力する。プロセッサ13aは、移動体1による第1の挙動後に、撮像部11が取得した周辺映像から検出した対象物の状態に基づき、第1の挙動に対する対象物の有意な反応が得られない場合、移動体1の第2の挙動を決定する。ここで、有意な反応とは、対象物の意図を認識可能な反応であり、例えば、移動体1における自動運転において、対象物の意図を認識可能な反応である。有意な反応の具体例については、後述する。
記憶部14は、例えば、一次記憶装置または二次記憶装置などを含む。記憶部14は、画像処理装置10aの動作に必要な種々の情報およびプログラムを記憶する。
次に、画像処理装置10aの動作について説明する。
全自動運転車両と対象物との間でこう着状態が発生することがある。こう着状態が生じ得る状況としては、対象物が人であるとすると、例えば、図2に示すように、移動体1が車道を走行中に、横断歩道2の付近の歩道に歩行者3が立っている状況がある。図2に示す状況では、移動体1は、撮像部11が取得した周辺映像から、横断歩道2の付近に立つ歩行者3を検出すると、例えば、歩行者3が横断歩道2を渡ることができるように、横断歩道2の手前で停止する。しかしながら、歩行者3は、必ずしも、横断歩道2を渡るとは限らず、その場で立ち止っている場合がある。この場合、移動体1は、歩行者3が横断歩道2を渡る意図が無いにも関わらず、歩行者3が横断歩道2の付近に立ち止ったままであるので、横断歩道2の手前で停止したままとなる。このようにして、移動体1と歩行者3との間でこう着状態が生じ、円滑な交通が妨げられる可能性がある。
一方、本実施形態においては、画像処理装置10aは、上述したようなこう着状態が発生し得る状況において、対象物から有意な反応が得られない場合、対象物に対して更なるアクションを起こすことで、対象物のリアクションを取得して、対象物の意図を検出する。すなわち、本実施形態においては、移動体1と対象物とがあたかも会話を行うようにして、対象物の意図が検出される。こうすることで、こう着状態が発生する蓋然性が低減され、交通の円滑化が図られるので、移動体1による交通の利便性の向上を図ることができる。
図3は、画像処理装置10aの動作の一例を示すフローチャートであり、画像処理装置10aが実行する画像処理方法を説明するための図である。図3においては、図2に示したように、横断歩道2の付近に対象物としての歩行者3が立っている状態を例として説明する。
ステップS11:プロセッサ13aは、撮像部11が取得した周辺映像から、図2に示すように、横断歩道2の付近に立ち止っている歩行者3が存在するか否かを判定する。横断歩道2の付近に歩行者3が立ち止っている状況は、移動体1と歩行者3との間でこう着状態が生じ得る状況の一例である。プロセッサ13aは、こう着状態が生じ得る各種の状況において、歩行者3が存在するか否かを判定する。プロセッサ13aは、種々の画像認識技術を用いて、周辺映像からの歩行者3の状態、および、例えば、横断歩道2の付近である、といった周辺環境を検出することができる。
ステップS12:歩行者3が存在しないと判定した場合(ステップS11:No)、プロセッサ13aは、移動体1の全自動運転を継続し、移動体1に横断歩道2を通過させる。
ステップS13:歩行者3が存在すると判定した場合(ステップS11:Yes)、プロセッサ13aは、移動体1の挙動として、「停車」を決定する。プロセッサ13aは、停車を指示する情報を通信インタフェース12を介して移動体1に出力し、移動体1を停車させる。すなわち、プロセッサ13aは、横断歩道2の付近という環境において、周囲映像から検出した、立ち止っているという歩行者3の状態に基づき、移動体1の挙動(第1の挙動)として「停車」を決定し、「停車」を指示する情報を、通信インタフェース12を介して移動体1に出力する。
ステップS14:プロセッサ13aは、移動体1の挙動(停車)に対する歩行者3の有意な反応を取得したか否かを判定する。例えば、プロセッサ13aは、撮像部11が取得した周辺映像から、歩行者3の有意な反応を取得したか否かを判定する。
移動体1の挙動(停車)に対する歩行者3の有意な反応を取得することができたと判定した場合(ステップS14:Yes)、プロセッサ13aは、ステップS12の処理に進み、移動体1の全自動運転を継続させる。有意な反応としては、例えば、図2に示す横断歩道2の例では、歩行者3が横断歩道2の横断を開始する、横断歩道2を渡らないことを示すジェスチャーを行う、移動体1に道を譲るようなジェスチャーをするなどの反応がある。これらの反応によれば、歩行者3が横断歩道2を渡る意図がある、歩行者3が横断歩道2を渡る意図がない、歩行者3が移動体1に道を譲る意図があるといった、歩行者3の意図を検出することができる。これらの歩行者3の意図を検出することで、移動体1は、全自動運転を継続することができる。
ステップS15:移動体1の停車後に、撮像部11が取得した周辺映像から検出した歩行者3の状態に基づき、移動体1の挙動(停車)に対する歩行者3の有意な反応を取得することができないと判定した場合(ステップS14:No)、プロセッサ13aは、移動体1の挙動(第2の挙動)を決定する。移動体1の挙動(停車)に対する歩行者3の有意な反応を取得することができない場合、歩行者3が移動体1の挙動(停車)に気がついていない、あるいは、横断歩道2を渡る意図がないなどと推定することができる。この場合、プロセッサ13aは、歩行者3に移動体1を気付かせる、あるいは、歩行者3の意図を検出するために、移動体1の第2の挙動を決定する。例えば、プロセッサ13aは、移動体1の挙動(第2の挙動)として、移動体1のライトを瞬間的に上向き(ハイビーム)で点灯させる「パッシング」を決定する。プロセッサ13aは、「パッシング」を指示する情報を、通信インタフェース12を介して移動体1に出力し、パッシングを実行させる。
このように、プロセッサ13aは、移動体1による第1の挙動(停車)後に、撮像部11が取得した周辺映像から検出した歩行者3の状態に基づき、第1の挙動に対する歩行者3の有意な反応が得られない場合、移動体1の第2の挙動(パッシング)を決定する。こうすることで、移動体1から歩行者3に反応を促し、歩行者3の意図を画像処理装置10aでより正確に検出できるようになる。その結果、移動体1と歩行者3との間でこう着状態が発生する蓋然性を低減し、交通の円滑化を図ることができるので、移動体1による交通の利便性の向上を図ることができる。
ステップS16:プロセッサ13aは、移動体1の挙動(パッシング)に対する歩行者3の有意な反応を取得したか否かを判定する。
移動体1の挙動(パッシング)に対する歩行者3の有意な反応を取得することができたと判定した場合(ステップS16:Yes)、プロセッサ13aは、ステップS12の処理に進み、移動体1の全自動運転を継続させる。
ステップS17:パッシング後に、撮像部11が取得した周辺映像から検出した歩行者3の状態に基づき、移動体1の挙動(パッシング)に対する歩行者3の有意な反応を取得することができないと判定した場合(ステップS16:No)、プロセッサ13aは、移動体1の挙動として、横断歩道2に到達しない程度(例えば、数十cm程度)、移動体1を前進させる「少し前進」を決定する。そして、プロセッサ13aは、「少し前進」を指示する情報を、通信インタフェース12を介して移動体1に出力し、移動体1を少し前進させる。すなわち、ステップS17においては、プロセッサ13aは、「パッシング」を第1の挙動とし、移動体1のパッシング後の周辺映像から検出した歩行者3の状態に基づき、第1の挙動に対する歩行者3の有意な反応が得られない場合、移動体1の第2の挙動として、「少し前進」を決定する。
ステップS18:プロセッサ13aは、移動体1の挙動(少し前進)に対する歩行者3の有意な反応を取得したか否かを判定する。
移動体1の挙動(少し前進)に対する歩行者3の有意な反応を取得することができたと判定した場合(ステップS18:Yes)、プロセッサ13aは、ステップS12の処理に進み、移動体1の全自動運転を継続させる。
ステップS19:移動体1の少し前進後に、撮像部11が取得した周辺映像から検出した歩行者3の状態に基づき、移動体1の挙動(少し前進)に対する歩行者3の有意な反応を取得することができないと判定した場合(ステップS18:No)、プロセッサ13aは、移動体1の挙動として、「クラクション鳴動」を決定する。プロセッサ13aは、「クラクション鳴動」を指示する情報を、通信インタフェース12を介して移動体1に出力し、クラクションを鳴動させる。すなわち、ステップS19においては、プロセッサ13aは、「少し前進」を第1の挙動とし、移動体1の少し前進後の周辺映像から検出した歩行者3の状態に基づき、第1の挙動に対する歩行者3の有意な反応が得られない場合、移動体1の第2の挙動として、「クラクション鳴動」を決定する。
ステップS20:プロセッサ13aは、移動体1の挙動(クラクション鳴動)に対する歩行者3の有意な反応を取得したか否かを判定する。
移動体1の挙動(クラクション鳴動)に対する歩行者3の有意な反応を取得することができたと判定した場合(ステップS20:Yes)、プロセッサ13aは、ステップS12の処理に進み、移動体1の全自動運転を継続させる。
ステップS21:移動体1によるクラクション鳴動後に、撮像部11が取得した周辺映像から検出した歩行者3の状態に基づき、移動体1の挙動(クラクション鳴動)に対する歩行者3の有意な反応を取得することができないと判定した場合(ステップS20:No)、プロセッサ13aは、移動体1の全自動運転を解除する。すなわち、プロセッサ13aは、所定回数だけ移動体1の挙動を繰り返しても歩行者3から有意な反応を取得することができない場合、移動体1の全自動運転を解除する。全自動運転の解除により、移動体1の運転者自身が、歩行者3の様子、仕草などから歩行者3の意図を認識し、その認識結果に応じて、移動体1を走行させることができる。
図3においては、移動体1の挙動として、「停車」、「パッシング」、「少し前進」および「クラクション鳴動」を例として説明したが、これらに限られるものではない。移動体1の挙動としては、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」および「現状維持」などの動作を適宜、選択することができる。また、移動体1の挙動は、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」および「現状維持」などの動作を適宜、組み合わせた挙動であってもよい。また、移動体1が音声出力機能を備える場合には、移動体1の挙動には、音声出力が含まれてもよい。また、移動体1が地面などへの投影機能を備える場合には、移動体1の挙動には、歩道などへのメッセージなどの所定の像の投影が含まれてもよい。
また、図3においては、プロセッサ13aは、「停車」、「パッシング」、「少し前進」、「クラクション鳴動」の順に、移動体1の挙動を決定する例を用いて説明したが、これに限られるものではない。プロセッサ13aは、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」および「現状維持」などの複数の動作の中から、所定の優先順位に応じて、移動体1の挙動を決定してもよい。プロセッサ13aは、例えば、周辺環境などに基づく所定の優先順位に応じて、移動体1の挙動を決定してもよい。例えば、プロセッサ13aは、夜間は、「クラクション鳴動」といった騒音となり得る動作の優先順位を低くし、「照明点灯」、「パッシング」および「ウィンカ点滅」などの、騒音を生じさせない動作の優先順位を高く設定してもよい。また、プロセッサ13aは、各動作に歩行者3が気付く可能性などに応じたポイントを付与してもよい。この場合、プロセッサ13aは、例えば、1または複数回、単一の動作による挙動を歩行者3に提示しても有意な反応が得られなければ、単一の動作に付与されたポイントよりも、合計のポイントが高くなる複数の動作の組み合わせを、移動体1の挙動として決定してもよい。
また、図3においては、所定回数だけ移動体1の挙動を繰り返しても歩行者3から有意な反応を取得することができない場合、移動体1の全自動運転を解除する例を用いて説明したが、これに限られるものではない。プロセッサ13aは、例えば、全自動運転を解除する代わりに、歩行者3と距離をとって徐行しながら、移動体1を走行させてもよい。
また、図1においては、移動体1に搭載された画像処理装置10aにより、周辺映像からの対象物の状態の検出および対象物の状態に応じた移動体1の挙動の決定などを行う例を用いて説明したが、これに限られるものではない。例えば、主にプロセッサ13aが備える、周辺映像からの対象物の状態の検出および対象物の状態に応じた移動体1の挙動の決定など機能を、ネットワーク上のサーバなどが有していてもよい。この場合、移動体1はネットワークを介してサーバと通信可能であり、移動体1からは周辺映像をサーバに送信する。サーバは、移動体1から取得した周辺映像から対象物の検出および対象物の状態に応じた移動体1の挙動の決定を行い、決定した挙動を指示する情報を移動体1に送信する。
このように本実施形態においては、画像処理装置10aは、通信インタフェース12と、プロセッサ13aとを備える。プロセッサ13aは、移動体1の周辺を撮像した周辺映像から対象物の像を検出し、検出した対象物の状態に基づき、移動体1の挙動を決定する。通信インタフェース12は、プロセッサ13aにより決定された移動体1の挙動を指示する情報を移動体1に出力する。プロセッサ13aは、周辺映像から検出した対象物の状態に基づき、移動体1の第1の挙動を決定し、決定した第1の挙動を指示する情報を通信インタフェース12を介して移動体1に出力する。プロセッサ13aは、移動体1による第1の挙動後の周辺映像から検出した対象物の状態に基づき、移動体1の第2の挙動を決定する。
移動体1の第1の挙動後に、第2の挙動を移動体1に行わせることで、対象物の反応を促し、対象物の意図をより正確に検出することができるようになる。その結果、移動体1と対象物との間でこう着状態が発生する蓋然性を低減し、交通の円滑化が図られるので、移動体1による交通の利便性の向上を図ることができる。
(第2の実施形態)
図4は、本開示の第2の実施形態に係る画像処理装置10bの要部構成例を示す図である。本実施形態に係る画像処理装置10bは、図4に示すように、移動体1に搭載され、移動体1の周辺の周辺映像から他の移動体の状態を検出し、検出した他の移動体の状態に応じて、移動体1に実行させる挙動を決定するものである。移動体1としては、例えば、自動運転機能を備える車両がある。また、他の移動体としては、例えば、人が運転する車両がある。
図1に示す画像処理装置10bは、出力部としての通信インタフェース12と、プロセッサ13bと、記憶部14とを備える。すなわち、本実施形態に係る画像処理装置10bは、第1の実施形態に係る画像処理装置10aと比較して、プロセッサ13aをプロセッサ13bに変更した点が異なる。移動体1には、移動体1の周辺を撮像した周辺映像を取得する、入力部としての撮像部11が搭載されている。画像処理装置10bと、撮像部11とは、移動体1に搭載された撮像装置1Aを構成する。
プロセッサ13bは、例えば、DSPなどの専用のプロセッサ、または、CPUなどの汎用プロセッサを含む。プロセッサ13bは、画像処理装置10b全体の動作を制御する。例えば、プロセッサ13bは、撮像部11が取得した周辺映像から他の移動体の像を検出し、検出した他の移動体の状態に基づき、移動体1の挙動を決定する挙動決定処理を行う。プロセッサ13bは、他の移動体の状態として、他の移動体の前進、後退、停止、減速、操舵方向、進路変更、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動、外部表示および現状維持の少なくとも1つを検出する。
また、プロセッサ13bは、通信インタフェース12を介して移動体1の各種制御系にアクセスし、移動体1の挙動を検出する。プロセッサ13bは、移動体1の挙動として、前進、後退、停止、減速、進路変更、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動、外部表示および現状維持などを検出する。プロセッサ13bは、例えば、移動体1の走行を制御する制御系にアクセスし、前進、後退、停止、減速、進路変更などの挙動を検出する。また、プロセッサ13bは、移動体1のライトおよびウィンカの点滅、クラクションの鳴動などを制御する制御系にアクセスし、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動および外部表示などの挙動を検出する。
プロセッサ13bは、挙動決定処理として、以下の動作を行う。すなわち、プロセッサ13bは、撮像部11が取得した周辺映像から他の移動体の像を検出し、検出した他の移動体の第1の状態に基づき、移動体1の第1の挙動を決定する。プロセッサ13bは、決定した第1の挙動を指示する情報を通信インタフェース12を介して移動体1の制御系に出力する。プロセッサ13bは、移動体1による第1の挙動後に、撮像部11が取得した周辺映像から検出した他の移動体の第2の状態に基づき、第1の挙動に対する他の移動体の有意な反応が得られない場合、移動体1の第2の挙動を決定する。ここで、有意な反応とは、他の移動体の運転者の意図を認識可能な反応であり、例えば、移動体1における自動運転において、他の移動体の運転者の意図を認識可能な反応である。有意な反応の具体例については、後述する。
次に、画像処理装置10bの動作について説明する。
全自動運転車両と人が運転する車両との間でこう着状態が発生することがある。こう着状態が生じ得る状況としては、例えば、図5に示すように、移動体1が交差点を右折する際に、対向車線を走行する他の移動体4が交差点の手前で停止した状況がある。図5に示す状況では、移動体1は、撮像部11が取得した周辺映像から、対向車線上の他の移動体4を検出すると、例えば、他の移動体4が直進あるいは左折できるように、走行車線から交差点に少し進入した地点で停止する。しかしながら、他の移動体4は、必ずしも交差点に進入して、直進あるいは左折するとは限らず、移動体1に道を譲るため、あるいは、荷物などの積み下ろしなどのために停止することがある。この場合、他の移動体4の運転者が交差点に進入する意図が無いにも関わらず、他の移動体4が交差点の手前に存在し続けるために、移動体1は、停止したままとなる可能性がある。このようにして、移動体1と他の移動体4との間でこう着状態が生じ、円滑な交通が妨げられる可能性がある。
一方、本実施形態においては、画像処理装置10bは、上述したようなこう着状態が発生し得る状況において、他の移動体4から有意な反応が得られない場合、他の移動体4に対して更なるアクションを起こす。こうすることで、画像処理装置10bは、他の移動体4のリアクションを取得して、他の移動体4の運転者の意図をより正確に検出する。すなわち、本実施形態においては、移動体1と他の移動体4とがあたかも会話を行うようにして、他の移動体4の運転者の意図が検出される。こうすることで、こう着状態が発生する蓋然性が低減され、交通の円滑化が図られるので、移動体1による交通の利便性の向上を図ることができる。
図6は、画像処理装置10bの動作の一例を示すフローチャートであり、画像処理装置10bが実行する画像処理方法について説明するための図である。図6においては、図5に示したように、移動体1が交差点を右折する状態を例として説明する。
ステップS31:プロセッサ13bは、撮像部11が取得した周辺映像から、対向車線に他の移動体4である対向車が存在するか否かを判定する。
ステップS32:対向車が存在しないと判定した場合(ステップS31:No)プロセッサ13bは、移動体1の全自動運転を継続し、移動体1に交差点を右折させる。
ステップS33:対向車が存在すると判定した場合(ステップS31:Yes)、プロセッサ13bは、撮像部11が取得した周辺映像から、対向車が前進してくるか否かを判定する。
ステップS34:対向車が前進してくると判定した場合(ステップS33:Yes)、プロセッサ13bは、交差点の中央付近であって対向車が直進可能なようにして右折待ちをする右折位置で、移動体1を停止させる。
ステップS35:次に、プロセッサ13bは、対向車が交差点を直進あるいは左折して、交差点を通過したか否かを判定する。
対向車が交差点を通過していないと判定した場合(ステップS35:No)、プロセッサ13bは、ステップS34の処理に戻り、移動体1を引き続き停止させる。
対向車が交差点を通過したと判定した場合(ステップS35:Yes)、プロセッサ13bは、移動体1の全自動運転を継続し、移動体1に交差点を右折させる。
ステップS36:対向車が前進していないと判定した場合(ステップS33:No)、プロセッサ13bは、移動体1の挙動として、対向車の直進を妨げることなく、右折位置から移動体1を少し(例えば、数十cm程度)前進させる「少し前進」を決定する。すなわち、プロセッサ13bは、交差点の右折時という環境において、停止という対向車の状態(第1の状態)に基づき、移動体1の挙動(第1の挙動)として「少し前進」を決定し、「少し前進」を指示する情報を、通信インタフェース12を介して移動体1に出力する。
上述したように、移動体1による交差点の右折時に、他の移動体4である対向車が停止しているという状況は、移動体1と他の移動体4との間でこう着状態が生じ得る状況の一例である。プロセッサ13bは、こう着状態が生じ得る各種の状況において、他の移動体4が存在するか否かを判定する。プロセッサ13bは、種々の画像認識技術を用いて、周辺映像から他の移動体4の状態、および、交差点の右折時である、といった周辺環境を検出することができる。
ステップS37:プロセッサ13bは、移動体1の挙動(少し前進)に対する対向車の有意な反応を取得したか否かを判定する。例えば、プロセッサ13bは、撮像部11が取得した周辺映像から、対向車の有意な反応を取得したか否かを判定する。
移動体1の挙動(少し前進)に対する対向車の有意な反応を取得することができたと判定した場合(ステップS37:Yes)、プロセッサ13bは、ステップS32の処理に進み、移動体1の全自動運転を継続させる。有意な反応としては、例えば、図5に示す交差点の右折時の例では、対向車が前進を開始する、対向車が移動体1に道を譲るような動作、例えば、パッシングをする、などの反応がある。これらの反応によれば、交差点に進入する意図がある、移動体1に道を譲る意図があるといった、対向車の運転者の意図を検出することができる。対向車の運転者の意図を検出することで、移動体1は、その意図に応じて、全自動運転を継続することができる。
ステップS38:移動体1による第1の挙動(少し前進)後に、撮像部11が取得した周辺映像から検出した対向車の状態に基づき、移動体1の挙動に対する対向車の有意な反応を取得することができないと判定した場合(ステップS37:No)、プロセッサ13bは、移動体1の挙動(第2の挙動)を決定する。移動体1の挙動(少し前進)に対する対向車の有意な反応を取得することができない場合、対向車の運転手が移動体1の挙動に気がついていない、あるいは、交差点に進入する意図がないなどと推定することができる。この場合、プロセッサ13bは、対向車の運転者に移動体1を気付かせる、あるいは、対向車の運転者の意図をより正確に検出するために、対向車の反応を促すような移動体1の第2の挙動を決定する。例えば、プロセッサ13bは、移動体1の第2の挙動として、移動体1のライトを瞬間的に上向き(ハイビーム)で点灯させる「パッシング」を決定する。プロセッサ13bは、「パッシング」を指示する情報を、通信インタフェース12を介して移動体1に出力し、パッシングを実行させる。
このように、プロセッサ13bは、移動体1による第1の挙動(少し前進)後に、撮像部11が取得した周辺映像から検出した他の移動体4の状態に基づき、第1の挙動に対する他の移動体4の有意な反応が得られない場合、移動体1の第2の挙動(パッシング)を決定する。こうすることで、移動体1から他の移動体4に反応を促し、他の移動体4の運転者の意図を画像処理装置10bでより正確に検出できるようになる。その結果、移動体1と他の移動体4との間でこう着状態が発生する蓋然性を低減し、交通の円滑化を図ることができるので、交通の利便性の向上を図ることができる。
ステップS39:プロセッサ13bは、移動体1の挙動(パッシング)に対する対向車の有意な反応を取得したか否かを判定する。
移動体1の挙動(パッシング)に対する対向車の有意な反応を取得することができたと判定した場合(ステップS39:Yes)、プロセッサ13bは、ステップS32の処理に進み、移動体1の全自動運転を継続させる。
ステップS40:移動体1の挙動(パッシング)に対する対向車の有意な反応を取得することができないと判定した場合(ステップS39:No)、プロセッサ13bは、移動体1の全自動運転を解除する。全自動運転の解除により、移動体1の運転者自身が、対向車の様子などから対向車の運転者の意図を認識し、その認識結果に応じて、移動体1を走行させることができる。
図6においては、第2の挙動として、パッシングを行った後、対向車の有意な反応が得られない場合、移動体1の全自動運転を解除する例を用いて説明したが、これに限られるものではない。プロセッサ13bは、パッシングに続いて、クラクション鳴動、ウィンカ点滅などの動作を順次行い、動作毎に、対向車の有意な反応が得られるか否かを判定してもよい。また、プロセッサ13bは、所定回数だけ移動体1の挙動を繰り返しても他の移動体4から有意な反応を取得することができない場合、移動体1の全自動運転を解除するようにしてもよい。
また、図6においては、移動体1の挙動として、「少し前進」、「パッシング」を例として説明したが、これらに限られるものではない。移動体1の挙動としては、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」および「現状維持」などの動作を適宜、選択することができる。また、移動体1の挙動は、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」および「現状維持」などの動作を適宜、組み合わせた挙動であってもよい。また、移動体1が音声出力機能を備える場合には、移動体1の挙動には、音声出力が含まれてもよい。また、移動体1が地面などへの投影機能を備える場合には、移動体1の挙動には、歩道などへのメッセージなどの所定の像の投影が含まれてもよい。
また、図6においては、プロセッサ13bは、「少し前進」、「パッシング」の順に、移動体1の挙動を決定する例を用いて説明したが、これに限られるものではない。プロセッサ13bは、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」、「現状維持」などの複数の動作の中から、所定の優先順位に応じて、移動体1の挙動を決定してもよい。プロセッサ13bは、例えば、周辺環境などに基づく所定の優先順位に応じて、移動体1の挙動を決定してもよい。例えば、プロセッサ13bは、夜間は、「クラクション鳴動」といった騒音となり得る動作の優先順位を低くし、「照明点灯」、「パッシング」および「ウィンカ点滅」などの、騒音を生じさせない動作の優先順位を高く設定してもよい。また、プロセッサ13bは、所定の基準、例えば、他の移動体4の運転者が気付く可能性の高さなどに応じたポイントを、動作毎に付与してもよい。この場合、プロセッサ13bは、例えば、1または複数回、単一の動作による挙動を提示しても他の移動体4の有意な反応を取得することができない場合、単一の動作に付与されたポイントよりも、合計のポイントが高くなる複数の動作の組み合わせを、移動体1の挙動として決定してもよい。
また、図6においては、所定回数だけ移動体1の挙動を繰り返しても他の移動体4から有意な反応を取得することができない場合、移動体1の全自動運転を解除する例を用いて説明したが、これに限られるものではない。プロセッサ13bは、例えば、全自動運転を解除する代わりに、他の移動体4と距離をとって移動体1を徐行しながら走行させてもよい。
また、図4においては、移動体1に搭載された画像処理装置10bにより、周辺映像からの他の移動体4の状態の検出および他の移動体4の状態に応じた移動体1の挙動の決定などを行う例を用いて説明したが、これに限られるものではない。例えば、主にプロセッサ13bが備える、周辺映像からの他の移動体4の状態の検出および他の移動体4の状態に応じた移動体1の挙動の決定など機能を、ネットワーク上のサーバなどが有していてもよい。この場合、移動体1はネットワークを介してサーバと通信可能であり、移動体1からは周辺映像をサーバに送信する。サーバは、移動体1から取得した周辺映像から他の移動体4の検出および他の移動体4の状態に応じた移動体1の挙動の決定を行い、決定した挙動を指示する情報を移動体1に送信する。
次に、プロセッサ13bの動作例についてより具体的に説明する。
プロセッサ13bは、移動体1の進路を予測する。プロセッサ13bは、例えば、撮像部11の撮影映像、および、通信インタフェース12を介した移動体1の走行を制御する制御系の監視結果に基づき、移動体1の進路を予測する。また、プロセッサ13bは、他の移動体4の状態(第1の状態)に基づき、他の移動体4の進路を予測する。そして、プロセッサ13bは、移動体1と他の移動体4との衝突が予測される場合、例えば、他の移動体4の状態(第2の状態)が、前進または現状維持であれば、衝突の予測が解消されるまで、移動体1の挙動(第2の挙動)として、停止または減速を決定する。また、プロセッサ13bは、移動体1と他の移動体4との衝突が予測される場合、例えば、他の移動体4の状態(第2の状態)が、停止、減速および進路変更のいずれかであれば、移動体1の挙動(第2の挙動)として、前進またはパッシングを決定する。こうすることで、移動体1と他の移動体4との衝突を回避することができる。以下では、移動体1の走行時の種々のケースにおけるプロセッサ13bの動作例について、説明する。
まず、移動体1が交差点を右折する際のプロセッサ13bの動作例について、表1を参照して説明する。
Figure 2022064929000002
プロセッサ13bは、移動体1の右折時には、他の移動体4として、移動体1の走行車線の対向車線を走行する対向車の状態を検出する。プロセッサ13bは、対向車が前進している場合には、移動体1の挙動として、「停止」を決定する。そして、プロセッサ13bは、対向車の状態を再度、検出する。対向車が前進している場合には、プロセッサ13は、移動体1を待機させる。すなわち、プロセッサ13bは、移動体1を停止させたままとする。また、対向車が停止した場合には、プロセッサ13bは、移動体1の挙動として、「少し前進」、「パッシング」、「クラクション鳴動」、「ウィンカ点滅」などを決定する。
また、プロセッサ13bは、対向車が停止している場合には、移動体1の挙動として、「少し前進」、「パッシング」、「クラクション鳴動」、「ウィンカ点滅」などを決定する。そして、プロセッサ13bは、対向車の状態を再度、検出し、対向車から有意な反応が得られたか否かを判定する。プロセッサ13bは、対向車から有意な反応が得られたと判定した場合には、移動体1の挙動として、対向車の反応に応じた挙動を決定する。例えば、プロセッサ13bは、対向車の運転者が交差点に進入する意図があると判定した場合には、対向車が通過するまで、移動体1を停止させる。また、例えば、プロセッサ13bは、対向車の運転者が移動体1に道を譲る意図があると判定した場合には、移動体1に交差点を右折させる。
対向車から有意な反応が得られないと判定した場合には、プロセッサ13bは、対向車の運転者の意図を検出可能な対向車の反応を促すために、移動体1の挙動として、「少し前進」、「パッシング」、「クラクション鳴動」、「ウィンカ点滅」などを決定する。そして、プロセッサ13bは、対向車の状態を再度、検出する。このように、プロセッサ13bは、移動体1による交差点の右折時に、対向車線を走行する他の移動体4の状態を検出する。そして、プロセッサ13bは、対向車の状態として、対向車の停止を検出した場合、挙動決定処理を行う。
移動体1の右折時に、対向車が停車している場合、対向車の運転者の意図が必ずしも明確ではなく、移動体1と対向車との間でこう着状態が生じ得る。したがって、挙動決定処理により、移動体1の挙動として、対向車の反応を促す挙動を決定し、対向車の運転者の意図をより正確に検出することで、こう着状態が生じる蓋然性を低減することができる。
次に、移動体1が走行車線から高速道路などの本線に合流する際の、すなわち、移動体1による第1の車線から第2の車線への合流時の動作例について、表2を参照して説明する。
Figure 2022064929000003
プロセッサ13bは、高速道路などの本線への合流時には、他の移動体4として、移動体1よりも後方であって、本線を走行する車両の状態を検出する。以下では、移動体1よりも後方であって、本線を走行する車両を、本線走行車両と称する。プロセッサ13bは、本線走行車両が無い場合には、移動体1の挙動として、「ウィンカ点灯」、「車線変更開始」を決定する。すなわち、プロセッサ13bは、本線走行車両がない場合には、移動体1に本線への合流を開始させる。
本線走行車両が減速している場合、本線走行車両の運転者は、移動体1の本線への合流を促す意図があると推定することができる。そこで、プロセッサ13bは、移動体1の挙動として、「ウィンカ点灯」、「本線側に少しずつ移動」、「加速」を決定する。そして、プロセッサ13bは、本線走行車両の状態を検出し、そのまま本線への合流が可能であれば、移動体1に本線への合流を開始させる。
本線走行車両が加速している場合、本線走行車両の運転者は、移動体1の本線への合流を促してはおらず、そのまま走行を続ける意図があると推定することができる。そこで、プロセッサ13bは、移動体1の挙動として、「ウィンカ点灯」、「本線側に少しずつ移動」、「減速」を決定する。そして、プロセッサ13bは、本線走行車両の状態を検出し、例えば、本線走行車両がそのまま走行を続けていれば、本線への合流は行わず、その本線走行車両の通過後に再び、本線への合流を試みる。
本線走行車両が等速度で走行している場合、すなわち、本線走行車両の車速が所定値以上変化しない等速走行をしている場合、本線走行車両の運転者が、移動体1の本線への合流を促す意図があるのか、移動体1の本線への合流を促してはおらず、そのまま走行を続ける意図があるのか不明である。そこで、プロセッサ13bは、本線走行車両の運転者の意図を検出可能な本線走行車両の反応を促すために、移動体1の挙動として、「ウィンカ点灯」、「本線側に少しずつ移動」、「加速」、「減速」などを決定する。そして、プロセッサ13bは、本線走行車両の状態を再度、検出し、本線走行車両から有意な反応が得られたか否かを判定する。本線走行車両から有意な反応が得られたと判定した場合には、プロセッサ13bは、移動体1の挙動として、本線走行車両の反応に応じた挙動を決定する。例えば、プロセッサ13bは、本線走行車両の運転者が移動体1の本線への合流を促す意図があると判定した場合には、移動体1に変遷への合流を開始させる。また、例えば、プロセッサ13bは、本線走行車両の運転者が移動体1の本線への合流を促してはおらず、そのまま走行を続ける意図があると判定した場合には、その本線走行車両の通過後に再び、本線への合流を試みる。
本線走行車両から有意な反応が得られないと判定した場合には、プロセッサ13bは、移動体1の挙動として、プロセッサ13bは、本線走行車両の運転者の意図を検出可能な対向車の反応を促すための移動体1の挙動を決定する。このように、プロセッサ13bは、移動体1による第1の車線から第2の車線への合流時に、移動体1の後方であって、第2の車線を走行する他の移動体4の状態を検出する。そして、プロセッサ13bは、他の移動体4の状態として、他の移動体4による等速走行を検出した場合、挙動決定処理を行う。
移動体1の走行車線から本線への合流時に、本線走行車両が等速走行している場合、本線走行車の意図が必ずしも明確ではなく、移動体1と本線走行車両との間でこう着状態が生じ得る。したがって、挙動決定処理により、移動体1の挙動として、対向車の反応を促す挙動を決定し、対向車の運転者の意図をより正確に検出することで、こう着状態が生じる蓋然性を低減することができる。
次に、移動体1が交差点あるいはT字路を右折または左折する際の、すなわち、移動体1により、移動体1の走行路から、走行路と交差する交差路への進入時の動作例について、表3を参照して説明する。
Figure 2022064929000004
プロセッサ13bは、移動体1による交差点あるいはT字路の右折または左折時には、他の移動体4の状態として、交差路を走行する車両のうち、移動体1がその車両よりも前方に進入しようとする車両の状態を検出する。以下では、交差路を走行し、移動体1が、その車両よりも前方に進入しようとする車両を、交差路走行車両と称する。
プロセッサ13bは、交差路走行車両が停止した場合、移動体1の挙動として、「少し前進」を決定する。そして、プロセッサ13bは、交差路走行車両の状態を再度、検出する。プロセッサ13bは、交差路走行車両の状態が所定時間以上、変化しない場合、すなわち、交差路走行車両が停止したままである場合、移動体1にその交差路走行車両の前方へ進入させる。プロセッサ13bは、交差路走行車両が前進した場合、移動体1の挙動として、その交差路走行車両の前方への進入を取りやめ、交差路走行車両に前進を促す挙動を決定する。
また、プロセッサ13bは、交差路走行車両が走行しているが、交差路走行車両の前方に移動体1が進入可能な所定以上のスペースがある場合、移動体1の挙動として、「少し前進」を決定する。そして、プロセッサ13bは、交差路走行車両の状態を再度、検出する。プロセッサ13bは、交差路走行車両が停止した場合、および、交差路走行車両が減速し、パッシングを行った場合、交差路走行車両の運転者が移動体1に道を譲る意図があると判定し、移動体1に交差路へ進入させる。また、プロセッサ13bは、交差路走行車両が減速したが、パッシングを行わない場合、移動体1の挙動として、その交差路走行車両の前方への進入を取りやめ、交差路走行車両に前進を促す挙動を決定する。
また、プロセッサ13bは、例えば、移動体1の走行時に、移動体1の走行路上において、移動体1の進行方向に存在する他の移動体4の状態を検出してもよい。この場合、プロセッサ13bは、他の移動体4の停止を検出した場合、挙動決定処理を行ってもよい。こうすることで、例えば、道幅の狭い道路において、移動体1と他の移動体4とがすれ違うような場合に、プロセッサ13bは、他の移動体4の反応から、前進するか、その場で停止するかなど、移動体1の挙動を決定してもよい。
また、プロセッサ13bは、撮像部11が取得した周辺映像から道路反射鏡を検出し、道路反射鏡に映った像に基づき、他の移動体4の状態を検出してもよい。こうすることで、見通しの悪い道路、交差点などにおいても、他の移動体4の状態を検出することができる。
このように本実施形態においては、画像処理装置10bは、通信インタフェース12と、プロセッサ13bとを備える。プロセッサ13bは、移動体1の周辺を撮像した周辺映像から他の移動体4の像を検出し、検出した他の移動体4の状態に基づき、移動体1の挙動を決定する挙動決定処理を行う。通信インタフェース12は、プロセッサ13bにより決定された移動体1の挙動を指示する情報を移動体1に出力する。プロセッサ13bは、挙動決定処理として、周辺映像から検出した他の移動体4の第1の状態に基づき、移動体1の第1の挙動を決定し、決定した第1の挙動を指示する情報を通信インタフェース12を介して移動体1に出力する。プロセッサ13bは、移動体1による第1の挙動後の周辺映像から検出した他の移動体4の第2の状態に基づき、第1の挙動に対する他の移動体4の有意な反応が得られない場合、移動体1の第2の挙動を決定する。
移動体1の第1の挙動に対する他の移動体4の有意な反応が得られない場合に、第2の挙動を移動体1に行わせることで、他の移動体4の反応を促し、他の移動体4の運転者の意図をより正確に検出することができるようになる。その結果、移動体1と他の移動体4との間でこう着状態が発生する蓋然性を低減し、交通の円滑化が図られるので、移動体1による交通の利便性の向上を図ることができる。
(第3の実施形態)
図7は、本開示の第3の実施形態に係る画像処理装置10cの要部構成例を示す図である。本実施形態に係る画像処理装置10cは、図7に示すように、バス、タクシーなどの旅客を運搬する移動体1に搭載される。ここで、移動体1は、自動運転機能を備える。画像処理装置10cは、移動体1の周辺の周辺映像から移動体1への搭乗候補者の状態を検出し、検出した搭乗候補者の状態に応じて、移動体1に実行させる挙動を決定するものである。
図1に示す画像処理装置10cは、出力部としての通信インタフェース12と、プロセッサ13cと、記憶部14とを備える。すなわち、本実施形態に係る画像処理装置10cは、第1の実施形態に係る画像処理装置10aと比較して、プロセッサ13aをプロセッサ13cに変更した点が異なる。移動体1には、移動体1の周辺を撮像した周辺映像を取得する、入力部としての撮像部11が搭載されている。画像処理装置10cと、撮像部11とは、移動体1に搭載された撮像装置1Aを構成する。
プロセッサ13cは、例えば、DSPなどの専用のプロセッサ、または、CPUなどの汎用プロセッサを含む。プロセッサ13cは、画像処理装置10c全体の動作を制御する。例えば、プロセッサ13cは、撮像部11が取得した周辺映像から移動体1への搭乗候補者の像を検出し、検出した搭乗候補者の状態に基づき、移動体1の挙動を決定する。プロセッサ13cは、搭乗候補者の動きの方向、搭乗候補者の顔または視線の方向、および、搭乗候補者の手または足の動きのうち、少なくとも1つに基づき、搭乗候補者の状態を検出する。
また、プロセッサ13cは、通信インタフェース12を介して移動体1の各種制御系にアクセスし、移動体1の挙動を検出する。プロセッサ13cは、移動体1の挙動として、前進、後退、停止、減速、進路変更、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動、外部表示および現状維持などを検出する。プロセッサ13cは、例えば、移動体1の走行を制御する制御系にアクセスし、前進、後退、停止、減速および進路変更などの挙動を検出する。また、プロセッサ13cは、移動体1のライトおよびウィンカの点滅、クラクションの鳴動などを制御する制御系にアクセスし、照明点灯、パッシング、ウィンカ点滅、クラクション鳴動および外部表示などの挙動を検出する。
プロセッサ13cは、撮像部11が取得した周辺映像から移動体1への搭乗候補者の像を検出し、検出した搭乗候補者の状態に基づき、移動体1の第1の挙動を決定する。プロセッサ13cは、決定した第1の挙動を指示する情報を通信インタフェース12を介して移動体1の制御系に出力する。プロセッサ13cは、移動体1による第1の挙動後に、撮像部11が取得した周辺映像から検出した搭乗候補者の状態に基づき、移動体1の第2の挙動を決定する。
次に、画像処理装置10cの動作について説明する。
旅客を運搬する移動体1に全自動運転機能が搭載された場合、移動体1は、停留所に立つ人、移動体1の走行路の道端に立つ人などを搭乗候補者として認識し、搭乗候補者が乗車できるように停止することが考えられる。しかしながら、このような搭乗候補者が必ずしも移動体1に搭乗するとは限らない。この場合、移動体1は、停留所に立つ人、移動体1の走行路の道端に立つ人などを搭乗候補者として認識し続け、停止したままとなる可能性がある。このようにして、移動体1と、搭乗候補者との間でこう着状態が生じ、円滑な交通が妨げられる可能性がある。
一方、本実施形態においては、画像処理装置10cは、上述したようなこう着状態が発生し得る状況において、移動体1による第1の挙動後に、搭乗候補者に対してさらなるアクションを行うことで、搭乗候補者のリアクションを取得して、搭乗候補者の意図をより正確に検出する。すなわち、本実施形態においては、移動体1と搭乗候補者とがあたかも会話を行うにようにして、搭乗候補者の意図が検出される。こうすることで、こう着状態が発生する蓋然性が低減され、交通の円滑化が図られるので、移動体1による交通の利便性の向上を図ることができる。
図8は、画像処理装置10cの動作の一例を示すフローチャートであ、画像処理装置10cが実行する画像処理方法について説明するための図である。図8においては、移動体1がタクシーである場合を例として説明する。
ステップS51:プロセッサ13cは、移動体1の走行中、撮像部11が取得した周辺映像から、搭乗候補者の有無を判定する。ここで、プロセッサ13cは、例えば、移動体1の走行路の道端に立つ人を搭乗候補者として検出する。
ステップS52:搭乗候補者がいないと判定した場合には(ステップS51:No)、プロセッサ13cは、移動体1をそのまま前進させる。すなわち、プロセッサ13cは、移動体1の走行を継続させる。
ステップS53:搭乗候補者がいると判定した場合には(ステップS51:Yes)、プロセッサ13cは、撮像部11が取得した周辺映像から搭乗候補者のジェスチャ認識を行う。
ステップS54:プロセッサ13cは、搭乗候補者のジェスチャ認識の結果から、搭乗候補者が、タクシーに乗車するための乗車行動を行ったか否かを判定する。タクシーに乗車するための乗車行動としては、例えば、搭乗候補者が、手を上げるといった行動、移動体1に視線を向けているといった行動などがある。ただし、搭乗候補者が、これらの行動を行ったとしても、必ずしも移動体1に乗車する意図があるとは限らない。
ステップS55:搭乗候補者が乗車行動を行ったと判定した場合には(ステップS54:Yes)、プロセッサ13cは、移動体1の第1の挙動として、例えば、「減速」、「パッシング」、「クラクション鳴動」または「ウィンカ点滅」などを決定する。そして、プロセッサ13cは、決定した挙動を指示する情報を、通信インタフェース12を介して移動体1に出力する。
ステップS56:プロセッサ13cは、ステップS55で決定した、移動体1による第1の挙動後に撮像部11が取得した周辺映像から、搭乗候補者が自車両、すなわち、移動体1に近づいてきたか否かを判定する。乗車行動を行った搭乗者候補が移動体1に近づいてくる場合には、搭乗者候補が移動体1に乗車する意図がある可能性が高い。したがって、第1の挙動後に、搭乗候補者が移動体1に近づいてきたか否かを判定することにより、乗車行動の有無だけにより判定する場合と比べて、より高精度に、搭乗候補者の移動体1への乗車の意図の有無を検出することができる。
搭乗候補者が移動体1に近づいてきていないと判定した場合には(ステップS56:No)、プロセッサ13cは、搭乗候補者が移動体1に乗車する意図は無いと判定し、ステップS52の処理に進んで、移動体1をそのまま前進させる。プロセッサ13cは、搭乗候補者が移動体1に近づいてきていないと判定した場合、ステップS55の処理に戻り、別の挙動を移動体1に行わせて、再び、搭乗候補者が移動体1に近づいてきたか否かを判定するようにしてもよい。この場合、プロセッサ13cは、移動体1の挙動と、搭乗候補者が移動体1に近づいてきたか否かの判定とを複数回繰り返しても依然として、搭乗候補者が移動体1に近づいてきていないと判定した場合、ステップS52の処理に進んでもよい。
移動体1の挙動と、搭乗候補者が移動体1に近づいてきたか否かの判定とを複数回繰り返す場合、プロセッサ13cは、「前進」、「後退」、「停止」、「減速」、「進路変更」、「照明点灯」、「パッシング」、「ウィンカ点滅」、「クラクション鳴動」、「外部表示」および「現状維持」などの複数の動作の中から、所定の優先順位に応じて、移動体1の挙動を決定してもよい。また、移動体1が音声出力機能を備える場合には、移動体1の挙動には、音声出力が含まれてもよい。また、移動体1が地面などへの投影機能を備える場合には、移動体1の挙動には、歩道などへのメッセージなどの所定の像の投影が含まれてもよい。
また、プロセッサ13cは、例えば、周辺環境などに基づく所定の優先順位に応じて、移動体1の挙動を決定してもよい。例えば、プロセッサ13cは、夜間は、「クラクション鳴動」といった騒音となり得る動作の優先順位を低くし、「照明点灯」、「パッシング」および「ウィンカ点滅」などの、騒音を生じさせない動作の優先順位を高く設定してもよい。また、プロセッサ13cは、搭乗候補者が気付く可能性などに応じたポイントを各動作に付与してもよい。この場合、プロセッサ13cは、例えば、1または複数回、単一の動作による挙動を搭乗候補者に提示しても有意な反応が得られなければ、単一の動作に付与されたポイントよりも、合計のポイントが高くなる複数の動作の組み合わせを、移動体1の挙動として決定してもよい。
搭乗候補者が移動体1に近づいてきたと判定した場合には(ステップS56:Yes)、プロセッサ13cは、搭乗候補者が移動体1に乗車する意図があると判定する。
ステップS57:プロセッサ13cは、搭乗候補者が移動体1に乗車する意図があると判定すると、搭乗候補者を乗車させるために、移動体1の挙動として、「停止」を決定する。そして、プロセッサ13cは、「停止」を指示する情報を、通信インタフェース12を介して移動体1に出力する。
このように、プロセッサ13cは、周辺映像から検出した搭乗候補者の状態、例えば、乗車行動を行っている状態に基づき、移動体1の第1の挙動として、「減速」、「パッシング」、「クラクション鳴動」および「ウィンカ点滅」などの挙動を決定する。プロセッサ13cは、決定した第1の挙動を指示する情報を、通信インタフェース12を介して移動体1に出力する。そして、プロセッサ13cは、移動体1による第1の挙動後に、撮像部11が取得した周辺映像から検出した搭乗候補者の状態、すなわち、搭乗候補者が移動体1に近づいてきたか否かにより、停止あるいは走行継続という、移動体1の第2の挙動を決定する。
ステップS58:プロセッサ13cは、移動体1の停止後、搭乗候補者が移動体1に乗車できるように、移動体1のドアを開放させる。
ステップS59:プロセッサ13cは、ドアの開放後、搭乗候補者の移動体1への乗車が完了したか否かを判定する。
搭乗候補者の移動体1への乗車が完了していないと判定した場合には(ステップS59:No)、プロセッサ13cは、ステップS59の処理を繰り返す。
ステップS60:搭乗候補者の移動体1への乗車が完了したと判定した場合には(ステップS59:Yes)、プロセッサ13cは、移動体1のドアを閉止させる。
ステップS61:プロセッサ13cは、移動体1のドアの閉止後、移動体1の発車を周囲に示すために、移動体1のウィンカを点滅させる。その後、プロセッサ13cは、ステップS52の処理に進み、移動体1を前進させる。
ステップS62:搭乗候補者が乗車行動を行っていないと判定した場合には(ステップS54:No)、プロセッサ13cは、周辺映像に基づき、搭乗候補者までの距離が所定距離以上であるか否かを判定する。ここで、所定距離とは、移動体1が安全に停止することができる距離である。
搭乗候補者までの距離が所定距離以上であると判定した場合には(ステップS62:Yes)、プロセッサ13cは、ステップS53の処理に戻る。ステップS54において、搭乗候補者がタクシーに乗車するための乗車行動を行っていないと判定された後に、搭乗候補者が、乗車行動を行うこともある。そこで、移動体1と搭乗候補者との距離が所定距離以上である場合は、ステップS53およびステップS54の処理を繰り返すことで、搭乗候補者の乗車の意図を繰り返し確認することができる。
搭乗候補者までの距離が所定距離以上でないと判定した場合には(ステップS62:No)、プロセッサ13cは、ステップS52の処理に進む。
表4は、上述した動作をまとめたものである。
Figure 2022064929000005
表4に示すように、プロセッサ13cは、移動体1の走行路の道端などにいる搭乗候補者の状態として、手を挙げている、視線が移動体1を向いているなどの状態を検出すると、移動体1の挙動として、「減速」、「パッシング」、「クラクション鳴動」あるいは「ウィンカ点滅」を決定する。そして、プロセッサ13cは、移動体1による決定した挙動後に、搭乗候補者の状態として、移動体1に近づいてきたことを検出すると、移動体1の挙動として、搭乗候補者を乗車させるために、「停止」、「ドア開放」を決定する。また、プロセッサ13cは、搭乗候補者の状態として、移動体1に近づいてこないことを検出すると、移動体1の挙動として、「前進」を決定する。また、プロセッサ13cは、第1の挙動後に、移動体1を停車させ、その後、搭乗候補者が自車両、すなわち、移動体1に近づいてきたか否かを判定するようにしてもよい。
図8においては、搭乗候補者が乗車行動を行ったと判定した場合、ステップS55において、移動体1の第1の挙動として、「減速」、「パッシング」、「クラクション鳴動」および「ウィンカ点滅」などを決定する例を用いて説明したが、これに限られるものではない。プロセッサ13cは、例えば、ステップS55において、移動体1の第1の挙動として、移動体1を停止させる「停止」を決定してもよい。この場合、プロセッサ13cは、ステップS56において、搭乗候補者が移動体1に近づいてきたと判定した場合、ステップS58以降の処理に進む。また、プロセッサ13cは、ステップS56において、搭乗候補者が自車両に近づいてきていないと判定した場合には、ドアの閉止、ウィンカ点滅の後、移動体1を前進させる。
次に、移動体1がバスである場合の、プロセッサ13cの動作の一例について、表5を参照して説明する。
Figure 2022064929000006
プロセッサ13cは、停留所の付近に存在する人を搭乗候補者として検出する。プロセッサ13cは、搭乗候補者の状態として、停留所付近に立ち止っている、停留所に向かって走っているなどの状態を検出すると、移動体1の挙動として、例えば、「ウィンカ点滅」を決定する。そして、プロセッサ13cは、移動体1によるウィンカ点滅後に撮像部11が取得した周辺映像から、搭乗候補者の状態として、移動体1に近づいてきた、視線を移動体1に向けている、移動体1に向かって手を挙げているなどの状態を検出すると、搭乗候補者が移動体1に乗車する意図があると判定する。そして、プロセッサ13cは、移動体1の挙動として、搭乗候補者を乗車させるために、「停止」、「ドア開放」を決定する。また、プロセッサ13cは、移動体1によるウィンカ点滅後に撮像部11が取得した周辺映像から、搭乗候補者の状態として、移動体1に近づいてこないことを検出すると、移動体1の挙動として、「前進」を決定する。
搭乗候補者の状態が、停留所付近に立ち止っている、あるいは、停留所に向かって走っている状態であっても、その搭乗候補者が移動体1に乗車するとは限らない。そこで、プロセッサ13cは、第1の挙動として、移動体1のウィンカを点滅させ、その第1の挙動に対して、搭乗候補者が、移動体1に近づいてきた、視線を移動体1に向けた、移動体1に対して手を挙げたなどの反応を示した場合、搭乗候補者が移動体1に乗車する意図があると判定する。
これまでは、プロセッサ13cが搭乗候補者の状態を検出し、検出した搭乗候補者の状態に基づき、移動体1の挙動を決定する例を用いて説明したが、これに限られるものではない。プロセッサ13cは、撮像部11が取得した周辺画像から、移動体1から降車した乗客の状態を検出し、検出した状態に基づき、移動体1の挙動を決定してもよい。例えば、プロセッサ13cは、移動体1から乗客の降車が完了し、移動体1から十分に離れたことなどを検出した後に、移動体1を発車させるなどしてもよい。こうすることで、乗降の際の安全性の確保を図ることができる。
このように本実施形態においては、画像処理装置10cは、通信インタフェース12と、プロセッサ13cとを備える。プロセッサ13cは、旅客の運搬を行う移動体1の周辺を撮像した周辺映像から移動体1への搭乗候補者の像を検出し、検出した搭乗候補者の状態に基づき、移動体1の挙動を決定する。通信インタフェース12は、プロセッサ13cにより決定された移動体1の挙動を指示する情報を移動体1に出力する。プロセッサ13cは、周辺映像から検出した搭乗候補者の状態に基づき、移動体1の第1の挙動を決定し、決定した移動体1の第1の挙動を指示する情報を通信インタフェース12を介して移動体1に出力する。プロセッサ13cは、移動体1による第1の挙動後の周辺映像から検出した搭乗候補者の状態に基づき、移動体1の第2の挙動を決定する。
移動体1による第1の挙動後の搭乗候補者の状態に基づき、移動体1の第2の挙動を決定することで、搭乗候補者の移動体1への乗車の意図の有無をより正確に検出することができるようになる。その結果、移動体1と搭乗候補者との間でこう着状態が発生する蓋然性を低減し、交通の円滑化が図られるので、移動体1による交通の利便性の向上を図ることができる。
本開示の一実施形態を諸図面および実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。従って、これらの変形および修正は本開示の範囲に含まれることに留意されたい。
1 移動体
1A 撮像装置
2 横断歩道
3 歩行者
4 他の移動体
10a,10b,10c 画像処理装置
11 撮像部(入力部)
12 通信インタフェース(出力部)
13a,13b,13c プロセッサ
14 記憶部

Claims (6)

  1. 移動体の周辺を撮像した周辺映像に含まれる対象物の状態に基づき、前記移動体の挙動を決定するプロセッサを有する画像処理装置であって、
    前記プロセッサは、前記周辺映像から検出した対象物の状態に基づき決定した前記移動体の第1の挙動に対する前記対象物の反応に基づき、前記移動体の挙動を決定する、
    画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記プロセッサは、前記対象物から有意な反応が得られない場合に、前記対象物の反応を促す前記移動体の挙動である第2の挙動を決定する、
    画像処理装置。
  3. 請求項2に記載の画像処理装置であって、
    前記プロセッサは、前記対象物の反応に基づき前記対象物の意図を検出し、当該意図に応じた前記移動体の挙動を決定する、
    画像処理装置。
  4. 請求項2又は請求項3に記載の画像処理装置であって、
    自動運転機能を備える移動体に、前記プロセッサが決定した挙動を出力する出力部を有する、
    画像処理装置。
  5. 請求項4に記載の画像処理装置であって、
    前記プロセッサは、前記第2の挙動に対する前記対象物の前記有意な反応が得られない場合に、前記移動体に自動運転を解除させる、
    画像処理装置。
  6. 請求項1に記載の画像処理装置が決定した挙動に応じた動作を行う、移動体。
JP2022007449A 2018-01-29 2022-01-20 画像処理装置および移動体 Pending JP2022064929A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023060389A JP7489517B2 (ja) 2018-01-29 2023-04-03 画像処理装置、移動体、プログラムおよび画像処理方法

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2018012872 2018-01-29
JP2018012877 2018-01-29
JP2018012877 2018-01-29
JP2018012902 2018-01-29
JP2018012902 2018-01-29
JP2018012872 2018-01-29
PCT/JP2019/000076 WO2019146385A1 (ja) 2018-01-29 2019-01-07 画像処理装置、撮像装置、移動体および画像処理方法
JP2019567951A JP7014822B2 (ja) 2018-01-29 2019-01-07 画像処理装置、撮像装置、移動体および画像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019567951A Division JP7014822B2 (ja) 2018-01-29 2019-01-07 画像処理装置、撮像装置、移動体および画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023060389A Division JP7489517B2 (ja) 2018-01-29 2023-04-03 画像処理装置、移動体、プログラムおよび画像処理方法

Publications (1)

Publication Number Publication Date
JP2022064929A true JP2022064929A (ja) 2022-04-26

Family

ID=67395920

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019567951A Active JP7014822B2 (ja) 2018-01-29 2019-01-07 画像処理装置、撮像装置、移動体および画像処理方法
JP2022007449A Pending JP2022064929A (ja) 2018-01-29 2022-01-20 画像処理装置および移動体
JP2023060389A Active JP7489517B2 (ja) 2018-01-29 2023-04-03 画像処理装置、移動体、プログラムおよび画像処理方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019567951A Active JP7014822B2 (ja) 2018-01-29 2019-01-07 画像処理装置、撮像装置、移動体および画像処理方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023060389A Active JP7489517B2 (ja) 2018-01-29 2023-04-03 画像処理装置、移動体、プログラムおよび画像処理方法

Country Status (5)

Country Link
US (1) US20200342757A1 (ja)
EP (1) EP3748605A4 (ja)
JP (3) JP7014822B2 (ja)
CN (2) CN116342641A (ja)
WO (1) WO2019146385A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7326041B2 (ja) * 2019-06-25 2023-08-15 京セラ株式会社 画像処理装置、撮像装置、移動体、および画像処理方法
JP7345123B2 (ja) * 2019-08-26 2023-09-15 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム
JP7313465B2 (ja) * 2019-10-29 2023-07-24 三菱電機株式会社 運転支援装置および運転支援方法
JP7145178B2 (ja) * 2020-02-21 2022-09-30 本田技研工業株式会社 走行制御装置、走行制御方法およびプログラム
US11290856B2 (en) 2020-03-31 2022-03-29 Toyota Motor North America, Inc. Establishing connections in transports
CN115384545A (zh) * 2021-05-25 2022-11-25 华为技术有限公司 控制方法和装置
EP4201744A1 (de) * 2021-12-22 2023-06-28 Volkswagen Aktiengesellschaft Verfahren und system zur regelung der lichtemission einer fahrzeugleuchte

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014111023A1 (de) * 2014-08-04 2016-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Steuern eines automatisierten Fahrzeuges
JP2016031660A (ja) * 2014-07-29 2016-03-07 クラリオン株式会社 車両制御装置
US20170240098A1 (en) * 2016-02-22 2017-08-24 Uber Technologies, Inc. Lighting device for a vehicle

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57106099U (ja) * 1980-05-15 1982-06-30
JPS57174800A (en) * 1981-04-22 1982-10-27 Takeshi Irisawa Getting-on signal
JP2005332297A (ja) * 2004-05-21 2005-12-02 Fujitsu Ten Ltd 運転者意志通知装置
DE112005003266T5 (de) * 2004-12-28 2008-09-04 Kabushiki Kaisha Toyota Chuo Kenkyusho Fahrzeugbewegungssteuerungsvorrichtung
JP3132300U (ja) 2007-03-08 2007-06-07 株式会社イー・エス・ピー 警報発生装置及び音声発生装置
JP2008243065A (ja) 2007-03-28 2008-10-09 Fujitsu Ten Ltd 運転支援装置および運転支援方法
EP2119617A1 (en) * 2008-05-12 2009-11-18 IVECO S.p.A. Vehicle driving aid system for lane changing assistance
JP5012684B2 (ja) 2008-06-20 2012-08-29 トヨタ自動車株式会社 走路環境データベース生成システム、当該システムを構成する移動体、および走路環境データベース生成方法
JP2010066810A (ja) 2008-09-08 2010-03-25 Mazda Motor Corp 車両用歩行者検出装置
JP2010072836A (ja) 2008-09-17 2010-04-02 Toyota Motor Corp 周辺監視装置
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
CN101992782A (zh) * 2010-12-02 2011-03-30 张婧 城市无人驾驶电动有轨出租车交通系统
US20130325563A1 (en) * 2012-06-01 2013-12-05 Tai Cheung Poon Systems and methods for maximizing profits and opportunities for taxi drivers
JP2014106854A (ja) * 2012-11-29 2014-06-09 Toyota Infotechnology Center Co Ltd 自動運転車両制御装置および方法
US9475422B2 (en) * 2014-05-22 2016-10-25 Applied Invention, Llc Communication between autonomous vehicle and external observers
KR102036050B1 (ko) * 2014-12-30 2019-10-24 주식회사 만도 차선 변경 장치 및 방법
JP6361618B2 (ja) * 2015-09-15 2018-07-25 トヨタ自動車株式会社 運転支援装置
CN105629785A (zh) * 2015-12-30 2016-06-01 小米科技有限责任公司 智能汽车行驶控制方法及装置
US10479373B2 (en) * 2016-01-06 2019-11-19 GM Global Technology Operations LLC Determining driver intention at traffic intersections for automotive crash avoidance
JP2019059245A (ja) * 2016-02-05 2019-04-18 マクセル株式会社 ヘッドアップディスプレイ装置及びその表示制御方法
US10077052B2 (en) * 2016-03-31 2018-09-18 Faraday&Future Inc. State-based operation for autonomous vehicles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016031660A (ja) * 2014-07-29 2016-03-07 クラリオン株式会社 車両制御装置
DE102014111023A1 (de) * 2014-08-04 2016-02-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Steuern eines automatisierten Fahrzeuges
US20170240098A1 (en) * 2016-02-22 2017-08-24 Uber Technologies, Inc. Lighting device for a vehicle

Also Published As

Publication number Publication date
JP2023082158A (ja) 2023-06-13
WO2019146385A1 (ja) 2019-08-01
JP7489517B2 (ja) 2024-05-23
EP3748605A4 (en) 2021-10-20
JPWO2019146385A1 (ja) 2021-01-28
EP3748605A1 (en) 2020-12-09
CN116342641A (zh) 2023-06-27
JP7014822B2 (ja) 2022-02-01
CN111527533A (zh) 2020-08-11
US20200342757A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7014822B2 (ja) 画像処理装置、撮像装置、移動体および画像処理方法
CN110281930B (zh) 车辆控制装置、车辆、车辆控制方法以及存储介质
US11142192B2 (en) Imaging device, signal processing device, and vehicle control system
US9493163B2 (en) Driving support apparatus for vehicle
JP2003063273A (ja) 車両走行制御装置
CN113246993B (zh) 驾驶支援系统
JP7100998B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11302194B2 (en) Management device, management method, and storage medium
US10793163B2 (en) Vehicle system, vehicle control method, and vehicle control program
CN111278702A (zh) 车辆控制装置、具有该车辆控制装置的车辆以及控制方法
US20190065838A1 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
CN111587206B (zh) 车辆控制装置、具有该车辆控制装置的车辆以及控制方法
JP2016218873A (ja) 車両用歩行者画像取得装置
JP7474136B2 (ja) 制御装置、制御方法、およびプログラム
JP2020194209A (ja) 制御装置、乗降施設、制御方法、およびプログラム
JP6913602B2 (ja) 情報処理装置およびプログラム
CN110281925B (zh) 行驶控制装置、车辆以及行驶控制方法
CN113165575B (zh) 图像处理装置、拍摄装置、移动体、以及图像处理方法
CN114194186A (zh) 车辆行驶控制装置
JP7123840B2 (ja) 車両制御装置、監視システム、車両制御方法、およびプログラム
WO2019187626A1 (ja) 画像処理装置、撮像装置、および移動体
CN115179863A (zh) 移动体的控制装置及控制方法、存储介质以及车辆
JP7511727B2 (ja) 画像処理装置、撮像装置、移動体、および画像処理方法
WO2020261898A1 (ja) 画像処理装置、撮像装置、移動体、および画像処理方法
JP6888851B1 (ja) 自動運転車

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230117